SAFE CREATIVE · CREATORS

Noticias

Scarlett Johansson reaviva el debate sobre la clonación de voz

El 14 de este mes OpenAI anunciaba ChatGPT-4o, que permite conversar con el modelo a la vez que se comparte con éste audio y vídeo. Las demostraciones que acompañaron al lanzamiento impresionaron sobre todo por la velocidad de respuesta y por la personalidad y expresividad de las voces. El modelo parece dudar antes de dar alguna respuesta, ríe, bromea, canta y usa sarcasmo.

Existen varias voces disponibles. Una de ellas, llamada Sky, ha recordado a millones de personas a Scarlett Johansson, sobre todo a su actuación en la película Her.

Scarlett Johansson se negó en su momento a dar voz a ChatGPT

La actriz publicaba ayer las siguientes declaraciones al respecto:

«El septiembre pasado recibí una oferta de Sam Altman, que quería contratarme para que pusiera voz al sistema actual de ChatGPT 4.0. Dijo que creía que si yo le diera voz al sistema, eso podría servir de puente entre las tecnológicas y los creativos, y ayudar a los consumidores a sentirse cómodos con el cambio radical en lo que concierne a humanos e IA. Dijo que sentía que mi voz resultaría reconfortante para la gente.

Tras considerarlo mucho y por motivos personales, decliné la oferta.

Nueve meses después, mis amigos, familiares y el público general observaron cuánto el último sistema llamado «Sky» sonaba como yo.

Cuando oí la demo me sorprendió, me enfureció y me pareció increíble que el señor Altman buscase conseguir una voz tan sospechosamente parecida a la mía que ni mis amigos más cercanos ni los medios de comunicación pudieran notar la diferencia. El señor Altman incluso insinuó que la similitud es a propósito, al tuitear la palabra «her», una referencia a la película en la que di voz a un sistema de chat, Samantha, que forma una relación íntima con un humano.

Dos días antes de que la demo de ChatGPT 4.0 se publicase, el señor Altman contactó con mi agente, pidiéndole que reconsiderase. Antes de que pudiéramos conectar, el sistema ya se había lanzado.

Como resultado de sus acciones, me he visto obligada a contratar un abogado, que ha escrito dos cartas al señor Altman y a OpenAI, exponiendo lo que han hecho y pidiéndoles que detallen el proceso exacto con el que han creado a ‘Sky’. Como consecuencia, OpenAI aceptó a regañadientes retirar la voz ‘Sky’.

En un momento en el que todos tenemos que hacer frente a los deepfakes y proteger nuestra propia imagen, nuestro trabajo y nuestra identidad, creo que estas cuestiones merecen una claridad absoluta. Espero una resolución en forma de transparencia y la aprobación de una legislación adecuada que ayude a garantizar la protección de los derechos individuales.»

OpenAI retira a Sky y niega haber usado la voz de la actriz

Según la compañía, «la voz de Sky no es una imitación de Scarlett Johansson, sino que pertenece a otra actriz profesional». También afirman que la similitud con la actriz de Her no es impostada, sino que se trata de la voz normal de la profesional contratada. La identidad de esta segunda actriz y los que han dado voz al resto de opciones disponibles en ChatGPT es confidencial, por lo que no pueden divulgarla. Declaran que estos actores reciben pagos por encima de las tasas más altas del mercado, y que seguirá siendo así mientras sus voces sean parte del producto.

Dado el revuelo tras la demo y las preguntas en torno a cómo se han elegido las voces, OpenAI ha retirado Sky por el momento, hasta aclarar estas dudas.

Más actores sorprendidos por el uso de sus voces en otras herramientas de IA

Aunque éste sea el suceso reciente más sonado de este tipo, no se trata ni mucho menos de un caso aislado. Por un lado, los cantantes también se enfrentan al impacto de los deepfakes, con algunos ejemplos virales como el de Bad Bunny. Por otro, en el mundo del doblaje, los actores se están encontrando cada vez más con contratos en los que se les pide que cedan sus derechos, para que los clientes generen versiones sintéticas de sus voces. Éstas se llegan a usar para reemplazarles sin compensación adicional.

Según Tim Friendlander, presidente de la Asociación Nacional de Actores de Doblaje (NAVA), el lenguaje de estos contratos puede ser «confuso y ambiguo».

Hace poco el New York Times informaba sobre el caso de Paul Skye Lehrman y Linnea Sage, dos actores de doblaje profesionales cuyas voces fueron utilizadas por LOVO Inc. sin su consentimiento para entrenar IA. Descubrieron este uso no autorizado por casualidad al escuchar un podcast, en el que apareció un chatbot con la voz de Lehrman.

Han presentado una demanda contra la empresa, en la que incluyen una captura de pantalla donde LOVO anuncia el servicio de «clonar cualquier voz y crear contenido de voz personalizado y de alta calidad». Entre los ejemplos aparecen las voces de Barack Obama (bajo el nombre «Barack Yo Mama») o Ariana Grande («Ariana Venti»).

Regulación y legislación sobre deepfakes

Las implicaciones para el trabajo de actores y cantantes son claras, pero también les preocupa su reputación. Sarah Elmaleh (Fortnite, Halo Infinite) habla desde la experiencia y resalta la importancia de que exista un consentimiento continuo durante las grabaciones. Si un actor no se siente cómodo con una línea del guión, normalmente puede poner objeciones o negarse a que se use esa línea.

Ya se han dado casos en los que voces, más y menos conocidas, se clonan con fines satíricos o para dañar reputaciones. En 4chan se han compartido por ejemplo clips como la voz de Emma Watson leyendo una sección de Mein Kampf, o Ben Shapiro haciendo comentarios racistas sobre Alexandria Ocasio-Cortez. En Maryland, un entrenador de fútbol fue arrestado tras intentar desprestigiar a un compañero con audio generado por IA. Divulgó un clip falso en el que el director del instituto donde ambos trabajaban hacía comentarios racistas y antisemíticos, llevando a su suspensión temporal.

Los afectados por el momento pueden optar por tomar acciones legales y, en cualquier caso, por informar a sus allegados o fans de que, si su voz aparece en un contexto extraño, probablemente no se trate de ellos. Las voces no pueden protegerse por derechos de autor, pero sí pueden recibir otro tipo de protecciones según la legislación de cada país. La legislación específica sobre los deepfakes está avanzando, con medidas como el DEEPFAKES Accountability Act en EE.UU. y el AI Act en la Unión Europea.

Fuentes: @Yashar Ali (X), OpenAI, NYTimes, PRNeswire, Vice, NBCNews

Marta Palacio
Marta Palacio
Editora y colaboradora en TIPS. Graduada en Historia del Arte, enfocada ahora en la intersección entre la creatividad humana, la realidad digital global y la inteligencia artificial. Defensora de los derechos de autor y de las obras derivadas en diversas charlas dentro de la Unión Europea.

Compartir

Artículos relacionados