SAFE CREATIVE · CREATORS

Noticias

Audiencia sobre el impacto de la IA generativa en California

Este 28 de mayo, la Asamblea del Estado de California escuchó las preocupaciones y propuestas de expertos en IA y de la industria del entretenimiento. Los temas destacados fueron la propiedad intelectual, los derechos morales y de imagen, la IA generativa y los deepfakes.

Durante la audiencia se abordaron algunas de las cuestiones más apremiantes y difíciles a las que se enfrenta el sector. También se destacaron ejemplos de posibles usos beneficiosos de herramientas de inteligencia artificial (IA) en la industria, diferenciando entre IA e IA generativa. Pese al potencial de ciertos usos de machine learning para aumentar la creatividad humana y abrir nuevas posibilidades artísticas y de marketing, se necesita regular en muchos otros casos para defender los derechos de los autores.

Entre las propuestas de los ponentes, destacan:

  1. Salvaguardar los derechos ligados a la identidad y el legado de las personas ante los deepfakes, tanto en vida como de forma póstuma.
  2. Ampliar la definición de deepfake de forma que proteja también de las falsificaciones, entendiendo como tales obras generadas por IA que imitan el estilo de un artista particular. Para muchos artistas, su estilo es su identidad y medio de vida.
  3. Transparencia contractual para actores y otros profesionales que se están viendo engañados u obligados a vender los derechos de los que dependen sus ingresos y carreras.
  4. Incentivar la contratación de personas por encima del uso de software.
  5. Que sea necesario consentimiento explícito para usar obras protegidas en el entrenamiento de modelos de IA generativa, y compensar adecuadamente a los titulares de derechos de estas obras.

Industria y artistas se encuentran alineados. Consideran que el avance de la tecnología debe hacerse de la mano de los artistas, no a su costa.

La IA como herramienta para potenciar o facilitar el trabajo de los artistas

Casi todos los ponentes ofrecieron ejemplos de cómo la IA puede potenciar la creatividad humana, si bien la mayoría de los ejemplos fueron de modelos de machine learning distintos de la IA generativa.

Se mencionaron casos dentro del mundo de la animación, como Into the Spider-Verse y Klaus. En el primer caso, los animadores usaron machine learning para que trazos dibujados a mano siguieran el movimiento de los personajes en 3D. Klaus, por su parte, usó otros modelos para ayudar a animar luces y sombras. Estos usos de software no son controvertidos dentro de la industria y suelen surgir como solución a problemas técnicos concretos de los dibujantes y animadores.

Desde el punto de vista de la industria del cine, el actor y miembro del consejo de SAG-AFTRA Jason W. George también enfocó el uso de IA desde la resolución de problemas específicos. Por ejemplo, cuando se rueda en lugares remotos, un aspecto a considerar es si habrá que volver a rodar alguna escena. Organizar un nuevo viaje de vuelta al lugar puede ser muy costoso, por lo que algunos proyectos lo desestiman. Con IA podrían realizarse ajustes para arreglar escenas salvables, ahorrando este tipo de viajes.

Por otro lado, Tom Lackey, miembro de la comisión, mencionó la preocupación de algunas comunidades rurales cuya economía depende de los rodajes. Temen verse afectadas también por la IA generativa si se sustituye por completo el rodaje in situ.

Patrick Sabatini, vicepresidente senior de Asuntos Legales y Empresariales de Warner Music Group, sacó a colación el ejemplo de Randy Travis, que sufre de afasia. Entre otras complicaciones, perdió la habilidad de hablar y cantar. Gracias a la terapia, puede volver a componer y tocar la guitarra. Mediante uso de IA, con ayuda de su equipo y bajo su supervisión, hace poco ha podido sacar un nuevo tema con su voz: Where that came from.

Chris Horton, vicepresidente de Tecnología Estratégica para Universal Music Group, dio varios ejemplos de cómo desde UMG están usando y desarrollando herramientas IA, sobre todo para marketing. En cuanto a usos en obras musicales mencionó el último tema de The Beatles, Now and Then, que ha sido posible gracias a tecnología de separación de fuentes (source separation). También cómo Lauv, popular en Corea, colaboró con Kevin Woo y empleó IA para versionar su tema Love U Like That en coreano.

Problemas éticos y económicos de la IA generativa

Pese al potencial creativo de estas tecnologías, la IA generativa en concreto presenta grandes desafíos para la industria del entretenimiento. Uno de ellos son las pérdidas de empleo. Se citaron estadísticas y experiencias personales para dar muestra del impacto.

Jason W. George habló de los actores de reparto y de doblaje como los «canarios en las minas». Nuevos contratos permiten a las empresas, por ejemplo, escanear a los actores para reutilizarlos de forma digital, a perpetuidad y sin compensación adicional. O, en el caso de los actores de doblaje, replicar sus voces bajo términos similarmente abusivos. Dio ejemplos de cómo estas condiciones pueden frenar en seco la carrera de actores jóvenes, ya que la mayoría empiezan con roles pequeños, fáciles de reemplazar ahora por IA.

Drew Leung, artista y concept designer para series y películas (Black Panther y La La Land entre otras) declaró que en un proyecto reciente se le sustituyó. Su trabajo está siendo realizado por un asistente de nivel básico que cobra «una fracción» de su salario. Desde su perspectiva como docente, Leung también habló de sus alumnos, que están abandonando porque ya no ven futuro a sus estudios. Y de la Art Directors Guild, que ha reportado 75% de pérdidas de empleo entre sus 3000 miembros y ha cancelado su programa de aprendizaje. Dicen que no sienten que sea ético seguir ofreciendo formación para una profesión que seguramente deje de existir.

Leung negó que el problema sea tener que adaptarse a una nueva tecnología: «Ya nos hemos reequipado y reciclado: todos mis compañeros, yo incluído, sabemos usarla. Si sabes pedir un sándwich, sabes usar IA.»

Por último, propuso la introducción de incentivos fiscales para que sea rentable a las empresas contratar personal en lugar de usar software. Introducir simetría de modo que las empresas que contraten más personas y generen más impuestos para el Estado se vean compensadas.

Ben Zhao, profesor titular Neubauer de Ciencias de la Computación en la Universidad de Chicago, está investigando para prevenir y mitigar los daños causados por el mal uso de estas tecnologías. En su última intervención, secundó las observaciones de otros panelistas sobre impacto económico y psíquico. Muchos artistas están abandonando sus carreras y estudios, dentro y fuera de Estados Unidos.

Relacionado: SoA avisa sobre el impacto de la IA generativa en el sector editorial.

Tiana Oreglia, concept artist e ilustradora de videojuegos, observó que pese a que su sector ha tenido grandes éxitos en los últimos años, también hay despidos en masa. Citó el caso de Wizards of the Coast, la empresa detrás de Baldur’s Gate III, que ha eliminado más de 1000 puestos de trabajo.

Desde el punto de vista de los artistas freelance y aquellos que están empezando, los encargos que pagan las facturas y sirven para empezar a curtirse están desapareciendo. Por ejemplo, ilustraciones para campañas de marketing. Los artistas autónomos están especialmente desprotegidos, ya que no cuentan con uniones que respalden sus intereses y nada protege su estilo de ser replicado y producido en masa por cualquiera.

Deepfakes e imitaciones

Los modelos de IA generativa se entrenan primero con un gran volumen de obras para ser capaces de producir un tipo de output: música, ilustraciones, etc. Luego, pueden afinarse si se desea que imiten a alguien en concreto. Entrenar IA especializada en el estilo de alguien es, según el profesor Ben Zhao, una tarea trivial. Puede hacerse fácilmente entrenando un modelo propio en un ordenador de escritorio.

Más allá de los deepfakes, la IA hace posible muchos tipos de clonaciones e imitaciones que ponen en peligro derechos y modos de vida. Chris Horton (UMG) aportó varios ejemplos de outputs generados por IA que claramente replican letras, arte de portadas, aspecto de artistas, voces y estilos musicales del catálogo de Universal. Entre los artistas copiados se encuentran Queen, The Beatles, Eminem, ABBA y Michael Jackson, y entre los modelos ChatGTP, Suno y Udio.

«Los artistas pasan años desarrollando y perfectionando su técnica y sus voces únicas. Permitir que otros roben su aspecto y su voz es equivalente a dejar que les arrebaten su modo de vida. Pone a los artistas en la posición perversa de competir consigo mismos en el mercado.»

(Patrick Sabatini)

En el caso de obras musicales generadas por IA que no imitan voz, los panelistas consideran que depende de cada caso. Si el modelo se usa para generar obras que replican el estilo particular de un virtuoso de un instrumento, consideran que sería equivalente a usar su voz. De todas formas, Chris Horton señaló que el problema sigue siendo si el modelo ha sido entrenado con obras protegidas sin consentimiento.

Un caso especialmente delicado es el de los artistas visuales, que se encuentran muy desprotegidos. Hay más optimismo para la protección de voces y aspecto físico que de estilos artísticos. El estilo individual de un artista va íntimamente ligado a su identidad, y muchos dependen de que su estilo sea un bien escaso para ganarse la vida. Desde el punto de vista legal, no obstante, es muy difícil definir qué es un estilo y cómo protegerlo.

Como señaló el profesor Zhao, replicar estilos es ahora trivialmente sencillo. Y existen sitios como civitAI o servidores de Discord donde se recopilan obras precisamente para esto: modelos especializados en copiar a un artista.

Una sugerencia es poder conocer las obras con las que se entrena cada modelo y el prompt que genera cada output, para poder determinar en qué medida el resultado debe su calidad y estilo a un artista determinado.

Para matizar más, surgió la pregunta de qué sucede cuando un humano se inspira en el estilo de un artista para crear una obra. Moiya McTier, doctora en Astrofísica y Folclore y autora, señaló que existe una gran diferencia:

«Eso sería un honor. […] Me sentiría muy halagada. Pero hay una gran diferencia entre que una persona se inspire en mi trabajo y que una máquina lo descomponga, extraiga sus características y lo vuelva a montar sin darme ningún crédito.»

La autora e investigadora concluía así su intervención:

«En las historias, los personajes que roban la voz o el rostro de alguien suelen ser los villanos. […] Y en los mitos sabemos que cuando alguien controla tu nombre puede ejercer un poder desmedido sobre ti.

Los humanos hemos sido conscientes de que somos dueños de nuestras identidades desde antes de que empezáramos a poseer cosas. Y, sin embargo, esta máxima fundamental nos ha sido arrebatada por la IA. Los derechos que hemos dado por sentado toda la eternidad no deberían vulnerarse sólo porque aparezca una nueva tecnología que permite un nuevo tipo de explotación.

Todo el mundo merece la tranquilidad que acompaña a saber que su identidad y su legado están a salvo.»

(Moiya McTier)

Consentimiento, compensación justa y transparencia

Sabatini (UMG) destacó que artistas e industrias necesitan:

  • Que se requiera consentimiento explícito para el uso de materiales protegidos por copyright, voces y apariencia de personas concretas en el entrenamiento de modelos IA.
  • Que la concesión de derechos de autor, imagen y voz esté sujeta a licencias de libre mercado. Propietarios y artistas deben tener el derecho a decidir si su propiedad puede usarse y en qué condiciones.

Y, para que esto sea operativo a escala, los desarrolladores de IA generativa deben:

  • Hacer posible identificar sus outputs mediante algún sistema fiable. De momento existen etiquetas y marcas de agua pero, como se detalla más adelante, su efectividad es limitada.
  • Guardar registros detallados y públicos de los derechos de las obras con las que entrenan sus modelos, para que sea posible aplicar los derechos de propiedad intelectual. En este sentido, se habló también de que sea posible conocer el prompt de cada output, para saber en qué medida debe compensar a algún artista concreto.

El comité realizó preguntas sobre casos en los que existe consentimiento explícito: artistas que permiten que su obra se use para entrenar estos modelos, o actores que consienten ser escaneados para que su imagen o voz se reutilicen.

Varios panelistas, entre ellos Jason W. George y Ben Zhao, hicieron énfasis en el desequilibrio de poder que existe en las firmas de contratos para entrenamiento de IA generativa. Si bien nadie es obligado a firmar, la mayoría de artistas y actores no tiene margen de negociación: o aceptan el trabajo con las condiciones que se les presentan o no.

Los términos y condiciones de redes sociales y software para creativos son otro caso de consentimiento que genera dudas. Drew Leung y Tiana Oreglia señalaron que en sus sectores se depende del uso de ciertas herramientas y plataformas para ser competitivo, poder colaborar con compañeros y darse a conocer. Pero los términos de uso pueden cambiar en cualquier momento, de forma más o menos clara. Se encuentran en una situación kafkiana en la que, al usar herramientas de las que depende su medio de vida, entrenan los modelos que les reemplazarán.

Soluciones técnicas

Durante sus intervenciones, Ben Zhao presentó Glaze y Nightshade, dos soluciones gratuitas de la Universidad de Chicago para proteger a los artistas visuales del raspado de imágenes. Glaze camufla estilos, de forma que un modelo de IA generativa no sea capaz de replicarlos bien. Nightshade hace algo similar pero a nivel de estructura o composición en lugar de estilo. Hace creer al modelo, durante su fase de entrenamiento, que la imagen tratada con Nightshade contiene elementos distintos de los que aparecen. Si los datos de entrenamiento de un modelo de IA generativa (texto a imagen) contienen un número reducido de imágenes tratadas con Nightshade, los resultados del modelo empeoran hasta hacerlo casi inservible.

No obstante, Ben Zhao advierte: ni Glaze ni Nightshade son soluciones definitivas y no son suficiente.

Ante la pregunta de si sería posible desarrollar tecnologías similares para otro tipo de obras, el investigador señaló que cada tipo de IA generativa utiliza arquitectura diferente y que cada medio se enfrenta a problemas distintos.

Sobre el mundo de la literatura y la creación de textos, por ejemplo:

«En el caso de textos no se trata tanto de imitación. Porque, a no ser que seas James Joyce o Shakespeare, tu estilo de escritura probablemente no sea tan reconocible entre un millón.

Creo que en el ámbito de textos se trata más bien de que la basura y el spam están superando al texto legítimo. He visto editoriales cerrar sus puertas porque están saturadas de propuestas hechas con IA. He visto concursos de escritura que llevan celebrándose años desaparecer (por la misma razón).»

En cuanto a lo audiovisual, desde la Universidad de Chicago están tratando de dar con soluciones similares a Glaze o Nightshade para vídeos.

El audio, dice Ben Zhao, «es más difícil». En la Universidad de San Louis están desarrollando herramientas para proteger voces humanas (DeFake), que podrían servir a actores de doblaje. No parece haber algo que proteja, por ahora, la voz cantada u obras musicales de ser usadas para entrenar IA generativa.

Todas estas soluciones, para imágenes y audio, tienen un inconveniente: pérdida de calidad. Glaze, Nightshade y DeFake introducen artefactos en la obra original. No son muy llamativos, ya que de lo contrario los entrenadores de IA identificarían las obras tratadas rápidamente, pero son apreciables. En algunos casos, los estándares de calidad son incompatibles con el uso de estas herramientas defensivas.

IA ética, marcas de agua y opt-outs

Se habló también de algunas de las soluciones que más están dando que hablar estos días y su viabilidad. La actitud de los panelistas fue en general escéptica y crítica.

Sobre los modelos éticos de IA generativa, Tiana Oreglia advirtió sobre la tendencia a utilizar el término «ético» como una estrategia de marketing (AI washing). Cita el caso de Adobe Firefly, que se presenta como un modelo ético entrenado con consentimiento de los creadores. Esto se ha puesto en cuestión tras descubrir que Firefly usó un porcentaje reducido de imágenes de Midjourney en su entrenamiento, según Bloomberg. Si sigues TIPS sabrás que Midjourney ha recibido múltiples demandas por infringir derechos de propiedad intelectual.

Varias empresas desarrolladoras de estos modelos han anunciado o están trabajando en marcas de agua con las que identificar contenido generado por sus herramientas. Se anuncian como una solución contra la desinformación pero, como explicó Ben Zhao, de momento están lejos de serlo. Según su propia experiencia en este área, las marcas de agua actuales son fáciles de eliminar, de falsificar, o ambas. Añade además que «lo único que hacen particularmente bien, dado su nivel de precisión, es ayudar a las empresas a identificar sus propios outputs para no entrenar con ellos».

No obstante, la presidenta de la comisión, Rebecca Bauer-Kahan, se mostró optimista. Cree que si se regula y financia adecuadamente la puesta en marcha de sistemas que identifiquen contenido generado por IA, será posible.

Se habló también de los opt-out; mecanismos mediante los cuales los creadores pueden indicar que no desean que sus obras se usen para entrenar IA. Ben Zhao señaló que los opt-out son «una falsa promesa», tanto para los creadores como para las empresas preocupadas por proteger su propiedad intelectual:

«Desde la perspectiva del machine learning, los opt-out son imposibles de aplicar y de verificar. La empresa puede decir que están respetando los opt-out, darse la vuelta y seguir entrenando con tus datos. Matemática y técnicamente no existe forma de demostrarlo.»

Fuente: California State Assembly

Marta Palacio
Marta Palacio
Editora y colaboradora en TIPS. Graduada en Historia del Arte, enfocada ahora en la intersección entre la creatividad humana, la realidad digital global y la inteligencia artificial. Defensora de los derechos de autor y de las obras derivadas en diversas charlas dentro de la Unión Europea.

Compartir

Artículos relacionados