SAFE CREATIVE · CREATORS

Noticias

¿Podrá OpenAI seguir operando en Europa tras el AI Act?

El nuevo Reglamento sobre sistemas de Inteligencia Artificial (AI Act) recientemente aprobado por la Eurocámara supone un paso más en la regulación para la disruptiva tecnología que circula en nuestra vida diaria con o sin conocimiento de ello.

En la comunidad europea se han tomado muy en serio la transición digital y en particular, las implicaciones de la inteligencia artificial en todos los sectores sin distinción. La Ley IA no supondrá la prohibición de hacer uso de sistemas tecnológicos de «riesgo sistémico» (como es ChatGPT), porque no lo consideran de «alto riesgo». No obstante, sí deberán respetar ciertas obligaciones de transparencia, confianza y fiabilidad, de acuerdo a los valores europeos y a la nueva Ley de Inteligencia Artificial.

Fuentes originales en datos adulterados

Los sistemas de IA generativa como ChatGPT se nutren de millones de fuentes de información, incluyendo plataformas web, redes sociales, libros… Dado el tamaño de la base de datos, resulta inviable rastrear las fuentes originales. También puede ser difícil deducir cuándo los textos generados pueden o no incluir fragmentos de obras protegidas por derechos de autor.

En España, el art. 1 de la Ley de Propiedad Intelectual confiere la propiedad intelectual de las creaciones al autor. Sigue el art. 5 estableciendo que sólo se podrán considerar protegidas por derechos de autor aquellas creaciones de una persona natural o jurídica (únicamente en los casos tasados). En esta línea, aunque el código fuente de la propia tecnología desarrollada por OpenAI, ChatGPT, está protegida por derechos de autor, los textos que esta genera, no.

Transparencia y seguridad

El «principio de transparencia» es entendido en esta norma como: cuál es la información que recoge de inteligencia artificial, cómo se trata y se almacena para el entrenamiento de la propia IA. Además del deber de transparencia en cuanto a informar sobre el resultado que se genera a través de estos sistemas digitales, también debe brindar la fiabilidad y seguridad a los usuarios sobre la información que leen a fin de evitar la desinformación o la información no veraz hacia los consumidores. En concreto, estas plataformas deberán hacer constar qué contenido ha sido creado con inteligencia artificial. Tanto en la creación de texto, imágenes, vídeos o audios.

Aún se desconoce si OpenAI, a la que pertenece ChatGPT, dejará o no de operar en Europa. No tras la entrada en vigor del Reglamento de IA, sino tras la entrada en vigor del cumplimineto de las obligaciones de estos operadores en el mercado. Su CEO afirmó en la etapa de tramitación de esta ley que, si no se pudieran llegar a cumplir las especificidades, ChatGPT y los otros sistemas de IA de OpenAI dejarían de operar en Europa.

Obligaciones de la IA generativa en favor de la propiedad intelectual

La IA generativa se encuentra en una posición especial dentro de las definiciones del AI Act. A diferencia de otros sistemas diseñados para realizar tareas concretas, la IA generativa tiene múltiples aplicaciones. Es difícil encajar estos modelos dentro de uno de los niveles de riesgo, y de hecho se sugirió incluirlos en una categoría aparte de «riesgo general». Dada la rápida adopción y versatilidad de IA como ChatGPT, se va a optar por un monitoreo de estos modelos. Se considera que presentan potenciales «riesgos sistémicos».

Este monitoreo implicaría evaluaciones regulares de posibles efectos negativos en derechos fundamentales y procesos sociales. Se busca que el marco regulatorio tenga cierta flexibilidad, de forma coherente con la naturaleza de los propios modelos.

ChatGPT deberá cumplir con los requisitos para IA generativa:

  1. Medidas de transparencia. Señalar cuando el contenido es generado por IA e implantar sistemas de transparencia para evitar la creación de contenidos ilegales. El contenido alterado o modificado con asistencia de una IA deberá etiquetarse (por ejemplo con marca de agua).
  2. Datos de entrenamiento. Se deberán revelar en periódicas publicaciones de resúmenes los datos utilizados para el entrenamiento de estos sistemas.  
  3. Evaluación. Los modelos de IA clasificados como de «alto riesgo» deberán someterse a la evaluación periódica y exhaustiva, dando conocimiento a la Comisión Europea.
  4. Supervisión. Los sistemas de IA quedarán sometidos a evaluación, control y supervisión directa por personas que busquen e identifiquen posibles infracciones en el desarrollo o diseño de estos productos o servicios digitales.

Exenciones

Las Fuerzas de Seguridad del Estado gozan de cierta flexibilidad cuando utilicen ciertos sistemas de IA (como la identificación biométrica) para brindar una protección acorde a los tiempos actuales. Si bien estas exenciones serán en casos tasados y en condiciones de excepcional y urgente necesidad. 

Cumplimiento de la normativa

La vigilancia del cumplimiento de esta normativa europea es a cargo de la Oficina Europea de Inteligencia Artificial, cuya labor principal será la de velar por el cumplimiento de la normativa en materia de inteligencia artificial, identificar aquellos sistemas de IA con riesgo alto evaluando sus obligaciones correspondientes y controlar los sistemas de IA que la Comisión Europea determine en función a unos parámetros de riesgos creados por la propia Comisión. 

Consideraciones para usuarios de IA generativa

  1. Legalidad. Las condiciones del uso de ChatGPT o cualquier sistema de inteligencia artificial se asignan por las propias empresas proveedores de esta tecnología a los usuarios (por ej., OpenAI). Estas condiciones suelen detallar cómo pueden ser utilizadas estas herramientas y qué derechos tienen los usuarios sobre los contenidos generados. Son estos proveedores de productos y servicios digitales los que «regulan» los «derechos, títulos e intereses en la salida» de los datos que generan. Sin embargo, la regulación legal está en proceso de desarrollo.
  2. Contenido ilegal. Herramientas digitales como ChatGPT, Gemini o similares están diseñadas para crear a partir de una instrucción u orden concreta (prompt). Aunque suelen implementar medidas para prevenir la generación de contenido ilegal, inapropiado o dañino, éstas pueden variar de un modelo a otro y pueden fallar. La responsabilidad última sobre el uso de los contenidos generados puede depender de las leyes específicas de cada jurisdicción.  
  3. Copyright. La cuestión de a quién pertenecen los derechos de autor sobre los contenidos generados es compleja, y sigue sujeta a debate. En algunos casos, las condiciones de uso de la herramienta específica asignan la propiedad. Pueden declarar, por ejemplo, que la propiedad de las obras es de la empresa, y de los usuarios sólo bajo ciertas condiciones. Algunas interpretaciones consideran que la propiedad de las obras es del autor del prompt; otras, que las obras generadas por IA son de dominio público. No hay un consenso legal universal ni legislación específica que aclare completamente esta área en todas las jurisdicciones.

Fuentes: Europa.eu

Luis Hernández Sánchez
Luis Hernández Sánchez
IP lawyer y analyst legal public antitrust at CNMC - Comisión Nacional de los Mercados y la Competencia.

Compartir

Artículos relacionados