La Comisión Europea acaba de publicar la versión final del Código de Buenas Prácticas para modelos de inteligencia artificial, una herramienta voluntaria que llega dos semanas antes de que entre en vigor la Ley de IA en Europa, que no será efectiva hasta dentro de un año. El documento, de carácter voluntario y dividido en tres bloques –transparencia, seguridad y derechos de autor–, exhorta a las tecnológicas a examinar el riesgo que sus prácticas pueden ocasionar a los derechos fundamentales, recoge Efe, e introduce obligaciones para garantizar que los modelos no se entrenen con materiales protegidos procedentes de sitios web que no respeten la propiedad intelectual.
Expertos y más de mil colaboradores
En la redacción del texto han participado 13 expertos, con los que han colaborado más de mil agentes del sector, desde las propias tecnológicas hasta representantes de titulares de derechos, investigadores y entidades de la sociedad civil. Este Código de Buenas Prácticas tendría que haberse presentado el pasado mayo, si bien las críticas a los primeros borradores recibidas por eurodiputados, artistas y por las propias tecnológicas, así como las dudas de los gobiernos europeos sobre la entrada en vigor de la ley de inteligencia artificial, han retrasado su versión definitiva.
Mecanismos para mejorar la transparencia y seguridad
De los citados tres bloques que integran el protocolo, las directrices sobre transparencia y derechos de autor se aplicarán a todos los desarrolladores de modelos de IA, mientras que el bloque de seguridad está orientado a los proveedores de los modelos más avanzados, como Chat GPT4 o Gemini, explica Reuters. Sobre este capítulo, las compañías deberán contar con una protección adicional y llevar a cabo un plan de riesgos, además de explicar en informes semestrales las medidas llevadas a cabo para defenderse de ataques externos. En cuanto a la transparencia, las tecnológicas tendrán que aclarar a sus usuarios la manera en que cumplen la normativa europea, probablemente a través de un formulario con la información que precise la Oficina de IA, añade Wired.
Política de derechos de autor y medidas para evitar webs infractoras
Por su parte, el protocolo recién aprobado pretende ser un puente entre las legislaciones sobre inteligencia artificial y propiedad intelectual, aunque no impone soluciones técnicas. Así, en virtud de este, los firmantes deberán adoptar una política de protección de derechos de autor y establecer medidas para evitar los sitios web fraudulentos, además de respetar opciones para excluir contenidos en el entrenamiento de sus modelos, e identificar las infracciones.
Críticas a un código que «no garantiza» los derechos
Pese a las intenciones del texto, CEDRO considera que el protocolo «no garantiza la protección mínima para los derechos de autor frente al uso no autorizado», al ofrecer «un ‘puerto seguro 3.0’ a las tecnológicas y otros desarrolladores para que sigan expoliando los derechos» de los creadores, sentencia Jorge Corrales, director general de esta entidad de defensa de los derechos de autor.
Así, aunque el código recuerda que las tecnológicas sólo podrán emplear material al que se haya accedido de forma legal, se «desvirtúa esta obligación», considera CEDRO, al reducirla únicamente a un «compromiso de exclusión de uso» de aquellas que procedan de webs reconocidas como infractoras de derechos. Una situación que empuja a los creadores a los tribunales como vía para resolver los potenciales conflictos.
Un mes para la Ley de IA, un año para su obligatoriedad
El reto ahora pasa por convencer a las grandes tecnológicas para que firmen un código que, pese a su carácter voluntario, gigantes como Meta ya han advertido de que no firmarán. Por ello, la vicepresidenta de la Comisión Europea de Soberanía Tecnológica, Henna Virkkunen, ha invitado a las empresas a adherirse para «garantizar una vía clara y colaborativa para cumplir con la ley de inteligencia artificial de la UE».
Una ley cuyas exigencias entrarán en vigor el próximo 2 de agosto, si bien su cumplimiento efectivo no será obligatorio hasta al menos un año después, ya que la Comisión Europea no descarta que el retraso pueda ser incluso mayor. Por otro lado, las tecnológicas que se adhieran al Código de Buenas Prácticas deberán adaptar su modo de trabajar a lo que dice el texto, aunque ello no supondrá automáticamente un visado de que cumplen con el Reglamento de la IA.
Fuentes: Efe (swissinfo), Reuters, Wired, CEDRO.

