SAFE CREATIVE · CREATORS

Noticias

Aspectos clave de la primera ley europea de Inteligencia Artificial

En diciembre de 2023, el Consejo y el Parlamento Europeo llegaron a un consenso provisional para adoptar el primer Reglamento Europeo de Inteligencia Artificial.

Esta norma, que constituye el primer texto normativo en materia de IA de todo el mundo, busca legislar acerca de los riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos europeos.

En concreto, se observan dos objetivos claros de esta regulación:

  • Garantizar a través de normas que los sistemas de Inteligencia Artificial sean seguros y respeten los derechos de los ciudadanos.
  • Servir de estímulo para que las empresas de la UE sigan invirtiendo e innovando en materia de Inteligencia Artificial.

El vertiginoso avance en este campo ha convertido a los sistemas de IA generativa en herramientas cada vez más potentes, capaces de cumplir con cada vez más tareas de diversas índoles, y ganando cada vez más peso en nuestra economía y sociedad.

Pero estos avances, además de brindarnos un universo de nuevas oportunidades (crecimiento económico, beneficios sociales, competitividad de la UE a escala mundial), también entrañan serios riesgos para la comunidad, sobre todo en aspectos como la seguridad de los ciudadanos y los derechos fundamentales.

Tipos de riesgo de los sistemas de IA

Es por ello que la Comisión Europea ha planteado cuatro niveles de riesgo de los sistemas de IA:

  • Riesgo mínimo: sistemas de IA que no conllevan peligro de gran magnitud, y que pueden operar con arreglo a la legislación vigente, sin necesidad de adoptar nuevas normativas al respecto.
  • Alto riesgo: una lista cerrada de sistemas que tienen un impacto potencial negativo en la seguridad de las personas o sus derechos fundamentales. Entendemos que estos sistemas deberán cumplir con normas más restrictivas que los anteriores.
  • Riesgo inadmisible: un conjunto limitado de usos de la IA que se consideran especialmente nocivos por oponerse a los valores de la UE y vulnerar derechos fundamentales. Estos usos quedarán terminantemente prohibidos.
  • Riesgo específico para la transparencia o limitado: ciertos sistemas de IA estarán sujetos a normas más estrictas de transparencia. Los usuarios deben ser conscientes de que, en determinados casos, están interactuando con un sistema de IA y no con personas, por ejemplo, cuando las empresas utilicen chatbots.

Además de estos cuatro riesgos, la legislación prevé también el riesgo sistémico que se puede derivar de los modelos de inteligencia artificial de uso general. Son aquellos que pueden realizar diversas tareas, y que, si alcanzan suficiente potencia, se pueden llegar a emplear, por ejemplo, para causar accidentes o ciberataques.

La Oficina Europea de Inteligencia Artificial

Otro de los puntos clave de la nueva normativa es la creación de la Oficina Europea de Inteligencia Artificial. Tendrá por misión fomentar los conocimientos especializados y las capacidades de la Unión Europea en materia de IA, así como contribuir a la aplicación de esta nueva normativa.

La Oficina supervisará el cumplimiento de la normativa, contribuirá a la redacción de códigos de buenas prácticas en materia de IA, y mantendrá estrechos vínculos con la comunidad científica.

Entrada en vigor

Esta normativa europea, que aún no se encuentra vigente, entrará en vigor una vez sea aprobada definitivamente por el Parlamento Europeo y el Consejo, aunque lo hará de manera gradual, conforme los estados miembros vayan transponiendo las distintas normas adoptadas.

Daniel Correa-Estañ
Daniel Correa-Estañ
Daniel es jurista especializado en Propiedad Intelectual y derechos de autor. Licenciado en Derecho y Administración de Empresas por la Universidad de Murcia, y Máster en Propiedad Intelectual por la Universidad Carlos III de Madrid. Forma parte del equipo de asesoramiento jurídico de Safe Creative.

Compartir

Artículos relacionados