SAFE CREATIVE · CREATORS

Noticias

Reddit demanda a Anthropic por usar sin permiso el contenido de sus foros

La plataforma Reddit ha demandado a la empresa de inteligencia artificial Anthropic por utilizar de forma ilícita millones de comentarios de sus usuarios sin autorización ni compensación para entrenar a su chatbot Claude. La denuncia alega que la start-up respaldada por Amazon ha incumplido las condiciones de uso de sus foros y ha seguido accediendo al contenido de Reddit pese a que hace un año afirmó públicamente que había cesado estas prácticas.

La demanda acusa a Anthropic de un supuesto delito de scraping (extracción de datos de sitios web de forma automatizada), además de utilizar datos personales de usuarios de manera intencionada y sin autorización. En total, la plataforma señala que Anthropic habría accedido de manera irregular más de 100.000 veces después de admitir, en julio de 2024, que había cesado tal actividad. 

Contenido de la demanda y una start-up con dos caras 

Reddit solicita que la tecnológica deje de utilizar cualquier dato derivado de sus productos, además de una indemnización por daños y los beneficios de cualquier programa de IA que haya sido entrenado con contenido de sus foros de debate, recoge Decrypt. En la demanda, Reddit acusa a Anthropic de tener «dos caras» en cuanto al desarrollo de la IA. Así, por un lado, se presenta como un «actor responsable» que aboga por el «respetar» los límites y la ley, mientras, por otro lado, «ignora cualquier regla que interfiera en sus intentos de llenar aún más sus bolsillos», señala.  «Creemos en un Internet abierto, pero eso no significa abierto a la explotación», ha asegurado Ben Lee, director jurídico de Reddit. 

Un documento revelador y otras demandas contra Anthropic 

En 2021 salió a la luz un documento donde empleados de Anthropic identificaban los foros con los datos de mayor calidad para el entrenamiento de sus chatbots, señala Euronews. Entre ellos estarían los dedicados a la jardinería, historia, relaciones o incluso uno de pensamientos de la gente en la ducha. A raíz de aquello, la start-up explicó en una carta que el entrenamiento de su chatbot Claude se había desarrollado de acuerdo a un «uso lícito» de los materiales.

Por otro lado, esta no es la primera demanda que recibe. En la actualidad, Anthropic mantiene litigios con un grupo de escritores, que denuncian que ha usado versiones ilegales de sus libros para entrenar a Claude, y uno más con productores musicales por la utilización de canciones protegidas. En este caso, no obstante, el proceso tiene que ver con la «competencia desleal» y con un «incumplimiento de las condiciones de uso», añade Euronews. 

Acuerdos con Google y otras tecnológicas 

Reddit no se opone a que las tecnológicas empleen el material que proporcionan sus usuarios para el entrenamiento de los modelos de IA, siempre que reciba una compensación, añade Decrypt. De hecho, la plataforma cerró hace un año un acuerdo millonario con Google para que el gigante tecnológico pueda acceder en tiempo real a los foros de Reddit para entrenar sus modelos de IA.

En los últimos tiempos, la compañía ha concedido licencias a otros actores de IA, como OpenAI, Sprinklr o Cision, que también cuentan con permiso para adiestrar sus chatbots con los comentarios de los debates. Según El Periódico, Reddit intentó llegar a un acuerdo similar con Anthropic que no prosperó. Posteriormente, descubrió que la start-up accedía de manera sistemática y sin permiso a sus servidores, pese a haber asegurado que no lo hacía, lo que explicaría la decisión de llevar ahora el caso a los tribunales. 

Fuentes: Decrypt, Euronews (AP), El Periódico, Safe Creative. 

Safe Creative
Safe Creativehttps://www.safecreative.org/
Safe Creative es el mayor registro electrónico de propiedad intelectual en línea. La inscripción de la autoría en Safe Creative proporciona al autor una prueba tecnológica irrefutable de su declaración y la consiguiente protección de sus derechos (Convenio de Berna - ONU). Resulta muy aconsejable el registro de una obra antes de darla a conocer, para tener asentada una primera prueba declarativa de su autoría. Al publicar el trabajo o mostrar versiones previas es posible hacerlo con mayor tranquilidad, sabiendo que se dispone de la mejor prueba en el tiempo frente a quien pudiera estar tentado de atribuirse éste como propio.

Compartir

Artículos relacionados