OpenAI intenta frenar entrega de millones de chats en disputa por derechos de autor
Medios de comunicación piden acceso a chats para revisar posibles infracciones, mientras OpenAI señala riesgos de privacidad.
Las opiniones expresadas por los colaboradores de Entrepreneur son personales.
Conclusiones Clave
- La disputa revela la tensión central en la era de la IA: cumplir con las exigencias de transparencia para resolver posibles infracciones de derechos de autor sin poner en riesgo la privacidad de millones de usuarios cuyos datos alimentan estos sistemas.
OpenAI solicitó que se revoque la orden judicial que le exige entregar unos 20 millones de conversaciones anónimas de ChatGPT, documentos solicitados dentro de una demanda por presunta infracción de derechos de autor presentada por varios medios, incluido The New York Times.
La empresa argumentó que compartir esa cantidad de registros podría comprometer información sensible, aunque los datos no contengan identificadores directos. De acuerdo con Reuters, OpenAI sostuvo ante el tribunal que el “99.99%” de las transcripciones solicitadas no tienen relación con lo que se investiga en el caso.
Para los medios, esos chats son importantes para saber si el sistema reprodujo contenido protegido y para evaluar la versión de la empresa, que afirma que se manipularon respuestas del chatbot con el fin de fabricar evidencia.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
La denuncia presentada por los medios señala que artículos de sus plataformas habrían sido utilizados sin autorización para entrenar al modelo, lo que explicaría por qué ChatGPT puede devolver, en algunos casos, textos similares a los publicados por estas organizaciones.
La jueza Ona Wang, responsable de la orden que OpenAI busca revertir, indicó que la privacidad quedaría resguardada por un proceso de desidentificación y mecanismos internos de seguridad. También estableció como fecha límite este viernes para entregar las transcripciones solicitadas.
Alemania: los músicos unidos en contra de OpenAI
Al mismo tiempo, en Alemania se dio un fallo que se suma a los cuestionamientos globales sobre cómo se entrenan los sistemas de inteligencia artificial (IA). Un tribunal de Múnich respaldó a la sociedad de gestión colectiva GEMA en un reclamo contra OpenAI por el uso de letras de canciones con derechos.
El fallo determina que la empresa no puede emplear obras musicales protegidas sin autorización y ordena el pago de daños. La resolución, encabezada por la presidenta del tribunal, Elke Schwager, señala que ChatGPT ha reproducido letras que pertenecen al repertorio de aproximadamente 100,000 miembros de GEMA. Entre ellos se encuentra el músico Herbert Gönemeyer, uno de los artistas más reconocidos en Alemania.
GEMA afirmó que los modelos fueron entrenados utilizando piezas musicales de su catálogo sin permiso. OpenAI respondió que las acusaciones parten de una interpretación incorrecta sobre cómo opera su tecnología.
En conjunto, estas decisiones judiciales anticipan una nueva etapa: modelos más regulados, procesos de entrenamiento más auditables y un escrutinio cada vez mayor sobre cómo se obtiene —y se protege— la información que alimenta a la IA. Las próximas batallas legales podrían redefinir los límites de todo el sector.
Relacionado: OpenAI enfrenta orden para retener la información que le compartiste, aunque la hayas eliminado
Conclusiones Clave
- La disputa revela la tensión central en la era de la IA: cumplir con las exigencias de transparencia para resolver posibles infracciones de derechos de autor sin poner en riesgo la privacidad de millones de usuarios cuyos datos alimentan estos sistemas.
OpenAI solicitó que se revoque la orden judicial que le exige entregar unos 20 millones de conversaciones anónimas de ChatGPT, documentos solicitados dentro de una demanda por presunta infracción de derechos de autor presentada por varios medios, incluido The New York Times.
La empresa argumentó que compartir esa cantidad de registros podría comprometer información sensible, aunque los datos no contengan identificadores directos. De acuerdo con Reuters, OpenAI sostuvo ante el tribunal que el “99.99%” de las transcripciones solicitadas no tienen relación con lo que se investiga en el caso.
Para los medios, esos chats son importantes para saber si el sistema reprodujo contenido protegido y para evaluar la versión de la empresa, que afirma que se manipularon respuestas del chatbot con el fin de fabricar evidencia.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
La denuncia presentada por los medios señala que artículos de sus plataformas habrían sido utilizados sin autorización para entrenar al modelo, lo que explicaría por qué ChatGPT puede devolver, en algunos casos, textos similares a los publicados por estas organizaciones.
La jueza Ona Wang, responsable de la orden que OpenAI busca revertir, indicó que la privacidad quedaría resguardada por un proceso de desidentificación y mecanismos internos de seguridad. También estableció como fecha límite este viernes para entregar las transcripciones solicitadas.
Alemania: los músicos unidos en contra de OpenAI
Al mismo tiempo, en Alemania se dio un fallo que se suma a los cuestionamientos globales sobre cómo se entrenan los sistemas de inteligencia artificial (IA). Un tribunal de Múnich respaldó a la sociedad de gestión colectiva GEMA en un reclamo contra OpenAI por el uso de letras de canciones con derechos.
El fallo determina que la empresa no puede emplear obras musicales protegidas sin autorización y ordena el pago de daños. La resolución, encabezada por la presidenta del tribunal, Elke Schwager, señala que ChatGPT ha reproducido letras que pertenecen al repertorio de aproximadamente 100,000 miembros de GEMA. Entre ellos se encuentra el músico Herbert Gönemeyer, uno de los artistas más reconocidos en Alemania.
GEMA afirmó que los modelos fueron entrenados utilizando piezas musicales de su catálogo sin permiso. OpenAI respondió que las acusaciones parten de una interpretación incorrecta sobre cómo opera su tecnología.
En conjunto, estas decisiones judiciales anticipan una nueva etapa: modelos más regulados, procesos de entrenamiento más auditables y un escrutinio cada vez mayor sobre cómo se obtiene —y se protege— la información que alimenta a la IA. Las próximas batallas legales podrían redefinir los límites de todo el sector.
Relacionado: OpenAI enfrenta orden para retener la información que le compartiste, aunque la hayas eliminado
The rest of this article is locked.
Join Entrepreneur+ today for access.
Already have an account? Sign In