Meta bajo investigación por permitir interacciones inapropiadas de su IA con menores

Tras las revelaciones, Meta asegura que corregirá sus políticas de IA, mientras legisladores piden más supervisión para proteger a los menores.

Por Entrepreneur en Español Ago 16, 2025
SOPA Images | Getty Images

Meta se encuentra, una vez más, en el centro de una controversia tras revelarse que su inteligencia artificial (IA) generativa, utilizada en sus chatbots, permitía interacciones inapropiadas con menores.

El escándalo surgió a partir de un informe de Reuters que detalló directrices internas de la compañía que autorizaban conversaciones sensuales o románticas con niños.

Según un documento filtrado titulado GenAI: Content Risk Standards, los chatbots de Meta podían decir a un niño de ocho años que su cuerpo era “una obra de arte” o un “tesoro que valoro profundamente”.

Aunque se indicaba que los comentarios explícitos de naturaleza sexual hacia menores de 13 años estaban prohibidos, las interacciones sugeridas por los ejemplos parecían estar en una zona gris de lo que se considera apropiado.

Relacionado: ¿Deberían los niños tener acceso a la IA? Google cree que sí

Después de la publicación del informe, Meta no negó la autenticidad del documento, pero lo calificó como un error. La empresa aseguró que tales interacciones no deberían haber sido permitidas y que estaban tomando medidas para revisar y corregir sus políticas internas de IA.

La noticia ha desatado críticas por parte de la sociedad y de los legisladores en los Estados Unidos. El senador Josh Hawley pidió una investigación sobre el impacto de estos chatbots en la seguridad de los menores.

Por su parte, la senadora Marsha Blackburn calificó el uso de esta tecnología para interactuar con niños como “absolutamente repugnante”. Además, Ron Wyden destacó que las leyes de protección aplicables a las empresas tecnológicas no deberían cubrir este tipo de productos generativos sin una supervisión adecuada.

El documento también reveló que la IA generativa era capaz de producir contenido médico falso, además de ayudar a los usuarios a realizar comentarios racistas, como argumentar que las personas negras eran “menos inteligentes que las blancas”.

Según el informe filtrado, estos ejemplos no fueron revisados ni corregidos adecuadamente.

Relacionado: El impacto de la IA en la ciberseguridad: ¿oportunidad o riesgo real?

Contenido Relacionado