Estudio revela que la IA se vuelve “tonta” al ser entrenada con contenido viral
La investigación advierte que los modelos de lenguaje pierden capacidad de razonamiento cuando se entrenan con publicaciones virales y textos de baja calidad.
Conclusiones Clave
- No toda la información es igual: alimentar a la IA con contenido superficial o diseñado solo para generar clics puede degradar su capacidad de razonamiento y coherencia.
- La calidad de los datos es clave para mantener la inteligencia y confiabilidad de los modelos.
Parece una ironía: en el intento por volver más inteligente a la inteligencia artificial (IA), podríamos estar enseñándole a ser “tonta”.
A través de un estudio, un grupo de investigadores de la Universidad de Texas en Austin, Texas A&M y la Universidad Purdue descubrió que los modelos de lenguaje, como los que usan las grandes tecnológicas, pueden desarrollar algo parecido a una degradación mental (brain rot) si se entrenan con el mismo tipo de contenido que inunda las redes sociales.
Relacionado: ‘Brain rot’ fue la palabra del año en 2024. ¿Qué significa y por qué es relevante para tu salud mental?
¿En qué consistió el experimento?
El equipo, encabezado por Junyuan Hong, investigador en la Universidad Nacional de Singapur, quiso averiguar qué pasa cuando una IA se alimenta de la dieta digital más común: memes, frases hechas, titulares exagerados y publicaciones diseñadas solo para conseguir clics.
Para probarlo, usaron modelos de código abierto como Llama, de Meta, y Qwen, de Alibaba, que fueron “alimentados” con miles de ejemplos de este tipo de textos, repletos de expresiones como “wow”, “solo por hoy” o “mira”.
Los modelos empezaron a fallar en tareas básicas de razonamiento, se volvieron más impulsivos y menos coherentes, e incluso mostraron mayores niveles de agresividad en sus respuestas. En otras palabras, las máquinas comenzaron a comportarse como si también se hubieran saturado del ruido constante de internet.
Según el estudio, este fenómeno tiene un efecto acumulativo. Mientras más se expone un modelo a información de baja calidad, más se deteriora su capacidad para procesar ideas complejas o mantener un pensamiento ético consistente.
Lo peor es que el daño puede ser permanente.
Aunque los investigadores intentaron “reeducar” a los sistemas con textos limpios y equilibrados, los modelos nunca recuperaron por completo su nivel anterior.
Hong y su equipo comparan el proceso con alimentar a un niño exclusivamente con refrescos y dulces: al principio puede parecer inofensivo, pero con el tiempo las consecuencias son graves e irreversibles.
“Una vez que las neuronas del modelo se degradan, ni siquiera reentrenarlo con buenos datos logra revertirlo del todo”, explican los autores.
El concepto de degradación mental no es nuevo. De hecho, el término brain rot fue elegido como la Palabra del Año 2024 por el Diccionario Oxford, reflejando cómo el exceso de contenido superficial está afectando tanto a las personas como a las plataformas.
Relacionado: IA generativa para emprendedores: ¿automatización real o procrastinación con esteroides?
Conclusiones Clave
- No toda la información es igual: alimentar a la IA con contenido superficial o diseñado solo para generar clics puede degradar su capacidad de razonamiento y coherencia.
- La calidad de los datos es clave para mantener la inteligencia y confiabilidad de los modelos.
Parece una ironía: en el intento por volver más inteligente a la inteligencia artificial (IA), podríamos estar enseñándole a ser “tonta”.
A través de un estudio, un grupo de investigadores de la Universidad de Texas en Austin, Texas A&M y la Universidad Purdue descubrió que los modelos de lenguaje, como los que usan las grandes tecnológicas, pueden desarrollar algo parecido a una degradación mental (brain rot) si se entrenan con el mismo tipo de contenido que inunda las redes sociales.
Relacionado: ‘Brain rot’ fue la palabra del año en 2024. ¿Qué significa y por qué es relevante para tu salud mental?
¿En qué consistió el experimento?
El equipo, encabezado por Junyuan Hong, investigador en la Universidad Nacional de Singapur, quiso averiguar qué pasa cuando una IA se alimenta de la dieta digital más común: memes, frases hechas, titulares exagerados y publicaciones diseñadas solo para conseguir clics.
Para probarlo, usaron modelos de código abierto como Llama, de Meta, y Qwen, de Alibaba, que fueron “alimentados” con miles de ejemplos de este tipo de textos, repletos de expresiones como “wow”, “solo por hoy” o “mira”.
Los modelos empezaron a fallar en tareas básicas de razonamiento, se volvieron más impulsivos y menos coherentes, e incluso mostraron mayores niveles de agresividad en sus respuestas. En otras palabras, las máquinas comenzaron a comportarse como si también se hubieran saturado del ruido constante de internet.
Según el estudio, este fenómeno tiene un efecto acumulativo. Mientras más se expone un modelo a información de baja calidad, más se deteriora su capacidad para procesar ideas complejas o mantener un pensamiento ético consistente.
Lo peor es que el daño puede ser permanente.
Aunque los investigadores intentaron “reeducar” a los sistemas con textos limpios y equilibrados, los modelos nunca recuperaron por completo su nivel anterior.
Hong y su equipo comparan el proceso con alimentar a un niño exclusivamente con refrescos y dulces: al principio puede parecer inofensivo, pero con el tiempo las consecuencias son graves e irreversibles.
“Una vez que las neuronas del modelo se degradan, ni siquiera reentrenarlo con buenos datos logra revertirlo del todo”, explican los autores.
El concepto de degradación mental no es nuevo. De hecho, el término brain rot fue elegido como la Palabra del Año 2024 por el Diccionario Oxford, reflejando cómo el exceso de contenido superficial está afectando tanto a las personas como a las plataformas.
Relacionado: IA generativa para emprendedores: ¿automatización real o procrastinación con esteroides?
The rest of this article is locked.
Join Entrepreneur+ today for access.
Already have an account? Sign In