Ejecutivo de Huawei: “Debemos aceptar las alucinaciones de la IA como parte de su naturaleza”
Tao señala que la “caja negra” de la IA genera desafíos, pero también oportunidades para mejorar la colaboración entre equipos de negocio y TI.

Conclusiones Clave
- Las alucinaciones de la IA son inevitables, pero reconocerlas y gestionarlas permite a las empresas aprovechar la inteligencia artificial generativa de manera más segura y efectiva.
La inteligencia artificial generativa avanza rápidamente, pero con ella llegan retos que las empresas deben enfrentar constantemente. Entre los más comunes están las llamadas “alucinaciones” de la inteligencia artificial (IA).
Las alucinaciones son consideradas un problema para la inteligencia artificial generativa, con chatbots como ChatGPT, Claude o Gemini propensos a producir respuestas “confidentemente incorrectas” ante ciertas consultas.
Esto puede ser delicado en profesiones donde la exactitud es clave. Existen varios casos, por ejemplo, de abogados que citan casos inexistentes como precedentes o presentan conclusiones y resultados incorrectos de casos que sí existen.
Para las empresas, una alternativa es usar modelos de lenguaje grande (LLM, por sus siglas en inglés) entrenados exclusivamente con datos propios. Aunque esto podría reducir la aparición de alucinaciones, la revisión manual sigue siendo fundamental en situaciones críticas.
En la conferencia Huawei Connect 2025, Tao Jingwen, director del departamento de calidad, procesos de negocio y gestión de TI de la empresa de tecnología, propuso un enfoque diferente.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
En lugar de ver las alucinaciones como un obstáculo, Tao sugirió que deben considerarse parte natural de la IA generativa.
“Las alucinaciones de la IA y la naturaleza de caja negra de la inteligencia artificial hacen que sea complicado para las empresas, especialmente para las del sector manufacturero, confiar y tener control sobre ella, generando nuevos problemas relacionados con la predictibilidad y la explicabilidad”, dijo.
Asimismo, agregó que aceptar las alucinaciones no implica ignorarlas.
“Desde mi punto de vista, primero que nada, debemos aceptar las alucinaciones de la IA. Sin alucinaciones, la IA no sería lo que es hoy. Pero aún existe la necesidad de encontrar formas efectivas de controlar y mitigarlas”, manifestó.
Los errores de la IA no desaparecerán. Investigadores de OpenAI destacaron que las alucinaciones son una consecuencia del entrenamiento de la mayoría de los LLM y que son “inevitables” para los modelos base. Señalaron que entrenamientos más especializados, con datos más enfocados y penalización de errores, pueden ayudar a reducirlas, aunque nunca se eliminarán por completo.
Aceptar las alucinaciones de la IA no es resignarse, sino aprender a controlarlas y aprovechar su potencial sin perder precisión ni confianza.
Relacionado: Cómo entrenar a la IA para que realmente entienda tu negocio
Conclusiones Clave
- Las alucinaciones de la IA son inevitables, pero reconocerlas y gestionarlas permite a las empresas aprovechar la inteligencia artificial generativa de manera más segura y efectiva.
La inteligencia artificial generativa avanza rápidamente, pero con ella llegan retos que las empresas deben enfrentar constantemente. Entre los más comunes están las llamadas “alucinaciones” de la inteligencia artificial (IA).
Las alucinaciones son consideradas un problema para la inteligencia artificial generativa, con chatbots como ChatGPT, Claude o Gemini propensos a producir respuestas “confidentemente incorrectas” ante ciertas consultas.
Esto puede ser delicado en profesiones donde la exactitud es clave. Existen varios casos, por ejemplo, de abogados que citan casos inexistentes como precedentes o presentan conclusiones y resultados incorrectos de casos que sí existen.
Para las empresas, una alternativa es usar modelos de lenguaje grande (LLM, por sus siglas en inglés) entrenados exclusivamente con datos propios. Aunque esto podría reducir la aparición de alucinaciones, la revisión manual sigue siendo fundamental en situaciones críticas.
En la conferencia Huawei Connect 2025, Tao Jingwen, director del departamento de calidad, procesos de negocio y gestión de TI de la empresa de tecnología, propuso un enfoque diferente.
Relacionado: Los primeros 1,000 días de ChatGPT: lecciones clave de IA para líderes empresariales
En lugar de ver las alucinaciones como un obstáculo, Tao sugirió que deben considerarse parte natural de la IA generativa.
“Las alucinaciones de la IA y la naturaleza de caja negra de la inteligencia artificial hacen que sea complicado para las empresas, especialmente para las del sector manufacturero, confiar y tener control sobre ella, generando nuevos problemas relacionados con la predictibilidad y la explicabilidad”, dijo.
Asimismo, agregó que aceptar las alucinaciones no implica ignorarlas.
“Desde mi punto de vista, primero que nada, debemos aceptar las alucinaciones de la IA. Sin alucinaciones, la IA no sería lo que es hoy. Pero aún existe la necesidad de encontrar formas efectivas de controlar y mitigarlas”, manifestó.
Los errores de la IA no desaparecerán. Investigadores de OpenAI destacaron que las alucinaciones son una consecuencia del entrenamiento de la mayoría de los LLM y que son “inevitables” para los modelos base. Señalaron que entrenamientos más especializados, con datos más enfocados y penalización de errores, pueden ayudar a reducirlas, aunque nunca se eliminarán por completo.
Aceptar las alucinaciones de la IA no es resignarse, sino aprender a controlarlas y aprovechar su potencial sin perder precisión ni confianza.
Relacionado: Cómo entrenar a la IA para que realmente entienda tu negocio