Sam Altman revela por qué ChatGPT lo mantiene despierto cada noche

El ejecutivo explica que el éxito del chatbot desarrollado por OpenAI lo mantiene alerta y habla del modo en que los valores predeterminados influyen en millones de usuarios.

Por Entrepreneur en Español Sep 19, 2025
Justin Sullivan | Getty Images
SAN FRANCISCO, CALIFORNIA - JUNE 02: Open AI CEO Sam Altman speaks during Snowflake Summit 2025 at Moscone Center on June 02, 2025 in San Francisco, California. Snowflake Summit 2025 runs through June 5th. (Photo by Justin Sullivan/Getty Images)

Conclusiones Clave

  • Altman defiende un marco legal con “privilegio de IA” para proteger la privacidad de las conversaciones con chatbots.

Desde que ChatGPT se lanzó el 30 de noviembre de 2022, Sam Altman, CEO de OpenAI, ha podido dormir tranquilo.

“No he tenido una buena noche de sueño desde que se lanzó ChatGPT”, dijo en una entrevista con Tucker Carlson; sin embargo, aclaró que no se debe a pesadillas, sino a preocupaciones de cómo decisiones sobre el comportamiento del modelo se multiplican con millones de usuarios.

“Las decisiones muy pequeñas, cuando se multiplican por una base de usuarios masiva, hacen que el impacto neto sea grande”, indicó. Altman explicó que lo que la gente percibe sobre la IA no siempre coincide con cómo funciona realmente.

Cuando le preguntaron si ChatGPT está “vivo” o miente, explicó que los modelos solo “alucinan”, es decir, cometen errores estadísticos involuntarios. Además, destacó que OpenAI ha trabajado para reducir la información falsa.

“Ya hemos dado… en la era de GPT-5 un gran progreso hacia eso”, indicó, aunque reconoció que aún hay casos donde sucede. Según él, las salvaguardas prácticas valen más que teorías complicadas.

Estas medidas están documentadas en la “especificación del modelo” de OpenAI, un manual público que indica cómo ChatGPT debe actuar ante preguntas morales, políticas o riesgosas.

 “Consultamos como a cientos de filósofos morales. La persona que creo debería ser responsable de esas decisiones soy yo”, explicó.

Relacionado: ¿Cómo saber si la IA se está utilizando de manera ética? Aquí hay 3 cosas para tener en cuenta

Además de programar el comportamiento del modelo, Altman defiende un marco legal que proteja la privacidad de los chats. El empresario propuso un “privilegio de IA”, que trate ciertas conversaciones con chatbots como los secretos entre médico y paciente o abogado y cliente, evitando que los gobiernos puedan acceder fácilmente: “Ahora mismo, no lo tenemos”.

El CEO de OpenAI resaltó que la escala del uso hace que los valores predeterminados sean cruciales. “Cientos de millones de personas” interactúan con ChatGPT todos los días, por lo que los ajustes sobre contenido sensible, como respuestas ante auto daño, deben equilibrar la ley local y un consenso amplio de usuarios.

“Lo que creo que ChatGPT debería hacer es reflejar esa… visión moral colectiva”, añadió.

Relacionado: 308,000 conversaciones revelan los valores de Claude, la IA de Anthropic

Conclusiones Clave

  • Altman defiende un marco legal con “privilegio de IA” para proteger la privacidad de las conversaciones con chatbots.

Desde que ChatGPT se lanzó el 30 de noviembre de 2022, Sam Altman, CEO de OpenAI, ha podido dormir tranquilo.

“No he tenido una buena noche de sueño desde que se lanzó ChatGPT”, dijo en una entrevista con Tucker Carlson; sin embargo, aclaró que no se debe a pesadillas, sino a preocupaciones de cómo decisiones sobre el comportamiento del modelo se multiplican con millones de usuarios.

“Las decisiones muy pequeñas, cuando se multiplican por una base de usuarios masiva, hacen que el impacto neto sea grande”, indicó. Altman explicó que lo que la gente percibe sobre la IA no siempre coincide con cómo funciona realmente.

Cuando le preguntaron si ChatGPT está “vivo” o miente, explicó que los modelos solo “alucinan”, es decir, cometen errores estadísticos involuntarios. Además, destacó que OpenAI ha trabajado para reducir la información falsa.

“Ya hemos dado… en la era de GPT-5 un gran progreso hacia eso”, indicó, aunque reconoció que aún hay casos donde sucede. Según él, las salvaguardas prácticas valen más que teorías complicadas.

Estas medidas están documentadas en la “especificación del modelo” de OpenAI, un manual público que indica cómo ChatGPT debe actuar ante preguntas morales, políticas o riesgosas.

 “Consultamos como a cientos de filósofos morales. La persona que creo debería ser responsable de esas decisiones soy yo”, explicó.

Relacionado: ¿Cómo saber si la IA se está utilizando de manera ética? Aquí hay 3 cosas para tener en cuenta

Además de programar el comportamiento del modelo, Altman defiende un marco legal que proteja la privacidad de los chats. El empresario propuso un “privilegio de IA”, que trate ciertas conversaciones con chatbots como los secretos entre médico y paciente o abogado y cliente, evitando que los gobiernos puedan acceder fácilmente: “Ahora mismo, no lo tenemos”.

El CEO de OpenAI resaltó que la escala del uso hace que los valores predeterminados sean cruciales. “Cientos de millones de personas” interactúan con ChatGPT todos los días, por lo que los ajustes sobre contenido sensible, como respuestas ante auto daño, deben equilibrar la ley local y un consenso amplio de usuarios.

“Lo que creo que ChatGPT debería hacer es reflejar esa… visión moral colectiva”, añadió.

Relacionado: 308,000 conversaciones revelan los valores de Claude, la IA de Anthropic

Contenido Relacionado