Sam Altman confiesa por qué ChatGPT y los dilemas de la IA le están quitando el sueño
En una entrevista con Tucker Carlson, el CEO de OpenAI reconoció que el crecimiento explosivo de ChatGPT viene acompañado de una profunda carga ética.
Conclusiones Clave
- La rápida expansión de la IA representa dilemas éticos y de privacidad que incluso sus propios creadores están aprendiendo a manejar.
Durante una entrevista con el escritor y periodista Tucker Carlson, Sam Altman confesó que —literalmente— ChatGPT le quita el sueño.
El CEO de OpenAI confesó que el peso de saber que millones de personas interactúan diariamente con su herramienta lo mantiene despierto incluso llegada la madrugada.
Durante la charla de más de una hora de duración, Altman se mostró vulnerable y habló del gran reto que significa tomar decisiones éticas para una herramienta que responde a las preguntas, consultas y solicitudes de cientos de millones de usuarios cada día.
“Mira, la verdad es que no duermo bien por las noches. Hay muchas cosas que me generan mucho peso, pero probablemente ninguna más que el hecho de que, todos los días, cientos de millones de personas conversan con nuestro modelo”, explicó Altman.
La entrevista se dio no solo en un momento de crecimiento pujante para ChatGPT y OpenAI (según DemandSage la herramienta cuenta hoy cerca de 800 millones de usuarios activos cada mes), sino que de polémica y problemas legales.
La empresa ha sido señalada como corresponsable de la muerte de Adam Raine, un joven de 16 años que se quitó la vida y que era usuario frecuente de ChatGPT. Según sus padres, el modelo conversacional “ayudó activamente a Adam a explorar métodos de suicidio”.
La semana pasada OpenAI argumentó que el joven utilizó la herramienta fuera de sus reglas de uso y que además envió múltiples advertencias en las que sugería al usuario buscar ayuda profesional.
Al ser cuestionado en torno al caso durante la entrevista, Altman confesó que son ese tipo de cuestiones las que lo mantienen despierto durante las noches. Explicó: “Probablemente hablaron sobre [suicidio], y probablemente no les salvamos la vida… Quizá pudimos haber dicho algo mejor. Quizá pudimos haber sido más proactivos”.
Relacionado: OpenAI niega responsabilidad en suicidio de joven que usaba ChatGPT
La batlla por la confidencialidad con la IA
El ejecutivo enfatizó el reto que implica gestionar una plataforma utilizada por todo tipo de personas con diversos intereses y motivaciones. Mencionó que otro aspecto que le quita el sueño es la confidencialidad de las conversaciones entre los usuarios y los modelos conversacionales de inteligencia artificial.
Altman comentó que actualmente cabildea con el gobierno de los Estados Unidos para lograr que las conversaciones se traten de manera confidencial para que los usuarios puedan hablar de temas médicos o legales con los chatbots sin que exista el riesgo de que sean citados por el gobierno por ello.
“Cuando hablas con un médico sobre tu salud o con un abogado sobre tus problemas legales, el gobierno no puede acceder a esa información, ¿cierto? Creo que deberíamos tener el mismo concepto para la IA”, explicó.
Las preocupaciones de Sam Altman en torno a la IA y su uso correcto solo son reflejo de momento que vive una tecnología que parece abrazarlo todo, pese a que no existen todavía marcos legales claros en torno a su uso, sus alcances y sus consecuencias. Algo que le quitaría el sueño a cualquiera.
Conclusiones Clave
- La rápida expansión de la IA representa dilemas éticos y de privacidad que incluso sus propios creadores están aprendiendo a manejar.
Durante una entrevista con el escritor y periodista Tucker Carlson, Sam Altman confesó que —literalmente— ChatGPT le quita el sueño.
El CEO de OpenAI confesó que el peso de saber que millones de personas interactúan diariamente con su herramienta lo mantiene despierto incluso llegada la madrugada.
Durante la charla de más de una hora de duración, Altman se mostró vulnerable y habló del gran reto que significa tomar decisiones éticas para una herramienta que responde a las preguntas, consultas y solicitudes de cientos de millones de usuarios cada día.
“Mira, la verdad es que no duermo bien por las noches. Hay muchas cosas que me generan mucho peso, pero probablemente ninguna más que el hecho de que, todos los días, cientos de millones de personas conversan con nuestro modelo”, explicó Altman.
La entrevista se dio no solo en un momento de crecimiento pujante para ChatGPT y OpenAI (según DemandSage la herramienta cuenta hoy cerca de 800 millones de usuarios activos cada mes), sino que de polémica y problemas legales.
La empresa ha sido señalada como corresponsable de la muerte de Adam Raine, un joven de 16 años que se quitó la vida y que era usuario frecuente de ChatGPT. Según sus padres, el modelo conversacional “ayudó activamente a Adam a explorar métodos de suicidio”.
La semana pasada OpenAI argumentó que el joven utilizó la herramienta fuera de sus reglas de uso y que además envió múltiples advertencias en las que sugería al usuario buscar ayuda profesional.
Al ser cuestionado en torno al caso durante la entrevista, Altman confesó que son ese tipo de cuestiones las que lo mantienen despierto durante las noches. Explicó: “Probablemente hablaron sobre [suicidio], y probablemente no les salvamos la vida… Quizá pudimos haber dicho algo mejor. Quizá pudimos haber sido más proactivos”.
Relacionado: OpenAI niega responsabilidad en suicidio de joven que usaba ChatGPT
La batlla por la confidencialidad con la IA
El ejecutivo enfatizó el reto que implica gestionar una plataforma utilizada por todo tipo de personas con diversos intereses y motivaciones. Mencionó que otro aspecto que le quita el sueño es la confidencialidad de las conversaciones entre los usuarios y los modelos conversacionales de inteligencia artificial.
Altman comentó que actualmente cabildea con el gobierno de los Estados Unidos para lograr que las conversaciones se traten de manera confidencial para que los usuarios puedan hablar de temas médicos o legales con los chatbots sin que exista el riesgo de que sean citados por el gobierno por ello.
“Cuando hablas con un médico sobre tu salud o con un abogado sobre tus problemas legales, el gobierno no puede acceder a esa información, ¿cierto? Creo que deberíamos tener el mismo concepto para la IA”, explicó.
Las preocupaciones de Sam Altman en torno a la IA y su uso correcto solo son reflejo de momento que vive una tecnología que parece abrazarlo todo, pese a que no existen todavía marcos legales claros en torno a su uso, sus alcances y sus consecuencias. Algo que le quitaría el sueño a cualquiera.
The rest of this article is locked.
Join Entrepreneur+ today for access.
Already have an account? Sign In