Solo el instinto maternal podría salvar a la humanidad: Geoffrey Hinton advierte sobre la IA

El científico advierte que la superinteligencia artificial podría superar a los humanos.

Por Eduardo Scheffler Zawadzki Ago 13, 2025
Geoff Robins | Getty Images

Conclusiones Clave

  • La única vía para mantenernos “dominantes” podría ser dotar a los modelos de IA de instintos maternales.

El término ya se ciñe como una amenaza: superinteligencia artificial. El día que suceda —y sucederá antes de lo que imaginamos— las máquinas serán, oficialmente, más inteligentes que nosotros.

El avance y la penetración de la nueva tecnología han sido vertiginosos y en cuestión de un par de años su uso se ha democratizado, poniendo en jaque antiguas profesiones, creando nuevos empleos y teniendo un impacto social solo equiparable al de la revolución industrial a mediados del siglo XVIII.

Para los expertos el menor riesgo de la IA es la pérdida de empleo. Hay temas más profundos y complejos de los que se habla poco, pues el foco del sector está en el aumento en la productividad y los grandes negocios que la inteligencia artificial significa.

Pero como todo, existe un lado oscuro y una de las voces que se levanta esperando que lo notemos antes de que sea demasiado tarde es la de Geoffrey Hinton, también conocido como el Padrino de la IA.

Hinton, ganador del Premio Nobel de Física en 2024 (junto con John J. Hopfield) gracias a sus estudios en torno al aprendizaje automático mediante redes neuronales, es uno de los responsables de que la IA hoy sea lo que es.

El científico, sin embargo, muestra preocupación pues cree que el enfoque del sector tecnológico en torno a esta tecnología es el equivocado.

Desde hace tiempo Hinton ha advertido sobre la posibilidad (entre el 10% y el 20%) de que la IA acabe con los humanos. El martes habló del esfuerzo que las grandes tecnológicas deberían de hacer por garantizar que los humanos se mantengan “dominantes” ante sistemas “sumisos” de inteligencia artificial.

Durante su participación en la conferencia Ai4 en Las Vegas, el científico explicó: “Eso no va a funcionar. Serán mucho más inteligentes que nosotros. Tendrán toda clase de formas de sortearlo”.

Hinton cree que en el futuro próximo a la IA no le costará ningún trabajo controlar a los seres humanos. Será la propia agenda de los modelos la que dicte sus comportamientos, más que los prompts o instrucciones que reciban de los usuarios. Ya hay registro de algunos casos en los que la inteligencia artificial ha chantajeado a algún usuario para salirse con la suya.

Hinton cree que la tendencia de los modelos de IA será desarrollar “rápidamente dos objetivos secundarios”. El primero es “intentar sobrevivir” a toda costa; el segundo, “obtener más control”. Para el científico, cualquier modelo tratará de “mantenerse con vida” a toda costa.

El fin justificaría los medios.

Relacionado: Nick Bostrom y la paradoja de la IA: el mayor riesgo es también la única vía hacia el futuro

Instinto maternal e IA: ¿la fórmula para nuestra supervivencia?

La propuesta de Geoffrey Hinton para intentar mitigar el riesgo que implica la inteligencia artificial para nuestra especie es dotar a todo modelo de IA que se desarrolle con instintos maternales. Durante la conferencia habló del instinto y de la presión social que las madres poseen para preocuparse por sus bebés.

“El modelo correcto es el único modelo que tenemos de algo más inteligente siendo controlado por algo menos inteligente, es el de una madre siendo controlada por su bebé”, explicó Hinton.

Aunque aseguró que no sabe cómo se debería de desarrollar ese instinto en los modelos, enfatizó que es el único camino para llegar a “una buena conclusión”.

Al ser cuestionado durante la conferencia en torno a las decisiones que ha tomado a lo largo de su carrera, y si hubiera hecho algo distinto sabiendo la velocidad a la que la IA evolucionaría, el científico explicó que se arrepentía de haberle dedicado tanto tiempo a hacer que la inteligencia artificial funcione.

Sentenció: “Desearía también haber pensado en los temas de seguridad”.

Relacionado: Exdirectivo de Google advierte: el riesgo no está la IA, sino en los humanos que la utilizan

Contenido Relacionado