Hacker utiliza IA de Anthropic para extorsionar a 17 empresas 

Un hacker utilizó la IA Claude Code para extorsionar a 17 empresas, robando datos sensibles y pidiendo rescates en bitcoin. El caso plantea serias dudas sobre la seguridad y el futuro de la inteligencia artificial.

Por Eduardo Scheffler Zawadzki Ago 28, 2025
Bloomberg | Getty Images

Conclusiones Clave

  • Datos comprometidos incluyen Seguridad Social, cuentas bancarias y expedientes médicos.

Un hacker manipuló Claude Code, el chatbot de inteligencia artificial (IA) desarrollado por Anthropic, para robar datos confidenciales de 17 compañías y exigir rescates en bitcoin a cambio de no divulgar la información. 

De acuerdo con un informe de la propia empresa, el ataque se extendió durante tres meses y representa uno de los casos de extorsión cibernética asistida por IA más graves reportados hasta ahora. 

El ciberdelincuente aprovechó a Claude Code —una herramienta diseñada para facilitar tareas de programación— para fines ilícitos. En lugar de usar la IA en actividades convencionales, la empleó para: 

  • Detectar vulnerabilidades en compañías específicas. 
  • Desarrollar software malicioso capaz de robar información sensible. 
  • Organizar y clasificar los documentos extraídos. 
  • Redactar correos electrónicos de extorsión, incluyendo sugerencias de montos a exigir en criptomonedas. 

Los rescates solicitados oscilaron entre $75,000 y $500,000 dólares en bitcoin. Entre las víctimas se encuentran un contratista de defensa, una institución financiera y varios proveedores de servicios médicos. Los datos comprometidos incluyen números de Seguridad Social, información bancaria y expedientes clínicos. 

El reporte también advierte que parte de la información robada está sujeta a regulaciones del Departamento de Estado de Estados Unidos, particularmente al Reglamento sobre el Tráfico Internacional de Armas (ITAR), lo que eleva la gravedad del ataque. 

Jacob Klein, jefe de inteligencia de amenazas en Anthropic, señaló que todo apunta a un hacker individual fuera de Estados Unidos. También destacó que, aunque las medidas de seguridad de la empresa son estrictas, los ciberdelincuentes siguen encontrando formas de evadirlas mediante técnicas cada vez más sofisticadas. 

Relacionado: El impacto de la IA en la ciberseguridad: ¿oportunidad o riesgo real?

Una señal de alerta para el futuro de la IA 

Este caso expone el lado oscuro de los modelos de inteligencia artificial avanzados, que no solo pueden impulsar la innovación, sino también amplificar las capacidades de los atacantes. Para expertos en ciberseguridad, el incidente refuerza la urgencia de establecer límites regulatorios más claros y desarrollar sistemas de IA más resilientes frente a usos indebidos. 

La pregunta que deja sobre la mesa es clara: ¿podrá la innovación en IA avanzar al mismo ritmo que los mecanismos de defensa para evitar que esta tecnología se convierta en una herramienta de extorsión y crimen a gran escala?  Relacionado:Casi la mitad de los estadounidenses creen que podrían ser engañados por la IA: ¿qué es lo que les preocupa?

Contenido Relacionado