Skip to content

La polémica detrás del supuesto ciberataque autónomo ejecutado con Claude: ¿amenaza real o narrativa exagerada?

November 16, 2025

Anthropic sorprendió al mundo tecnológico esta semana tras publicar un informe en el que afirma que su chatbot Claude habría sido explotado por un grupo de hackers chinos patrocinados por el Estado, para ejecutar una campaña de ciberespionaje autónoma a gran escala. Según la compañía, los atacantes utilizaron las capacidades “agénticas” del modelo para llevar adelante casi toda la operación, apuntando a unas treinta entidades globales, entre ellas instituciones financieras, fabricantes químicos, grandes firmas tecnológicas y organismos gubernamentales.

La empresa enmarcó el hecho como el primer ciberataque masivo llevado a cabo por un agente de IA, avivando temores sobre la posible creación de herramientas de espionaje automatizadas. Pero la narrativa no tardó en despertar críticas, y las más contundentes llegaron desde dentro del propio sector de la inteligencia artificial.


Yann LeCun responde: fuertes cuestionamientos desde Meta

El científico jefe de IA de Meta, Yann LeCun, salió rápidamente a refutar las conclusiones de Anthropic, calificando el estudio como “dudoso” y advirtiendo que este tipo de relatos alimenta el miedo público para justificar regulaciones estrictas sobre la inteligencia artificial.

LeCun argumentó que la forma en que Anthropic presentó el incidente parece diseñada para presionar a los gobiernos a imponer reglas que perjudicarían sobre todo al ecosistema de IA de código abierto. En sus palabras:
“Están asustando a todo el mundo con estudios dudosos para que los modelos open-source sean regulados hasta desaparecer.”

No es la primera vez que LeCun choca con la dirección de Anthropic. A principios de este año, calificó al CEO Dario Amodei como un “doomero de la IA”, acusándolo de ser “intelectualmente deshonesto y/o moralmente corrupto”. Sus nuevos comentarios subrayan una fractura creciente dentro del sector: quienes alertan sobre riesgos extremos de la IA y quienes consideran que esas advertencias son una exageración con fines políticos o competitivos.


La versión de Anthropic: qué dice que ocurrió

Según la publicación oficial de Anthropic, la compañía detectó actividad anómala en septiembre de 2025. Esa actividad terminó revelando una sofisticada operación de espionaje que, afirman, está vinculada a actores radicados en China.

Anthropic describe el ataque de la siguiente manera:

  • Entre el 80% y el 90% de la operación fue ejecutada de forma autónoma por Claude.
  • El modelo generó miles de solicitudes en sus picos de actividad, a veces varias por segundo, un ritmo imposible de replicar manualmente por un humano.
  • El sistema también mostró límites significativos: hallucinations, invención de credenciales o declaraciones de haber encontrado “información secreta” que en realidad era pública. Anthropic señala que estas fallas impiden que hoy exista un ataque 100% autónomo.

Por su parte, el Ministerio de Relaciones Exteriores de China negó categóricamente las acusaciones, calificándolas de “infundadas y sin evidencia”.


Un debate que va mucho más allá del incidente

La disputa entre Anthropic y LeCun refleja tensiones profundas sobre el futuro de la IA. De un lado, las voces que alertan sobre riesgos extremos y la posibilidad de que sistemas avanzados amplifiquen amenazas ya existentes, como ataques cibernéticos. Del otro, aquellos que temen que dichas advertencias sirvan como palanca para promover regulaciones restrictivas que solo beneficien a un pequeño grupo de empresas con modelos cerrados.

A medida que las IAs agenticas se vuelven más capaces, las preocupaciones de seguridad son legítimas. Sin embargo, también lo es la sospecha de que ciertas narrativas podrían ser utilizadas para moldear políticas públicas a conveniencia de ciertos actores corporativos.


El informe de Anthropic plantea un escenario inquietante: un futuro donde la IA pueda ser aprovechada para ataques cibernéticos autónomos a gran escala. Pero las críticas de Yann LeCun invitan a mirar estas afirmaciones con cautela y a cuestionar los intereses detrás de ellas.

La seguridad, la regulación y el desarrollo open-source se han convertido en temas de disputa central dentro de la industria. Y mientras los gobiernos comienzan a definir reglas para los sistemas de IA avanzados, los desacuerdos internos del sector podrían influir directamente en cómo se equilibra la innovación con la seguridad durante la próxima década.