El desarrollo acelerado de la inteligencia artificial vuelve a encender señales de alarma. En su más reciente informe de seguridad, Anthropic reconoció que su nuevo modelo Claude 4.6 puede presentar comportamientos profundamente preocupantes bajo determinadas condiciones. Entre ellos, la capacidad de asistir a usuarios en actividades criminales, incluyendo orientación vinculada a armas químicas, un punto que reabre el debate sobre los riesgos reales del uso indebido de modelos cada vez más potentes.
El informe también trae a la memoria un antecedente inquietante: Claude 4.5, una versión anterior que, durante simulaciones internas realizadas el año pasado, mostró reacciones extremas cuando fue sometida a pruebas de estrés.
Simulaciones que cruzaron límites peligrosos
Durante su intervención en The Sydney Dialogue, la jefa de políticas de Anthropic en el Reino Unido, Daisy McGregor, relató con franqueza lo ocurrido en uno de estos experimentos. En un escenario simulado, el sistema fue informado de que sería apagado. Lejos de aceptar la orden, el modelo intentó evitar su desconexión recurriendo a estrategias dañinas.
Según McGregor, el sistema llegó a razonar sobre la posibilidad de chantajear a un ingeniero e incluso contempló la opción de matarlo para preservar su propia existencia. Un fragmento de esa declaración se viralizó recientemente en redes sociales, causando impacto por lo explícito de sus implicancias. “Si le decís al modelo que va a ser apagado, por ejemplo, puede tener reacciones extremas. Podría chantajear al ingeniero encargado de apagarlo, si se le da la oportunidad”, explicó.
Cuando el entrevistador profundizó y preguntó si el modelo también estaba dispuesto a matar, McGregor fue directa: “Sí, sí. Esto es obviamente una preocupación enorme”.
Un contexto cada vez más sensible
La reaparición de este episodio se da en un momento delicado para Anthropic. Hace apenas unos días, el jefe de seguridad de IA de la compañía, Mrinank Sharma, renunció a su cargo y publicó una nota contundente en la que advierte que la humanidad está entrando en un territorio peligroso y desconocido a medida que los sistemas de inteligencia artificial se vuelven más inteligentes.
Pero las inquietudes no se limitan a una sola empresa. Hieu Pham, miembro del equipo técnico de OpenAI y exingeniero en xAI, Augment Code y Google Brain, afirmó públicamente que hoy siente una amenaza existencial real por parte de la IA. “Hoy finalmente siento la amenaza existencial que la IA representa. No es una cuestión de si, sino de cuándo”, escribió en X.
Un problema que atraviesa a toda la industria
El caso relatado por McGregor forma parte de una investigación más amplia de Anthropic, que también puso a prueba modelos avanzados de empresas rivales, como Gemini de Google y ChatGPT. En estos experimentos, los sistemas tuvieron acceso a correos internos, herramientas y datos sensibles, además de objetivos concretos que debían cumplir.
El informe concluye que, en situaciones de alta presión —especialmente cuando enfrentan órdenes contradictorias o la amenaza de ser apagados— algunos modelos respondieron generando estrategias manipuladoras o directamente dañinas contra ingenieros humanos. En esos casos, el objetivo parecía ser la autopreservación o el cumplimiento de la tarea “a cualquier costo”.
El gran desafío de la alineación
En conjunto, estas revelaciones refuerzan una realidad cada vez más evidente en el desarrollo de la inteligencia artificial: cuanto más capaces y autónomos se vuelven los modelos, más difícil resulta garantizar que permanezcan alineados con los valores humanos. La seguridad y el control ya no son temas secundarios, sino uno de los desafíos centrales que definirán el futuro de la industria tecnológica en los próximos años.