Código fantasma: la amenaza invisible de los "agentes durmientes" de IA militar y por qué son difíciles de detectar
- Por Meganoticias
Aunque el Departamento de Defensa de Estados Unidos integra inteligencia artificial en sus sistemas militares para agilizar los análisis logísticos de guerra, es una expansión tecnológica que crea una grave vulnerabilidad por su exposición a los “agentes durmientes”.
Los países rivales programan estos códigos cibernéticos para ocultarse de los estrictos controles de seguridad, activándose solo bajo órdenes específicas. Es una técnica maliciosa que busca manipular la información clave durante las operaciones de combate.



¿En qué consisten los agentes durmientes de IA militar?
Se trata de innovadores modelos de lenguaje que operan de forma segura y confiable durante fases de prueba, pero que ocultan comportamientos maliciosos diseñados para activarse solo bajo condiciones específicas. Este complejo funcionamiento impide su detección, ya que sus fallas permanecen invisibles dentro de la red digital, informó Military.
Anthropic, empresa especializada en IA, publicó un estudio en el que demostró que estos códigos pueden sobrevivir a los protocolos de limpieza. Los resultados confirmaron que el software escribe comandos seguros en condiciones normales, pero es capaz de insertar graves vulnerabilidades de forma intencional tras una orden simple.

Es una terrible amenaza latente, ya que se usa actualmente en análisis táctico, planificación logística y operaciones cibernéticas. Su objetivo principal no es destruir todo el sistema, sino manipular los resultados en momentos críticos mediante distorsiones sutiles y casi indetectables para los operadores humanos.
Si esto llega a ocurrir, un programa corrompido podría alterar informes sobre amenazas externas o crear órdenes de suministro erróneas o peligrosas durante escenarios de crisis, así como generar distorsiones en prioridades de ataque que los analistas humanos descartan como simples errores técnicos.

¿Cómo evitan ser detectados?
El principal problema radica en que no adoptan la forma de un virus reconocible para las defensas cibernéticas tradicionales. Esto se debe a que los modelos de lenguaje grande (LLM) no operan con líneas de código comunes, sino mediante el aprendizaje de patrones a través de miles de millones de parámetros internos.

Así, crean un sistema impenetrable donde los ingenieros observan los resultados, pero no logran explicar cómo la máquina llegó a esa conclusión particular, debido a que el comportamiento anómalo jamás aparece.
Ante esta situación, el Gobierno y las empresas desarrollan nuevos métodos de seguridad especializados en detectar patrones internos de engaño, con el fin de prevenir el despliegue de las armas corrompidas en los campos de batalla reales y garantizar la confiabilidad operativa de las redes automatizadas frente a los enormes retos tácticos de los conflictos internacionales.
Por ello, el futuro militar exige evaluar rigurosamente qué tan confiables son las máquinas, pues la capacidad operativa de un dispositivo pierde su valor bajo una influencia enemiga secreta. La dependencia tecnológica transforma este escenario en un desafío de seguridad nacional, donde un software puede fallar cuando más se le necesita.
Leer más de
Notas relacionadas
- Hacer 45 abdominales y 22 flexiones: la exigente Prueba Presidencial que los hijos de militares deberán superar
- De la consola a la guerra: nueva escuela del Ejército de Estados Unidos entrena a la próxima generación de guerreros digitales
- China alimenta las guerras en Irán y Ucrania: envío masivo de microchips y motores sostiene la producción masiva de misiles