Defensa estadounidense acelera integración de agentes de IA

La carrera por la supremacía en inteligencia artificial ha dejado de ser exclusivamente tecnológica para convertirse en un eje estructural de poder militar. En el cruce entre Silicon Valley y el Departamento de Defensa de Estados Unidos se está configurando una nueva fase de competencia estratégica: ya no se trata solo de quién desarrolla los modelos más avanzados, sino de quién logra integrarlos con mayor rapidez y fiabilidad en capacidades operativas reales.
En ese escenario se posiciona Scout AI, una startup que adapta modelos fundacionales de gran escala —originalmente concebidos para asistentes virtuales y automatización empresarial— al control de vehículos terrestres autónomos y drones con capacidad letal. La reciente demostración en una base militar en California evidenció algo más profundo que un avance técnico: mostró la transición de los agentes de software hacia sistemas capaces de ejecutar misiones cinéticas con autonomía ampliada y mínima intervención humana directa.
Tomamos un modelo hiperescalable y lo entrenamos para pasar de asistente generalizado a combatiente operativo”, explicó Colby Adcock. El sistema integra modelos de más de 100.000 millones de parámetros con agentes menores desplegados en drones y vehículos terrestres.
La arquitectura tecnológica replica la lógica de la IA comercial contemporánea. Un modelo de más de 100.000 millones de parámetros interpreta órdenes estratégicas y delega instrucciones a modelos más pequeños desplegados en plataformas físicas. Estos, a su vez, coordinan subsistemas que controlan movimiento, navegación y ejecución. El objetivo es permitir replanificación en tiempo real en función del entorno y la intención del comandante, superando la autonomía “heredada” basada en secuencias preprogramadas. En términos doctrinales, esto implica desplazar parte del juicio táctico hacia sistemas probabilísticos capaces de reinterpretar órdenes en el borde operativo.
La apuesta no es aislada. En Washington existe consenso creciente sobre la necesidad de integrar IA avanzada para sostener ventaja estratégica frente a China. Las restricciones a la exportación de chips de alto rendimiento —y su reciente flexibilización— revelan la tensión entre proteger capacidades críticas y no asfixiar el ecosistema que las desarrolla. Para startups de defensa basadas en software, el entorno regulatorio puede ser tan determinante como la madurez técnica.
Sin embargo, trasladar grandes modelos de lenguaje al ámbito militar introduce fricciones estructurales. Los LLM son sistemas probabilísticos con comportamientos emergentes; su potencia reside en la flexibilidad, pero esa misma cualidad complica la validación formal. En aplicaciones comerciales, los errores suelen tener costos reputacionales o financieros; en escenarios de combate, la tolerancia al fallo es radicalmente distinta. La robustez frente a ciberataques, la resistencia a interferencias electrónicas y la trazabilidad de decisiones se convierten en requisitos estratégicos, no solo técnicos.
Scout AI ya cuenta con cuatro contratos con el Departamento de Defensa y compite por un sistema de control de enjambres aéreos. El despliegue operativo, según la empresa, podría tardar al menos un año.
El debate tampoco es puramente tecnológico. La ampliación de la autonomía decisional en sistemas letales tensiona principios consagrados en marcos como la Convención de Ginebra, especialmente en lo relativo a distinción y proporcionalidad. Aunque la empresa sostiene que su tecnología se ajusta a las reglas de intervención del ejército estadounidense, la cuestión central es sistémica: a medida que la capacidad de reinterpretación en tiempo real aumenta, también lo hace la complejidad de atribuir responsabilidad y garantizar control significativo humano.
El vector decisivo, no obstante, es contractual. Scout AI ya acumula cuatro contratos con el Departamento de Defensa y compite por el desarrollo de un sistema de control para enjambres de vehículos aéreos no tripulados. Este tipo de adjudicaciones redefine la arquitectura de adquisiciones militares, cada vez más orientadas a software adaptable y actualizable en ciclos cortos, en lugar de plataformas rígidas con décadas de vida útil. La lógica del despliegue ágil, propia del sector tecnológico, comienza a permear la estructura del complejo industrial-militar.
La guerra en Ucrania ha demostrado cómo drones comerciales de bajo costo pueden alterar la ecuación táctica. La diferencia ahora radica en la capa cognitiva: no se trata solo de autonomía de vuelo, sino de agentes capaces de interpretar objetivos dinámicos y coordinar múltiples activos sin microgestión humana constante. Si esa promesa se consolida con fiabilidad de grado militar, el impacto no será incremental, sino estructural en doctrina, logística y asignación presupuestaria.
“No debemos confundir demostraciones con capacidades de campo con fiabilidad y ciberseguridad de grado militar”, advirtió Michael Horowitz, exsubsecretario adjunto del Pentágono, al evaluar la adopción operativa de IA letal.
Sin embargo, la distancia entre demostraciones controladas y capacidades desplegadas en entornos hostiles sigue siendo considerable. Convertir prototipos en sistemas estandarizados implica superar pruebas exhaustivas de ciberseguridad, interoperabilidad y resiliencia operativa. El desafío para Scout AI y sus pares no es demostrar que pueden destruir un objetivo en una base de pruebas, sino que pueden operar de manera consistente bajo presión, interferencia y ambigüedad estratégica.
Lo que emerge es una nueva vertical industrial: agentes de IA diseñados explícitamente para ejecutar fuerza letal. Esta categoría combina modelos generativos, hardware autónomo y contratos públicos de alta sensibilidad geopolítica. También redefine la relación entre el ecosistema tecnológico y el aparato de defensa estadounidense, desplazando parte de la innovación estratégica hacia startups capaces de iterar con mayor velocidad que los contratistas tradicionales.
La cuestión de fondo ya no es si la inteligencia artificial formará parte del campo de batalla —ese proceso está en curso—, sino bajo qué estándares de control, seguridad y responsabilidad se institucionalizará. En esa definición se juega no solo la arquitectura del poder militar futuro, sino también la legitimidad política y normativa de su ejercicio en una era dominada por sistemas autónomos.
