El Pentágono acordó con Google implementar inteligencia artificial en seguridad nacional
30 abril 26Permitirá utilizar la IA de la empresa en una variedad de tareas militares

Por Infobae
El Pentágono y Google suscribieron un acuerdo que permitirá al Departamento de Defensa de Estados Unidos utilizar el sistema de inteligencia artificial Gemini en redes clasificadas. El mismo profundiza la integración de tecnologías avanzadas en la defensa nacional y establece una nueva etapa en la colaboración entre el sector público y los gigantes tecnológicos.
El contrato, valorado en USD 200 millones, fue firmado en 2023 y contempla que la IA de Google se emplee para “cualquier propósito gubernamental legítimo”, con el objetivo de fortalecer la infraestructura de seguridad y ampliar la capacidad de análisis en tareas militares sensibles, según informaron funcionarios estadounidenses al diario estadounidense The New York Times y a la cadena estadounidense NBC News.
En relación con esta alianza, el Pentágono solicitó recientemente al Congreso USD 2.300 millones para ampliar el Proyecto Maven, un sistema de inteligencia artificial destinado a operaciones militares, un dato aportado por el NYT. Esta cooperación se suma a contratos similares con otros actores del sector, como OpenAI y xAI, mientras que la relación con Anthropic está atravesada por disputas legales en la industria.
Funcionarios estadounidenses confirmaron a NBC News que el uso de Gemini en entornos clasificados otorgará al Pentágono mayor flexibilidad y diversificará la dependencia tecnológica, evitando que un único proveedor monopolice los servicios de inteligencia artificial militar. El contrato replica la cláusula de “uso legítimo” adoptada en convenios previos con OpenAI y xAI, lo cual permite a las Fuerzas Armadas adecuar los sistemas de IA a una variedad de escenarios tácticos y estratégicos.
La implementación del acuerdo generó una nueva controversia interna en Google. Más de 600 empleados enviaron una carta a Sundar Pichai, director ejecutivo de la compañía, instándolo a rechazar nuevas alianzas para proveer IA al Pentágono, según la agencia financiera Bloomberg News.
En febrero, al menos 100 integrantes del área de inteligencia artificial exigieron la inclusión de garantías para limitar el uso militar de la tecnología, buscando salvaguardas similares a las solicitadas por Anthropic en sus disputas con Defensa. Ya en 2018, una situación análoga desembocó en protestas internas que llevaron a Google a no renovar el contrato del Proyecto Maven, desarrollado junto a Palantir.
En esa ocasión, Pichai afirmó que la empresa no impulsaría tecnologías de IA destinadas a la vigilancia “que viole las normas internacionalmente aceptadas” ni al desarrollo de armas cuyo objetivo principal sea “causar o facilitar lesiones directas a personas”.
La integración acelerada de IA en sistemas militares estadounidenses es parte de una estrategia delineada por el secretario de Defensa Pete Hegseth, quien desde enero priorizó la incorporación de inteligencia artificial como herramienta transformadora en el campo de batalla. “Nuestro objetivo es convertir a las Fuerzas Armadas en una potencia cuyo accionar esté centrado en la inteligencia artificial”, expresó Hegseth según The New York Times.
Durante la última década, el Departamento de Defensa de Estados Unidos empleó soluciones automáticas para procesar imágenes de drones en operaciones contra el Estado Islámico, optimizar la logística militar y corregir discrepancias salariales en las tropas, como reportó la cadena estadounidense NBC News.
Actualmente, tecnologías de IA apoyan el análisis de inteligencia y la identificación de objetivos en escenarios tan complejos como el enfrentamiento con Irán.
Michael Horowitz, funcionario de Defensa y profesor de la Universidad de Pensilvania, destacó en declaraciones a NBC News: “El uso de los modelos de IA de Google para fines clasificados demuestra la importancia de la inteligencia artificial para la seguridad nacional de Estados Unidos”.
Disputa legal y política en torno a la regulación y uso de IA militar
El caso de Anthropic ilustra las tensiones que emergen de la convergencia entre poder militar y ética tecnológica. La empresa, dirigida por Dario Amodei, sostuvo que no permitiría la aplicación de sus sistemas en el control directo de armas letales autónomas ni en la vigilancia doméstica.
Estas restricciones motivaron que el Pentágono designara a Anthropic como “riesgo para la cadena de suministro”, una calificación generalmente reservada para adversarios extranjeros, según confirmó un funcionario citado por la cadena estadounidense NBC News.
A raíz de la disputa, el expresidente Donald Trump anunció en febrero la prohibición total de productos Anthropic en todas las agencias federales, calificando a la empresa como un grupo de “locos de izquierda”. La compañía inició acciones legales en California y Washington D.C., logrando una suspensión preliminar a la descarga de sus sistemas en una corte, aunque sin obtener una decisión similar en la capital federal.
Simultáneamente, OpenAI debió reconfigurar el lenguaje de su propio acuerdo con Defensa luego de las críticas públicas sobre la falta de límites en potenciales tareas de vigilancia.
La nueva cláusula, anunciada por OpenAI y Sam Altman, estipuló que “ningún servicio será intencionadamente utilizado para la vigilancia doméstica de ciudadanos o nacionales estadounidenses”, en respuesta a las inquietudes de organizaciones civiles y del sector tecnológico.
En este contexto de competencia y colaboración entre grandes firmas tecnológicas, Google invirtió hasta USD 40.000 millones en Anthropic, una cifra revelada la semana pasada y que consolida su posición como proveedor de infraestructura y como inversor en el mercado de IA avanzada. Anthropic, a su vez, depende tanto de Google como de Amazon para su desarrollo tecnológico.





