La conversación sobre inteligencia artificial nació con una modestia engañosa. Se trataba de redactar correos menos torpes, ahorrar tiempo en la oficina o evitar otro PowerPoint criminal.
Mientras el usuario promedio jugaba con chatbots, en el Pentágono la IA mutaba en algo menos inocente. La tecnología que no terminamos de entender ya no solo redacta: también ayuda a elegir objetivos en la guerra.
Estados Unidos toma decisiones militares en Irán con sistemas de IA diseñados para analizar datos, identificar blancos y simular escenarios en tiempo real. No es una herramienta periférica. Es parte de una doctrina que la pone en el centro, en la que la ventaja depende cada vez más de la velocidad de procesamiento. En ese engranaje, Claude, el modelo de Anthropic, formaba parte del sistema. Hasta que chocó con el Pentágono.
No se trata de un diferendo contractual más. El dilema es profundo. ¿Quién fija los límites de una tecnología con el potencial de volverse ingobernable? Anthropic aceptó trabajar con el Departamento de Defensa solo si podía mantener dos líneas rojas: evitar la vigilancia masiva de ciudadanos estadounidenses e impedir el uso de armas autónomas sin supervisión humana directa. Al gobierno de Donald Trump no le gustó la advertencia. En un movimiento inusual, pasó a considerar a la empresa un riesgo para la cadena de suministro estatal, una etiqueta antes reservada para amenazas externas.
La tregua entre Silicon Valley y la Casa Blanca se rompió. Varias empresas y grupos del sector salieron a respaldar a Anthropic. No por un súbito arrebato moral, sino por miedo al precedente. Si el Estado puede intentar arruinar a una empresa por discutir los límites al uso militar de su tecnología, ninguna está del todo a salvo.
Para entender la magnitud del cambio hay que mirar las entrañas del Proyecto Maven. Lo que comenzó en 2017 como un proyecto de Google para identificar objetos en videos de drones mutó, bajo el ala de Palantir, en el sistema Maven, un tejido que une sensores con disparadores. Ingiere información de más de 150 fuentes: satélites comerciales, señales de radio, radares y redes sociales. Su función es comprimir la llamada cadena de la muerte.
En la campaña contra Irán, el sistema permite que un mando militar haga clic en un punto para que la IA sugiera el recurso más eficaz para atacar. Hay algo obscenamente moderno en matar con la misma lógica con la que se pide un auto en una app. En 2020, procesar esos datos tomaba 12 horas. Hoy el proceso puede resolverse en cuestión de segundos. El progreso prometía ahorrar tiempo. Ahora también ahorra escrúpulos.
El Pentágono insiste en que hay un humano en el circuito. En los papeles, sí. Pero cuando un sistema identifica miles de objetivos en un día, el rol del militar corre el riesgo de reducirse a un sello de aprobación de 20 segundos. La prisa enceguece la prudencia. ¿Quién responde cuando la máquina se equivoca?
La responsabilidad sigue teniendo nombre y apellido en el papel, pero en la práctica empieza a volverse difusa.
Todo esto explica por qué este episodio no revela una anomalía, sino una mutación. El Estado sigue ahí, pero ya no actúa solo. Manda, pero usa herramientas que no crea ni controla del todo. No hay una privatización de la soberanía ni una estatización de la innovación.
Hay algo más incómodo: una democracia que empieza a oscilar entre dos formas de concentración de poder, un Estado que quiere control sin límites y empresas privadas con capacidad de veto sobre funciones soberanas. ¿Cuál da más miedo?
Toda concentración de poder termina por buscar su teología. Y Roma siempre tuvo especialistas en el Apocalipsis. La novedad es que Peter Thiel, fundador de Palantir y figura clave en la órbita de Trump, organizó una conferencia de cuatro días sobre el Anticristo. Su desembarco en Roma no fue el de un profeta. Se sintió como una corona de espinas. Parte de la política italiana tomó distancia.
El Vaticano interpretó su presencia como una intromisión en la casa del Papa.
Para Thiel, el peligro no es el caos, sino un poder global capaz de prometer paz y seguridad a cambio de un control total. Mira con recelo a los reguladores y a quienes quieren frenar el desarrollo tecnológico en nombre de la prudencia o de la dignidad humana. La jugada es astuta. Invierte el miedo. Donde otros ven peligro en la desregulación tecnológica, él ve peligro en el freno humano. Donde otros temen a la inteligencia artificial, él teme que ese miedo se use para construir una cárcel global regulada.
Thiel es el arquitecto de un poder técnico que estará en el corazón de la economía y de la guerra del futuro. Para una parte de esa élite, la democracia es el marco viejo: la estructura lenta y molesta que habrá que correr del camino.
No hay que ser conspiranoico para ver el problema ni hay beneficio en demonizar la tecnología. La inteligencia artificial ya está cambiando el mundo. La pregunta no es esa. La pregunta es quiénes van a decidir cómo, con qué límites y en nombre de quién.