Mutatis mutandis

Blog de Alejandro Zenker · Editor, ensayista, fotógrafo

La guerra que ya empezó: IA, poder militar y el colapso del orden mundial

La semana pasada publiqué un artículo que, a la luz de lo que ha ocurrido en las últimas horas, resulta involuntariamente profético. Analizaba la confrontación sin precedentes entre el gobierno de Estados Unidos y Anthropic, la empresa creadora de Claude, uno de los modelos de inteligencia artificial más avanzados del mundo. La disputa giraba en torno a la negativa de Anthropic a permitir que su tecnología fuera utilizada sin restricciones para vigilancia masiva de ciudadanos y para sistemas de armas autónomas letales.

El gobierno respondió con la furia de quien no tolera que le digan que no: designó a Anthropic como riesgo para la cadena de suministro —una categoría reservada hasta ahora para adversarios extranjeros como Huawei—, el presidente amenazó con “consecuencias civiles y criminales”, y el Pentágono le dio un ultimátum de horas para someterse.

Mientras escribía ese análisis, una pregunta me rondaba: ¿por qué tanta urgencia? ¿Por qué el gobierno más poderoso del mundo dedicaba una semana entera a aplastar a una empresa de inteligencia artificial, empleando un arsenal legal y retórico desproporcionado?

La respuesta llegó este sábado 28 de febrero, apenas horas después de que venció el ultimátum a Anthropic: Estados Unidos e Israel lanzaron la Operación Epic Fury contra Irán, el ataque militar más grande en Medio Oriente desde la invasión de Irak en 2003.

La secuencia temporal no es coincidencia. Es causalidad.

I. De Departamento de Defensa a Departamento de Guerra

En las semanas previas al ataque, la administración Trump completó el cambio de nombre del Departamento de Defensa al Departamento de Guerra (Department of War). Muchos analistas lo descartaron como un gesto simbólico. No lo era. Era una declaración de doctrina. Defense implica reacción: te defiendes de amenazas. War implica acción: haces la guerra. El cambio de nombre anunciaba un cambio de postura estratégica que se materializó con misiles sobre Teherán.

El ataque fue devastador y sistemático. Ciudades enteras —Teherán, Isfahán, Qom, Karaj, Kermanshah— fueron bombardeadas simultáneamente por aire y mar. Los objetivos declarados: destruir la capacidad de misiles balísticos de Irán, desmantelar su programa nuclear y —aquí la palabra clave— derrocar al régimen.

No una operación de contención, sino un intento de cambio de régimen con todas las letras, algo que el gobierno de Trump ya había ensayado semanas antes al capturar al presidente de Venezuela, Nicolás Maduro, y trasladarlo a Nueva York para enfrentar cargos criminales.

Horas después del inicio de los bombardeos, fuentes israelíes confirmaron que el Líder Supremo, el ayatolá Alí Jamenei, había sido asesinado en los ataques. Se trata de un acto sin precedentes en las relaciones internacionales modernas: el asesinato deliberado del jefe de Estado de un país soberano mediante una operación militar conjunta. Sumado a la captura del presidente venezolano, el mensaje al mundo es inequívoco: las reglas del orden internacional establecidas después de la Segunda Guerra Mundial han dejado de operar. Quien tiene el poder militar, dicta la ley.

II. La IA como arma de guerra

Es en este contexto donde la batalla contra Anthropic adquiere su verdadero significado. No fue una disputa comercial ni un arrebato burocrático. Fue el choque frontal entre dos visiones sobre el papel de la inteligencia artificial en la guerra.

Los hechos, reconstruidos a partir de reportes de Axios, The Washington Post, Bloomberg y NPR: el Departamento de Guerra exigió a Anthropic que permitiera el uso de Claude —su modelo de IA, el único desplegado actualmente en los sistemas clasificados del ejército— “para todos los fines legales”, sin restricción alguna. Anthropic se negó en dos puntos específicos: no permitiría que Claude fuera usado para vigilancia masiva doméstica ni para sistemas de armas completamente autónomos, es decir, máquinas que matan sin supervisión humana.

Lo que Axios reveló el viernes —horas antes del ataque a Irán— es aún más perturbador: el “acuerdo” que el Pentágono ofrecía a Anthropic habría requerido permitir “la recolección o análisis de datos de estadounidenses, desde geolocalización hasta historial de navegación web y datos financieros personales comprados a intermediarios de datos”. No era una cláusula hipotética. Era un requerimiento operativo concreto: el gobierno quería usar la IA más avanzada del mundo para construir perfiles de vigilancia sobre sus propios ciudadanos.

Anthropic dijo que no. Y por decir que no, fue tratada como si fuera Huawei.

III. El escenario nuclear que dejó de ser hipotético

Un detalle revelado por The Washington Post la noche del viernes adquiere ahora una dimensión escalofriante. Según el diario, en una reunión celebrada un mes antes, el principal oficial tecnológico del Pentágono, Emil Michael, planteó a Anthropic un escenario hipotético: “Si un misil balístico intercontinental nuclear fuera lanzado contra Estados Unidos, ¿puede el ejército usar a Claude para ayudar a derribarlo?”

El reportaje señala que la respuesta de Dario Amodei, CEO de Anthropic, no satisfizo a los funcionarios del Pentágono. Anthropic negó categóricamente esa versión, afirmando que ya había aceptado el uso de Claude para defensa antimisiles. Pero lo relevante no es quién dijo qué en esa sala. Lo relevante es que el Pentágono estaba pensando en escenarios nucleares mientras planificaba un ataque masivo contra Irán.

Un dato adicional que debería inquietar a cualquiera: investigadores del King’s College de Londres realizaron recientemente simulaciones de guerra con modelos de IA —incluyendo Claude, ChatGPT y Gemini— y encontraron que, en la gran mayoría de los escenarios, los tres modelos optaron por desplegar armas nucleares. La IA, entrenada con décadas de doctrina militar humana, reproduce la lógica de la escalada.

IV. El tablero de la preguerra mundial

Si ampliamos la mirada más allá de Irán, el panorama es el de un mundo en estado de preguerra generalizada, algo que no se veía desde los años previos a la Segunda Guerra Mundial.

Rusia está en guerra abierta desde febrero de 2022, con un conflicto en Ucrania que no muestra señales de resolución. Europa lo sabe y lo dice abiertamente: Alemania ha roto su tabú militar histórico para rearmar, Francia habla de tropas en el terreno, y la OTAN se ha expandido a una velocidad impensable hace apenas cinco años.

China se prepara para lo que considera inevitable: la reunificación con Taiwán, por las buenas o por las malas. Cada portaaviones estadounidense desplegado en el Golfo Pérsico es uno menos disponible en el Estrecho de Taiwán. La operación contra Irán abre una ventana de oportunidad que Pekín no puede sino observar con suma atención.

Y Medio Oriente ya está en llamas. Irán, al contraatacar, no sólo lanzó misiles contra Israel —algo previsible—, sino contra Arabia Saudita, Emiratos Árabes Unidos, Kuwait, Bahréin y Catar, países que no participaron en la operación. Un error estratégico colosal que consolida la alianza anti-iraní y cierra cualquier puerta a la mediación.

El mundo se reconfigura en torno a tres ejes de poder: el occidental, liderado por Estados Unidos; el ruso, con sus aliados y su guerra en Europa; y el chino, con su esfera de influencia en Asia-Pacífico. Los demás países —incluyendo toda América Latina— dependerán de estos ejes y de lo que se dignen a compartir.

V. La carrera hacia la AGI como carrera armamentista

Aquí es donde la historia de Anthropic se conecta con el panorama global. La batalla por la inteligencia artificial general (AGI) y, eventualmente, la superinteligencia artificial (ASI) se ha convertido en la nueva carrera armamentista. Quien llegue primero a la AGI tendrá una ventaja estratégica comparable a la que tuvo Estados Unidos al desarrollar la bomba atómica antes que nadie en 1945.

En esta carrera sólo hay dos contendientes reales: Estados Unidos y China. Europa regula lo que no tiene. América Latina observa desde la tribuna. África ni siquiera está en la conversación. Los países del Golfo Pérsico tienen el capital para invertir pero carecen de la base tecnológica para competir de manera independiente.

Lo que la confrontación con Anthropic puso al descubierto es que Estados Unidos ve la IA primordialmente como un arma. Está sucediendo exactamente lo mismo que con la energía nuclear: una tecnología que puede usarse para el bien —energía limpia, medicina, investigación— o para el mal —la bomba—. Y como ocurrió con la energía nuclear, el uso militar ha tomado la delantera.

La diferencia crucial es que la IA no requiere uranio enriquecido ni centrífugas. Requiere datos, talento y capacidad de cómputo. Y los datos —como reveló esta misma semana un estudio de la Universidad de Stanford— ya están siendo recolectados masivamente por las propias empresas de IA, de cada conversación que cada usuario tiene con un chatbot, por defecto y sin consentimiento significativo.

El material fisible de la era nuclear eran los átomos. El de la era de la IA somos nosotros.

VI. La gran contradicción

Este punto merece una pausa, porque encierra la paradoja más incómoda de toda la historia.

El estudio de Stanford analizó las políticas de privacidad de las seis principales empresas de IA en Estados Unidos —Amazon, Anthropic, Google, Meta, Microsoft y OpenAI—, revisando 28 documentos legales a la luz de la Ley de Privacidad del Consumidor de California (CCPA), la más completa de ese país en la materia.

Los hallazgos son contundentes: las seis empresas, sin excepción, utilizan las conversaciones de sus usuarios para entrenar sus modelos. Lo hacen por defecto, sin solicitar consentimiento real. Algunas retienen esos datos de manera indefinida. En ciertos casos, empleados humanos pueden acceder a las transcripciones completas de las conversaciones. No resúmenes anonimizados: el texto íntegro de lo que el usuario escribió.

La contradicción salta a la vista. Anthropic trazó una línea roja frente al gobierno más poderoso del mundo: no vamos a permitir que nuestra IA se use para recopilar datos de geolocalización, historiales de navegación e información financiera de los ciudadanos. Un gesto que le ha costado un contrato de 200 millones de dólares y la designación como amenaza a la seguridad nacional.

Pero esa misma línea roja ya había sido cruzada —por la propia industria, Anthropic incluida— a través de la recolección sistemática de datos conversacionales de cientos de millones de usuarios.

Cuatro de las seis empresas analizadas aparentemente incluyen datos de menores de edad en el entrenamiento de sus modelos.

La diferencia entre la vigilancia gubernamental que Anthropic rechazó y la vigilancia corporativa que la industria practica es, en última instancia, una cuestión de grado, no de naturaleza. Ambas convierten al usuario en materia prima. Lo que cambia es quién construye el perfil y con qué propósito. Para quien ve vulnerada su privacidad, la distinción resulta, en el mejor de los casos, académica.

VII. Anthropic y la paradoja del disidente

Con todo, algo hay que reconocerle a Anthropic: dijo que no. Y lo hizo sabiendo las consecuencias.

La respuesta de la comunidad tecnológica fue reveladora: más de 450 empleados de Google DeepMind y OpenAI —competidores directos de Anthropic— firmaron una carta pública apoyando su postura.

Mientras tanto, OpenAI —nacida como organización sin fines de lucro dedicada a la seguridad de la IA— aceptó el contrato que Anthropic rechazó. Sam Altman anunció el acuerdo la noche del viernes, pocas horas antes de que comenzaran los bombardeos sobre Irán.

Anthropic, en cambio, sostenía que la ley no ha alcanzado aún a la tecnología, y que hacen falta restricciones más estrictas. Es un argumento difícil de refutar.

La pregunta que esto plantea no tiene respuesta sencilla: ¿sirve de algo que alguien diga que no cuando el siguiente en la fila dirá que sí? Quizá no en lo inmediato. Pero el precedente queda. Y en momentos donde el poder se ejerce sin contrapeso aparente, que una sola empresa se plante y diga “hay límites que no deben cruzarse” tiene un valor que trasciende lo simbólico.

VIII. Lo que viene

Mientras escribo estas líneas, la Operación Epic Fury continúa. Trump ha anunciado semanas de operaciones. Irán responde con todo lo que tiene. Israel ha declarado estado de emergencia. Los espacios aéreos de media docena de países permanecen cerrados. El petróleo comenzó a dispararse al abrir los mercados. Y en Pekín, en Moscú y en Riad, los estrategas estudian el tablero y calculan sus próximos movimientos.

Anthropic ha anunciado que impugnará legalmente la designación de riesgo de cadena de suministro. Su argumento tiene fundamento: la ley federal limita esa designación a contratos del Departamento de Guerra y no puede extenderse para prohibir que terceros utilicen Claude. Pero en un país que acaba de entrar en guerra, los argumentos legales tienden a perder peso frente a la retórica de la seguridad nacional.

Lo que resulta indudable es que Anthropic, una empresa desconocida hace diez días para el gran público, ha irrumpido en la conciencia global de la manera más inesperada. Para buena parte de la población que desconfía de la actual administración estadounidense —dentro y fuera de Estados Unidos—, Anthropic se ha convertido en la empresa que le dijo que no al aparato militar más poderoso del planeta.

Pero las campañas de imagen no alteran lo que está ocurriendo esta noche en Teherán.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.