{"id":3149,"date":"2026-03-02T12:00:00","date_gmt":"2026-03-02T18:00:00","guid":{"rendered":"https:\/\/alejandrozenker.com\/blog\/2026\/03\/09\/la-guerra-que-ya-empezo-ia-poder-militar-y-el-colapso-del-orden-mundial\/"},"modified":"2026-03-10T22:38:44","modified_gmt":"2026-03-11T04:38:44","slug":"la-guerra-que-ya-empezo-ia-poder-militar-y-el-colapso-del-orden-mundial","status":"publish","type":"post","link":"https:\/\/alejandrozenker.com\/blog\/2026\/03\/02\/la-guerra-que-ya-empezo-ia-poder-militar-y-el-colapso-del-orden-mundial\/","title":{"rendered":"La guerra que ya empez\u00f3: IA, poder militar y el colapso del orden mundial"},"content":{"rendered":"<p>La semana pasada publiqu\u00e9 un art\u00edculo que, a la luz de lo que ha ocurrido en las \u00faltimas horas, resulta involuntariamente prof\u00e9tico. Analizaba la confrontaci\u00f3n sin precedentes entre el gobierno de Estados Unidos y Anthropic, la empresa creadora de Claude, uno de los modelos de inteligencia artificial m\u00e1s avanzados del mundo. La disputa giraba en torno a la negativa de Anthropic a permitir que su tecnolog\u00eda fuera utilizada sin restricciones para vigilancia masiva de ciudadanos y para sistemas de armas aut\u00f3nomas letales.<\/p>\n<p>El gobierno respondi\u00f3 con la furia de quien no tolera que le digan que no: design\u00f3 a Anthropic como riesgo para la cadena de suministro \u2014una categor\u00eda reservada hasta ahora para adversarios extranjeros como Huawei\u2014, el presidente amenaz\u00f3 con &#8220;consecuencias civiles y criminales&#8221;, y el Pent\u00e1gono le dio un ultim\u00e1tum de horas para someterse.<\/p>\n<p>Mientras escrib\u00eda ese an\u00e1lisis, una pregunta me rondaba: \u00bfpor qu\u00e9 tanta urgencia? \u00bfPor qu\u00e9 el gobierno m\u00e1s poderoso del mundo dedicaba una semana entera a aplastar a una empresa de inteligencia artificial, empleando un arsenal legal y ret\u00f3rico desproporcionado?<\/p>\n<p>La respuesta lleg\u00f3 este s\u00e1bado 28 de febrero, apenas horas despu\u00e9s de que venci\u00f3 el ultim\u00e1tum a Anthropic: Estados Unidos e Israel lanzaron la Operaci\u00f3n Epic Fury contra Ir\u00e1n, el ataque militar m\u00e1s grande en Medio Oriente desde la invasi\u00f3n de Irak en 2003.<\/p>\n<p>La secuencia temporal no es coincidencia. Es causalidad.<\/p>\n<h2>I. De Departamento de Defensa a Departamento de Guerra<\/h2>\n<p>En las semanas previas al ataque, la administraci\u00f3n Trump complet\u00f3 el cambio de nombre del Departamento de Defensa al Departamento de Guerra (Department of War). Muchos analistas lo descartaron como un gesto simb\u00f3lico. No lo era. Era una declaraci\u00f3n de doctrina. <em>Defense<\/em> implica reacci\u00f3n: te defiendes de amenazas. <em>War<\/em> implica acci\u00f3n: haces la guerra. El cambio de nombre anunciaba un cambio de postura estrat\u00e9gica que se materializ\u00f3 con misiles sobre Teher\u00e1n.<\/p>\n<p>El ataque fue devastador y sistem\u00e1tico. Ciudades enteras \u2014Teher\u00e1n, Isfah\u00e1n, Qom, Karaj, Kermanshah\u2014 fueron bombardeadas simult\u00e1neamente por aire y mar. Los objetivos declarados: destruir la capacidad de misiles bal\u00edsticos de Ir\u00e1n, desmantelar su programa nuclear y \u2014aqu\u00ed la palabra clave\u2014 derrocar al r\u00e9gimen.<\/p>\n<p>No una operaci\u00f3n de contenci\u00f3n, sino un intento de cambio de r\u00e9gimen con todas las letras, algo que el gobierno de Trump ya hab\u00eda ensayado semanas antes al capturar al presidente de Venezuela, Nicol\u00e1s Maduro, y trasladarlo a Nueva York para enfrentar cargos criminales.<\/p>\n<p>Horas despu\u00e9s del inicio de los bombardeos, fuentes israel\u00edes confirmaron que el L\u00edder Supremo, el ayatol\u00e1 Al\u00ed Jamenei, hab\u00eda sido asesinado en los ataques. Se trata de un acto sin precedentes en las relaciones internacionales modernas: el asesinato deliberado del jefe de Estado de un pa\u00eds soberano mediante una operaci\u00f3n militar conjunta. Sumado a la captura del presidente venezolano, el mensaje al mundo es inequ\u00edvoco: las reglas del orden internacional establecidas despu\u00e9s de la Segunda Guerra Mundial han dejado de operar. Quien tiene el poder militar, dicta la ley.<\/p>\n<h2>II. La IA como arma de guerra<\/h2>\n<p>Es en este contexto donde la batalla contra Anthropic adquiere su verdadero significado. No fue una disputa comercial ni un arrebato burocr\u00e1tico. Fue el choque frontal entre dos visiones sobre el papel de la inteligencia artificial en la guerra.<\/p>\n<p>Los hechos, reconstruidos a partir de reportes de Axios, The Washington Post, Bloomberg y NPR: el Departamento de Guerra exigi\u00f3 a Anthropic que permitiera el uso de Claude \u2014su modelo de IA, el \u00fanico desplegado actualmente en los sistemas clasificados del ej\u00e9rcito\u2014 &#8220;para todos los fines legales&#8221;, sin restricci\u00f3n alguna. Anthropic se neg\u00f3 en dos puntos espec\u00edficos: no permitir\u00eda que Claude fuera usado para vigilancia masiva dom\u00e9stica ni para sistemas de armas completamente aut\u00f3nomos, es decir, m\u00e1quinas que matan sin supervisi\u00f3n humana.<\/p>\n<p>Lo que Axios revel\u00f3 el viernes \u2014horas antes del ataque a Ir\u00e1n\u2014 es a\u00fan m\u00e1s perturbador: el &#8220;acuerdo&#8221; que el Pent\u00e1gono ofrec\u00eda a Anthropic habr\u00eda requerido permitir &#8220;la recolecci\u00f3n o an\u00e1lisis de datos de estadounidenses, desde geolocalizaci\u00f3n hasta historial de navegaci\u00f3n web y datos financieros personales comprados a intermediarios de datos&#8221;. No era una cl\u00e1usula hipot\u00e9tica. Era un requerimiento operativo concreto: el gobierno quer\u00eda usar la IA m\u00e1s avanzada del mundo para construir perfiles de vigilancia sobre sus propios ciudadanos.<\/p>\n<p>Anthropic dijo que no. Y por decir que no, fue tratada como si fuera Huawei.<\/p>\n<h2>III. El escenario nuclear que dej\u00f3 de ser hipot\u00e9tico<\/h2>\n<p>Un detalle revelado por The Washington Post la noche del viernes adquiere ahora una dimensi\u00f3n escalofriante. Seg\u00fan el diario, en una reuni\u00f3n celebrada un mes antes, el principal oficial tecnol\u00f3gico del Pent\u00e1gono, Emil Michael, plante\u00f3 a Anthropic un escenario hipot\u00e9tico: &#8220;Si un misil bal\u00edstico intercontinental nuclear fuera lanzado contra Estados Unidos, \u00bfpuede el ej\u00e9rcito usar a Claude para ayudar a derribarlo?&#8221;<\/p>\n<p>El reportaje se\u00f1ala que la respuesta de Dario Amodei, CEO de Anthropic, no satisfizo a los funcionarios del Pent\u00e1gono. Anthropic neg\u00f3 categ\u00f3ricamente esa versi\u00f3n, afirmando que ya hab\u00eda aceptado el uso de Claude para defensa antimisiles. Pero lo relevante no es qui\u00e9n dijo qu\u00e9 en esa sala. Lo relevante es que el Pent\u00e1gono estaba pensando en escenarios nucleares mientras planificaba un ataque masivo contra Ir\u00e1n.<\/p>\n<p>Un dato adicional que deber\u00eda inquietar a cualquiera: investigadores del King&#8217;s College de Londres realizaron recientemente simulaciones de guerra con modelos de IA \u2014incluyendo Claude, ChatGPT y Gemini\u2014 y encontraron que, en la gran mayor\u00eda de los escenarios, los tres modelos optaron por desplegar armas nucleares. La IA, entrenada con d\u00e9cadas de doctrina militar humana, reproduce la l\u00f3gica de la escalada.<\/p>\n<h2>IV. El tablero de la preguerra mundial<\/h2>\n<p>Si ampliamos la mirada m\u00e1s all\u00e1 de Ir\u00e1n, el panorama es el de un mundo en estado de preguerra generalizada, algo que no se ve\u00eda desde los a\u00f1os previos a la Segunda Guerra Mundial.<\/p>\n<p>Rusia est\u00e1 en guerra abierta desde febrero de 2022, con un conflicto en Ucrania que no muestra se\u00f1ales de resoluci\u00f3n. Europa lo sabe y lo dice abiertamente: Alemania ha roto su tab\u00fa militar hist\u00f3rico para rearmar, Francia habla de tropas en el terreno, y la OTAN se ha expandido a una velocidad impensable hace apenas cinco a\u00f1os.<\/p>\n<p>China se prepara para lo que considera inevitable: la reunificaci\u00f3n con Taiw\u00e1n, por las buenas o por las malas. Cada portaaviones estadounidense desplegado en el Golfo P\u00e9rsico es uno menos disponible en el Estrecho de Taiw\u00e1n. La operaci\u00f3n contra Ir\u00e1n abre una ventana de oportunidad que Pek\u00edn no puede sino observar con suma atenci\u00f3n.<\/p>\n<p>Y Medio Oriente ya est\u00e1 en llamas. Ir\u00e1n, al contraatacar, no s\u00f3lo lanz\u00f3 misiles contra Israel \u2014algo previsible\u2014, sino contra Arabia Saudita, Emiratos \u00c1rabes Unidos, Kuwait, Bahr\u00e9in y Catar, pa\u00edses que no participaron en la operaci\u00f3n. Un error estrat\u00e9gico colosal que consolida la alianza anti-iran\u00ed y cierra cualquier puerta a la mediaci\u00f3n.<\/p>\n<p>El mundo se reconfigura en torno a tres ejes de poder: el occidental, liderado por Estados Unidos; el ruso, con sus aliados y su guerra en Europa; y el chino, con su esfera de influencia en Asia-Pac\u00edfico. Los dem\u00e1s pa\u00edses \u2014incluyendo toda Am\u00e9rica Latina\u2014 depender\u00e1n de estos ejes y de lo que se dignen a compartir.<\/p>\n<h2>V. La carrera hacia la AGI como carrera armamentista<\/h2>\n<p>Aqu\u00ed es donde la historia de Anthropic se conecta con el panorama global. La batalla por la inteligencia artificial general (AGI) y, eventualmente, la superinteligencia artificial (ASI) se ha convertido en la nueva carrera armamentista. Quien llegue primero a la AGI tendr\u00e1 una ventaja estrat\u00e9gica comparable a la que tuvo Estados Unidos al desarrollar la bomba at\u00f3mica antes que nadie en 1945.<\/p>\n<p>En esta carrera s\u00f3lo hay dos contendientes reales: Estados Unidos y China. Europa regula lo que no tiene. Am\u00e9rica Latina observa desde la tribuna. \u00c1frica ni siquiera est\u00e1 en la conversaci\u00f3n. Los pa\u00edses del Golfo P\u00e9rsico tienen el capital para invertir pero carecen de la base tecnol\u00f3gica para competir de manera independiente.<\/p>\n<p>Lo que la confrontaci\u00f3n con Anthropic puso al descubierto es que Estados Unidos ve la IA primordialmente como un arma. Est\u00e1 sucediendo exactamente lo mismo que con la energ\u00eda nuclear: una tecnolog\u00eda que puede usarse para el bien \u2014energ\u00eda limpia, medicina, investigaci\u00f3n\u2014 o para el mal \u2014la bomba\u2014. Y como ocurri\u00f3 con la energ\u00eda nuclear, el uso militar ha tomado la delantera.<\/p>\n<p>La diferencia crucial es que la IA no requiere uranio enriquecido ni centr\u00edfugas. Requiere datos, talento y capacidad de c\u00f3mputo. Y los datos \u2014como revel\u00f3 esta misma semana un estudio de la Universidad de Stanford\u2014 ya est\u00e1n siendo recolectados masivamente por las propias empresas de IA, de cada conversaci\u00f3n que cada usuario tiene con un chatbot, por defecto y sin consentimiento significativo.<\/p>\n<p>El material fisible de la era nuclear eran los \u00e1tomos. El de la era de la IA somos nosotros.<\/p>\n<h2>VI. La gran contradicci\u00f3n<\/h2>\n<p>Este punto merece una pausa, porque encierra la paradoja m\u00e1s inc\u00f3moda de toda la historia.<\/p>\n<p>El estudio de Stanford analiz\u00f3 las pol\u00edticas de privacidad de las seis principales empresas de IA en Estados Unidos \u2014Amazon, Anthropic, Google, Meta, Microsoft y OpenAI\u2014, revisando 28 documentos legales a la luz de la Ley de Privacidad del Consumidor de California (CCPA), la m\u00e1s completa de ese pa\u00eds en la materia.<\/p>\n<p>Los hallazgos son contundentes: las seis empresas, sin excepci\u00f3n, utilizan las conversaciones de sus usuarios para entrenar sus modelos. Lo hacen por defecto, sin solicitar consentimiento real. Algunas retienen esos datos de manera indefinida. En ciertos casos, empleados humanos pueden acceder a las transcripciones completas de las conversaciones. No res\u00famenes anonimizados: el texto \u00edntegro de lo que el usuario escribi\u00f3.<\/p>\n<p>La contradicci\u00f3n salta a la vista. Anthropic traz\u00f3 una l\u00ednea roja frente al gobierno m\u00e1s poderoso del mundo: no vamos a permitir que nuestra IA se use para recopilar datos de geolocalizaci\u00f3n, historiales de navegaci\u00f3n e informaci\u00f3n financiera de los ciudadanos. Un gesto que le ha costado un contrato de 200 millones de d\u00f3lares y la designaci\u00f3n como amenaza a la seguridad nacional.<\/p>\n<p>Pero esa misma l\u00ednea roja ya hab\u00eda sido cruzada \u2014por la propia industria, Anthropic incluida\u2014 a trav\u00e9s de la recolecci\u00f3n sistem\u00e1tica de datos conversacionales de cientos de millones de usuarios.<\/p>\n<p>Cuatro de las seis empresas analizadas aparentemente incluyen datos de menores de edad en el entrenamiento de sus modelos.<\/p>\n<p>La diferencia entre la vigilancia gubernamental que Anthropic rechaz\u00f3 y la vigilancia corporativa que la industria practica es, en \u00faltima instancia, una cuesti\u00f3n de grado, no de naturaleza. Ambas convierten al usuario en materia prima. Lo que cambia es qui\u00e9n construye el perfil y con qu\u00e9 prop\u00f3sito. Para quien ve vulnerada su privacidad, la distinci\u00f3n resulta, en el mejor de los casos, acad\u00e9mica.<\/p>\n<h2>VII. Anthropic y la paradoja del disidente<\/h2>\n<p>Con todo, algo hay que reconocerle a Anthropic: dijo que no. Y lo hizo sabiendo las consecuencias.<\/p>\n<p>La respuesta de la comunidad tecnol\u00f3gica fue reveladora: m\u00e1s de 450 empleados de Google DeepMind y OpenAI \u2014competidores directos de Anthropic\u2014 firmaron una carta p\u00fablica apoyando su postura.<\/p>\n<p>Mientras tanto, OpenAI \u2014nacida como organizaci\u00f3n sin fines de lucro dedicada a la seguridad de la IA\u2014 acept\u00f3 el contrato que Anthropic rechaz\u00f3. Sam Altman anunci\u00f3 el acuerdo la noche del viernes, pocas horas antes de que comenzaran los bombardeos sobre Ir\u00e1n.<\/p>\n<p>Anthropic, en cambio, sosten\u00eda que la ley no ha alcanzado a\u00fan a la tecnolog\u00eda, y que hacen falta restricciones m\u00e1s estrictas. Es un argumento dif\u00edcil de refutar.<\/p>\n<p>La pregunta que esto plantea no tiene respuesta sencilla: \u00bfsirve de algo que alguien diga que no cuando el siguiente en la fila dir\u00e1 que s\u00ed? Quiz\u00e1 no en lo inmediato. Pero el precedente queda. Y en momentos donde el poder se ejerce sin contrapeso aparente, que una sola empresa se plante y diga &#8220;hay l\u00edmites que no deben cruzarse&#8221; tiene un valor que trasciende lo simb\u00f3lico.<\/p>\n<h2>VIII. Lo que viene<\/h2>\n<p>Mientras escribo estas l\u00edneas, la Operaci\u00f3n Epic Fury contin\u00faa. Trump ha anunciado semanas de operaciones. Ir\u00e1n responde con todo lo que tiene. Israel ha declarado estado de emergencia. Los espacios a\u00e9reos de media docena de pa\u00edses permanecen cerrados. El petr\u00f3leo comenz\u00f3 a dispararse al abrir los mercados. Y en Pek\u00edn, en Mosc\u00fa y en Riad, los estrategas estudian el tablero y calculan sus pr\u00f3ximos movimientos.<\/p>\n<p>Anthropic ha anunciado que impugnar\u00e1 legalmente la designaci\u00f3n de riesgo de cadena de suministro. Su argumento tiene fundamento: la ley federal limita esa designaci\u00f3n a contratos del Departamento de Guerra y no puede extenderse para prohibir que terceros utilicen Claude. Pero en un pa\u00eds que acaba de entrar en guerra, los argumentos legales tienden a perder peso frente a la ret\u00f3rica de la seguridad nacional.<\/p>\n<p>Lo que resulta indudable es que Anthropic, una empresa desconocida hace diez d\u00edas para el gran p\u00fablico, ha irrumpido en la conciencia global de la manera m\u00e1s inesperada. Para buena parte de la poblaci\u00f3n que desconf\u00eda de la actual administraci\u00f3n estadounidense \u2014dentro y fuera de Estados Unidos\u2014, Anthropic se ha convertido en la empresa que le dijo que no al aparato militar m\u00e1s poderoso del planeta.<\/p>\n<p>Pero las campa\u00f1as de imagen no alteran lo que est\u00e1 ocurriendo esta noche en Teher\u00e1n.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La semana pasada publiqu\u00e9 un art\u00edculo que, a la luz de lo que ha ocurrido en las \u00faltimas horas, resulta involuntariamente prof\u00e9tico. Analizaba la confrontaci\u00f3n sin precedentes entre el gobierno de Estados Unidos y Anthropic, la empresa creadora de Claude, uno de los modelos de inteligencia artificial m\u00e1s avanzados del mundo. La disputa giraba en [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3238,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[870],"tags":[],"class_list":["post-3149","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-articulos"],"aioseo_notices":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/alejandrozenker.com\/blog\/wp-content\/uploads\/2026\/03\/Ink_illustration_war_started_8cdaa6e850.jpeg","jetpack_shortlink":"https:\/\/wp.me\/pOdts-ON","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3149","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/comments?post=3149"}],"version-history":[{"count":1,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3149\/revisions"}],"predecessor-version":[{"id":3217,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3149\/revisions\/3217"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media\/3238"}],"wp:attachment":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media?parent=3149"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/categories?post=3149"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/tags?post=3149"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}