Hoy Anthropic —el creador de Claude— demandó al Departamento de Defensa de Estados Unidos.1 El DoD los clasificó como “riesgo de cadena de suministro”, lo que en la práctica significa que cualquier contratista del gobierno gringo que use modelos de Claude podría quedar fuera de juego. Anthropic respondió con demandas en California y Washington DC.
La neta, esto no es un pleito comercial menor. Es el punto donde la geopolítica de la IA deja de ser abstracción y se vuelve litigio real. Washington quiere controlar quién construye la inteligencia que alimentará su aparato militar y de vigilancia, y si una empresa no se alinea —o si su estructura accionaria no le gusta al Pentágono—, la sacan del tablero. Así de simple.
Y mientras el gobierno gringo decide quién sí y quién no puede venderle cerebros artificiales a su ejército, en otro rincón del mismo Washington la legislatura estatal aprobó dos leyes focalizadas: una sobre chatbots de compañía para menores (HB 2225) y otra sobre deepfakes (HB 1170). Ya están en el escritorio del gobernador. Regulación modular, por daño concreto, sin esperar a que la ONU se ponga de acuerdo sobre qué es la IA. Esa lógica tiene futuro. Los “marcos generales de valores digitales” llevan dos años en consulta sin aterrizar nada.
Del otro lado del Atlántico, los editores británicos optaron por una vía distinta al litigio puro: PLS arrancó un esquema inicial de licenciamiento colectivo para uso de obra publicada en sistemas de IA generativa. Temprano, sí. Imperfecto, seguro. Pero es la primera vez que alguien en el sector editorial dice “en vez de solo demandarnos, vamos a negociar un precio”. La pregunta que me queda es cuándo en América Latina vamos a sentarnos a negociar en bloque nuestros catálogos —o si para cuando lo intentemos ya los regalamos sin darnos cuenta.
Uno de los aspectos que más destacaría hoy es un dato de ActivTrak: 443 millones de horas de trabajo analizadas. Resultado: 80% de adopción de herramientas IA en los equipos medidos, ocho veces más tiempo usándolas que hace un año, más colaboración, más multitarea… y menos foco sostenido. La IA no te está liberando tiempo. Te está metiendo más chamba en el mismo horario.
Y luego lees que Dario Amodei, el CEO de Anthropic, y Mustafa Suleyman, el jefe de IA en Microsoft, predicen que la mayoría de los trabajos de oficina podrían automatizarse en uno a cinco años. Uno habla de lo que ya está pasando —más producción, mente fragmentada—, el otro de lo que viene —automatización masiva—. Si juntas ambos datos, el panorama no es exactamente liberador.
Hoy también se movieron fichas de producto: OpenAI decidió meter Sora directo en ChatGPT después de que la app independiente perdió 45% de descargas en un mes. Y Perplexity lanzó “Computer”, un agente empresarial que orquesta 19 modelos distintos para ejecutar flujos complejos. Son movimientos que confirman algo que vengo diciendo: la carrera ya no es por el mejor modelo, sino por el mejor sistema que los orqueste.
Pero regreso al punto geopolítico, porque es el que le da sentido a todo lo demás. La IA ya no es solo una herramienta de productividad ni un juguete de Silicon Valley. Es infraestructura de poder. Los gobiernos lo saben: por eso Washington legisla, el Pentágono clasifica, los británicos negocian licencias, y los chinos invierten como si les fuera la vida en ello. Es una carrera armamentista disfrazada de innovación tecnológica. Y en esa carrera, América Latina sigue de espectador, aplaudiendo los fuegos artificiales sin haber comprado un solo boleto para la función.
1 Nota metodológica. El Vigía es un ejercicio diario de monitoreo y análisis del ecosistema de inteligencia artificial, elaborado a partir de la consulta de decenas de fuentes. El insumo bruto lo produce Molti, un agente autónomo que monté como parte de mi ecosistema, residente en una Mac mini y basado en OpenClaw. Cada mañana rastrea fuentes, filtra señales y deposita un briefing estructurado en Notion. A partir de ahí, el texto pasa por una revisión que realizo junto con Claude (Anthropic), mi asistente: verificamos información, incorporamos historias que Molti haya omitido, hacemos corrección de estilo y añadimos el análisis editorial. La versión final la publico en mi blog Mutatis mutandis (alejandrozenker.com/blog). Molti hace la talacha de investigación. La interpretación, el criterio y la prosa son humanos: asistidos, sí, pero humanos. Sin esta articulación sería difícil sostener un seguimiento diario de esta naturaleza.