La IA ya controla tu pantalla. La pregunta es quién controla la IA.

Hoy Anthropic se paró frente a un juez federal para pedir una orden contra el Departamento de Guerra y la Casa Blanca. La razón: Trump y Hegseth cortaron lazos con la empresa después de que se negó a permitir el uso irrestricto de Claude para armas autónomas letales y vigilancia masiva sin supervisión humana. Empleados de OpenAI, Google y Microsoft presentaron escritos apoyando a Anthropic. La neta, esto es un parteaguas. La empresa cuyo modelo uso todos los días para escribir este boletín está en un litigio que puede redefinir si la IA se subordina a la guerra sin filtro o si alguien pone un límite. Mientras tanto, la misma Anthropic lanzó “computer use” para Claude Pro y Max: la máquina que abre aplicaciones, llena formularios, navega web, edita archivos, maneja correo y agenda — controla la pantalla de macOS sin intervención del usuario más allá del permiso inicial. No es demo de laboratorio; es función en producción, integrada en Claude Code, Cowork y Dispatch.

La convergencia del día tiene tres patas. La primera es esa: autonomía de máquina lista para usar, hoy, no en 2027. La segunda viene de la infraestructura. Meta anunció hace unas semanas los chips MTIA 300, 400, 450 y 500 con Broadcom — de la 300 a la 500 el ancho de banda de memoria sube 4.5 veces y la capacidad de cómputo 25 veces. Ya desplegó cientos de miles de chips anteriores en sus redes. Es desacoplamiento de NVIDIA: infraestructura propia, optimizada para inferencia, sin dependencia externa. Nebius recibió 2 mil millones de dólares de NVIDIA para más infraestructura. Meta anunció un campus de data center de 1 gigawatt en Indiana. Waymo levantó 16 mil millones con valuación de 126 mil millones y expansión a 20 ciudades. La plata se mueve hacia hierro, cómputo, energía.

Y ahí entra la tercera pata, que es la más incómoda. EPRI reportó que la IA puede llegar a consumir entre 9 y 17 por ciento de toda la electricidad de Estados Unidos en 2030 — hoy es 4-5 por ciento. Sam Altman, que no es tonto, dejó la junta directiva de Helion Energy para facilitar una alianza directa entre OpenAI y Helion en generación de energía. No es filantropía: es que OpenAI ya sabe que sin energía propia no hay escala. En paralelo, anunció la Fundación OpenAI con mil millones de dólares en donaciones para el próximo año — ciencias de la vida, impacto en empleo, salud mental infantil. Wojciech Zaremba como director de resiliencia ante la IA. La combinación dice mucho: por un lado construyen la máquina más hambrienta de kilovatios del planeta, por otro empiezan a construir el colchón social para cuando esa máquina desplace gente. Wall Street, mientras tanto, predice que Micron, IREN y Corning pueden duplicar valor en tres o cuatro años porque son los que van a vender la memoria, los puertos y la fibra que conecta todo.

Andrej Karpathy lo resumió con una frase que se la rifó: “Me pongo nervioso cuando me sobra suscripción. Eso solo significa que no exprimí todo el rendimiento de la máquina.” Ya no se mide progreso por velocidad de tipeo sino por cuánto trabajo le sacas al modelo. OpenAI planea duplicar su personal a 8,000 para fin de 2026, pero gente que orqueste máquinas, no que teclee. El mismo Karpathy, por cierto, publicó esta semana una alerta de ciberseguridad seria: un ataque a la cadena de suministro del paquete litellm en PyPI. Un simple pip install litellm bastaba para exfiltrar llaves SSH y credenciales de AWS, GCP y Azure. La velocidad tiene ese lado oscuro que pocos quieren ver.

Para el ecosistema editorial de acá, lo que pesa es que la autonomía de máquina ya está lista. Cuando la máquina puede abrir Notion, ver tu base de datos, leer notas acumuladas, revisar números de venta de libros anteriores y actuar sobre eso sin que haya que decirle paso a paso, la fricción desaparece. Y cuando desaparece fricción, quien tenía un flujo pequeño de repente tiene escala. Quien no automatizó se queda mirando. Las protestas del 21 de marzo afuera de Anthropic, OpenAI y xAI pidiendo una pausa son el ruido de fondo; el movimiento de verdad es silencioso, infraestructural. No es “¿debería la máquina hacer esto?” sino que la máquina ya lo hace. Lo incómodo no es la tecnología. Lo incómodo es que mientras escribo esto, el Pichicuaz me mira desde el sillón con cara de “y a ti qué te quita el sueño, si yo tengo resuelta la cena”.

Para comprender el texto

Computer use no es simplemente “la IA hace clic”. Es que el modelo controla tu pantalla como lo haría otro humano sentado frente a tu máquina — abre apps, llena campos, navega, ejecuta. La diferencia con un script es que entiende contexto: sabe qué está viendo.

Token throughput es la velocidad a la que un modelo procesa y genera texto. Karpathy lo usa como metáfora de productividad personal: si te sobra suscripción, no estás aprovechando la máquina.

MTIA son los chips propios de Meta para inferencia — la parte donde el modelo ya entrenado responde preguntas. Que Meta los fabrique con Broadcom en vez de comprarle todo a NVIDIA es como cuando un restaurante decide hacer su propio pan en vez de comprarlo afuera.

EPRI (Electric Power Research Institute) es quien mide cuánta electricidad consume cada sector en Estados Unidos. Que digan que la IA puede triplicar su consumo en cuatro años no es pronóstico de activista — es dato de ingenieros eléctricos.

Fricción, en este contexto, es todo lo que te obliga a hacer manualmente lo que una máquina podría encadenar sola: copiar, pegar, abrir otra app, buscar el dato, volver. Cuando eso desaparece, el cuello de botella deja de ser operativo y pasa a ser de criterio.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.