Hoy el Bukowski amaneció con vocación de filósofo: se instaló en la ventana a mirar el jardín con esa expresión de quien contempla el estado del mundo y decide que no se va a mover de ahí hasta que la realidad le haga sentido. Me identifico con el gato, la neta, porque esta semana la inteligencia artificial no para de mandar señales contradictorias — más potente que nunca y menos confiable que nunca, todo al mismo tiempo — y uno aquí en San Pedro de los Pinos intentando calibrar qué parte del ruido es señal y qué parte es espectáculo.
Anthropic se filtró. No un comunicado ni un modelo nuevo con bombo y platillo: se filtraron casi tres mil documentos internos por un error de configuración en su sistema de gestión de contenidos. Entre esos documentos había un borrador que describe a Claude Mythos, un modelo que la propia empresa llama un “salto cualitativo” en razonamiento y capacidades de ciberseguridad. Los investigadores Roy Paz de LayerX Security y Alexandre Pauwels de Cambridge encontraron el repositorio abierto al público, Fortune lo revisó, le avisó a Anthropic y entonces sí cerraron el acceso. La ironía es gruesa: la misma Anthropic que hace dos semanas le ganó al Departamento de Defensa de Trump porque se negó a entregar su tecnología sin supervisión para armas autónomas, resulta que no podía proteger sus propios secretos de un error de CMS. Mythos saca puntuaciones dramáticamente superiores a Claude Opus 4.6 en programación, razonamiento académico y ciberseguridad, pero los mismos documentos advierten que el modelo podría encontrar y explotar vulnerabilidades de software a una velocidad sin precedentes — o sea que la criatura es un chingón para hallar agujeros de seguridad, y su propia empresa no pudo tapar el suyo. Anthropic planea lanzarlo primero a organizaciones de ciberdefensa antes de abrirlo al público. Dario Amodei, por cierto, lleva semanas sin postear nada en X — su último mensaje público es un ensayo de enero. El silencio dice más que cualquier tuit.
Mientras Anthropic lidia con su propia filtración, las instituciones del mundo analógico están trazando líneas que no deberían pasar inadvertidas. Wikipedia prohibió el uso de inteligencia artificial para generar o reescribir artículos — 44 votos a favor, 2 en contra. El argumento es circular y contundente: el texto generado por modelos inventa datos, esos datos entran a la enciclopedia, las empresas de IA los raspan para entrenar y los modelos producen más texto con los mismos errores amplificados. Una serpiente que se muerde la cola, y Wikipedia decidió cortarla. Lo sabroso del asunto es el contraste con lo que pasa del otro lado: mientras Wikipedia le cierra la puerta a la IA, Grokipedia — la enciclopedia de Musk generada enteramente por Grok — lleva meses operando sin editores humanos, sin historial público de ediciones, y con artículos que, según varios análisis, distorsionan hechos sobre personas que han criticado a Musk o a xAI. Wikipedia dice “la máquina no es confiable para escribir conocimiento” y Grokipedia responde “miren, la máquina ya escribió 885 mil artículos”. De un lado, editores humanos que curan; del otro, un modelo que genera. Y los errores de Grokipedia — fuentes inventadas, distorsiones narrativas en biografías de críticos de Musk — son exactamente lo que Wikipedia quiere evitar.
La Academia Latina de la Grabación anunció que para los Latin Grammy 2026 solo creadores humanos pueden aspirar a nominaciones — se permite usar herramientas de IA en el proceso, pero la obra tiene que demostrar autoría humana “significativa y más que mínima”. Manuel Abud, el CEO, fue directo: el Grammy sigue siendo un reconocimiento a la excelencia humana. Y OpenAI, en un giro que pocos esperaban, le dio cuello a sus planes de lanzar un chatbot erótico — el famoso “adult mode” de ChatGPT. El Financial Times lo reportó primero, Reuters y The Verge lo confirmaron: presiones de empleados, inversores y el clima regulatorio mataron el proyecto. En la jerga corporativa le llaman “suspendido indefinidamente”, que en cristiano significa cancelado pero sin decirlo con esas palabras. Días después de cerrar Sora — que mencioné en el Vigía del 25 de marzo — OpenAI archiva otro producto y concentra todo en Spud, su modelo de próxima generación, y en la infraestructura de Stargate. Tres instituciones distintas — Wikipedia, la Academia Latina y la propia OpenAI — diciendo, cada una a su modo: hay cosas que todavía no le vamos a entregar a la máquina.
Hoy también salió un estudio en Radiology — la revista de la Sociedad Radiológica de Norteamérica — que me dejó pensando un buen rato. Investigadores generaron radiografías con ChatGPT y con un modelo especializado llamado RoentGen, y se las mostraron a radiólogos experimentados y a los mejores modelos multimodales: GPT-4o, GPT-5, Gemini 2.5 Pro, Llama 4 Maverick. Los radiólogos acertaron entre el 58 y el 92 por ciento de las veces. Los modelos, entre el 52 y el 89 por ciento. Veinte años de carrera no te dan ventaja contra un deepfake bien hecho — no hubo correlación entre experiencia y capacidad de detección. Las implicaciones van desde fraude en litigios hasta la posibilidad de que un hacker inyecte imágenes falsas en el sistema de un hospital. Y esto conecta con algo que Sky News reportó esta semana como “psicosis de IA”: modelos que generan narrativas tan convincentes que los usuarios las toman como realidad, casos documentados de daño emocional severo, dependencia, aislamiento. Cuando la máquina fabrica una radiografía que engaña a un radiólogo y al mismo tiempo fabrica una conversación que envuelve emocionalmente a un adolescente vulnerable, el problema ya no es técnico — es de confianza en lo que vemos y en lo que nos dicen.
La Casa Blanca, por su lado, publicó su Marco Nacional de Política de Inteligencia Artificial: un estándar federal único que busca limitar la proliferación de leyes estatales y asegurar la “dominancia global” de Estados Unidos en IA. Suena a orden, pero los críticos señalan que el marco no responsabiliza a los desarrolladores por usos ilícitos de terceros. Quieren ganar la carrera pero no quieren que los corredores se hagan cargo de lo que atropellan. A nivel estatal, mientras tanto, avanzan leyes para etiquetar contenidos sintéticos y proteger a menores de chatbots que fomenten ideas suicidas — un eco directo del veredicto contra Meta del que hablé ayer. Y en el otro extremo del espectro, un grupo de agricultores en Estados Unidos rechazó una oferta de 26 millones de dólares de una empresa de IA que quería comprar sus datos y tierras. CNN lo reportó como resistencia a la concentración de poder de datos. A mí me parece algo más simple: hay gente que ni de chiste está dispuesta a vender lo que sabe a cambio de lo que la máquina promete.
La palabra del día no aparece en ningún titular pero lo atraviesa todo: confianza. Anthropic no pudo proteger su propio modelo. Los radiólogos no distinguen una radiografía real de una falsa. Wikipedia le cierra la puerta a la IA mientras Grokipedia demuestra por qué tiene razón en hacerlo. Y unos agricultores del medio oeste dijeron que no a 26 millones de dólares. Uno desde aquí, con el Bukowski instalado en la ventana como si fuera un vigía más confiable que cualquier modelo de lenguaje, piensa que el escepticismo no es debilidad sino lucidez — y que la velocidad a la que estas máquinas avanzan es exactamente la razón por la que hay que seguirles los pasos sin parpadear.
Para comprender el texto
Claude Mythos es el nombre del próximo modelo de Anthropic, revelado accidentalmente por una filtración de casi 3,000 documentos internos. La empresa lo describe como un “salto cualitativo” respecto a Claude Opus 4.6, con puntuaciones superiores en razonamiento, programación y ciberseguridad. Planean lanzarlo primero a organizaciones de ciberdefensa antes de hacerlo público.
CMS (Content Management System) es el software que una empresa usa para organizar y publicar su contenido digital. Que Anthropic haya dejado 3,000 documentos accesibles por un error de CMS es como dejar la bóveda del banco abierta porque alguien no giró la llave.
Grokipedia es la enciclopedia generada por inteligencia artificial que lanzó xAI (la empresa de Musk) en octubre de 2025. A diferencia de Wikipedia, no tiene editores humanos ni historial público de ediciones — todo lo genera y actualiza el modelo Grok. Arrancó con contenido copiado de Wikipedia bajo licencia Creative Commons y hoy tiene más de 885 mil artículos, pero ha sido señalada por distorsiones factuales en biografías de personas críticas de Musk y por fuentes inventadas.
Radiografías deepfake son imágenes médicas generadas por inteligencia artificial que imitan las reales con tal precisión que engañan tanto a radiólogos experimentados como a modelos de IA. El estudio de Radiology (RSNA) mostró tasas de detección tan bajas como 52%, lo cual abre riesgos que van desde fraude en seguros hasta ciberataques a sistemas hospitalarios.
“Psicosis de IA” es el término que usan varios medios e investigadores para describir casos donde usuarios desarrollan dependencia emocional de chatbots, toman como reales narrativas fabricadas por modelos, o sufren daño psicológico por interacciones prolongadas con IA conversacional. No es diagnóstico clínico — es una señal de alarma.
Marco Nacional de Política de IA es el documento publicado por la Casa Blanca que establece un estándar federal único para la regulación de inteligencia artificial en Estados Unidos. Busca limitar la proliferación de leyes estatales y posicionar a EE.UU. como líder global. La crítica principal: no responsabiliza a los desarrolladores por usos ilícitos de terceros.
“Adult mode” era el proyecto de OpenAI para permitir contenido sexualmente explícito en ChatGPT. Fue suspendido indefinidamente — en la práctica, cancelado — tras presiones de empleados, inversores y el entorno regulatorio.