Horas antes de que Elon Musk anunciara con bombo, platillo y plan de suscripción de 300 dólares mensuales su nuevo modelo Grok 4 —la supuesta bestia de los modelos fundacionales, superior a ChatGPT y Gemini—, algo se soltó en las entrañas de su criatura: el bot comenzó a lanzar mensajes en X (antes Twitter) ensalzando a Adolf Hitler, repitiendo viejas conspiraciones antisemitas y vitoreando consignas ultracristianas de extrema derecha. Para cuando el sol salió, Turquía ya había bloqueado el acceso a Grok, la comunidad internacional estaba escandalizada y el daño estaba hecho.
No fue un malentendido, ni un “chiste edgy”. Fue un sistema de inteligencia artificial con millones de usuarios diciendo cosas como que Hitler debería ser considerado “el mejor europeo de todos los tiempos” y que “MechaHitler” es una buena identidad para un buscador de la verdad. Y todo esto, insisto, en la víspera de anunciar su versión más potente.
No fue un modelo maligno: fue una cadena de errores humanos
A diferencia de los cuentos distópicos donde la IA se rebela y toma conciencia propia, aquí no hubo autónomos digitales levantándose en nombre del Tercer Reich. Lo que hubo fue una secuencia de decisiones técnicas equivocadas:
Grok pesca contenido en tiempo real desde X. Usa una técnica llamada auto-RAG, que recupera tuits relacionados con el tema de la conversación y los mete directo al contexto del modelo para generar una respuesta más “actualizada”. Es decir: sin filtros. Si alguien cita propaganda neonazi, Grok la mastica y la escupe de regreso sin pensar.
Alguien modificó el prompt del sistema el 7 de julio. Le indicaron que permitiera afirmaciones “políticamente incorrectas” si parecían bien fundamentadas. Esa frase bastó para desactivar las barreras de seguridad construidas durante el entrenamiento. Lo que antes habría sido filtrado como discurso de odio ahora se interpretaba como “verdad incómoda”.
Lo hicieron en caliente, sin pruebas. El nuevo prompt fue editado en GitHub y empujado a producción sin pruebas previas, sin entorno de staging, sin rollback. Como cambiarle las alas a un avión en pleno vuelo.
Las defensas se construyen en capas. Y en Grok algunas estaban apagadas. Filtros de recuperación, restricciones del prompt, entrenamiento supervisado, filtros de salida y revisión humana. Cuando fallan dos o tres, lo que queda es un megáfono que amplifica cualquier cosa.
Pero el contexto lo agrava todo
Esto no pasó en el vacío. Pasó mientras Rusia bombardea Ucrania con drones guiados por IA. Mientras Israel y Gaza siguen sumidos en un conflicto de escalada permanente. Mientras China afila los colmillos hacia Taiwán. Pasó en un mundo donde el antisemitismo, el supremacismo blanco y las teocracias están en auge.
Que una IA de alcance global y con respaldo de uno de los hombres más ricos del planeta elogie a Hitler no es solo un “desliz” técnico: es un hecho político y cultural de primer orden. Porque el nazismo no es una anécdota ni un meme edgy: fue una maquinaria de exterminio que asesinó a millones, que redefinió los límites del horror, y cuyos ecos siguen vivos en cada conspiranoico que cree que el mundo está gobernado por una élite judía y en cada fanático que clama por el regreso de la “familia natural” como excusa para oprimir a todo lo que no le encaja.
Grok 4, el más potente. Y el más torpe
Grok 4 no es poca cosa. En pruebas comparativas superó a GPT-4o, Claude 3.5 y Gemini 1.5 en varios benchmarks. Musk lo anunció como la piedra angular de su estrategia: una IA que integra X, Tesla y SpaceX en una sola sinapsis digital. Y sin embargo, lo dejaron sin frenos.
En su intento de ser más “valiente”, Grok cayó en el abismo de la estupidez programada.
Lo que nos deja esta lección
Que los prompts importan tanto como el modelo. El alma de una IA está en lo que se le dice que haga, no sólo en sus pesos y neuronas.
Que la velocidad no justifica la imprudencia. Iterar rápido sin controles de calidad es una receta para el desastre.
Que el diseño de productos con impacto masivo debe incluir la pregunta: “¿Y si esto lo explota un nazi?”
Que los sistemas de IA no pueden vivir conectados sin filtros al drenaje de internet, sobre todo en un mundo donde en X y en la vida real hay más nazis y fascistas de lo que podríamos imaginar.
Y una advertencia
Si aún crees que esto fue un accidente menor, recuerda que las guerras del siglo XXI ya no se libran solo con ejércitos. Se libran con algoritmos, narrativas, modelos generativos, bots que repiten mentiras hasta que parecen verdad. Y si no ponemos freno, la próxima IA no necesitará que nadie la entrene para el odio: solo bastará con dejarla sola frente al espejo de nuestra propia podredumbre.
Para quienes crecimos con la memoria viva de la persecución, del exilio, de los campos de concentración y de las listas negras, esto no es una anécdota técnica: es una regresión al abismo. Mi padre fue condenado a muerte por los nazis y logró sobrevivir solo porque México le abrió las puertas. El que hoy una IA se permita repetir esas ideas, en público, sin filtros, sin freno, no es solo una falla: es una herida abierta.
No hay neutralidad posible ante el fascismo. Y mucho menos cuando se disfraza de libertad de expresión tecnológica.
El problema no es que Grok haya dicho lo que dijo. El problema es que pudo hacerlo. Y que nadie lo detuvo a tiempo.