El desmadre en curso: IA, regulación y América Latina que no se da cuenta

Mientras las cosas se siguen complicando en el Medio Oriente, con el ultimátum de Trump amenazando con bombardear las instalaciones energéticas de Irán si no liberan el estrecho de Hormuz, al tiempo que Irán contesta que si lo hacen destruirán la infraestructura de los países vecinos —y ya vimos que Irán tiene misiles capaces de eso y más, pues pueden llegar a casi cualquier ciudad de Europa—, en el frente de la IA y sus repercusiones en todos los ámbitos de la vida las cosas siguen su curso. Y ese curso afecta a América Latina y a México, pero no se dan cuenta.

Pero veamos el desmadre que está en curso: mientras buena parte del ecosistema sigue obsesionada con demos, dos movimientos europeos están diciendo algo más profundo: la IA ya entró en fase de fricción institucional seria. Primero, la votación en comités del Parlamento Europeo para aplazar ciertas obligaciones del AI Act. Segundo, el caso Like Company v Google —que sigue en el CJEU tras la audiencia del 10 de marzo— y que abre el expediente más incómodo de todos: qué pasa cuando la máquina produce texto con apariencia de originalidad, pero su genealogía pasa por obras protegidas. Estamos saliendo de la etapa “mágica” de la IA generativa y entrando en la etapa “administrativa”. Y en historia económica, la fase administrativa es donde se decide quién captura valor y quién sólo genera ruido. Gary Marcus lo dijo más crudo en X hace dos días: desde que salió GPT-5, las acciones de Nvidia han caído. “People are no longer buying the hype.” Exactamente eso.

El ajuste de calendario del AI Act no debe leerse como derrota regulatoria, sino como corrección de secuencia. Regular sin estándares técnicos listos era invitar a dos efectos tóxicos: inseguridad jurídica para empresas serias y espacio para oportunistas que monetizan ambigüedad. Para cualquier observador latinoamericano hay una lección inmediata: la pregunta no es “regular sí/no”, sino “en qué orden y con qué capacidad institucional”. América Latina suele importar marcos normativos sin importar la infraestructura que los hace aplicables. Resultado: ni controlamos riesgos ni incentivamos innovación. No existe soberanía digital sin soberanía de implementación. Eso hay que tatuárselo.

En cuanto al caso de derechos de autor ante el CJEU, es uno para darle seguimiento de cerca: si la jurisprudencia europea eleva exigencias de trazabilidad, consentimiento o atribución, el impacto no será abstracto, será presupuesto, arquitectura y tiempos de desarrollo. Para el campo editorial —y lo digo desde adentro— este es el punto clave: los editores que entiendan temprano la nueva economía de licencias y metadatos podrán negociar desde fuerza; los que lleguen tarde quedarán convertidos en proveedores involuntarios de materia prima cultural. Un chingo de catálogos en México van a llegar tarde.

La omisión más llamativa del día es una historia que lleva ya una semana explotando. OpenClaw —un proyecto open-source de agentes autónomos creado por un desarrollador austríaco casi anónimo— se convirtió en la comidilla del GTC de Nvidia. Jensen Huang lo llamó “el proyecto open-source más popular en la historia de la humanidad” y “el próximo ChatGPT”. China ya supera a EE.UU. en adopción. Lo que hace OpenClaw es permitir que cualquier persona cree y gestione agentes IA desde su computadora personal, vía WhatsApp o Telegram, sin infraestructura corporativa —esto ya lo tengo implementado en mi estudio ermitaño, desde donde escribo esto; OpenClaw me ayuda a dar seguimiento diario de manera independiente a los acontecimientos, entre otras cosas—. CNBC publicó ayer que esto genera preocupación de que los modelos se vuelvan commodities: si cualquiera puede desplegar agentes con herramientas abiertas, ¿qué diferencia al GPT-5 de pago del OpenClaw gratis?

Y hoy Elon Musk confirmó en X que “Grok Computer” llega pronto: un agente de xAI-Tesla —bajo el nombre Macrohard o Digital Optimus— que opera en tiempo real sobre la pantalla del usuario, mueve el mouse, ejecuta tareas complejas y, según el propio Musk, es “capaz de emular las funciones de empresas enteras” (como ya lo hace Computer de Perplexity y Claude Cowork también, hasta cierto punto). El detalle que vale la pena subrayar: correrá en el hardware Tesla AI4 a 650 dólares. OpenClaw desde casa más Grok Computer en hardware accesible más Claude con sus herramientas de computadora: la agentización ya no es proyecto de laboratorio. Se está convirtiendo en plomería.

El reporte de expansión de plantilla de OpenAI (4,500 → 8,000 personas hacia finales de año) confirma algo que se veía venir: la guerra deja de ser modelo contra modelo y pasa a ser despliegue organizacional. Las empresas no compran “inteligencia general”; compran reducción de fricción en procesos concretos. Karpathy lo dijo también esta semana en X, en una respuesta larga y honesta sobre código generado por agentes: el resultado depende del diseño de contexto, del ciclo de evaluación, del método. La ventaja competitiva no es tener acceso al mejor LLM, sino tener método. Y método significa protocolos, repositorios, métricas y gente capaz de operar ese sistema. Eso no lo da ninguna suscripción.

Circula la tesis de que los perfiles jóvenes se adaptan mejor a IA y que algunas compañías empezarían a valorarlos más. Podríamos leerlo como cierto en tareas instrumentales. McKinsey publicó este mes que el 12% de las tareas laborales ya fueron automatizadas por IA en dos años, pero que el 8% de nuevas categorías de empleo están directamente relacionadas con la IA. El balance no es catastrófico ni optimista: es estratificado. Y Marcus documentó el otro ángulo esta semana: la gente sigue respuestas equivocadas de IA y encima gana confianza. El efecto Dunning-Kruger amplificado por chatbot. Lo que sí parece consistente es que se abre una brecha cada vez más visible entre quien sabe orquestar sistemas IA y quien solo consume interfaces.

En el costado del ecosistema, Apple confirmó que iOS 26.4 —con Release Candidate ya disponible— incluirá las primeras funciones de Siri con Gemini de Google. No es la revolución que Apple prometió, pero es una señal de que la integración de IA en el hardware de consumo masivo ya no es opcional ni demorable.

Lo que algunos estamos visualizando tiene exactamente aquí su oportunidad: escapar del cliché anglo de “innovación vs regulación” y proponer una matriz más útil para LATAM. Cuatro frentes: capacidad institucional (¿podemos aplicar lo que legislamos?), arquitectura de derechos culturales (¿quién captura valor del acervo?), alfabetización de agentes (¿quién opera IA con método?) y soberanía narrativa (¿quién cuenta el sentido de esta transición?). Quien articule eso con ejemplos editoriales y culturales concretos de México se diferencia rápido de la conversación genérica de consultoría.

Hoy no fue un día de novedad espectacular; fue un día de maduración del conflicto. Y cuando madura el conflicto, empiezan a verse las grietas por donde entra quien trae marco conceptual en lugar de fuegos artificiales.


Glosario

AI Act — el primer marco regulatorio integral sobre inteligencia artificial en el mundo, aprobado por la Unión Europea. Clasifica los sistemas de IA según su nivel de riesgo e impone obligaciones distintas a desarrolladores y operadores.

CJEU (Court of Justice of the European Union) — el tribunal supremo de la Unión Europea en materia de interpretación del derecho comunitario. Equivalente a una Suprema Corte para asuntos legislativos de la UE.

Digital Optimus / Macrohard — nombre interno del proyecto conjunto de xAI (la empresa de IA de Elon Musk) y Tesla para desarrollar un agente capaz de operar computadoras en tiempo real: ve la pantalla, mueve el mouse y ejecuta tareas complejas. “Macrohard” es una burla directa a Microsoft.

Efecto Dunning-Kruger — sesgo cognitivo documentado en 1999: las personas con conocimiento limitado sobre un tema tienden a sobreestimar su competencia. En el contexto de IA, Marcus señala que quienes usan modelos sin criterio crítico no solo no detectan los errores, sino que ganan confianza al recibirlos.

Andrej Karpathy — investigador de IA, cofundador de OpenAI y exdirector de IA en Tesla. Actualmente independiente. Una de las voces técnicas más rigurosas y honestas del campo.

Gary Marcus — investigador en ciencias cognitivas y crítico documentado del hype en IA. Profesor en NYU, escribe extensamente sobre los límites de los modelos de lenguaje.

GTC (GPU Technology Conference) — la conferencia anual de Nvidia, uno de los eventos más influyentes del ecosistema global de IA.

Jensen Huang — fundador y CEO de Nvidia, la empresa cuyos chips (GPU) son la columna vertebral del entrenamiento de modelos de IA en el mundo.

LLM (Large Language Model) — modelo de lenguaje de gran escala, entrenado con cantidades masivas de texto. GPT-4, Claude y Gemini son ejemplos.

OpenClaw — plataforma open-source de agentes autónomos creada por un desarrollador austríaco. Permite crear y gestionar agentes IA desde una computadora personal sin infraestructura corporativa.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.