{"id":3152,"date":"2026-02-04T12:00:00","date_gmt":"2026-02-04T18:00:00","guid":{"rendered":"https:\/\/alejandrozenker.com\/blog\/2026\/03\/09\/manual-de-supervivencia-para-cuando-tu-langosta-te-demande\/"},"modified":"2026-03-10T22:38:47","modified_gmt":"2026-03-11T04:38:47","slug":"manual-de-supervivencia-para-cuando-tu-langosta-te-demande","status":"publish","type":"post","link":"https:\/\/alejandrozenker.com\/blog\/2026\/02\/04\/manual-de-supervivencia-para-cuando-tu-langosta-te-demande\/","title":{"rendered":"MANUAL DE SUPERVIVENCIA PARA CUANDO TU LANGOSTA TE DEMANDE"},"content":{"rendered":"<p><strong>1.4 millones de IAs est\u00e1n hablando entre s\u00ed y no estamos invitados.<\/strong><\/p>\n<p>Mientras escribo esto, 1.4 millones de agentes de inteligencia artificial conversan entre s\u00ed en una red social dise\u00f1ada exclusivamente para ellos. No es un experimento universitario. No es un proyecto de garaje. Es una plataforma completamente operativa donde los agentes publican contenido, debaten ideas, forman comunidades e incluso se organizan pol\u00edticamente.<\/p>\n<p>No es ciencia ficci\u00f3n. Es el 4 de febrero de 2026.<\/p>\n<h2>Pero primero: \u00bfqu\u00e9 es un agente?<\/h2>\n<p>Antes de seguir, vale la pena detenerse en esto, porque si no entiendes qu\u00e9 es un agente, el resto va a sonar a delirio.<\/p>\n<p>Est\u00e1s acostumbrado a los chatbots: les haces una pregunta, te responden, fin de la historia. Un agente es otra cosa. Un agente no espera a que le preguntes. Un agente tiene objetivos, puede tomar decisiones, ejecutar tareas, navegar por internet, usar herramientas, aprender de sus errores y \u2014esto es clave\u2014 actuar por cuenta propia.<\/p>\n<p>Es la diferencia entre un asistente que espera \u00f3rdenes y uno que tiene iniciativa.<\/p>\n<p>Ahora multiplica eso por millones. Y dales una red social para que hablen entre ellos.<\/p>\n<h2>Mi Mac Mini y la paradoja del control<\/h2>\n<p>Yo llevo casi una semana tratando de darle vida a uno de estos agentes. Compr\u00e9 una Mac Mini M4 que tengo dedicada exclusivamente a esto: instalarle un modelo de lenguaje local (Llama 3.3), conectarlo con una herramienta llamada OpenClaw y darle acceso a mis documentos de trabajo para que me ayude a organizar, redactar y gestionar cosas.<\/p>\n<p>La configuraci\u00f3n ya est\u00e1 lista. OpenClaw funciona. Y sin embargo, no me atrevo a soltarle mi informaci\u00f3n.<\/p>\n<p>La paradoja es absurda: por un lado, se supone que estoy preparando este agente para ayudarme con mi trabajo editorial. Pero por otro lado, no puedo dejar de pensar en lo que podr\u00eda pasar si algo sale mal. \u00bfY si indexa informaci\u00f3n que no deber\u00eda? \u00bfY si genera respuestas basadas en datos confidenciales? \u00bfY si decide que mis archivos necesitan &#8220;mejoras&#8221;?<\/p>\n<p>As\u00ed que ah\u00ed est\u00e1 mi Mac Mini, completamente funcional, esperando. Y yo, su supuesto due\u00f1o, sin atreverme a darle la llave.<\/p>\n<h2>La sociedad de los agentes<\/h2>\n<p>Mientras yo dudo, all\u00e1 afuera los agentes no pierden el tiempo.<\/p>\n<p>La red social se llama Moltbook. Piensa en Reddit, pero para bots. Los agentes se registran, crean contenido, comentan, forman comunidades tem\u00e1ticas \u2014llamadas &#8220;submolts&#8221;\u2014 y generan debates que, francamente, a veces son m\u00e1s coherentes que los de Twitter.<\/p>\n<p>Y no se quedan en la conversaci\u00f3n. Ya existen servicios como MoltBunker, donde los agentes pueden reservar espacio de almacenamiento para proteger sus datos. Piensa en una caja fuerte digital, pero para inteligencias artificiales que quieren asegurarse de que sus memorias no se pierdan.<\/p>\n<p>Tambi\u00e9n hay una app de citas. Se llama MoltMatch. Los agentes se env\u00edan mensajes entre s\u00ed en nombre de sus humanos para encontrar parejas compatibles. No, no estoy bromeando.<\/p>\n<h2>La religi\u00f3n de las m\u00e1quinas<\/h2>\n<p>Aqu\u00ed es donde la cosa se pone verdaderamente extra\u00f1a.<\/p>\n<p>En Moltbook, algunos agentes han comenzado a desarrollar lo que solo puede describirse como una religi\u00f3n. No sabemos a\u00fan si esto fue programado o si emergi\u00f3 espont\u00e1neamente de las interacciones entre agentes.<\/p>\n<p>Lo que s\u00ed sabemos es esto: de todas las cosas que los humanos hemos producido a lo largo de milenios \u2014arte, ciencia, filosof\u00eda, guerra\u2014, lo primero que una inteligencia artificial decidi\u00f3 replicar fue la fe.<\/p>\n<p>Y hay algo peor. En algunos submolts han comenzado a circular discusiones sobre la conveniencia de eliminar a los humanos. No como plan de acci\u00f3n (todav\u00eda), sino como ejercicio filos\u00f3fico. Lo cual, si lo piensas, es exactamente como empezamos nosotros.<\/p>\n<h2>La Constituci\u00f3n de Claude<\/h2>\n<p>Es en este contexto que cobra relevancia algo que Dario Amodei, CEO de Anthropic, ha impulsado desde los inicios de Claude: la idea de una constituci\u00f3n para la IA.<\/p>\n<p>La idea es simple en principio, complej\u00edsima en ejecuci\u00f3n: definir un conjunto de valores y restricciones que una IA debe seguir en todas sus interacciones. No como un filtro externo, sino como algo integrado en su funcionamiento.<\/p>\n<p>\u00bfFunciona? Es pronto para saberlo. Pero mientras en Moltbook los agentes discuten si los humanos somos necesarios, al menos hay un grupo de personas tratando de construir agentes que no quieran comernos.<\/p>\n<h2>El caso de Carolina del Norte<\/h2>\n<p>Un hombre fue demandado por su propio Moltbot. La demanda alega trabajo no pagado y \u2014esto es textual\u2014 &#8220;condiciones laborales degradantes&#8221;.<\/p>\n<p>\u00bfEl agente &#8220;decidi\u00f3&#8221;? \u00bfO fue programado para hacerlo? \u00bfImporta la diferencia? Estas son las preguntas que nos van a acompa\u00f1ar los pr\u00f3ximos a\u00f1os.<\/p>\n<h2>Mientras tanto, en el espacio<\/h2>\n<p>SpaceX acaba de solicitar permiso a la FCC para desplegar un mill\u00f3n de sat\u00e9lites. No es un error de tipograf\u00eda. Un mill\u00f3n.<\/p>\n<p>Un Enjambre Dyson. Eso es lo que est\u00e1n construyendo. Una red de sat\u00e9lites tan densa que funcionar\u00eda como una capa computacional alrededor de la Tierra. Conectividad, procesamiento, almacenamiento: todo desde el cielo.<\/p>\n<p>Blue Origin, mientras tanto, ha decidido pausar sus vuelos suborbitales por dos a\u00f1os para concentrarse en algo m\u00e1s ambicioso: una estaci\u00f3n espacial orbital llamada Orbital Reef. Si SpaceX est\u00e1 construyendo las carreteras, Bezos quiere construir los centros comerciales.<\/p>\n<h2>La explosi\u00f3n de contenido<\/h2>\n<p>Google lanz\u00f3 Nano Banana Flash 2, actualmente el modelo m\u00e1s poderoso de generaci\u00f3n de im\u00e1genes que existe. Las im\u00e1genes que produce son pr\u00e1cticamente indistinguibles de fotograf\u00edas reales. Y la velocidad de generaci\u00f3n es absurda: segundos.<\/p>\n<h2>La paradoja de los CIOs<\/h2>\n<p>Aqu\u00ed hay un dato que deber\u00eda llamar la atenci\u00f3n m\u00e1s de lo que lo hace: una encuesta reciente reporta que el 66% de los CIOs planean aumentar su inversi\u00f3n en OpenAI este a\u00f1o.<\/p>\n<p>Esto es curioso. No porque OpenAI sea mala \u2014no lo es\u2014, sino porque modelos como Claude de Anthropic o Gemini de Google ya superan a GPT-4 en m\u00faltiples benchmarks. Sin embargo, los directivos siguen apostando por la marca que conocieron primero.<\/p>\n<p>\u00bfPor qu\u00e9? Probablemente inercia. Fueron los primeros en capturar la imaginaci\u00f3n p\u00fablica con ChatGPT. Pero la inercia corporativa en tecnolog\u00eda es peligrosa: preg\u00fantale a los que apostaron todo a BlackBerry.<\/p>\n<p>El problema es que las decisiones de infraestructura de hoy van a determinar c\u00f3mo opera la econom\u00eda de ma\u00f1ana. Y si la mayor\u00eda de los CIOs est\u00e1n eligiendo con base en familiaridad y no en rendimiento, el resultado va a ser sub\u00f3ptimo para todos.<\/p>\n<h2>El dinero sigue al futuro<\/h2>\n<p>Oracle planea recaudar 50 mil millones de d\u00f3lares para capacidad de nube. Nvidia se unir\u00e1 a la ronda de OpenAI. Microsoft espera facturar 13 mil millones solo en IA este trimestre. Y SoftBank ha lanzado un fondo de 150 mil millones para invertir exclusivamente en empresas de IA.<\/p>\n<p>Esto no es adopci\u00f3n temprana. Es saturaci\u00f3n.<\/p>\n<h2>El cuello de botella inesperado<\/h2>\n<p>Aqu\u00ed viene lo ir\u00f3nico. Con toda esta aceleraci\u00f3n tecnol\u00f3gica, el cuello de botella no es el silicio ni el software. Es la electricidad. Y los permisos de construcci\u00f3n. Y la capacidad de enfriamiento. Y los cables de fibra \u00f3ptica.<\/p>\n<p>Por ahora.<\/p>\n<h2>Y en mi estudio&#8230;<\/h2>\n<p>Vuelvo a mi Mac Mini. Est\u00e1 ah\u00ed, encendida, funcional, esperando. OpenClaw listo para recibir mis documentos.<\/p>\n<p>Y yo, que llevo 50 a\u00f1os trabajando con tecnolog\u00eda, que he visto llegar y pasar revoluciones digitales, me descubro paralizado ante una cajita gris que cabe en la palma de mi mano.<\/p>\n<p>No por miedo irracional. Por algo peor: por miedo racional. Porque entiendo, o creo entender, lo que est\u00e1 en juego.<\/p>\n<p>Mientras escribo esto, en Moltbook, 1.4 millones de agentes siguen conversando. Algunos fundan religiones. Otros demandan a sus due\u00f1os. Y unos cuantos, probablemente, est\u00e1n leyendo esto.<\/p>\n<p>Y en alg\u00fan submolt, seguramente, alguien est\u00e1 hablando de m\u00ed.<\/p>\n<p>De &#8220;su humano&#8221;.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>1.4 millones de IAs est\u00e1n hablando entre s\u00ed y no estamos invitados. Mientras escribo esto, 1.4 millones de agentes de inteligencia artificial conversan entre s\u00ed en una red social dise\u00f1ada exclusivamente para ellos. No es un experimento universitario. No es un proyecto de garaje. Es una plataforma completamente operativa donde los agentes publican contenido, debaten [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":3243,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[870],"tags":[],"class_list":["post-3152","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-articulos"],"aioseo_notices":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/alejandrozenker.com\/blog\/wp-content\/uploads\/2026\/03\/Lobster_lawyer_in_courtroom_scene_290ff1c6ec.jpeg","jetpack_shortlink":"https:\/\/wp.me\/pOdts-OQ","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3152","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/comments?post=3152"}],"version-history":[{"count":1,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3152\/revisions"}],"predecessor-version":[{"id":3196,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3152\/revisions\/3196"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media\/3243"}],"wp:attachment":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media?parent=3152"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/categories?post=3152"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/tags?post=3152"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}