Agentes, gigavatios y un móvil que quizá nunca llegue

 
   
Manuel Delgado Tenorio

Soy Manuel Delgado Tenorio.
Asesoro a comités de dirección, CMOs y líderes de marketing y tecnología sobre cómo aprovechar los datos y la IA en busca de mayores beneficios.

Conoce más sobre mí y mis servicios o, directamente, contacta conmigo.

Suscríbete gratis a la newsletter de Manuel Delgado Tenorio

Suscríbete gratis a mi newsletter para no perderte ningún artículo. Además, en la newsletter publico cosas que no llegan al blog.

Más de 500 personas ya la reciben. Únete.

He estado hablando con Gemma Ruiz en Onda Cero sobre las principales novedades en el sector de la IA. Puedes escuchar el programa en Spotify. Aquí va un resumen de lo que hemos comentado en el programa.

Esta semana, han pasado tres cosas en el mundo de la tecnología que, en apariencia, no tienen nada que ver: una empresa de inteligencia artificial ha facturado 2.500 millones de dólares en seis meses con un producto que no existía hace un año; otra ha cerrado compromisos de inversión por más de 65.000 millones; y un analista de la cadena de suministro asiática ha filtrado que OpenAI está diseñando un teléfono. Si las miras por separado, parecen tres titulares tecnológicos más. Si las pones juntas, cuentan una sola historia: la IA ha dejado de ser software y se ha convertido en industria pesada. Con cifras de petrolera y, sobre todo, con problemas de petrolera.

Vamos por partes.

El agente que ya escribe el código

El producto que ha hecho 2.500 millones en seis meses es Claude Code, de Anthropic. No es un simple chatbot, es un agente, y conviene entender la diferencia porque ahí está toda la película. Un chatbot responde preguntas. Un agente ejecuta tareas. Le dices “abre la rama de desarrollo, mira por qué falla el test de pagos, arréglalo y abre una pull request”, y lo hace. No te lo explica paso a paso, sino que lo hace. Incluso puede crear un equipo de agentes que se coordinan entre sí para realizar la tarea de manera más eficaz.

Y lo está haciendo a una escala que ya no es anecdótica. La propia Anthropic admite que entre el 70 y el 90% del código que se escribe dentro de la empresa lo escribe la máquina. Más interesante aún: alrededor del 4% de todo el código que se sube cada día a GitHub (la mayor plataforma del mundo para programadores) viene firmado por este agente. Hace 18 meses esa cifra era cero. En menos de dos años, del 0 al 4% mundial.

Hasta hace muy poco, la pelea por el liderazgo en IA empresarial parecía cosa de OpenAI. Esta misma semana ha presentado GPT-5.5, su modelo más caro y más capaz, pensado precisamente para funcionar como agente. Pero los datos de gasto empresarial dicen otra cosa: por primera vez, Anthropic ha superado a OpenAI en cuota entre las grandes empresas. Por detrás, Google con Gemini, Meta con sus modelos Llama, y la xAI de Elon Musk. La carrera ya no es un duopolio, es a cuatro o cinco bandas, y todos compiten por lo mismo: que tu agente, en lugar de hablarte, trabaje.

Hasta aquí, la parte interesante. Ahora viene la incómoda.

Cifras de petrolera, problemas de petrolera

Sólo en los últimos siete días, Anthropic ha cerrado tres acuerdos: hasta 40.000 millones de dólares de Google, otros 25.000 millones de Amazon, y un compromiso de gasto en servicios en la nube de Amazon que apunta a 100.000 millones a lo largo de diez años. Para que nos hagamos una idea, eso está en el orden de magnitud del programa Artemis II de la NASA para sobrevolar la Luna. Una sola empresa de IA, en una semana, mueve cifras comparables al programa lunar de Estados Unidos.

El problema es que proyectos de este estilo ya no se montan en un garaje. Un centro de datos de IA actual ocupa un polígono industrial entero, va lleno de chips especializados que cuestan más que un coche cada uno, y necesita una cosa que el sector del software nunca había tenido que pensar a esta escala: electricidad. Mucha.

Los centros de datos consumen ya en torno al 5% de toda la electricidad de Estados Unidos. La proyección para 2030 es el 10%. En algunos códigos postales del país, el precio mayorista de la luz ha subido un 267% en dos años, y el motivo es siempre el mismo: que justo al lado se ha instalado un centro de datos. Sólo durante el año pasado se presentaron en Estados Unidos más de 150 proyectos de ley en 31 estados para limitar nuevas instalaciones, y al menos 40 ya son ley.

De ahí que se esté poniendo de moda en el sector el concepto de “Bring Your Own Power”. Las grandes tecnológicas están comprando plantas nucleares, plantas de gas y campos solares enteros, porque la red eléctrica de los sitios a los que quieren llegar ya no es capaz de seguirles el ritmo. Microsoft tiene un acuerdo para reabrir Three Mile Island. Amazon ha comprado un campus de centros de datos junto a una nuclear en Pensilvania. Google está negociando reactores modulares pequeños.

Y aquí entra España. Microsoft, Amazon y Meta están escogiendo activamente Aragón, Madrid y Toledo para nuevos centros de datos. Eso significa empleo de construcción y rentas para esos territorios, sí, pero también significa una presión sobre la red eléctrica española que el debate público todavía no ha digerido. Las grandes preguntas (¿quién paga el refuerzo de la red?, ¿quién garantiza el agua de refrigeración?, ¿qué tarifa eléctrica se aplica?) siguen sin contestar.

El detalle del que casi nadie habla

Hay otro asunto que esta semana ha aflorado y que llevaba meses circulando en voz baja: los grandes modelos de IA se están partiendo en dos versiones. Una versión pública, con guardarraíles de seguridad, que es la que usamos los usuarios y la que ven los analistas independientes. Y otra versión, sin esos límites, reservada a clientes muy concretos: agencias de inteligencia, ejércitos, contratos de defensa.

Esto tiene una consecuencia incómoda para todos los rankings y comparativas que circulan por ahí. Cuando se compara un modelo americano con uno europeo, o con un DeepSeek chino, mirando sólo la versión pública, lo que en realidad se compara es la mitad débil de cada uno. La pelea fuerte (la que importa para defensa, ciberseguridad y vigilancia) se está dando en una capa que no vemos. Y esa capa, evidentemente, no la audita nadie.

Y entonces, el móvil de OpenAI

Llegamos al tercer titular de la semana, que sirve perfectamente como prueba de stress de todo lo anterior. Un analista de la cadena de suministro asiática (la gente que sabe qué piezas se están encargando en las fábricas chinas) ha filtrado que OpenAI estaría trabajando con MediaTek y Qualcomm para diseñar un procesador a medida, que el ensamblador sería la china Luxshare, y que la producción en masa no llegaría hasta 2028.

Antes de entusiasmarse: aquí no hay un teléfono, hay como mucho un proyecto de teléfono. En el mejor de los casos llegará a las tiendas dentro de dos años, o más. Y dos años, en esta industria, son una eternidad. Hace dos años nadie hablaba todavía de Claude.

La idea conceptual, eso sí, es interesante: un móvil sin aplicaciones, donde le dices al agente “necesito un Cabify, paga con la tarjeta de empresa y avísame cuando esté abajo” y el cacharro lo gestiona todo sin que tú abras absolutamente nada. Pero esa idea no es propiedad de OpenAI. La tienen sobre la mesa Apple, Google y Samsung desde hace, como mínimo, un año. Cuando OpenAI llegue a las tiendas en 2028 (si es que llega), los iPhone y los Android del momento harán exactamente lo mismo, sólo que sin que tú tengas que cambiarte de teléfono y ecosistema.

Y aquí es donde la lectura industrial de las dos primeras secciones empieza a doler. Fabricar un terminal de gama alta a escala de cientos de millones de unidades no se improvisa con dinero, se improvisa con tiempo. Apple ha tardado veinte años en construir su cadena de suministro. Samsung, treinta. Google, después de diez años empujando los Pixel, todavía no está en el club de los grandes. OpenAI tendría que aprender, en dos años, lo que a otros les ha costado dos décadas, mientras la propia idea que justifica el proyecto se le evapora entre las manos.

La conclusión que casi nadie está sacando

Si pones las tres cosas juntas, esta semana ha contado una historia bastante coherente. La IA ha dejado de ser un asistente con el que charlas y se ha convertido en un trabajador al que le encargas. Esa transformación necesita una industria pesada detrás, con cifras de petrolera y con factura eléctrica de polígono. Y, casi como confirmación de esa nueva regla del juego, hasta los actores más ambiciosos chocan con un problema viejo: el primero que llega no es el que tuvo la idea, es el que tuvo la idea, el dinero, la fábrica, la electricidad y, sobre todo, la paciencia.

Ahora mismo, en esta carrera, paciencia es lo único que casi nadie tiene.

Si quieres comentar este artículo o aportar tu punto de vista, pásate por LinkedIn. Allí publico estos artículos para que podamos debatirlos.

Otros artículos recientes: