No es país para gorros de lana (y algunas cosas más)

Manuel Delgado Tenorio

Soy Manuel Delgado Tenorio.
Asesoro a comités de dirección y líderes de tecnología sobre cómo aprovechar los datos y la IA en busca de mayores beneficios.

Conoce más sobre mí y mis servicios o, directamente, contacta conmigo.

Suscríbete gratis a la newsletter de Manuel Delgado Tenorio

Suscríbete gratis a mi newsletter para no perderte ningún artículo. Además, en la newsletter publico cosas que no llegan al blog.

Casi 500 personas ya la reciben. Únete.

Ya está aquí el recopilatorio periódico de los vínculos que me han resultado más interesantes en los últimos días.

Chema Alonso sale de Telefónica

El nuevo presidente de Telefónica va a prescindir de Chema Alonso después de nueve años en la casa. Personalmente, no puedo compartir el tono agrio e insidioso de muchas de las noticias que se hacen eco de la salida de Alonso (ejemplo, ejemplo), ni tampoco el vinagre que se intuía en la voz de muchos telefónicos cuando hablaban de él. Sigo convencido de que esa empresa necesita más perfiles como el suyo.

No obstante lo anterior, a Chema Alonso le habría venido bien algún exitazo para justificar el resto de su trabajo y, siendo realistas, ha estado muy lejos de eso. Sus proyectos más sonados han sido fracasos estrepitosos que difícilmente se pueden justificar por circunstancias del mercado o por pequeños detalles: la “Cuarta plataforma” o el “Open Gateway” no tenían ni pies ni cabeza y Aura era evidente que no aportaba nada nuevo a un panorama ya saturado de opciones por aquel entonces. El problema de esos proyectos estaba en su base, no en los flecos.


¿Puede un LLM predecir el comportamiento de la economía?

Sorprendentemente, la respuesta parece ser que sí es posible. Este paper demuestra que un LLM (entrenado de forma específica para este propósito) puede alcanzar niveles de precisión similares o incluso superiores a los de los humanos al generar predicciones macroeconómicas.

Lo que aún no sé es si esto es una demostración de la capacidad de ese LLM o de la incapacidad de muchos economistas para hacer bien su trabajo.


Introducción a CUDA para programadores Python

Las GPUs son procesadores paralelos con miles de núcleos que procesan grandes volúmenes de datos simultáneamente, a diferencia de las CPUs, optimizadas para tareas secuenciales. Una GPU como la NVIDIA RTX 4090 tiene 16,384 núcleos CUDA, lo que la hace ideal para cálculos masivos, como en el Deep Learning. CUDA, la plataforma de NVIDIA, permite programar directamente en la GPU, dividiendo problemas en tareas pequeñas para maximizar el rendimiento.

Esta introducción te acercará al desarrollo con CUDA para que puedas exprimir el hardware al máximo.


El problema de Deep Research

Benedict Evans aborda en profundidad las limitaciones del producto más reciente de OpenAI, Deep Research, y los riesgos que entraña su (mal) uso.

Ya lo dije por aquí hace poco: quienes mejor pueden aprovechar herramientas como Deep Research siguen siendo quienes saben más del tema que la propia máquina, porque son los únicos capaces de identificar los errores y las omisiones, así como detectar los sesgos provocados por la falta de acceso a información más diversa.