No es país para gorros de lana (y algunas cosas más)
Ya está aquí el recopilatorio periódico de los vínculos que me han resultado más interesantes en los últimos días.
Chema Alonso sale de Telefónica
El nuevo presidente de Telefónica va a prescindir de Chema Alonso después de nueve años en la casa. Personalmente, no puedo compartir el tono agrio e insidioso de muchas de las noticias que se hacen eco de la salida de Alonso (ejemplo, ejemplo), ni tampoco el vinagre que se intuía en la voz de muchos telefónicos cuando hablaban de él. Sigo convencido de que esa empresa necesita más perfiles como el suyo.
No obstante lo anterior, a Chema Alonso le habría venido bien algún exitazo para justificar el resto de su trabajo y, siendo realistas, ha estado muy lejos de eso. Sus proyectos más sonados han sido fracasos estrepitosos que difícilmente se pueden justificar por circunstancias del mercado o por pequeños detalles: la “Cuarta plataforma” o el “Open Gateway” no tenían ni pies ni cabeza y Aura era evidente que no aportaba nada nuevo a un panorama ya saturado de opciones por aquel entonces. El problema de esos proyectos estaba en su base, no en los flecos.
¿Puede un LLM predecir el comportamiento de la economía?
Sorprendentemente, la respuesta parece ser que sí es posible. Este paper demuestra que un LLM (entrenado de forma específica para este propósito) puede alcanzar niveles de precisión similares o incluso superiores a los de los humanos al generar predicciones macroeconómicas.
Lo que aún no sé es si esto es una demostración de la capacidad de ese LLM o de la incapacidad de muchos economistas para hacer bien su trabajo.
Introducción a CUDA para programadores Python
Las GPUs son procesadores paralelos con miles de núcleos que procesan grandes volúmenes de datos simultáneamente, a diferencia de las CPUs, optimizadas para tareas secuenciales. Una GPU como la NVIDIA RTX 4090 tiene 16,384 núcleos CUDA, lo que la hace ideal para cálculos masivos, como en el Deep Learning. CUDA, la plataforma de NVIDIA, permite programar directamente en la GPU, dividiendo problemas en tareas pequeñas para maximizar el rendimiento.
Esta introducción te acercará al desarrollo con CUDA para que puedas exprimir el hardware al máximo.
El problema de Deep Research
Benedict Evans aborda en profundidad las limitaciones del producto más reciente de OpenAI, Deep Research, y los riesgos que entraña su (mal) uso.
Ya lo dije por aquí hace poco: quienes mejor pueden aprovechar herramientas como Deep Research siguen siendo quienes saben más del tema que la propia máquina, porque son los únicos capaces de identificar los errores y las omisiones, así como detectar los sesgos provocados por la falta de acceso a información más diversa.