Gemini predice Sanremo 2026. Luego llega la realidad
Gemini predice Sanremo 2026. Luego llega la realidad
Hay un momento preciso en el que un juego deja de ser solo un juego. Lo encontramos en Sanremo, en medio de un experimento con Gemini, el modelo de inteligencia artificial de Google, mientras intentábamos entender quién ganaría la septuagésima sexta edición del Festival. Parecía un ejercicio inofensivo, casi frívolo. Y en parte lo era. Pero lo que surgió del análisis cuenta algo mucho más serio: cuenta cómo razona una máquina, dónde se equivoca y por qué deberían desconfiar de cualquiera que les proponga la misma receta aplicada a sus datos empresariales. Las IA no son oráculos. Son espejos sofisticados que reflejan patrones del pasado. En Sanremo, el precio del error es una predicción equivocada. En sus datos, podría costar mucho más.
Cómo razona una máquina: el método Gemini
Todo comienza con una serie de instrucciones precisas. Pedimos a Gemini que analizara los datos de Auditel, los flujos de streaming en Spotify y Apple Music, las visualizaciones en YouTube de los videoclips oficiales, las tendencias de búsqueda en Google, los votos parciales de los jurados institucionales, los ganadores de los últimos diez años, las cuotas de las casas de apuestas y, un detalle que revela cuán sofisticado es el modelo en su enfoque, los autores y productores de las canciones ganadoras en la última década. La idea era construir no solo una fotografía del presente, sino un mapa del ADN del éxito de Sanremo.
La respuesta de Gemini no fue un simple "en mi opinión gana X". Fue un informe de análisis estructurado en diez secciones, con tablas comparativas, pesos ponderados para cada jurado e incluso un estudio longitudinal de la evolución del Festival de 2016 a 2025. El tono era el de un analista financiero de alto nivel, no el de un entusiasta de la música pop.
El modelo identificó correctamente algunas de las fuerzas que gobiernan la competición. Reconstruyó, por ejemplo, cómo la victoria de Mahmood en 2019 con "Soldi", gracias a la producción de Dardust y Charlie Charles, sancionó el dominio del streaming sobre las ventas físicas e inauguró la era en la que el pop "indie" y urbano deja de ser un nicho. Siguió la trayectoria de Måneskin en 2021, el triunfo de Mahmood y Blanco en 2022 con "Brividi" (récord de streaming en las primeras 24 horas), hasta la victoria de Olly en 2025 con "Balorda Nostalgia", construida sobre el delicado equilibrio entre guitarras acústicas, piano y beats electrónicos estratificados.
Del análisis histórico, Gemini extrajo una ley casi matemática: la canción ganadora nunca es fruto de una intuición solitaria, sino el resultado de una arquitectura de producción diseñada con precisión quirúrgica. Y aplicó esta ley al elenco de 2026, descubriendo un sistema oligopólico en el que unos pocos autores —Federica Abbate, Alessandro La Cava, Davide Petrella, Dardust— firman varias canciones en la competición simultáneamente, como un sello discográfico que apuesta por varios caballos en la misma carrera.
El mecanismo de votación en la final se desglosó en tres vectores: el Televoto (34%), el Jurado de la Sala de Prensa (33%) y el Jurado de la Radio (33%). Un sistema diseñado, al menos sobre el papel, para castigar a los candidatos extremos, fuertes en una sola categoría, y premiar la consistencia multifactorial. Gemini lo entendió bien.
Sabemos bien que cada año los ganadores de Sanremo llegan con su propio repertorio de teorías, tejemanejes y rumores de pasillo. El nuestro es un análisis de datos. Lo demás lo dejamos encantados al cotilleo.
La predicción: tres candidatos, una lógica impecable
Después de tamizar los datos de Auditel, las listas de Spotify, las tendencias de YouTube, las reproducciones monitorizadas por EarOne (la plataforma italiana líder para la monitorización en tiempo real de las reproducciones en radio y televisión) y las cuotas de las casas de apuestas, Gemini produjo una predicción articulada, coherente e internamente impecable.
Ganadora prevista: Serena Brancale. La cantautora de Apulia era, según el modelo, la única artista capaz de registrar la excelencia en los cinco pilares decisorios: en el Top 5 cualitativo de la Sala de Prensa desde la primera noche, sólida en el Top 5 agregado de Televoto y Radio, segunda en impacto visual en YouTube, líder en las listas de nuevas entradas de radio rastreadas por EarOne, apoyada unánimemente por las casas de apuestas con cuotas entre 2.85 y 3.50. Su canción, una elegía dedicada a su madre, había ganado una ovación de pie que, escribió Gemini, "escapa a las mediciones puramente numéricas pero certifica un triunfo emocional tangible". El modelo la había coronado con la misma certeza con la que un ordenador de los años setenta declaraba haber resuelto el problema del ajedrez.
Segundo clasificado previsto: Fedez & Marco Masini. La asociación inédita fue descrita como "la obra maestra táctica y de marketing de la edición 2026": primero absoluto en Spotify con cerca de un millón de streams diarios, presente en el Top 5 de la Prensa y en el del Televoto, la canción firmada por el dúo Abbate/La Cava, dos del grupo restringido de ganadores en serie. El tema abordaba la vulnerabilidad emocional y la paternidad, temas que, como señaló acertadamente el modelo, generan una tasa de intercambio superior a la clásica temática amorosa.
Tercer clasificado previsto: Sal Da Vinci. Aquí Gemini mostró una lucidez parcial: reconoció el fenómeno sociológico del cantautor napolitano, primero absoluto en YouTube con más de 649.000 visualizaciones, canción producida por los mismos autores que Fedez/Masini, pero lo relegó al bronce, convencido de que la Sala de Prensa levantaría un muro infranqueable contra su estética neomelódica. Un prejuicio, se revelaría, no del todo fundado.
También cabe destacar los otros nombres incluidos en los cinco primeros hipotéticos: Arisa, blindada por el favor de la crítica pero con streaming relativamente tibio; Sayf, el "underdog" de la Generación Z con casi un millón de escuchas diarias en Spotify pero ignorado por la Sala de Prensa.
Lo que ocurrió realmente: predicción vs. realidad
Y luego llegó la final. Y la realidad decidió, como siempre, no leer los informes de análisis.
Sal Da Vinci ganó con el 22,2% de la puntuación ponderada final. Sayf quedó segundo con el 21,9%. Ditonellapiaga tercera con el 20,6%. Arisa cuarta con el 18,9%. Fedez y Masini quintos con el 16,5%. ¿Y Serena Brancale, la "ganadora designada" con una certeza estadística casi absoluta? Novena.
Sin embargo, estos resultados deben leerse con honestidad, sin convertir el análisis posterior en un simple juicio de errores. Porque Gemini no se había equivocado en todo. Cuatro de los cinco artistas presentes en los cinco primeros reales habían sido identificados por el modelo como candidatos relevantes; Sal Da Vinci, Sayf, Arisa y Fedez/Masini estaban todos en el grupo de los analizados con atención. El problema no era el mapa del territorio, era la escala de probabilidades. Como un meteorólogo que predice correctamente los frentes en juego pero se equivoca en la trayectoria, Gemini había visto a los jugadores pero malinterpretado las fuerzas que los moverían.
¿Dónde, entonces, falló el modelo de forma más clamorosa?
El primer error se refiere a Sal Da Vinci y la Sala de Prensa. Gemini había supuesto que los periodistas penalizarían la canción neomelódica napolitana. No fue así. La potencia interpretativa en directo de Sal Da Vinci generó una empatía transversal que convenció a la crítica para premiarlo a pesar de las reservas estéticas iniciales. En el televoto puro, además, había perdido: Sayf había obtenido el 26,4% frente al 23,6% de Sal Da Vinci. Su victoria final se produjo precisamente gracias al apoyo de la prensa y la radio, exactamente lo contrario de lo previsto por el modelo.
El segundo error se refiere a la conversión de streams en votos por SMS. Fedez y Masini dominaban Spotify con cerca de un millón de escuchas diarias, y sin embargo, en la final solo obtuvieron el 11,9% del televoto. Quien escucha una canción en streaming no necesariamente vota, y una base de fans digital no es automáticamente una base de fans movilizada. Es una distinción que parece obvia pero que los modelos predictivos tienden a ignorar porque los datos de streaming son numéricamente seductores, fáciles de medir, difíciles de interpretar en el contexto adecuado.
El tercero error, quizás el más instructivo, se refiere a las casas de apuestas y la trampa de la confirmación colectiva. Las agencias de apuestas daban a Brancale como clara favorita. Gemini les creyó. Pero las casas de apuestas operan sobre flujos de dinero que reflejan la percepción mediática de las primeras noches; tienden a fotografiar el entusiasmo inicial más que la evolución dinámica del consenso en las noches posteriores. El resultado final de Brancale en el noveno puesto es la demostración de que ni siquiera el mercado, con toda su presunta capacidad de agregación de información, logra predecir la complejidad emocional de una final televisiva.
Ditonellapiaga, excluida del podio previsto porque se consideraba fuerte en radio pero débil en el televoto, supo en cambio unir las dos dimensiones: el 18,9% en el televoto sumado al enorme apoyo radiofónico la llevó al tercer puesto real. El modelo la había identificado como una excelente "outsider" pero había subestimado la capacidad de una canción fuertemente rítmica para conquistar al público en casa una vez llegada la noche final.
El oráculo y sus datos: por qué esto importa realmente
Sanremo era un juego. Pero el mecanismo que produjo estos errores no es exclusivo de Sanremo. Es el mecanismo de cualquier sistema predictivo basado en inteligencia artificial, aplicado a cualquier dominio: finanzas, marketing, recursos humanos, previsión de ventas, análisis de riesgos.
Las IA, incluidos los modelos más avanzados como Gemini, ChatGPT o Claude, trabajan sobre patrones estadísticos extraídos de datos históricos. Son excepcionalmente buenas reconociendo regularidades, comprimiendo la complejidad e identificando correlaciones que un analista humano tardaría semanas en encontrar. El informe de Gemini sobre Sanremo fue, desde este punto de vista, una actuación impresionante: había mapeado con precisión el ADN de los ganadores de la última década, había identificado los factores estructurales del éxito y había construido un modelo interno coherente y bien argumentado.
El problema no es la calidad del análisis. El problema es que el futuro no está en los datos históricos. O mejor dicho: los datos históricos nos dicen qué pasó y bajo qué condiciones. No nos dicen cómo se comportarán las nuevas variables, la actuación en directo que genera una emoción inesperada, el momento en que un público decide rebelarse contra la lógica del agrado construido, la movilización de una base de fans que no se había considerado lo suficientemente decidida.
Lo que Gemini no podía saber, y lo que ningún modelo podría haber sabido antes de la final, es que Sal Da Vinci lloraría en el escenario del Ariston, que ese momento se volvería viral en las redes sociales, que esa emoción no se quedaría confinada al público nacional-popular sino que cruzaría las barreras demográficas y convencería incluso a la crítica para reescribir sus jerarquías estéticas. Las variables humanas, aquellas que surgen de lo irrepetible de un momento, no son catalogables en un conjunto de datos.
El debriefing de Gemini sobre sus propios errores, que el modelo produjo de forma autónoma cuando le mostramos los resultados reales, fue de una lucidez poco común. Identificó con precisión los tres puntos de ruptura: la sobreestimación de las casas de apuestas, la traducción acrítica de los streams en poder de televoto y el prejuicio estético sobre la Sala de Prensa. Logró, en esencia, realizar un excelente análisis del pasado reciente. Pero esta es una habilidad diferente, y de valor distinto, en comparación con la predicción del futuro.
Aquí está el punto que importa: si alguien te propone un sistema de inteligencia artificial capaz de "predecir" el comportamiento de tus clientes, el rendimiento de tus vendedores, el éxito de tu próximo producto, con la misma confianza con la que Gemini había coronado a Serena Brancale, la pregunta correcta que debes hacer no es "¿qué tan preciso es el modelo?" sino "¿con qué datos fue entrenado y qué variables es incapaz de ver?". Los modelos te dan resultados basados en cómo son instruidos y qué se les muestra. Cambia los datos de entrada y cambiarán las predicciones. No porque el modelo sea estúpido, sino porque ningún modelo ve lo que no se le ha dado para ver.
La inteligencia artificial es una herramienta poderosa para reducir la incertidumbre, no para eliminarla. Quien les venda esto como un oráculo está haciendo marketing, no ciencia. Y la diferencia, en el momento en que basen decisiones importantes en ella, puede ser muy costosa.
Qué cambiaría para 2027: el modelo que aprende
El capítulo final de esta historia es quizás el más interesante, porque muestra exactamente cómo debería evolucionar un sistema predictivo después de un fracaso. Pedimos a Gemini que elaborara un documento estratégico para Sanremo 2027, y el modelo respondió con una serie de correcciones metodológicas que sirven como lección general.
Para el próximo año, el modelo sugiere sopesar mucho más el impacto emocional de las actuaciones en directo en comparación con los datos previos al Festival: una ovación de pie en el Ariston, entendió Gemini, vale más que mil streams en Spotify en el momento en que la Sala de Prensa debe decidir. Sugiere tratar los datos de streaming como indicadores de agrado y potencial radiofónico, no como un sustituto de la fuerza en el televoto. Y sugiere mirar con mucha más atención la identidad de la nueva dirección artística; para 2027, con Stefano De Martino en la conducción y con posibles incorporaciones de la industria musical internacional, las coordenadas estéticas del Festival podrían desplazarse hacia propuestas más exportables y visualmente impactantes.
Es un proceso de calibración iterativa. Se hace una predicción, se miden los errores, se corrigen los pesos, se vuelve a intentar. No es garantía de éxito, pero es el único enfoque honesto ante la complejidad.
Vale para Sanremo. Vale para sus datos. Vale para cualquier sistema en el que el futuro dependa de variables humanas que ningún conjunto de datos ha aprendido todavía a medir de verdad.
Los análisis de Gemini citados en este artículo se realizaron en febrero de 2026 durante las noches del Festival de Sanremo. Los datos de audiencia, streaming y votación son los oficiales de la edición 2026.