UNO Julio 2020

MODELOS PREDICTIVOS en un MUNDO VUCA

La posibilidad de un evento catastrófico o el resultado de unas elecciones son paradigmas de cómo la gestión de la volatilidad, la incertidumbre, la complejidad y la ambigüedad requiere, hoy más que nunca, de una toma de decisiones basada en datos, en la que los modelos predictivos adquieren una enorme relevancia.

El huracán Sandy tocó tierra en Nueva Jersey, al sur de Nueva York, el 29 de octubre de 2012. Su paso dejó más de 50 víctimas mortales y alrededor de 19 000 millones de dólares en daños asegurados. El desafío de los modelos predictivos era, y sigue siendo, enorme; no en vano, deben lidiar con bases de datos inmensas integradas con sistemas de información geográfica. Esas bases de datos incluyen las condiciones atmosféricas, temperatura del mar, elevación del terreno y cobertura vegetal y edificada.

Además de gestionar toda esa información, el proceso debe hacerse en tiempo prácticamente real. El seguimiento del huracán Sandy refleja la metodología completa de un proyecto de ciencia de datos, tal y como lo aplicamos hoy: establecimiento de las preguntas a responder (¿impactará en zonas pobladas? ¿cuándo lo hará? ¿con qué intensidad? ¿cuáles son los riesgos potenciales?), análisis exploratorio de datos (velocidad del viento, presión atmosférica, trayectoria seguida, temperatura atmosférica y del mar), establecimiento de los modelos predictivos (que tienen en cuenta no sólo los datos anteriores sino miles de simulaciones de trayectorias, considerando posibles modificaciones en las variables, tanto de forma combinada como de forma individual, así como los obstáculos naturales y arquitectónicos que el huracán puede encontrar a su paso, que podrían afectar a su intensidad y trayectoria), interpretación de los resultados (en escalas de probabilidad, desde escenarios poco probables a casi seguros) y, algo esencial en todo proyecto de ciencia de datos, y más aún en uno donde la vida de las personas está en juego, la comunicación de los resultados. Tan importante resulta este punto que la NOAA y el NWS (los departamentos responsables del seguimiento de huracanes en el Atlántico y del servicio meteorológico norteamericano) modificaron sus protocolos de alerta y contacto, tanto internos como externos, según avanzaba el huracán. Se eliminaron las presentaciones en PowerPoint y PDF y se sustituyeron por informaciones en la intranet, en formato html. Asimismo, el NWS se centró en la comunicación de los impactos: lugares y fechas previsibles, riesgos involucrados (vientos, incremento del nivel de las aguas, precipitaciones), mientras que la NOAA modificó todos sus protocolos de comunicación a través de internet, creando páginas específicas que, durante el desarrollo del huracán, llegaron prácticamente a alcanzar los 1 300 millones de accesos, mientras utilizaba masivamente Facebook y Twitter para informar de los acontecimientos. Sólo una semana después del Sandy, otro huracán se hacía con los titulares de la prensa. El 6 de noviembre, Barack Obama era reelegido como presidente de los EE.UU. Un comunicador nato que tuvo la profesionalidad y humildad de confiar su reelección a un equipo que integraba tanto la comunicación tradicional como las nuevas técnicas surgidas de la ciencia de datos y de la psicología conductista.

“Para la campaña de reelección de 2012, el equipo de Obama contó con una inversión de más de 1 000 millones de dólares en ciencia de datos”

Para la campaña de reelección de 2012, el equipo de Obama contó con una inversión de más de 1 000 millones de dólares en ciencia de datos. Los cuatro años en la Casa Blanca habían supuesto una transformación tecnológica y cultural sin precedentes en la sociedad norteamericana. Si en 2008 Facebook contaba con 33 millones de usuarios en los EE.UU., y unos 135 millones a nivel mundial, en 2012 la cifra alcanzaba los 166 millones, con más de 900 millones a nivel mundial.

Al tiempo que Obama juraba su primer mandato, el CND contrataba a Dan Wagner como director de Analytics con una tarea primordial: desarrollar métricas que permitiesen un riguroso conocimiento del comportamiento del votante. En los midterms de noviembre de 2010, Wagner no sólo predijo la derrota, sino que la anticipó en cinco meses. A partir de la confirmación de sus predicciones, los modelos predictivos de Wagner en convirtieron en el “patrón oro” del partido. Sólo en televisión, el presupuesto ascendía a 300 millones de dólares. Desarrollaron un software, el Optimizador, que dividía el día en 96 períodos de 15 minutos para, de ese modo, lanzar el mensaje que mejor se adaptaba, no ya al segmento demográfico asociado al programa, sino a la audiencia concreta que estimaban en cada momento, consiguiendo un retorno de la inversión mucho más elevado que los métodos tradicionales.

“Una tarea primordial: desarrollar métricas que permitiesen un riguroso conocimiento del comportamiento del votante”

Algo estaba pasando, y lo peor de todo, para el director del equipo de ciencia de datos de Romney, Alexander Lundry, era no poder explicarlo. La diferencia en la aproximación al mercado publicitario era evidente: mientras que el Partido Republicano gastaba su presupuesto en cadenas de ámbito supraestatal, el Demócrata lo hacía en programas inesperados, en franjas horarias extrañas, rompiendo los moldes establecidos, actuando out of the box. Eric Schmidt, a la sazón presidente de Google, declaró que se trataba de “la campaña electoral mejor ejecutada de la historia”.

Sirvan estos dos sucesos, extraídos de Alquimia (Deusto, 2019), para avanzar dos cuestiones fundamentales en el éxito en un escenario VUCA como el actual. Primero, el modelo predictivo es sólo una parte del proyecto de ciencia de datos, y, como tal, reposará siempre en la correcta definición de las preguntas y la adecuada calidad de los datos. Segundo, es esencial una correcta combinación de esos modelos con un equipo humano versado en la interpretación y la comunicación del conocimiento adquirido, los data translators. Junto con la imprescindible guía ética que nos acompañará en todo el proceso, la inversión logrará el fruto deseado.

 

 

Juanma Zafra
Codirector del Máster en Data Science para Finanzas del CUNEF, del programa ejecutivo de data science y transformación digital, y del Master de Data Science; es además Chief Data Officer y codirector del Analytics Lab del mismo centro
Ha elaborado y dirigido los programas de formación in company de Desarrollo Actuarial para MAPFRE, de Ciencia de Datos para los CATC de Lanzarote y de Transformación Digital para el Ejército de Tierra. Es autor de dos libros: Retorno al Patrón Oro (Deusto, 2014) y Alquimia (con Ricardo A. Queralt, Deusto, 2019). [España]

Artículos publicados en UNO:

Queremos colaborar contigo.

¿Buscas ayuda para gestionar un desafío?

¿Quieres trabajar con nosotros?

¿Quieres que participemos en tu próximo evento?