Articulo de Ansgar Seyfferth publicado en El Huffington Post
--
"No hay evidencia más clara de falta de formación matemática que la exactitud desmedida en el cálculo numérico". Carl Friedrich Gauss
Cuando según las estimaciones de Naciones Unidas la población mundial estaba cerca de superar el hito de los siete mil millones en 2011, con el correspondiente nombramiento simbólico de una niña nacida en la India el 31 de octubre como habitante nº 7.000.0000.000, la BBC contribuyó a la conmemoración con una aplicación que nos indica que por ejemplo una persona nacida el 12 de marzo del 2012 es el habitante nº 7.025.266.171 de la población actual de la tierra y el nº 83.264.625.265 de todas las personas que la han habitado desde los comienzos de la historia y lo mismo para cualquier otra fecha de nacimiento. Así, sin referencia alguna al margen de error, con todos los dígitos, cuando en realidad solamente son fiables los primeros dos de la población actual y como mucho el primero de la población acumulada desde los comienzos de la historia. (Sin ir más lejos, según las estimaciones de la Oficina del Censo de Estados Unidos, algo más bajas que las de la ONU, la fecha de superación de los siete mil millones de habitantes fue precisamente la introducida como ejemplo en la aplicación de la BBC, es decir, existe una diferencia de unos 25 millones.)
Recientemente pudimos leer en el ABC que el tráfico global de datos móviles se multiplicará por trece entre 2012 y 2017, alcanzando los 11,2 Exabytes mensuales, lo que supone un incremento interanual del 66% en dicho período, según un informe realizado por Cisco. Un incremento anual del 66% exactamente, hasta los 11,2 Exabytes mensuales, ni 11,1 ni 11,3, y expresado en unos términos de certeza absoluta, cuando se trata de una variable en la que influyen muchos factores, cada uno con su incertidumbre asociada, y de una predicción de un crecimiento exponencial a cinco años vista, muy sensible a ligeras variaciones. (Por ejemplo para un crecimiento anual del 60% en vez del 66%, el tráfico mensual en 2017 no llegaría a los 9,3 Exabytes.)
El barómetro electoral de febrero de El País reveló una espectacular caída de la intención de voto del Partido Popular. Sin embargo, el periódico matizó que seguía siendo el partido más votado con el 23,9% por delante del PSOE con el 23,5%. Como si la ventaja de tan solo 0,4 puntos porcentuales -obtenidos no en un escrutinio completo de votos en unas elecciones reales sino en una encuesta entre una pequeña fracción de la población española con su correspondiente error muestral- fuera significativa. La ficha técnica a pie del gráfico de la encuesta deja clara que no lo es en absoluto, es decir que puede haberse producido perfectamente por azar en la muestra sin que en la población exista tal ventaja en la intención de voto. Además las respuestas espontáneas de los ciudadanos no se corresponden siempre con su comportamiento electoral real, cosa que los institutos de sondeo intentan corregir con una serie de ajustes, que suponen otra fuente de incertidumbre.
Acabamos de ver tres casos de una mala praxis muy extendida, consistente en obviar toda incertidumbre asociada a una estimación y presentar sus valores de una forma que sugiere una exactitud inexistente. Pero en ocasiones la incertidumbre es tan importante o más que la propia estimación, y no entenderla puede tener consecuencias fatales.
El 13 de febrero de 1997 el Servicio Meteorológico Nacional de los Estados Unidos (NWS) avisó de un elevado potencial de crecida de las aguas del Río Rojo del Norte de cara al deshielo previsto para abril, debido a las históricas nevadas de los meses anteriores en su cuenca hidrográfica, sobre unos suelos ya saturados de agua tras un otoño muy húmedo. El 27 de febrero cuantificó este aviso, prediciendo que en el paso del río por el área metropolitana de Grand Forks las aguas iban a llegar a una altura máxima de 49 pies, casi 15 metros, el nivel más alto en un siglo. Curiosamente este número tuvo un efecto tranquilizador, ya que el área metropolitana estaba protegida por unos diques de 51 pies de altura -que a raíz del aviso se reforzaron como medida de seguridad adicional con sacos de arena hasta los 52 pies- y porque en la primavera de 1979 el agua había alcanzado casi la misma altura -48,8 pies- sin causar demasiados daños.
Sin embargo, el deshielo se produjo de manera más repentina de lo habitual, porque tras cuatro meses de heladas casi constantes sin deshielo gradual, a mediados de marzo las temperaturas subieron de manera brusca. A ello se añadió una tormenta de nieve y granizo a principios de abril. Por ello el caudal del río creció más de lo esperado. Además, el incremento de la altura del agua en función del caudal fue mayor de lo previsto, debido a obstáculos -como puentes o diques levantados para proteger las localidades ribereñas y que suponían un estrechamiento del flujo- no tenidos en cuenta en el modelo ya que se carecía de antecedentes históricos de semejante caudal para calibrar su efecto. Cuando el NWS corrigió su pronóstico paulatinamente al alza ya era tarde para reaccionar y el 21 de abril el agua alcanzó los 54,35 pies, el nivel más alto jamás registrado, inundando buena parte de los Grand Forks y obligando a la evacuación de la población en plena noche y causando uno de los desastres naturales más costosos de la historia de los EEUU, aunque afortunadamente sin víctimas mortales.
Como era previsible, el NWS recibió duras críticas por haber fallado en la predicción. Pero ¿qué es lo que falló realmente? Debería ser obvio que una predicción tan compleja a dos meses vista tiene un importante margen de error (véase nota 1 abajo). Y así lo dejaban patente los desvíos de las predicciones anteriores -emitidas por el NWS la mayoría de los inviernos desde 1980 para el área metropolitana de Grand Forks y otras dos localidades ribereñas- de los niveles correspondientes observados, tal como muestra el gráfico. Estos errores vienen dados por las distancias en horizontal (o en vertical) de los puntos de la línea diagonal, que se corresponde con las predicciones perfectamente acertadas. Sin necesidad de un análisis más profundo, los datos anteriores a 1997 dejan claro que entra dentro de la normalidad que una predicción se quede corta en un 6% -suficiente para que con una predicción de 49 pies al final se supere la altura de los diques reforzados de 52 pies- y que ni siquiera el desvío de algo más de un 10% hasta los 54,35 pies finalmente alcanzados fue algo extraordinario ya que en años anteriores se habían producido errores superiores.
Comments