Las matemáticas que nos enseñan las series de televisión

By 25/04/2021 Portal

Seguramente alguien recuerde la serie que hace algunos años emitieron algunas cadenas de televisión: ‘Numb3rs’. En ella un grupo de especialistas del FBI acudían al hermano de uno de los protagonistas, Charlie Eppes, que era matemático, y que, sin entender nada de lo que les explicaba ni escribía, eran capaces de resolver la mayor parte de los delitos que se les presentaban. Tras la curiosidad de los primeros capítulos, en nuestro país se emitieron las seis temporadas que al final se hicieron (119 episodios), pero pasó sin pena ni gloria. Desde un punto de vista crítico hay razones suficientes para entender su progresivo desinterés, pero no es el tema del que queremos tratar aquí. En su país de origen, el ‘National Council of Teachers of Mathematics’ (NCTM) en colaboración con la productora CBS y la empresa Texas Instruments, llevaron a cabo una iniciativa educativa interesante, el programa ‘We all use Math Everyday’ (Todos utilizamos Matemáticas todos los días).

Consistía en tratar de mostrar a alumnos y padres la importancia que las matemáticas tienen en nuestra vida cotidiana a través de materiales (guiones de prácticas y ejercicios, proyecciones de episodios de la serie antes de ser emitidos, calculadoras, etc.) que se facilitaban a los centros educativos que se adscribían a la iniciativa. Estaban orientadas a alumnos de 12 a 18 años. Cada actividad se centraba en un tema concreto, relacionado con los capítulos de la serie, con unos objetivos, cuestiones, planificación y demás detalles muy bien razonados y detallados. Entre los temas tratados estaban las probabilidades, interpolación, números primos, teoría del caos, diagramas de Voronoi, fracciones continuas, teoría de la información, entropía, criptografía, teoría de juegos, etc. Un amplio recorrido por las matemáticas y sus aplicaciones prácticas. Durante un tiempo (como siempre la novedad) tuvo cierta aceptación y éxito.

La verdad es que antes de ver los episodios hubiera hecho falta a cualquiera algo similar, porque quien vea la serie, o un solo capítulo, se da cuenta rápidamente de que, a pesar de sus buenas intenciones, presenta el trabajo de los matemáticos como algo inextricable, casi esotérico, en el que el matemático Charlie, conocido el problema, al analizarlo, parecía entrar en una especie de éxtasis nervioso, llenando papeles y pizarras con fórmulas incomprensibles (por cierto, se cuidaron de que toda expresión matemática fuera correcta, cosa que no hacen en muchas series y películas; los guiones estuvieron muy bien asesorada por consultores matemáticos de primer orden). Y después la explicación a sus compañeros de los conceptos en los que se basaba es tan rápida que ni a los que sabemos de lo que van nos da tiempo a enterarnos más que de pequeños detalles. El caso es que, quien haya tenido alguna relación con un matemático real, tendrá seguramente una sensación muy diferente: hay que tomarse un tiempo adecuado para entender el problema, pensar tranquilamente cómo abordarlo, y al cabo de un tiempo (días, meses, en el mejor de los casos), meter el lápiz con cuidado a ver qué sale (vale, exagero un poco, pero poco).

Todo este preámbulo viene a cuento porque quiero ‘tomar prestado’ alguno de los problemas planteados en la serie para describir una herramienta ampliamente utilizada en diferentes situaciones: las cadenas de Markov. Así, además de entender su utilidad y alcance, si vuelven a ver el episodio, se enteran de algo más que si se hace sin más.

En algún artículo previo ya hemos hablado de situaciones que se describen a partir de otra precedente, o de otras dos anteriores. Por ejemplo, el famoso modelo de la descendencia de los conejos que viene descrita por la sucesión de Fibonacci:

en la que, para calcular un término, necesitamos conocer cuánto valen los dos anteriores. Ese tipo de sucesiones, que siempre obedecen a una misma regla invariable y dependen de situaciones anteriores se denominan ecuaciones recurrentes. Esta idea también aparece en fenómenos que tienen que ver con la probabilidad. Cuando la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior, decimos que cumple la propiedad de Markov, y matemáticamente se trabaja con ella mediante las llamadas cadenas de Markov. Una forma coloquial de describir esa característica es que “el futuro es independiente del pasado en presencia del presente”.

Ahora lo suyo sería dar las definiciones rigurosas, demostrar algunas propiedades, etc., pero entonces estaríamos haciendo lo que los libros de texto, y ustedes dejarían de leer, de modo que optaré por describir un ejemplo sencillo para entender la idea. Las cadenas de Markov modelizan muchas situaciones de la vida cotidiana (luego diremos algunas), pero una de las más sencillas es la predicción del tiempo, que consultamos cada vez más para ver si salgo de excursión, tengo que coger un paraguas o si puedo poner la lavadora para que la colada se me seque bien y no coja olor porque está húmeda todo el día.

¿Lloverá o estará despejado?
Cuando se tienen que manejar muchos datos, todo el mundo sabe que lo más práctico es disponerlos en forma de tabla. Los datos de esas tablas pueden acomodarse en una matriz. Las matrices son uno de los instrumentos más útiles para trabajar con datos. Una matriz no es más que una disposición en filas y columnas de datos:

Cada dato (cada elemento, decimos en matemáticas) viene perfectamente identificado por dos subíndices. El primero indica la fila en la que se encuentra, y el segundo la columna. De este modo el elemento a_23 se encuentra en la segunda fila tercera columna.

Supongamos que el pronóstico del tiempo en una determinada población se describe como lluvia (LL) o no lluvia (NLL). La probabilidad de que llueva mañana va a depender del tiempo que va a hacer hoy. Conocido el tiempo de hoy, el de mañana puede ser estimado de acuerdo a unas probabilidades. Supongamos que nos dan la siguiente información:

Vamos a hacer una interpretación de esa tabla. Comencemos por el lado izquierdo (donde pone HOY). Esa tabla nos dice que si hoy lloviera (LL), la probabilidad de que lo haga mañana es de 0.2. Obviamente, como sólo consideramos dos situaciones, la probabilidad de que no llueva entonces es de 0.8, porque la suma de probabilidades de todos los eventos debe ser la unidad. Otro modo de leer la tabla es fijarse en (fila uno, columna uno) que significa (llueve hoy, llueve mañana): 0.2, que indicaría la probabilidad de que llueva mañana sabiendo que llueve hoy. Es decir, una probabilidad condicionada. E igual con el resto de ‘casillas’. Esa tabla tendría asociada matemáticamente una matriz:

Este tipo de matrices, en el que todos sus elementos son cero o positivos y la suma de las filas es la unidad se denominan matrices de probabilidades de transición, o matrices de probabilidad o matrices estocásticas. Veamos qué información adicional nos pueden aportar. Supongamos que hoy es lunes y llueve. ¿Podemos estimar la probabilidad de que no llueva el miércoles?

Si uno intenta resolver la cuestión mediante un razonamiento “directo”, escribiría las cuatro combinaciones de tiempo que puede hacer para los tres días, lunes, martes y miércoles:

LL – LL – LL

LL – LL – NLL

LL – NLL – LL

LL – NLL – NLL

Solo dos de las combinaciones presentan lluvia en lunes y no lluvia el miércoles (las marcadas en color rojo). Como el tiempo de cada día se considera un suceso independiente, para encontrar la probabilidad de cada combinación, basta con multiplicar las probabilidades de cada combinación. Recordemos que sabemos con seguridad que el lunes llueve, por lo que la probabilidad de que llueva en lunes es 1:

p(LL – LL – NLL) = 1 x 0.2 x 0.8 = 0.16

p(LL – NLL – NLL) = 1 x 0.8 x 0.7 = 0.56

Finalmente, como llover y no llover son sucesos mutuamente excluyentes (es decir, no se puede llover y no llover a la vez), sumamos ambas probabilidades:

p(LL – LL – NLL o LL – NLL – NLL) = 0.16 + 0.56 = 0.72

Este razonamiento, más o menos elaborado, es inmediato utilizando el producto de matrices (Recuérdese cómo se multiplican matrices: elementos de la primera fila por los de la primera columna para determinar el primer elemento de la matriz producto, elementos de la primera fila por la segunda columna para el segundo, etc.; tal y como se describe en el ejemplo):

Así, de forma sencilla, hemos calculado varias posibilidades, no solo la de la cuestión, que es la de la primera fila segunda columna de la matriz producto, como pueden comprobar, 0.72. Observen además que la matriz resultante sigue siendo una matriz estocástica, porque todas sus entradas son positivas y la suma de cada fila es la unidad. ¿A qué respondería la matriz A^3 y sucesivas?

Aplicaciones de los procesos de Markov
Además de la meteorología, las cadenas de Markov son utilizadas en contextos muy diferentes. En epidemiologia (desgraciadamente tan de actualidad), la modelización matemática del desarrollo de una epidemia utiliza cadenas de Markov (proceso de Galton-Watson). Por supuesto en el estudio de juegos de azar, en particular, en la modelización de la ruina del jugador (análisis de la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero; inevitable a largo plazo, ya les adelanto). En genética se emplean para describir el cambio de frecuencias génicas en una población pequeña con generaciones discretas sometida a deriva genética. Varios algoritmos de composición musical usan cadenas de Markov (en Analoguique A et B del compositor Iannis Xenakis, por citar un ejemplo, o en el software Csound).

La improvisación en el jazz puede modelizarse a través de esta herramienta matemática (vean este documento si tienen interés). El algoritmo Pagerank que utiliza Google en sus búsquedas se define mediante una cadena de Markov. En economía, los procesos de colapso de valores o la determinación de la volatilidad de los precios. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

En lingüística, en el análisis de la probabilidad de que una letra vaya a continuación de otra. Es español, por ejemplo, es más probable que haya una u después de una q, a que una j siga a una b. Esto se aplica al cifrado y descifrado de textos en criptografía, o a la clarificación de párrafos borrados o ilegibles en manuscritos antiguos o de ocultación de información en documentos para causas judiciales. Podríamos llenar páginas con los usos y aplicaciones de las cadenas de Markov.

Un caso particular muy útil de cadenas de Markov son los modelos ocultos de Markov (abreviadamente HMM por sus siglas en inglés, Hidden Markov Model). Se aplica a situaciones en las que se presupone que el sistema a modelizar es un proceso de Markov con parámetros desconocidos. El objetivo precisamente es determinar esos parámetros desconocidos a partir de aquellos observables. Se utilizan específicamente en el reconocimiento de patrones temporales, como el de voz para descifrar frases de grabaciones difusas, o en el descifrado de caracteres en textos poco legibles, o en traducción automática, o en el análisis de secuencias biológicas, en particular de ADN, entre otras aplicaciones.

Es el modelo al que alude Charles Eppes, por terminar con el ejemplo que se comentó al inicio, en el decimocuarto episodio de la segunda temporada de Numb3rs, titulado Cosecha (Harvest). En dicho capítulo una adolescente asiática es localizada en un sótano de un hotel abandonado con evidentes signos de haber sido torturada. La investigación revelará que en realidad la joven, y otras tres mujeres desaparecidas, han sido víctimas de la extracción de órganos para su posterior venta y tráfico ilegal. El protagonista matemático intentará identificar los posibles destinos de esos órganos estudiando las desconocidas rutas de las ambulancias sospechosas de trasladarlos. Indica a sus compañeros que va a emplear cadenas ocultas de Markov para descubrir qué ambulancias están cometiendo ese delito.

La historia detrás de Markov, el matemático

El matemático ruso Andréi Andréyevich Markov (1856 – 1922) destacó por sus trabajos en teoría de números (fracciones continuas), pero sobre todo en teoría de probabilidades. Nada más finalizar sus estudios, ingresó en la Universidad de San Petersburgo como profesor, siendo discípulo de Pafnuti Chebyshev. En 1887 completó la demostración que permitía generalizar el teorema central del límite, que ya había descrito el propio Chebyshev. Después de 25 años de labor académica se retiró de la universidad, dedicándose exclusivamente a impartir cursos sobre teoría de probabilidades. En su vida personal, Markov fue un comprometido activista político opuesto a los privilegios del régimen zarista, llegando a rechazar condecoraciones que le otorgaron como protesta. Murió como consecuencia de una infección tras una de las muchas operaciones de rodilla que soportó como consecuencia de las dolencias que le provocaba una malformación congénita de dicha rodilla.

Respecto a los modelos ocultos de Markov, fueron descritos por primera vez en una serie de artículos sobre Estadística de Leonard E. Baum y otros autores en la segunda mitad de la década de 1960. En reconocimiento del habla, se comenzaron a aplicar en la mitad de la década de 1970, y en análisis de ADN a mediados de la década de 1980.

La serie ‘Numb3rs’, además de mostrar aplicaciones reales de las matemáticas, pretendía mitigar esa negativa imagen que muchos espectadores pudieran tener por una mala experiencia escolar. Al menos durante sus tres primeras temporadas, tuvo en Norteamérica bastante éxito, pero las servidumbres de las audiencias fueron lastrando sus buenas intenciones con más acción policial en detrimento de las descripciones pausadas de las herramientas matemáticas. En cuanto al despertar de nuevas vocaciones matemáticas (como sí hicieron otras series en disciplinas como la medicina forense, la astronomía o el derecho) no parece que tuviera mucho alcance. Bromeando entre colegas, lo que podría motivar, más que hacerse matemático, es el de tratar de convencer a algún hermano para que se haga matemático y luego poder consultarle.

Alfonso Jesús Población Sáez es profesor de la Universidad de Valladolid y miembro de la Comisión de divulgación de la Real Sociedad Matemática Española (RSME).

El ABCdario de las Matemáticas es una sección que surge de la colaboración con la Comisión de Divulgación de la RSME.