En la entrega anterior hablamos acerca de los ganadores de la Medalla Fields de este año y de qué manera el trabajo de los ganadores, aunque muy diverso, estaba relacionado con varios aspectos de la física estadística y las teorías de complejidad y cómo, a pesar de ser desarrollos abstractos, al final se basan en ideas en apariencia simples; como contar y ordenar naranjas, por ejemplo.
En esta ocasión platicaremos acerca de las otras dos medallas que entrega la Unión Matemática Internacional (IMU) cada cuatro años, son igual de prestigiosas que la medalla Fiels, pero las diferencias recaen en dos aspectos: la primera de ellas, la medalla Abacus, premia, al igual que la medalla Fields, a investigadores cuya edad máxima es de 40 años, pero esta se enfoca en las “contribuciones sobresalientes a los aspectos matemáticos de las ciencias de la información”, lo que incluye la ciencia de la computación, las ciencias de la complejidad, el análisis de algoritmos, la criptografía, el reconocimiento de patrones y el modelado de la inteligencia, entre otras disciplinas. La otra presea, el Premio Carl Friedrich Gauss, “honra a científicos cuya investigación matemática ha tenido un impacto fuera de las matemáticas, en la tecnología, los negocios o en la vida cotidiana”, dado que este premio reconoce el impacto de una trayectoria, no tiene límite de edad y suele otorgarse a investigadores maduros.
Pues bien, la medalla Abacus de este año le fue entregada a Mark Braverman, matemático de 38 años que trabaja en el departamento de Ciencias de la Computación de la Universidad de Princeton. Mark es hijo de la también matemática Elena Braverman y nieto del estadístico matemático Yan Petrovich Lumel’skii, así que se podría decir que la disciplina viene en su sangre. La medalla Abacus fue otorgada a Mark Braverman por “su innovadora investigación desarrollando la Teoría de la Complejidad Informacional, un marco de referencia para usar la Teoría de la Información para razonar acerca de los protocolos de comunicación”.
El trabajo de Mark aportó al desarrollo de los teoremas de suma directa que permiten establecer límites de ruido, protocolos de compresión de datos y protocolos interactivos de comunicación resilientes al ruido. En breve, sus descubrimientos matemáticos nos permitirán comunicar la información ––particularmente en canales digitales–– de manera mucho más eficiente y segura.
¿Cómo lo hace? La idea general es simple. Supongamos que queremos comparar el inventario de dos tiendas para ver si éstas tienen los mismos productos, es decir estamos buscando algo en común entre ambas tiendas (podemos también suponer que somos, digamos Walmart y tenemos miles de tiendas que comparar, pero dejemos ese problema para después). Una manera primitiva de hacerlo es que los encargados de cada tienda se comuniquen entre sí y compartan su lista de productos, enumerándolos uno por uno. Claramente, esta no es la manera óptima en términos prácticos. En ciencia de la computación, éste sería un problema de alta complejidad computacional, es decir que involucra muchas operaciones: en este caso, enumerar los productos de cada tienda. Esto requiere de declaraciones (N1+N2), donde N1 es el número de productos de la tienda 1 y N2 el número de productos de la tienda 2.

Ahora bien, dado que habrá productos compartidos, una mejor manera de hacerlo es preguntarse: ¿tenemos este producto en común? Sí o no, y así sucesivamente. Resolver el problema se requiere de la operación: (NC+NE1+NE2) < (N1+N2), donde NC es el número de productos en común, NE1 es el número de productos exclusivos de la tienda 1 y NE2 el número de productos exclusivos de la tienda 2.
Existe un modo mejor para conocer el número de productos que tienen en común ambas tiendas, o sea a lo que llamamos NC en la operación anterior. Basta que los empleados de una de las tiendas enumere sus productos y los de la otra tienda respondan si lo tienen o no. Al hacer uso de la teoría de la información, Braverman pudo establecer una cota mínima para la información que es necesaria que intercambien esas dos tiendas y ésta es aproximadamente: 2.9*NC bits. Ahora imaginemos que tenemos muchas tiendas, ¿hay alguna manera óptima de resolver éste problema?
Y qué tal si lo que queremos es comparar, como suele hacerse en la biomedicina moderna, varios genomas (quizá de personas sanas y enfermas) para encontrar patrones de variación genética asociados a enfermedades o transacciones financieras o problemas similares en negocios, sociología, tráfico vehicular, por ejemplo. La teoría de la complejidad informacional nos permitirá establecer cotas mínimas de la cantidad de información necesaria para resolverlos, abriendo así el camino para el desarrollo de algoritmos más eficientes.
Braverman alguna vez dijo: “lo bueno de hacer investigación en matemáticas es que puedes ser un genio el 10 % del tiempo y un tonto el 90 % restante y tu vida irá muy, muy bien… en cualquier otro trabajo te despedirán o algo peor”, lo cual me pareció un apunte muy atinado sobre el campo de la investigación en este rubro.
Por otro lado, el Premio Carl Friedrich Gauss fue otorgado a Elliott H. Lieb, un físico-matemático que está por cumplir 90 años, Profesor Emérito de Física y Matemáticas… sí, adivinaron… en la Universidad de Princeton. Lieb se ha especializado en la mecánica estadística matemática (el nombre parece redundante, ya que la física estadística es matemática, pero la subdisciplina lo es aún más) y de hecho el Premio Gauss lo obtuvo por sus “profundas contribuciones matemáticas de excepcional alcance que han dado forma a los campos de la mecánica cuántica, la mecánica estadística, la química computacional y la teoría de la información cuántica”. A diferencia de los otros galardonados (que son más jóvenes), a Elliot Lieb lo conozco personalmente, pues es buen amigo y colega de Joel Lebowitz, un científico fuera de serie y un hombre extraordinario, que tengo el privilegio de apreciar como mentor y maestro. Elliott fue un asistente riguroso de los seminarios de Mecánica Estadística que por años ha organizado Lebowitz y de las que ya he hablado anteriormente, dada la cercanía emocional, profesional y geográfica entre ambos. Quienes reconocen a Lebowitz como un referente emblemático de la mecánica estadística matemática, quizá se sorprendan al saber que Lieb es “a quien acude Lebowitz cuando requiere ayuda con las matemáticas”.
Cuando uno ve la profundidad y extensión de las aportaciones de Elliott Lieb a la física matemática y a las matemáticas, la declaración anterior no se vuelve tan sorprendente: Lieb resolvió el problema de la entropía del hielo de manera exacta, usando un modelo de latíz. Él ha trabajado por años en probar de manera rigurosa “las condiciones de la estabilidad de la materia”, lo que involucra dos tareas titánicas: la primera, establecer el llamado límite termodinámico (o sea probar que el volumen de un material es proporcional al número de átomos), para lo que él y Lebowitz inventaron “el teorema del queso” (problema, por cierto, muy relacionado al trabajo de Maryna Viazovska). Lo que hicieron fue tomar un volumen, digamos una caja, la llenaron con esferas de un cierto tamaño (quedan huecos, ¿recuerdan?), rellenaron el espacio restante con esferas más pequeñas (pero sigue sobrando espacio), los huecos que siguen quedando los rellenan con esferas de menor tamaño y así, hasta que se haya ocupado todo el volumen de ésta caja. El segundo problema se enfoca en comprobar que la energía del sistema es proporcional al número de átomos del sistema, para lo que Lieb inventó una técnica de análisis matemático llamada el umbral de Lieb-Thirring que se desprende de la descomposición espectral de la ecuación de Schrödinger.
Además de sus aportaciones matemáticas a la física teórica, Lieb también ha desarrollado matemáticas puras como el álgebra de Temperley-Lieb, cuyo origen está en la física estadística cuántica, pero se ha convertido en el referente formal en las teorías de “trenzas”, “nudos” y otros objetos topológicos que no pueden intersectarse.
Quizá el trabajo más hermoso de Lieb es el que desarrolló junto con Jakob Yngvason, también físico-matemático, en el que establecieron formalmente la relación entre la entropía y la segunda ley de la termodinámica.
En ambos casos y en gran parte de su carrera, Lieb estableció formalmente cosas que en física asumimos de manera intuitiva como ciertas. Su trabajo representa el ideal o el sueño de la física teórica: establecer muchas de las cosas que observamos experimentalmente. Por ejemplo, que la energía es una variable extensiva, es decir: dos tamales iguales contienen exactamente el doble de calorías que un tamal), se pueden derivar de un marco matemático sin la necesidad de medirlas, lo que nos acerca de una manera espectacular a entender cómo pasan las cosas en la naturaleza e incluso nos ayuda a responder esa pregunta tan difícil, ¿por qué pasan?
Enrique Hernández Lemus
Investigador del Instituto Nacional de Medicina Genómica de la Secretaría de Salud, así como del Centro de Ciencias de la Complejidad de la UNAM
Excelente artículo, Dr.!
Explica muy bien la relevancia del trabajo de ambos galardonados.
Curiosamente, tanto a Lebowitz como a Lieb los acaban de nombrar ganadores de la Medalla Dirac (otorgada por el ICTP) de este año.
https://www.ictp.it/about-ictp/media-centre/news/2022/8/2022-dirac-medal-winners-announced.aspx
Obviamente, un reconocimiento más que merecido en ambos casos.