Elemental, mi querido Watson:
inteligencia artificial y cultura general

Jeopardy! Es un programa de entretenimiento familiar, una especie de leyenda en la televisión estadunidense. Con pequeñas variaciones, como el relevo de los presentadores o la implementación de nuevas tecnologías, ha estado al aire desde 1984 con una audiencia que no disminuye. Por lo demás, su formato es bastante singular. En cada episodio, cuya duración es de una hora aproximadamente, compiten tres concursantes. Prestando atención a un tablero de juego color azul, donde aparecen pistas ordenadas por categoría, los concursantes tienen que echar mano de su vasta cultura general, presionar un botón rojo lo más rápido posible y, una vez que el moderador les asigna el uso de la palabra, dar su respuesta, que en realidad es, desde las perspectivas lingüística, gramatical y sintáctica, una pregunta. Por ejemplo:

Categoría: Historia del pensamiento occidental.

Tablero de juego color azul: Nombre del filósofo de la Antigüedad clásica, nacido en la ciudad de Solos y cercano a la escuela estoica que, de acuerdo con el biógrafo Diógenes Laercio, en su libro Vidas, sentencias y opiniones de los filósofos más ilustres, murió en un acto público, asfixiado literalmente por la risa que le provocó un chiste que él mismo había contado a propósito de un vino delicioso y de un asno desobediente.

Concursante n: ¿Quién es Crisipo de Solos?

A fin de destacar en este programa, del género quiz show, y de hacerse con las ingentes cantidades de dinero que sus productores ofrecen en premios, es necesario poseer una erudición fuera de lo común y disponer de una amplia serie de referentes culturales, científicos, históricos, deportivos y artísticos. Ahora bien, la particular manera de contestar, que se caracteriza por la inversión del sentido habitual de las funciones del lenguaje (ya que no pasa de la pregunta a la respuesta sino, al revés, de la respuesta a la pregunta, o bien de la función referencial a la interrogativa), también exige cualidades humanas muy específicas.

No obstante, en 2007, unos programadores de la empresa transnacional International Business Machines (IBM) decidieron aceptar el desafío, al cual llamaron Jeopardy! Challenge. Su concursante no sería, por supuesto, alguien de su propio equipo, de sus propias filas humanas; antes bien, sería uno de los diseños más prometedores de su heterogéneo catálogo de inteligencias artificiales: Watson.

Al mando del biólogo e ingeniero computacional David Ferrucci, los programadores aludidos comenzaron a desarrollar una sofisticada inteligencia artificial con miras a competir contra los mejores jugadores de Jeopardy! hasta ese momento, a saber, los norteamericanos Ken Jennings, quien ostentaba el asombroso récord de setenta y cuatro episodios sin perder, y Brad Rutter, quien a la postre, a fuerza de ganar y ganar, se embolsaría más de cuatro y medio millones de dólares en cheques gigantes. Después de tres años de investigación y de trabajo en laboratorio, en 2010 Watson se encontraba listo para sustentar sus primeras pruebas. Contaba con un poderoso hardware que le permitía almacenar y analizar un enorme repositorio de documentos, diccionarios comunes y especializados, enciclopedias en diferentes idiomas, corpus bibliográficos y hemerográficos por igual. En efecto, Watson era capaz de hallar las respuestas a algunas preguntas o, mejor dicho, las preguntas a algunas respuestas pero, en vista de que también formulaba cuestionamientos disparatados y fuera de contexto de vez en cuando, no consiguió su pase al programa: su inscripción pasó a la lista de espera.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Ferrucci y compañía, sin embargo, lograron identificar sus puntos débiles. En el otoño de 2010, en un número especial de la AI Magazine dedicado al Procesamiento de Lenguaje Natural (NLP, por sus siglas en inglés)1 y, más específicamente, a los modelos computacionales de preguntas y respuestas, publicaron un artículo donde daban cuenta de los talones de Aquiles de Watson: “Construyendo a Watson: una visión panorámica del proyecto DeepQA” (“Building Watson: An Overview of the DeepQa Project”). Ahí también puntualizaban cuáles eran los pasos a seguir para inmunizarlo; en opinión de Ferrucci y de sus once coautores, dado que superar el reto de Jeopardy! exigía “los avances y la incorporación de una variedad de tecnologías de preguntas y respuestas como lo son el análisis, la clasificación de cuestionamientos, la descomposición de interrogantes, la adquisición automática de recursos y de evaluación, la detección de relaciones y de entidades aisladas, la generación de formas lógicas, la representación de conocimientos diversos y el razonamiento en general”,2 lo mejor sería elaborar, desde la óptica del paradigma de aprendizaje no supervisado, un programa computacional de Aprendizaje Profundo en Preguntas y Respuestas (Deep Learning Question Answering o, simplemente, DeepQA): “El sistema que tenemos que construir y continuar desarrollando, llamado DeepQA, es una arquitectura basada en evidencia probabilística masivamente paralela”.3

Así pues, el proyecto DeepQA pretendía elevar a Watson a la altura de los más avezados concursantes humanos de Jeopardy! con base en el escabel de cuatro “principios generales”: el paralelismo masivo (massive parallelism), la contribución de “muchos expertos”, la estimación de confianza generalizada (pervasive confidence estimation) y “la integración de los conocimientos superficial y profundo”.4 En apego a las previsiones de Ferrucci y de su equipo, con base en estos principios generales, en estas amplias directrices, Watson podría unir las pistas presentadas en el tablero de juego color azul y realizar sus complejas operaciones, siguiendo el cauce de un diagrama de flujo, en menos de tres segundos (tiempo máximo para que cada participante, ser humano o máquina, contestara, o preguntara).

Este diagrama de flujo, que Ferrucci y sus colaboradores denominaron Arquitectura DeepQA de Alto Nivel (DeepQA High-Level Architecture), iniciaba con una pregunta y, luego de pasar por su análisis, su descomposición en palabras clave, la generación de un conjunto de hipótesis, un filtro, el rescate de las hipótesis sobrevivientes, un marcador de evidencias, una síntesis preliminar y una clasificación final, terminaba con una “respuesta de confianza”, esto es, con una que tenía auténticas y genuinas probabilidades de acertar.

A principios de 2011, los productores de Jeopardy! sometieron a Watson a un segundo casting, una sesión de pruebas más, como la que realiza cualquier ser humano con aspiraciones a competir en su programa en horario estelar. Watson había aumentado su rendimiento de forma notoria, su porcentaje de aciertos había venido a más considerablemente y, por eso, por fin, su solicitud de admisión obtuvo un dictamen aprobatorio. El 16 de febrero de 2011, Watson se enfrentó a los campeones indiscutibles de Jeopardy!, los participantes Rutter y Jennings.

Su victoria fue aplastante y avasalladora.

Debido a su nombre, Watson, y a su extraordinario desempeño en la recolección de pistas y en la resolución de problemas, la inteligencia artificial de IBM, que no ha sido desmontada todavía, puede dar lugar a dudas, es capaz de incitar a la sospecha. Quizá alguien piense, al tener noticia de esta información, que Watson se llama así en honor al Doctor John H. Watson, leal compañero de Sherlock Holmes, uno de los protagonistas y frecuente narrador de la saga de novelas detectivescas que Sir Arthur Conan Doyle escribió entre 1887 y 1927. En vista de esta ambigüedad, de esta incertidumbre, de este riesgo latente de caer en confusión, no están de más las aclaraciones. La denominación de esa inteligencia artificial no se debe a ningún personaje literario o ficticio, sino a un personaje real, histórico, una persona de carne y hueso: Thomas John Watson, un alto directivo que hizo crecer económicamente a IBM en la década de los treinta, mientras el resto de las compañías en Estados Unidos de América se consumían en la oscura vorágine financiera que había desatado el crac de 1929.

 

Francisco Gallardo Negrete
Doctorante en humanidades, con énfasis en Teoría Literaria, en la UAM-I. Ganador del Premio Nacional de Ensayo Literario Alfonso Reyes en 2015.


1 El NLP es una subárea de la inteligencia artificial y del aprendizaje automático. Su objeto de estudio es doble: por un lado, examina el lenguaje natural, en estado puro, tal cual se utiliza en la vida cotidiana (sea inglés, español, rumano, japonés, etcétera), y, por otro, indaga si las máquinas y las computadoras tienen potencial para adquirirlo y dominarlo. Además de servir a los modelos computacionales de preguntas y de respuestas, el procesamiento de lenguaje natural contribuye con sus aportaciones al constante mejoramiento de programas especializados en traducciones automáticas, en ediciones computarizadas de texto, en dictado automático, etcétera.

2 Ferrucci, S., y otros. “Building Watson: An Overview of the DeepQa Project”, AI Magazine, 31 (3), 2010, p. 60.

3 Ibidem, p. 68.

4 Idem.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Contactos