¿Por qué confiar en un algoritmo?

Ese jueves por la noche había niebla, así que de camino de regreso a su casa prestó más atención que de costumbre al GPS (Global Position System, por sus siglas en inglés) del vehículo. Después de un tramo, la lluvia hizo más difícil la visibilidad en el camino. Además de aguzar la vista, la joven de 23 años también miraba con mayor frecuencia al GPS, pendiente de las instrucciones que le dictaba la voz impersonal del navegador. Después de todo, en aquella región de Ontario, Canadá, los servicios de emergencia tardarían algo en hallarla si llegaba a perderse o tenía un percance.

Ilustración: Patricio Betteo
Ilustración: Patricio Betteo

Entonces, después de la vuelta indicada, el auto se salió del camino y terminó en una rampa utilizada para botar barcos en el muelle del puerto local. Era medianoche y el agua en el lago era de 4 °C. El auto flotó el tiempo suficiente para que la joven tomara su bolso y nadara unos treinta metros hasta alcanzar la orilla. Allí, caminó hasta encontrar un hotel donde, tras recuperarse del chapuzón, hizo una llamada a la policía para solicitar apoyo en el rescate de su auto.

Regresar el auto a tierra firme requirió la emisión de un aviso del centro de coordinación de rescate de Trenton, Ontario, para evitar que los botes se acercaran a la zona del incidente por el peligro de encallar; el Ministerio de Medio Ambiente también fue notificado. Ese viernes por la mañana, el auto fue retirado del lago sin pérdidas adicionales que lamentar.1 No se presentaron cargos contra la conductora —se descartó la posibilidad de que estuviera manejando bajo la influencia del alcohol. Todo quedó en un error al seguir las instrucciones del navegador. Sin embargo, resulta inevitable pensar en toda esa movilización de recursos que desencadenó tan sólo una instrucción errónea del GPS.

Podemos argüir —entre otras cosas— que “era de noche y había niebla… no eran las mejores condiciones”. Sin embargo, otro caso muy similar ocurrió a plena luz del día a turistas japoneses en Australia cuando su navegador GPS los orilló a quedar varados en una bahía durante marea baja.2

Pero estoy seguro que tanto usted como yo, en medio del tráfico y en más de una ocasión, le hemos dado el voto de confianza a la instrucción del GPS por encima de nuestra “voz interior” que nos sugiere alguna otra ruta para continuar y salir del nudo gordiano que se forma a horas pico. La integración de diversos algoritmos orientados a la asistencia o toma de decisiones en nuestra vida diaria se ha vuelto inevitable.

Resulta paradójico que, por un lado, se busque liberarnos de la carga cognitiva que implica la conducción de un auto (por poner un ejemplo de alta visibilidad comercial) en aras de invertir ese tiempo en actividades orientadas a aumentar la productividad o simplemente ocio, mientras que, por otro lado, el algoritmo en cuestión requiera la supervisión de un ser humano (nuevamente, una carga cognitiva).

Continuando con el caso de la industria automotriz, recientemente los pilotos automáticos incluidos en los autos Tesla están siendo revisados muy de cerca ante el aumento de accidentes y pérdidas fatales donde se ha visto involucrada esta marca.3 Cabe señalar que el sistema de piloto automático no implica una conducción autónoma total —el objetivo final de muchas automotrices y que el mismo Tesla ya cuenta con una versión beta—, es decir, aún se requiere la atención de un piloto humano.

Así, si cada vez confiamos más en los algoritmos, ¿cuáles son los procesos neurofisiológicos que inclinan la balanza de la confianza hacia ellos? ¿Es la promesa de una mejora en nuestro desempeño una condición suficiente para incluirlos en la toma de decisiones? ¿Qué sucede si confiamos demasiado? En sus 21 lecciones para el siglo XXI (National Geographic Books, 2018), Yuval N. Harari hace un llamado a la prudencia al escribir que “… incluso en sociedades supuestamente libres, los algoritmos pueden ir ganando autoridad debido a que aprendemos por experiencia a confiar en ellos cada vez más cuestiones, y poco a poco perderemos nuestra capacidad para tomar decisiones por nosotros mismos”.

Para entender cómo se puede construir confianza hacia un algoritmo, un grupo de científicos diseñó un estudio4 donde se midieron las respuestas neurofisiológicas (cambios en la variabilidad de la frecuencia cardiaca, los cuales pueden correlacionarse con actividad parasimpática)5 cuando variaba la información sobre el algoritmo que podía ayudar en la toma de decisiones que, en este caso, consistía en hallar la salida de un laberinto. A los participantes del estudio les dieron a resolver doce laberintos en una computadora portátil. Contaban con un minuto para solucionarlos, con otro minuto entre cada resolución para permitir que las medidas neurofisiológicas regresaran a sus niveles base, y un descanso de tres minutos después de terminar los primeros seis laberintos para permitir un descanso en la carga cognitiva.

Además, a los participantes se les informó que ganarían cinco dólares por cada laberinto resuelto en un minuto o menos; en caso de no resolverlo en ese tiempo, recibirían dos dólares como premio de consolación, pero esta última información no se les compartió al inicio del estudio. Antes de comenzar cada laberinto, a todos los participantes se les dio la oportunidad de comprar por tan sólo dos dólares a un “ayudante” (es decir, un algoritmo) que podría mejorar sus probabilidades de resolver el laberinto. Sin embargo, también se les informó que este algoritmo no era 100 % infalible, pero que, en última instancia, la persona tenía la palabra final en cuanto a seguir o no sus recomendaciones.

A los participantes se les asignaron aleatoriamente dos de cuatro posibles escenarios de información relacionados con la efectividad del algoritmo. El primer escenario consistía en anunciarles que podían comprar el algoritmo y no se ofrecía ninguna información sobre el grado de precisión. En el segundo escenario, se notificaba que el algoritmo tenía un 75 % de precisión; en el tercer escenario, se afirmaba que un 54 % de las personas había usado el algoritmo, y el último escenario, mencionaba que el 70 % de las personas habían usado el algoritmo. Como hemos podido notar, los últimos dos escenarios poseen una “carga social”.

Los resultados muestran que el 61 % de los participantes eligió comprar el algoritmo por lo menos una vez. El estudio también mostró que proporcionar o no la información sobre la precisión del algoritmo no afectó a la decisión de comprarlo. En todo caso, el factor clave para la adquisición del algoritmo fue la “carga social”. Es decir, si se desea persuadir a otras personas de adoptar o confiar en un algoritmo, lo más efectivo es mostrar lo que otras personas han experimentado al usarlo (hacer evidente la confianza que han tenido otros), similar a lo que ocurre en las plataformas de ventas de productos al desplegar notificaciones del tipo: “Otras personas que han comprado este producto también han adquirido…”.

Algo que no pudieron demostrar los investigadores fue la hipótesis de que la adopción del algoritmo se daría con mayor frecuencia si la carga cognitiva (i. e. atención) que requería la tarea (hallar la salida del laberinto) era alta. Esto no se dio. Quizás porque los laberintos no eran tan complejos o porque la ganancia monetaria no era lo suficientemente jugosa para invertir más en una ventaja cognitiva, incluso cuando no se ofrecía información sobre la precisión del algoritmo.

Lo curioso es que los niveles de atención de los participantes que usaron el algoritmo en la situación donde no se les informó de su precisión no aumentaron más allá de su línea base, como sí fue el caso en aquellas situaciones donde se revelaron los niveles de precisión del algoritmo. Esto parece indicar que los participantes no seguían en realidad el desempeño del algoritmo precisamente cuando más se justificaba su monitoreo. En cuanto a la condición de “carga social” (confianza en lo que han experimentado otros), los participantes que adquirieron el algoritmo tuvieron una menor atención que aquellos que no lo adoptaron, pero ésta nunca bajó de su línea base, indicando que efectivamente sí estaban monitoreando al algoritmo, además de seguir sus recomendaciones con lo que obtuvieron mejores desempeños.

Esta clase de experimentos muestra que la confianza para adoptar algoritmos se basa en buena medida en la experiencia de usuarios previos, es decir, otros con “nuestros mismos gustos” (carga social). En este sentido, quizás la vía más prometedora para las compañías tecnológicas para volver más fina la línea divisoria entre “nosotros” y “ellos” (los algoritmos) es a través su antropomorfización —formas novedosas de disparar nuestros mecanismos neurofisiológicos que aumentan la confianza.

Lo anterior no implica que debamos “dejar el volante” completamente a los algoritmos para que decidan el rumbo, pero tampoco se trata de prescindir de ellos para mejorar nuestro desempeño como especie. Cierto, no es un dilema fácil de resolver —sobre todo cuando existe el capitalismo de vigilancia—6 debido a la asimetría que conllevan las innovaciones tecnológicas, pero quizás, como dice Harari, “al final se trate de una cuestión empírica sencilla: si los algoritmos entienden de verdad lo que ocurre dentro de ti mejor que tú mismo, la autoridad pasará a ellos”.

 

Martín Méndez
Doctor en Ciencias Aplicadas por el Instituto Potosino de Investigación Científica y Tecnológica A.C. (IPICYT), entusiasta de la divulgación científica y la innovación, más presente en el futuro que en el ahora.


1 McQuigge, M. “Woman follows GPS; ends up in Ontario lake”, Toronto Sun, 2016.

2 Freak, J., y Holloway, S. “How not to get to Straddie”, Redland City Bulletin, 2012.

3 Siddiqui, F.; Lerman, R., y Merrill, J. B. “Teslas running Autopilot involved in 273 crashes reported since last year”, The Washington Post, 2022.

4 Alexander, V.; Blinder, C., y Zak, P. J. “Why trust an algorithm? Performance, cognition, and neurophysiology”, Computers in Human Behavior, 89, 2018, pp. 279–288.

5 De acuerdo con el estudio, una mayor variabilidad de la frecuencia cardiaca está asociada a emociones positivas y de mayor conectividad social.

6 Zuboff, S. La era del capitalismo de la vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder, Paidós, 2020.

Escribe tu correo para recibir el boletín con nuestras publicaciones destacadas.


Publicado en: Contactos