symbols and binary digits

IA, indeterminismo y buena narrativa

read time - icon

0 min read

Mar 12, 2020

Quieres contratar un seguro para tu coche. La aseguradora te ofrece un trato: instala una app en tu teléfono para beneficiarte de una tarifa especial. Al cabo de un mes, la aseguradora se pone en contacto contigo para ofrecerte una tarifa revisada para tu seguro: te ahorras 15 dólares más al mes (sin necesidad de pasar por el Go ni de ir directamente a la cárcel). ¿Cómo ha ocurrido? La aplicación que instalaste hace un seguimiento de tus hábitos de conducción, envía datos al servidor central y un sistema basado en inteligencia artificial determina el nivel de riesgo que representas y (en consecuencia) el precio que el proveedor debe ofrecerte por la cobertura del seguro.

¿Puede el sistema de IA predecir el momento exacto en que vas a tener un accidente, lo dañado que puede estar tu coche (y quizá tu cuerpo), etc.? No, nada tan preciso. En cambio, el sistema ofrecerá probabilidades, y en grandes números (muchos conductores, mucho tiempo en la carretera) la compañía de seguros probablemente puede confiar en esas probabilidades para hacer estimaciones bastante precisas sobre el número colectivo de accidentes que necesitarán cubrir, lo caros que serán, qué tipo de personas se verán involucradas en esos accidentes, etc.

Aunque estamos acostumbrados a estos modelos probabilísticos para seguros, préstamos y similares (cortesía de las ciencias actuariales), la IA está subiendo la apuesta, e incluso podría cambiar las reglas del juego. La IA está introduciendo modelos probabilísticos en áreas en las que nunca antes habían estado, y eso no siempre encaja con nuestro deseo humano de narrativas limpias y causales. Como humanos, nos gustan las historias deterministas: aquellas en las que la narración muestra que las cosas tenían que desarrollarse como lo hacen. No nos gustan los "bucles abiertos": preguntas que nunca se responden, lagunas en la historia que nunca se resuelven. Los sistemas probabilísticos e indeterministas no ofrecen eso.

En este artículo, analizaré algunos antecedentes históricos para ilustrar que los debates actuales sobre el indeterminismo centrados en la IA no son nuevos, pero que, dado el potencial revolucionario de la IA, pueden requerir una reflexión más profunda. Para complementar el análisis histórico, ofreceré algunos ejemplos contemporáneos e intentaré extraer algunas ideas tangibles sobre los retos sociales que puede generar la toma de decisiones impulsada por la IA a medida que se implanta en la vida cotidiana.

En resumen, pretendo contribuir a los debates en curso sobre la influencia de la IA en el curso de las sociedades humanas, tanto sobre los problemas que resolverá como sobre los que dejará al descubierto. Y concretamente quiero hacerlo aportando algo de perspectiva histórica.

Viejo debate, nueva tecnología

En una conversación reciente, el Dr. Richard Bruno planteó la cuestión de si es la primera vez en la historia que confiamos en sistemas indeterministas para sustentar nuestras decisiones. La pregunta me llevó a reflexionar sobre la historia de los debates acerca del determinismo y el indeterminismo; uno de los más famosos del pasado reciente se produjo en torno al desarrollo de la mecánica cuántica a principios del siglo XX. En la mecánica cuántica (según la interpretación de Copenhague, pero no vamos a entrar en eso ahora), una partícula no existe en una posición definida hasta que se mide. Más bien, tiene una "superposición": una distribución de probabilidad de los lugares en los que podría estar. Cuando medimos su ubicación, forzamos a esta distribución a colapsar, dando a la partícula una ubicación específica. Pero, ¿dónde estaba la partícula antes de la medición? Tiene una cierta probabilidad de estar en varios lugares. Eso es lo que significa la superposición.

En respuesta a este problema, Schrödinger propuso un experimento mental que sugiere que toda la idea de la superposición podría ser absurda. Supongamos que metemos un gato en una caja con: una partícula en superposición, un pequeño instrumento de medida de posición y un frasco de gas venenoso. Si la partícula se encuentra en el lugar A, el instrumento de medida provoca la rotura del frasco y el gato tiene un final desgraciado. Si la partícula no se encuentra en el lugar A, la ampolla permanece sellada y el gato vive para cazar un día más. Según la interpretación de Copenhague, esto significa que hasta que abramos la caja y miremos dentro (obligando a la partícula a adoptar una posición determinada, y al vial a romperse o no romperse), el gato está vivo y muerto al mismo tiempo: el gato está en una superposición de vida y muerte hasta que abramos la caja.

Para algunos, esa superposición vida-muerte se considera completamente absurda y, por tanto, una ilustración de la insensatez de la interpretación de Copenhague, quizá un desafío a toda la mecánica cuántica en su conjunto. Otros niegan el absurdo y afirman que la situación descrita no plantea ningún problema. Otros aceptan el absurdo, pero presentan varias réplicas para intentar salvar la situación. Pero no vayamos demasiado lejos.

Lo que quiero extraer aquí es la preocupación que nos causa el indeterminismo: cuando tomamos este tipo de sistemas y los aplicamos a objetos cotidianos, a veces acabamos liándonos la manta a la cabeza. Digamos que, según la distribución de probabilidad, hay un 50% de posibilidades de que la partícula esté en el lugar A (el gato está muerto), y un 50% de que no lo esté (el gato está vivo). Cuando abramos la caja, encontraremos uno u otro resultado. La superposición colapsará a sólo uno de los dos resultados posibles (A o no A), y hay un 50% de posibilidades de cada uno. Pero por qué cayó en este 50% en este caso concreto no es algo que podamos explicar. Las probabilidades son totalmente deterministas, pero el resultado en un solo caso es indeterminista.

Entonces, ¿cómo explicamos el resultado en un caso determinado? En realidad, no podemos; la mecánica cuántica puede mostrarnos la distribución de probabilidades en sí, y puede decirnos que la distribución se colapsará cuando la observemos, pero no puede explicar por qué el gato realmente vivió en lugar de morir. Sólo había un 50% de posibilidades de que así acabaran las cosas en este caso.

¿Por qué me siento tan incómodo?

Como humanos, esa falta de poder explicativo nos incomoda profundamente. No nos gustan las cosas sin resolver. Nos gustan las narraciones causales que explican la historia de principio a fin; las secciones no resueltas de la historia dificultan su comprensión (de hecho, aumentan la carga cognitiva de entender y recordar la historia, carga cognitiva que tratamos de minimizar: la potencia cerebral es cara, desde una perspectiva evolutiva).

La mecánica cuántica no nos da esa reconfortante satisfacción cognitiva de que todo está resuelto, en su debido orden. Más bien nos lleva hasta conocer la distribución de probabilidades, pero no mucho más allá. Si hiciéramos el experimento un millón de veces, la mecánica cuántica explicaría muy bien por qué el 50% de los casos fueron de una manera mientras que el otro 50% de los casos fueron de otra. (Pero para un solo caso nos deja cognitivamente insatisfechos.

De este modo, los sistemas indeterministas de la mecánica cuántica se parecen mucho a los sistemas indeterministas que suelen producir los algoritmos de IA. Gran parte de lo que hace la IA es segmentar grupos para maximizar el poder predictivo en casos novedosos. Por ejemplo, si se quiere saber qué individuos de una población tienen más probabilidades de olvidarse de pagar sus impuestos a tiempo (para poder enviarles un recordatorio a tiempo), los algoritmos de IA suelen ser bastante buenos a la hora de discernir un patrón en un gran conjunto de datos de casos pasados.

Podría ser, por ejemplo, que tras el nacimiento de su primer hijo, los padres del recién nacido sean más propensos a olvidarse de pagar sus impuestos a tiempo -o, tal vez se acuerdan, pero simplemente no consiguen hacerlo-. Un sistema de IA podría detectar ese patrón y seleccionar a todas las personas a las que debería recordárselo. (Obsérvese que, al presentar este ejemplo, lo he introducido con una narración causal; si no lo hubiera hecho, el ejemplo le habría resultado cognitivamente más exigente de analizar y considerar, incluso podría haber encontrado mi escrito difícil de entender).

El algoritmo podría decirle que el 80% de los padres primerizos pagarán sus impuestos con retraso. Pero, ¿qué ocurre con un padre primerizo? El modelo no puede decirle cuáles entrarán en el 80% de los que olvidan o en el 20% de los que recuerdan, y no podrá explicar el resultado para individuos concretos. El modelo llega a decir que hay un 80% de probabilidades de que una persona del grupo se olvide, y a partir de ahí te deja a tu suerte.

Problemas de transparencia, responsabilidad y confianza

Esto crea al menos dos tipos de retos en torno a la responsabilidad institucional. Al tomar un gran número de decisiones, a veces no tenemos otra alternativa que trabajar con probabilidades. Sencillamente, no hay recursos para tomar algunos tipos de decisiones caso por caso, debido estrictamente al volumen de decisiones que hay que tomar (consideraciones similares pueden aplicarse cuando tenemos intensas limitaciones de tiempo).

Por ejemplo, si una autoridad de salud pública tiene que examinar a personas en un aeropuerto como posibles portadoras de un virus, podría muy bien basarse en métodos probabilísticos para clasificar sus exámenes y sus decisiones. Los viajeros procedentes de determinados puntos conflictivos podrían ser automáticamente sometidos a un protocolo de cribado reforzado, e incluso el propio cribado podría marcar incorrectamente como portadores al 5% de las personas sanas, y al 1% de los portadores reales como sanos.

Aquí entra en juego el primer reto. La institución adopta un enfoque probabilístico de los grupos que es indeterminista a nivel de los individuos. Pero cuando evaluamos los resultados, nuestras interpretaciones de la situación y nuestras acciones resultantes se verán impulsadas por nuestro deseo de narrativas limpias y causales (que nos den esa satisfacción cognitiva). Supongamos que una persona sana es falsamente señalada como portadora, se pone temporalmente en cuarentena con personas que están realmente enfermas, contrae la enfermedad mientras está en cuarentena y más tarde muere de la enfermedad.

Cuando la sociedad exige respuestas sobre cómo esta persona fue falsamente marcada en primer lugar, ¿qué puede decir la autoridad de salud pública? Pueden explicar cómo el modelo clasificó al individuo basándose en características XYZ, y explicar las características del modelo en virtud de las cuales esta clase de personas sólo tiene una pequeña probabilidad de ser marcada incorrectamente como portadora. (Este es otro nivel del reto: a los expertos les resulta cada vez más difícil ofrecer una explicación incluso de la probabilidad a medida que los modelos de IA se vuelven cada vez más complejos y opacos). Pero incluso si la autoridad sanitaria puede explicar la cadena de razonamiento para llegar a su conclusión probabilística,

no podrán explicar por qué se ha marcado incorrectamente a esa persona. El modelo sólo les lleva hasta ahí, pero luego deja la explicación incompleta, desde una perspectiva narrativa causal.

Y esto nos lleva a un segundo tipo de problema al que pueden enfrentarse las instituciones. Cuando la sociedad pide una explicación pero recibe una respuesta insatisfactoria, puede desencadenar peticiones de reforma sistémica, a menudo aglutinadas en torno a estas narrativas individuales. Por ejemplo, cuando un polaco fue asesinado con una pistola eléctrica en un aeropuerto en 2007 y las explicaciones públicas fueron insuficientes, se generó la presión que condujo a las reformas. Un hombre muerto injustamente se convierte en un símbolo de la fuerza excesiva de la policía. Si hubiera una explicación adecuada, no sentiríamos la disonancia cognitiva.

Pero, ¿quién puede ser un símbolo y quién no (y un símbolo de qué)? El nivel de disonancia cognitiva que sentimos está fuertemente sesgado en función de dimensiones predecibles: raza, clase socioeconómica, edad, sexo, etcétera. Para ilustrar este punto, supongamos que en 2007 el hombre asesinado con una pistola eléctrica en un aeropuerto hubiera venido de Afganistán en lugar de Polonia; ¿creemos realmente que el nivel de indignación pública habría sido el mismo? ¿Habríamos sentido la misma disonancia cognitiva al pensar que en un aeropuerto se tachaba de amenaza a una persona islámica en lugar de a una católica? La investigación sugiere que las narrativas públicas se verán muy influidas por la raza de las personas implicadas, y que como resultado tomaremos decisiones políticas diferentes.

En resumen, encontramos algunas narrativas más incompletas (con la disonancia cognitiva asociada, la sensación de injusticia, etc.) que otras narrativas similares, a menudo en función de la raza u otras características.

¿Podemos confiar en la IA lo suficiente como para aprovechar sus ventajas?

¿Qué aspecto tienen estos dos retos cuando los trasladamos al caso de la IA y, en concreto, a la modelización probabilística? El primer reto es que no podemos ofrecer explicaciones "completas" para los casos individuales; los modelos son deterministas sólo en la medida en que explican la segmentación y las probabilidades de los grupos, pero indeterministas en relación con los casos individuales dentro de un grupo. El segundo problema es que, cuando no se dispone de explicaciones más "completas", algunos casos individuales reciben mucha más atención que otros, por lo que se introducen ciertos cambios sistémicos y otros no, a menudo basados en sesgos y prejuicios.

Volviendo a la pregunta inicial, ¿cuáles son los aspectos novedosos de utilizar la IA para construir sistemas de apoyo a la toma de decisiones? Históricamente, su aplicación a los retos sociales abre de par en par algunos de los desafíos que hace un siglo eran argumentos estrictamente entre académicos cuando hablábamos de las posiciones de las partículas; ahora la discusión nos implica a todos y lo que está en juego es mucho más importante. Estamos hablando de aplicar estos sistemas a un segmento mucho más amplio de nuestras decisiones que nunca, y en términos de despliegue tecnológico esa aplicación se está extendiendo con extrema rapidez. Este amplio alcance y rápido despliegue presiona a nuestros sistemas sociales y democráticos para que apliquen el escrutinio y la reflexión crítica necesarios para garantizar que los sistemas conducen a resultados justos y equitativos para todos. Pocas veces en el pasado (por no decir nunca) nuestros sistemas sociales y democráticos han tenido que responder tan rápidamente a un cambio tan rápido y a tan gran escala.

About the Author

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?