woman looking at another woman

La IA y el futuro de la detección de mentiras

read time - icon

0 min read

Dec 15, 2018

"Ahora vivimos en un mundo en el que sabemos mentir. Con los avances de la IA, es muy probable que pronto vivamos en un mundo en el que sepamos detectar la verdad. El alcance potencial de esta tecnología es enorme: la cuestión es cómo debemos ut
ilizarla".

Algunas personas son buenas mentirosas por naturaleza y otras son buenas detectoras de mentiras por naturaleza. Por ejemplo, los individuos que encajan en esta última descripción a menudo pueden percibir las mentiras de forma intuitiva, observando las fluctuaciones en la dilatación de las pupilas, el rubor y una variedad de microexpresiones y movimientos corporales que revelan lo que está pasando en la cabeza de otra persona. Esto se debe a que, para la gran mayoría de los que no somos mentirosos entrenados, cuando mentimos, o mentimos por omisión, nuestro cuerpo tiende a delatarnos.

Para la mayoría de nosotros, sin embargo, la intuición sobre si alguien está mintiendo suele prevalecer sobre las conjeturas. Aunque seamos conscientes de los factores que pueden indicar una mentira, somos incapaces de observarlos y procesarlos simultáneamente en tiempo real, por lo que, en última instancia, tenemos que adivinar si estamos oyendo la verdad.

Supongamos ahora que no tuviéramos que ser buenos detectores de mentiras, porque dispondríamos fácilmente de datos para saber si alguien miente o no. Supongamos que, con estos datos, pudiéramos determinar con casi total certeza la veracidad de las afirmaciones de alguien. Ahora vivimos en un mundo en el que sabemos mentir. Con los avances de la IA, es muy probable que pronto vivamos en un mundo en el que sepamos detectar la verdad. El alcance potencial de esta tecnología es enorme; la cuestión es cómo debemos utilizarla.

El futuro de la inteligencia artificial para detectar mentiras

Imagina que alguien pudiera recopilar algo más que datos de los latidos del corazón de otra persona (o los suyos propios), sino también datos continuos sobre expresiones faciales a partir de secuencias de vídeo. Imagina que pudieras utilizar esos datos, con un poco de formación, para analizar conversaciones e interacciones de tu vida cotidiana, repitiendo las que te parecieran sospechosas con una mirada más atenta. Además, los que te rodean podrían hacer lo mismo: imagina que un amigo, o una empresa, pudiera utilizar tus datos pasados para diferenciar con fiabilidad entre tus verdades y falsedades, asuntos importantes y cosas que te importan un bledo.

Esto significa todo un nuevo conjunto de herramientas para investigadores, anunciantes, precavidos, paranoicos, vigilantes, para cualquiera que tenga acceso a Internet. Cada uno de nosotros tendrá que saber y entender cómo gestionar y navegar por este nuevo registro público de nuestras respuestas basado en datos.

La cuestión para los próximos años no es si la mentira se borrará -por supuesto que no-, sino más bien cómo deben utilizarse estas nuevas herramientas en la búsqueda de la verdad. Además, ante la variedad de formas posibles de malinterpretar y utilizar estas tecnologías, ¿en qué contextos deben ponerse a disposición o promoverse?

La verdad sobre conocer la verdad

Las películas suelen bromear sobre el deseo de tener una ventana abierta al cerebro de otra persona, de sentir la seguridad de que lo que dice describe lo que siente, que lo que siente describe lo que hará y que lo que hará demuestra lo que todo significa para ella. Por supuesto, todos sabemos que el mundo no es tan ordenado, y uno puede caer presa de la búsqueda de consejos en Internet. ¿Qué ocurre cuando esos consejos se atrincheran aún más en una oleada de datos recién disponibles, pero mal comprendidos?

¿Qué ocurrirá, por ejemplo, cuando estos nuevos datos se utilicen en el proceso de contratación, con candidatos descartados por programas informáticos dedicados a evaluar si han mentido durante una entrevista y sobre qué? ¿Qué ocurrirá cuando el mismo proceso se utilice para la selección de alumnos, jurados y otros tipos de entrevistas, o cuando los resultados se comuniquen a posibles empleadores? A medida que aumenta el número de escenarios posibles, la pregunta que debemos hacernos es: ¿cuándo es información privada nuestro latido?

¿El conocimiento de nuestras reacciones internas es en sí mismo privado, simplemente porque hasta ahora sólo un pequeño segmento de personas perceptivas podía saber lo que ocurría? Las comunidades suelen organizarse en torno a los caminos de menor resistencia, creando una nueva división entre quienes entienden y pueden navegar por este nuevo registro digital, y quienes no.

Imaginemos terapeutas que registran activamente la disonancia cognitiva, telediarios que identifican en tiempo real si un invitado cree o no lo que dice, empresas que reformulan entrevistas con análisis faciales activos, interrogatorios rápidos de seguridad fronteriza. El alcance cada vez mayor de los sensores nos aleja de la posverdad y nos lleva a la era de la posmentira, o mejor dicho, del fin de nuestra comodidad con las formas en que mentimos actualmente. Como ocurre con todo, los beneficios no se dejarán sentir por igual.

Podríamos incluso imaginar la evolución de la detección de mentiras hacia interfaces cerebro-ordenador, en las que el derecho a la intimidad debe debatirse a la luz de cuándo podemos considerar privados nuestros pensamientos.

En los tribunales, si podemos diferenciar de forma fiable las reacciones durante una mentira y durante la verdad, ¿tienen derecho los testigos a mantener esa información en privado? ¿Deberían prestarse todos los testimonios en el más absoluto anonimato? Investigadores de la Universidad de Maryland han desarrollado DARE (Deception Analysis and Reasoning Engine), un motor de análisis y razonamiento del engaño, que esperan que esté a sólo unos años de lograr una identificación del engaño casi perfecta.

¿Qué pensar entonces de la 5ª enmienda de la Constitución estadounidense, cómo enfocar el derecho a no autoincriminarse? Con la llegada de estas tecnologías, quizá debería cambiar la propia naturaleza de la sala del tribunal. A los testigos no se les pone un polígrafo en el estrado por una buena razón: no es fiable, pero puede que haya poco que impida a alguien con un sistema analítico portátil contar sus constantes vitales o analizar un vídeo a distancia, y publicar los resultados para el tribunal de la opinión pública. ¿Cómo debe registrarse y comprenderse nuestro comportamiento en el pasado?

Cómo diseñamos los nudges, cómo diseñamos los espacios públicos, cómo navegamos en situaciones sociales, ofertas de trabajo, relaciones personales, todo depende de un equilibrio de convenciones sociales por el que nos permitimos -y permitimos a los demás- ocultar información. Sin embargo, ¿qué debemos hacer con una tecnología que promete sacar a la luz esta información oculta? ¿Es preferible un mundo basado en verdades completas al que tenemos ahora? ¿Tendremos la oportunidad de decidirlo?

Los avances de la IA y la democratización de la ciencia de datos están convirtiendo el hipotético problema de qué tipo de mundo preferimos en un debate demasiado real, que debemos celebrar pronto. De lo contrario, no tendremos ni voz ni voto en el futuro.

About the Authors

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?