robot and human hand

Combinar la IA y las ciencias del comportamiento de forma responsable

read time - icon

0 min read

Aug 14, 2020

Si no se ha pasado los últimos cinco años viviendo bajo una roca, es probable que haya escuchado al menos una forma de aplicar la inteligencia artificial (IA) a algo importante en su vida. Desde determinar las características musicales de una canción de éxito para productores nominados a los Grammy1 hasta entrenar al vehículo Curiosity de la NASA para que navegue mejor por su abstracto entorno marciano,2 la IA es tan útil como omnipresente. Sin embargo, a pesar de su omnipresencia, pocos entienden realmente lo que ocurre bajo el capó de estos complejos algoritmos y, lo que es más preocupante, a pocos parece importarles, incluso cuando afecta directamente a la sociedad. Tomemos como ejemplo el Reino Unido, donde uno de cada tres ayuntamientos utiliza la IA para ayudar a tomar decisiones en materia de bienestar público, desde decidir a qué colegio van los niños hasta investigar si hay fraude en las solicitudes de prestaciones sociales3.

¿Qué es la IA?

En términos sencillos, la IA describe máquinas que están hechas para pensar y actuar como humanos. Al igual que nosotros, las máquinas de IA pueden aprender de su entorno y dar pasos hacia la consecución de sus objetivos basándose en experiencias pasadas. John McCarthy, profesor de matemáticas del Dartmouth College, acuñó el término inteligencia artificial por primera vez en 1956.4 McCarthy afirmó que, en teoría, todos los aspectos del aprendizaje y otras características de la inteligencia humana pueden describirse con tanta precisión que una máquina puede simularlos matemáticamente.

En la época de McCarthy, la IA no era más que una conjetura que se limitaba a una serie de tormentas de ideas de matemáticos idealistas. Ahora está experimentando una especie de renacimiento debido a los enormes avances en potencia de cálculo y a la enorme cantidad de datos que tenemos a nuestro alcance.

Aunque las descripciones posthumanas y distópicas de la IA avanzada puedan parecer inverosímiles, hay que tener en cuenta que la IA, incluso en su forma actual y relativamente rudimentaria, sigue siendo una herramienta poderosa que puede utilizarse para crear enormes beneficios o perjuicios para la sociedad. Lo que está en juego es aún mayor cuando las intervenciones de las ciencias del comportamiento hacen uso de la IA. Pueden producirse resultados problemáticos cuando los usos de estas herramientas se ocultan al público bajo un manto de tecnocracia, especialmente si las máquinas de IA desarrollan los mismos prejuicios que sus creadores humanos. Hay pruebas de que esto puede ocurrir, ya que los investigadores incluso han logrado implementar deliberadamente sesgos cognitivos en algoritmos de aprendizaje automático según un artículo publicado en Nature en 2018.5

Máquinas que actúan como nosotros

Un término que está casi tan de moda como el de IA es el aprendizaje automático, un subconjunto de la IA que describe sistemas capaces de aprender automáticamente de la experiencia, como los humanos. Las plataformas de redes sociales utilizan ampliamente el aprendizaje automático para predecir los tipos de contenido que es más probable que leamos, desde los artículos de noticias que aparecen en nuestros feeds de Facebook hasta los vídeos que nos recomienda YouTube. Según Facebook6, su uso del ML es para "conectar a la gente con el contenido y las historias que más les interesan".

Sin embargo, quizá sólo tendemos a interesarnos por aquello que refuerza nuestras creencias. Un análisis de McKinsey & Company sostiene que las redes sociales utilizan algoritmos de inteligencia artificial para "[filtrar] las noticias en función de las preferencias de los usuarios [y reforzar] el sesgo de confirmación natural de los lectores".7 Para los gigantes de las redes sociales, el sesgo de confirmación es una característica, no un error.

Búsquedas mundiales en Google sobre aprendizaje automático
Fuente: Google Trends

A pesar de la preocupación que suscitan los bucles de retroalimentación generados por el ML que crean cámaras de eco ideológicas en las redes sociales8 -lo que podría ser un axioma basado en una visión incompleta de la dieta mediática de los individuos, según una investigación del Oxford Internet Institute9-, estas (y muchas otras) aplicaciones del ML no son intrínsecamente negativas. En la mayoría de los casos, puede ser beneficioso para nosotros estar conectados con las personas y los contenidos que más nos interesan. Sin embargo, los usos problemáticos de la ML pueden causar malos resultados: Si programamos las máquinas para que optimicen resultados que se ajusten a nuestros puntos de vista y objetivos normativos, podrían hacer precisamente eso. Las máquinas de IA son tan inteligentes, racionales, reflexivas e imparciales como sus creadores. Y, como nos dice el campo de la economía conductual, la racionalidad humana tiene sus límites.

Cuando la IA se utiliza por razones equivocadas

La existencia de sesgos no significa necesariamente que debamos ralentizar o detener nuestro uso de la IA. Más bien, debemos ser conscientes de ello para que la IA no se convierta en una especie de enigmática caja negra sobre la que aparentemente tenemos poco control. La inteligencia artificial y el aprendizaje automático son simplemente herramientas que tenemos a nuestra disposición; depende de nosotros decidir cómo utilizarlas de forma responsable. Se requiere una atención especial cuando utilizamos una herramienta tan poderosa como el ML, que, cuando se asocia con la ciencia del comportamiento, tiene el potencial de exacerbar los sesgos que afectan a nuestra toma de decisiones a una escala sin precedentes. Los malos resultados de esta asociación podrían incluir un refuerzo de los prejuicios que tenemos hacia las personas marginadas, o la miopía hacia el progreso equitativo en nombre de la optimización calculada. Los resultados mediocres podrían incluir el uso de intervenciones de la ciencia del comportamiento infundidas con ML para vendernos más cosas que no necesitamos o para burocratizar nuestros entornos de elección en una red de tedio. Estas herramientas también podrían fomentar la perniciosa búsqueda de rentas por parte de empresas poco inspiradas, lo que conduciría a una innovación sofocada y a una menor competencia.

Codazos selectivos

¿Existe algo bueno en la intersección entre el ML y las ciencias del comportamiento? Con un asterisco que advierte enérgicamente contra los usos malos o mediocres -o el acto de etiquetar descuidadamente el ML como una panacea sin fallos-, la respuesta es sí. Las soluciones de las ciencias del comportamiento mejoradas con ML pueden predecir mejor qué intervenciones serán más eficaces y para quién. El ML también puede permitirnos crear incentivos personalizados para ampliarlos a poblaciones grandes y heterogéneas.10 Estos incentivos personalizados podrían hacer maravillas para resolver las dudas sobre la validez externa de los ensayos controlados aleatorios, un tipo de experimento que se utiliza habitualmente en las ciencias del comportamiento para determinar qué intervenciones funcionan y en qué grado. No es necesario soñar despierto para pensar en los muchos y acuciantes problemas políticos que podrían beneficiarse de los nudges precisos. Desde la predicción de los mensajes que más interesan a cada persona hasta las recomendaciones sanitarias personalizadas basadas en nuestra composición genética, hay muchos ámbitos políticos que pueden ser candidatos idóneos para este tipo de intervenciones.

De cara al futuro

Los beneficios de utilizar el ML para mejorar las aplicaciones de las ciencias del comportamiento pueden, de hecho, superar los riesgos de crear malos resultados -y, quizás de forma más generalizada, mediocres-. Para que lo hagamos bien, la ciencia del comportamiento debe desempeñar un papel en la identificación y corrección de los sesgos perjudiciales que afectan tanto a nuestras decisiones como a las decisiones de nuestras máquinas inteligentes. Al utilizar la IA, debemos mantenernos fieles a un principio clave de la ciencia del comportamiento: Las intervenciones deben influir en nuestro comportamiento para que podamos tomar mejores decisiones por nosotros mismos, todo ello sin interferir en nuestra libertad de elección. Al igual que sus creadores, las máquinas inteligentes pueden ser tendenciosas e imperfectas. Es crucial que seamos conscientes de ello a medida que madura el matrimonio entre la ciencia del comportamiento y la IA, para que podamos utilizar estas herramientas de forma intencionada y ética.

References

1. Marr, B. (2017, 30 de enero). El nominado al Grammy Alex Da kid crea un disco de éxito usando aprendizaje automático. Forbes. https://www.forbes.com/sites/bernardmarr/2017/01/30/grammy-nominee-alex-da-kid-creates-hit-record-using-machine-learning/#79e589832cf9

2. NASA. (2020, 12 de junio). Los conductores del Mars Rover de la NASA necesitan tu ayuda - Programa de exploración de Marte de la NASA. Programa de exploración de Marte de la NASA. https://mars.nasa.gov/news/8689/nasas-mars-rover-drivers-need-your-help/

3. Marsh, S. (2019, 15 de octubre). Uno de cada tres ayuntamientos usa algoritmos para tomar decisiones sobre bienestar. the Guardian. https://www.theguardian.com/society/2019/oct/15/councils-using-algorithms-make-welfare-decisions-benefits

4. Nilsson, N. J. (2009). La búsqueda de la inteligencia artificial. Cambridge University Press.

5. Taniguchi, H., Sato, H. & Shirakawa, T. Un modelo de aprendizaje automático con sesgos cognitivos humanos capaz de aprender de conjuntos de datos pequeños y sesgados. Sci Rep 8, 7397 (2018). https://doi.org/10.1038/s41598-018-25679-z

6. Facebook. (2017, 27 de noviembre). El aprendizaje automático. Facebook Research. https://research.fb.com/category/machine-learning/

7. Baer, T., & Kamalnath, V. (2017, 10 de noviembre). Controlar los algoritmos de aprendizaje automático y sus sesgos. McKinsey & Company. https://www.mckinsey.com/business-functions/risk/our-insights/controlling-machine-learning-algorithms-and-their-biases

8. Knight, M. (2018, 10 de febrero). He aquí por qué Facebook es una cámara de eco tan horrible. Business Insider. https://www.businessinsider.com/facebook-is-an-echo-chamber-2018-2

9. Blank, G., & Dubois, E. (2018, 9 de marzo). El mito de la cámara de eco. OII | Oxford Internet Institute. https://www.oii.ox.ac.uk/blog/the-myth-of-the-echo-chamber/

10. Hrnjic, E., & Tomczak, N. (2019, 3 de julio). Machine learning and behavioral economics for personalized choice architecture. arXiv.org e-Print archive. https://arxiv.org/pdf/1907.02100.pdf

About the Author

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?