laptop

Algoritmos para simplificar la toma de decisiones (1/2): El caso de las prótesis cognitivas

read time - icon

0 min read

Oct 23, 2018

Nuestras funciones cognitivas se subcontratan cada vez más a algoritmos informáticos, que mejoran nuestra capacidad de decisión y manipulan nuestro comportamiento. Los espacios digitales, donde la información es más accesible y asequible que nunca, nos proporcionan información y datos que podemos utilizar a voluntad. Hoy en día, una simple búsqueda en Google puede asumir el papel de asesor financiero, abogado o incluso médico. Pero la información que encontramos en Internet está silenciosamente clasificada, ordenada y presentada por algoritmos que hurgan en nuestros rastros de datos digitales en busca de los medios más relevantes y "agradables" para alimentarnos. En muchos sentidos, esta curaduría invisible es una comodidad bienvenida; tamizar y razonar con datos e información en línea aparentemente interminables es una tarea poco realista para cualquier ser humano. Sin embargo, perdemos autonomía cognitiva cada vez que delegamos la recopilación y evaluación de la información en los algoritmos, lo que a su vez restringe nuestro pensamiento a lo que los algoritmos consideran apropiado.

Interactuar con estos algoritmos nos permite dar sentido y participar en los flujos de datos que construyen constantemente nuestra forma de trabajar y vivir. La toma de decisiones algorítmica -es decir, el análisis automatizado desplegado con el propósito de informar sobre mejores decisiones basadas en datos- personifica este fenómeno. Y aunque un mundo dirigido por algoritmos presenta innumerables oportunidades para optimizar la experiencia humana, también exige una reflexión sobre la relación humano-algoritmo de la que ahora dependemos.

A medida que nuestras opiniones sobre los datos pasan del empirismo a la ideología, de la dataficación al dataísmo, es fácil quedar atrapado en el fervor. Innumerables artículos reclaman transparencia, responsabilidad y privacidad en el despliegue de las prácticas algorítmicas. Se trata, por supuesto, de ideales nobles (y a menudo necesarios); por ejemplo, los comités de vigilancia de datos y las salvaguardias legislativas pueden garantizar un desarrollo y una aplicación responsables. Sin embargo, muchos de estos llamamientos generalizados a la supervisión se basan implícitamente en suposiciones infundadas sobre las repercusiones sociopolíticas de los algoritmos. A su vez, acabamos con una serie de hipótesis a priori sobre cómo afectarán los algoritmos a la sociedad -y, por tanto, afirmaciones sobre las medidas que debemos tomar para regularlos- que a menudo se basan en suposiciones erróneas.

Por un lado, el dogma convencional de los datos ha deformado y distorsionado el concepto de algoritmo hasta convertirlo en una especie de ser agencial, omnisciente e imposible de comprender. Este concepto erróneo sugiere que un algoritmo posee poder autoritario en sí mismo, cuando en realidad cualquier influencia que el algoritmo pueda proyectar es el resultado del diseño y la legitimación humanos (Beer, 2017). En otras palabras, a medida que el papel de los algoritmos evoluciona hasta alcanzar un estatus semimítico (quizás divinizado) desde Silicon Valley hasta Wall Street, a menudo se olvida que los algoritmos son producto del esfuerzo humano y están sujetos al control humano.

Ciencia del comportamiento, democratizada

Tomamos 35.000 decisiones al día, a menudo en entornos que no favorecen la toma de decisiones acertadas.

En TDL trabajamos con organizaciones de los sectores público y privado -desde nuevas empresas, pasando por gobiernos, hasta actores consolidados como la Fundación Gates- para sesgar la toma de decisiones y crear mejores resultados para todos.

More about our services

En segundo lugar, las descripciones dominantes de la toma de decisiones algorítmica presuponen un modelo específico en el que los algoritmos se han integrado tan profundamente en la burocracia que negociar con una decisión algorítmica es imposible para el individuo común. Aunque esta estructura de poder es sin duda una posibilidad futura -como se observa en la gestión algorítmica de los conductores de Uber (cf. Lee, Kusbit, Metsky y Dabbish, 2015)-, la gran mayoría de las decisiones algorítmicas actuales se toman en un modelo de consumo. En este caso, los usuarios de las herramientas algorítmicas son libres de utilizar (consumir) o ignorar los conocimientos proporcionados por los algoritmos, obligados por poco más que preferencias de conveniencia. De hecho, este proceso aumentado de toma de decisiones, en el que los algoritmos se consultan pero en última instancia permanecen pasivos, está omnipresente en nuestra vida cotidiana. Los algoritmos patentados nos dirigen por las calles de la ciudad, nos recomiendan películas y nos dicen con quién salir, pero nuestra comprensión de cómo la gente confía, utiliza y da sentido al asesoramiento algorítmico es notablemente escasa (Prahl y Van Swol, 2017). Aunque esta interacción a nivel micro entre el ser humano y el algoritmo es quizá más mundana que teorizar sobre las implicaciones de la regla algocrática, en última instancia determinará si el papel del ser humano en nuestro ecosistema alimentado por datos se verá aumentado o automatizado.

A pesar de los avances filosóficos relacionados, como la teoría de "la mente extendida" (Clark y Chalmers, 1998), el éxito o el fracaso a largo plazo de la toma de decisiones aumentada depende de soluciones prácticas y científicas que integren eficazmente el juicio humano y la lógica algorítmica. Aunque los sistemas de ayuda y apoyo a la toma de decisiones llevan décadas trabajando en este sentido, la evolución de los macrodatos y el descubrimiento de la "aversión a los algoritmos" han obligado a revisar nuestras nociones de la toma de decisiones híbrida. Al conceptualizar la aversión a los algoritmos, Dietvorst, Simmons y Massey (2015, 2016) descubrieron que los pronosticadores humanos se muestran reacios a utilizar algoritmos superiores pero imperfectos, lo que a menudo les lleva a recurrir a sus instintos. Quizás esto no sea tan sorprendente: El trabajo seminal de Meehl (1954) sobre la superioridad del juicio estadístico sobre el clínico (o intuitivo), y el consiguiente revuelo, puso de manifiesto este mismo conflicto hace unos 60 años. Si bien esta obstinada confianza en la intuición ha alimentado a los científicos de la decisión desde Meehl, esta aversión hacia la toma de decisiones estadística y computacional se ha reavivado a medida que los algoritmos han dejado de ser un lujo para convertirse en una necesidad. Al igual que una prótesis de pierna puede permitir a una persona discapacitada moverse cómodamente por el entorno físico, los científicos del comportamiento deben unirse ahora para diseñar prótesis cognitivas, extensiones algorítmicas de la mente humana que permitan a los individuos navegar por el ilimitado entorno digital, posibilitando la toma de decisiones basada en datos sin renunciar a la autonomía humana. Para orientar el diseño de prótesis cognitivas, hay que abordar la raíz de la aversión a los algoritmos, el principal obstáculo para la simbiosis humano-algoritmo.

Lea aquí la segunda parte.

References

Beer, D. (2017). El poder social de los algoritmos. Información, Comunicación y Sociedad, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147

Clark, A., y Chalmers, D. (1998). La mente extendida. Analysis, (enero), 7-19.

Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Aversión a los algoritmos: People Erroneously Avoid Algorithms after Seeing Them Err. Journal of Experimental Psychology: General, 144(1), 114-126. https://doi.org/10.1037/xge0000033

Dietvorst, B. J., Simmons, J. P. y Massey, C. (2016). Superar la aversión a los algoritmos: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them. Management Science, 64(3), 1155-1170. https://doi.org/10.1287/mnsc.2016.2643

Gigerenzer, G. (2001). La toma de decisiones: Teorías no racionales. Enciclopedia Internacional de las Ciencias Sociales y del Comportamiento, 5, 3304-3309. https://doi.org/10.1016/B978-0-08-097086-8.26017-0

Hafenbrädl, S., Waeger, D., Marewski, J. N., & Gigerenzer, G. (2016). Applied Decision Making With Fast-and-Frugal Heuristics. Journal of Applied Research in Memory and Cognition, 5, 215-231. https://doi.org/10.1016/j.jarmac.2016.04.011

Lee, M. K., Kusbit, D., Metsky, E., & Dabbish, L. (2015). Trabajar con máquinas: The Impact of Algorithmic and Data-Driven Management on Human Workers. Proceedings of the ACM CHI'15 Conference on Human Factors in Computing Systems, 1, 1603-1612. https://doi.org/10.1145/2702123.2702548

Meehl, P. E. (1954). Clinical vs. Statistical Prediction: A Theoretical Analysis and a Review of the Evidence.

Phillips, N. D., Neth, H., Woike, J. K., & Gaissmaier, W. (2017). FFTrees: Una caja de herramientas para crear, visualizar y evaluar árboles de decisión rápidos y frugales. Juicio y toma de decisiones, 12(4), 344-368. Obtenido de https://journal.sjdm.org/17/17217/jdm17217.pdf

Prahl, A., y Van Swol, L. (2017). Comprender la aversión a los algoritmos: ¿Cuándo se descartan los consejos de la automatización? Journal of Forecasting, 36, 691-702. https://doi.org/10.1002/for.2464

Simon, H. (1956). La elección racional y la estructura del entorno. Psychological Review, 63, 129-138.

About the Author

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?