Nuestras funciones cognitivas se subcontratan cada vez más a algoritmos informáticos, que mejoran nuestra capacidad de decisión y manipulan nuestro comportamiento. Los espacios digitales, donde la información es más accesible y asequible que nunca, nos proporcionan información y datos que podemos utilizar a voluntad. Hoy en día, una simple búsqueda en Google puede asumir el papel de asesor financiero, abogado o incluso médico. Pero la información que encontramos en Internet está silenciosamente clasificada, ordenada y presentada por algoritmos que hurgan en nuestros rastros de datos digitales en busca de los medios más relevantes y "agradables" para alimentarnos. En muchos sentidos, esta curaduría invisible es una comodidad bienvenida; tamizar y razonar con datos e información en línea aparentemente interminables es una tarea poco realista para cualquier ser humano. Sin embargo, perdemos autonomía cognitiva cada vez que delegamos la recopilación y evaluación de la información en los algoritmos, lo que a su vez restringe nuestro pensamiento a lo que los algoritmos consideran apropiado.
Interactuar con estos algoritmos nos permite dar sentido y participar en los flujos de datos que construyen constantemente nuestra forma de trabajar y vivir. La toma de decisiones algorítmica -es decir, el análisis automatizado desplegado con el propósito de informar sobre mejores decisiones basadas en datos- personifica este fenómeno. Y aunque un mundo dirigido por algoritmos presenta innumerables oportunidades para optimizar la experiencia humana, también exige una reflexión sobre la relación humano-algoritmo de la que ahora dependemos.
A medida que nuestras opiniones sobre los datos pasan del empirismo a la ideología, de la dataficación al dataísmo, es fácil quedar atrapado en el fervor. Innumerables artículos reclaman transparencia, responsabilidad y privacidad en el despliegue de las prácticas algorítmicas. Se trata, por supuesto, de ideales nobles (y a menudo necesarios); por ejemplo, los comités de vigilancia de datos y las salvaguardias legislativas pueden garantizar un desarrollo y una aplicación responsables. Sin embargo, muchos de estos llamamientos generalizados a la supervisión se basan implícitamente en suposiciones infundadas sobre las repercusiones sociopolíticas de los algoritmos. A su vez, acabamos con una serie de hipótesis a priori sobre cómo afectarán los algoritmos a la sociedad -y, por tanto, afirmaciones sobre las medidas que debemos tomar para regularlos- que a menudo se basan en suposiciones erróneas.
Por un lado, el dogma convencional de los datos ha deformado y distorsionado el concepto de algoritmo hasta convertirlo en una especie de ser agencial, omnisciente e imposible de comprender. Este concepto erróneo sugiere que un algoritmo posee poder autoritario en sí mismo, cuando en realidad cualquier influencia que el algoritmo pueda proyectar es el resultado del diseño y la legitimación humanos (Beer, 2017). En otras palabras, a medida que el papel de los algoritmos evoluciona hasta alcanzar un estatus semimítico (quizás divinizado) desde Silicon Valley hasta Wall Street, a menudo se olvida que los algoritmos son producto del esfuerzo humano y están sujetos al control humano.
References
Beer, D. (2017). El poder social de los algoritmos. Información, Comunicación y Sociedad, 20(1), 1-13. https://doi.org/10.1080/1369118X.2016.1216147
Clark, A., y Chalmers, D. (1998). La mente extendida. Analysis, (enero), 7-19.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Aversión a los algoritmos: People Erroneously Avoid Algorithms after Seeing Them Err. Journal of Experimental Psychology: General, 144(1), 114-126. https://doi.org/10.1037/xge0000033
Dietvorst, B. J., Simmons, J. P. y Massey, C. (2016). Superar la aversión a los algoritmos: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them. Management Science, 64(3), 1155-1170. https://doi.org/10.1287/mnsc.2016.2643
Gigerenzer, G. (2001). La toma de decisiones: Teorías no racionales. Enciclopedia Internacional de las Ciencias Sociales y del Comportamiento, 5, 3304-3309. https://doi.org/10.1016/B978-0-08-097086-8.26017-0
Hafenbrädl, S., Waeger, D., Marewski, J. N., & Gigerenzer, G. (2016). Applied Decision Making With Fast-and-Frugal Heuristics. Journal of Applied Research in Memory and Cognition, 5, 215-231. https://doi.org/10.1016/j.jarmac.2016.04.011
Lee, M. K., Kusbit, D., Metsky, E., & Dabbish, L. (2015). Trabajar con máquinas: The Impact of Algorithmic and Data-Driven Management on Human Workers. Proceedings of the ACM CHI'15 Conference on Human Factors in Computing Systems, 1, 1603-1612. https://doi.org/10.1145/2702123.2702548
Meehl, P. E. (1954). Clinical vs. Statistical Prediction: A Theoretical Analysis and a Review of the Evidence.
Phillips, N. D., Neth, H., Woike, J. K., & Gaissmaier, W. (2017). FFTrees: Una caja de herramientas para crear, visualizar y evaluar árboles de decisión rápidos y frugales. Juicio y toma de decisiones, 12(4), 344-368. Obtenido de https://journal.sjdm.org/17/17217/jdm17217.pdf
Prahl, A., y Van Swol, L. (2017). Comprender la aversión a los algoritmos: ¿Cuándo se descartan los consejos de la automatización? Journal of Forecasting, 36, 691-702. https://doi.org/10.1002/for.2464
Simon, H. (1956). La elección racional y la estructura del entorno. Psychological Review, 63, 129-138.