split photo of a caucasian woman and an african american woman

Algoritmos de IA en acción: Cómo utilizar la IA para superar los prejuicios históricos

read time - icon

0 min read

Aug 30, 2022

Los algoritmos de IA se están convirtiendo en la norma sin la confianza del público

Solo el 35 % de los consumidores se siente cómodo con las empresas que utilizan algoritmos de IA para interactuar con ellos, y solo el 25 % afirma que confiaría más en una decisión tomada por un algoritmo de IA que en la de una persona en relación con su cualificación para un préstamo bancario.1

Aunque el público en general sigue siendo aprensivo, los algoritmos de IA se convertirán inevitablemente en el statu quo de las empresas: el 25% de las empresas ya tienen procesos selectivos totalmente habilitados por algoritmos de IA.2 Y por una buena razón: son favorecidos en todas las industrias gracias a su eficiente velocidad de procesamiento, rendimiento consistente y capacidad para reducir el coste de la mano de obra humana.

TDL Insights graph_use of AI

Resultados de una encuesta realizada por PwC en la que se preguntaba "¿Hasta qué punto su empresa busca integrar tecnologías de IA en sus operaciones?"

Teniendo en cuenta sus ventajas, no se puede ralentizar el ritmo de la revolución de la IA. Sin embargo, debemos asegurarnos de que los algoritmos de IA generen resultados justos y sean transparentes sobre cómo están logrando dichos resultados. Hay dos maneras de aprovechar las ventajas de los algoritmos de IA en los procesos de selección y, al mismo tiempo, promover la equidad:

  • El anonimato y la eficacia que ofrecen los algoritmos de IA pueden reducir la influencia de los estereotipos que prevalecen en la toma de decisiones humanas.
  • Nuestros conocimientos sobre los estereotipos pueden mejorar los algoritmos de IA, desde la forma en que aprovechan los datos hasta la prevención de la perpetuación de resultados históricos.

Los usos históricos de la IA han provocado aprensión pública

No es de extrañar que el público en general se sienta precario ante la idea de que los algoritmos de IA dicten su destino. Los titulares sobre algoritmos selectivos basados en IA oscilan entre el optimismo y el desaliento:

  • Lo malo: Diversos periódicos publicaron reportajes sobre un algoritmo de inteligencia artificial utilizado por el sistema de justicia penal de Florida que identificaba falsamente a los acusados afroamericanos como "de alto riesgo" en una proporción casi dos veces superior a la de los acusados blancos etiquetados erróneamente.3
  • Lo bueno: Los expertos han pronosticado que los algoritmos de IA podrían erradicar los sesgos cognitivos que perjudican a los solicitantes de empleo históricamente marginados.4

Estas descripciones contradictorias envían señales contradictorias sobre la fiabilidad de los algoritmos de IA, lo que provoca inquietud sobre su uso generalizado.

Incluso cuando los algoritmos de IA funcionan bien, es más probable que perdamos la confianza en los pronosticadores algorítmicos que en los humanos, aunque cometan errores en la misma proporción.5 Aumentar la confianza del público en los algoritmos de IA nos permite aprovechar sus numerosas ventajas (por ejemplo, eficiencia, rentabilidad). No obstante, el establecimiento de la confianza sigue siendo un reto complejo, sobre todo teniendo en cuenta el uso desordenado que las organizaciones han hecho de los algoritmos de IA en el pasado.

Cómo los resultados históricos provocan sesgos algorítmicos no deseados

Cuando se habla de algoritmos, un "sesgo" se refiere a una ponderación desproporcionada hacia un resultado concreto basado en determinadas variables. Los algoritmos presentan sesgos no deseados cuando se entrenan con datos pasados influidos por prejuicios históricos.

Por ejemplo: En 2018, Amazon descubrió que su herramienta de contratación basada en IA rebajaba involuntariamente los currículos que incluían la palabra "mujer" y, en consecuencia, pasaba por alto a todos los candidatos de universidades exclusivamente femeninas.6 El algoritmo estaba adaptado para seleccionar a los candidatos en función de los que habían tenido éxito históricamente. Como resultado, el algoritmo se adaptó para identificar a los candidatos masculinos como preferibles, incluso si su experiencia laboral y nivel educativo eran idénticos a los de sus competidoras femeninas.

En última instancia, los algoritmos de IA son tanto un medio para perpetuar los prejuicios históricos como una herramienta útil para superarlos. Para evitar el primer resultado, es imperativo que las organizaciones evalúen los prejuicios históricos incorporados a sus conjuntos de datos desde hace décadas. En palabras de la Dra. Kirsten Martin, de la Escuela de Negocios Mendoza de la Universidad de Notre Dame, "los datos no están limpios de los pecados del pasado".7

Cómo influyen los estereotipos en la toma de decisiones

Los algoritmos de IA pueden ser responsables de resultados injustos, pero los humanos no somos mejores. Somos propensos a los estereotipos porque nuestros mecanismos cognitivos se han adaptado a la heurística para sintetizar la información con rapidez.

Los estereotipos son perjudiciales para los procesos de selección porque se prestan a favorecer a grupos demográficos históricamente privilegiados. Los evaluadores humanos favorecen a los candidatos masculinos frente a las candidatas femeninas, a pesar de tener la misma experiencia laboral.8

El sesgo algorítmico no crea resultados inauditos y perjudiciales, sino que simplemente amplifica las tendencias que observamos en los responsables humanos de la toma de decisiones.

Cómo combaten los algoritmos de IA los estereotipos mediante la automatización y el anonimato

Durante las fases de los procesos de selección en las que los estereotipos son más frecuentes -como las fases preliminares de cribado-, los algoritmos de IA pueden aplicarse estratégicamente. Los algoritmos de IA pueden anonimizar la información demográfica de los solicitantes y procesar los datos de forma más eficiente que un ser humano.

La toma de decisiones humana multivariable es ineficaz, y somos propensos a estereotipar por falta de tiempo. También somos vulnerables a sentirnos abrumados por la magnitud de la información que hay que procesar. Bajo esta presión, los responsables de la selección de personal suelen limitar su examen del conjunto de candidatos al 10-20% más prometedor, es decir, a los que proceden de universidades de la Ivy League o de programas de recomendación de empleados9.

Cómo combinamos estratégicamente los matices de la toma de decisiones humana con la IA

En el pasado, filtrar a los candidatos basándose en estos atributos estereotipados ha tendido a favorecer a los candidatos menos diversos. En cambio, los algoritmos de selección por IA permiten evaluar a los candidatos en función de variables pertinentes (por ejemplo, la calidad de su trabajo, las credenciales pertinentes) en cada etapa del proceso de selección. En este caso, los algoritmos de IA suponen una alternativa más justa a los evaluadores humanos, con limitaciones de tiempo y presionados para reducir el número de candidatos en función de características estereotipadas.

La investigación en ciencias del comportamiento puede ayudar a identificar las características superficiales que tendemos a priorizar y garantizar que los algoritmos seleccionan a los candidatos utilizando variables relevantes. Aunque los algoritmos de IA son potentes y eficaces, no pueden decirnos qué constituye una métrica o un resultado "justo". Ahí es donde entra en juego el debate interdisciplinar.

Los algoritmos de IA pueden ayudar a las organizaciones a detectar sesgos sistémicos

Además de optimizar la eficiencia y proporcionar anonimato, los algoritmos de IA pueden arrojar luz sobre los sesgos no deseados que se perpetúan sistemáticamente en las organizaciones. Los sesgos cognitivos son difíciles de identificar porque la forma en que una sola persona llega a un resultado concreto no puede analizarse sistemáticamente ni medirse cuantitativamente.

Alternativamente, los resultados producidos por los algoritmos de IA pueden ser interrogados con un alto grado de precisión a través del análisis de datos. Por ejemplo, si el resultado de un candidato se ve afectado por su raza -mientras que el resto de cuestiones se consideran iguales-, entonces hay pruebas de sesgo algorítmico.10

Ya existen herramientas accesibles que pueden ayudar a las organizaciones a analizar sus datos de entrenamiento antes de construir algoritmos de IA: Google's Know Your Data permite a los investigadores y desarrolladores de productos identificar sesgos no deseados latentes en sus conjuntos de datos a través de criterios básicos (por ejemplo, "diversidad de imágenes"). El conocimiento de la ciencia del comportamiento puede ayudar a las organizaciones a analizar el tipo de resultados sesgados que es probable que vean, puesto que los sesgos de la toma de decisiones humanas ya se han codificado en los datos históricos.

Es más fácil acusar a un algoritmo de parcialidad sistémica que a un humano

La capacidad de analizar rigurosamente los resultados algorítmicos ofrece una ventaja significativa sobre la toma de decisiones humana.

A menudo nos resistimos a admitir que nuestras decisiones están influidas por sesgos cognitivos. Según una encuesta, el 97% de los comités de admisión de universidades prestigiosas están de acuerdo en la importancia de una admisión justa, pero menos de la mitad creían que los sesgos podían ser un factor en su propio proceso de admisión11.

Los algoritmos de IA son ventajosos porque pueden revelar el sesgo sistémico a través de pruebas cuantitativas, por lo que no tenemos que depender de las personas para darnos cuenta de las consecuencias de su toma de decisiones sesgada décadas más tarde. Los algoritmos de IA pueden conseguirlo proporcionando información a los desarrolladores en tiempo real.

Cómo los algoritmos de IA permiten un futuro más justo

Al aplicar algoritmos de IA en los procesos de selección, es imperativo mitigar a toda costa el sesgo sistemático, ya sea "cognitivo" o "algorítmico". Podemos aumentar la confianza del público en los algoritmos de IA anonimizando la información biográfica de los solicitantes para evitar la influencia de los estereotipos, y abordar el sesgo algorítmico midiendo cuantitativamente cómo afectan los prejuicios históricos a los datos de entrenamiento.

The Decision Lab es una consultoría de comportamiento que examina cómo la investigación en ciencias del comportamiento puede promover el bien social. Si está interesado en saber cómo promover la justicia mediante la adopción de algoritmos de IA, póngase en contacto con nosotros para obtener más información sobre nuestros servicios.

References

  1. Cannon, J. (2019) "Un informe muestra que los consumidores no confían en la inteligencia artificial". Fintech News,https://www.fintechnews.org/report-shows-consumers-dont-trust-artificial-intelligence/; "Lo que los consumidores piensan realmente sobre la IA: un estudio global: Insights into the minds of consumers to help businesses reshape their customer engagement strategies", Pega PowerPoint.
  2. Best, B., Rao A., (2022). "Understanding algorithmic bias and how to build trust in AI", PWC https://www.pwc.com/us/en/tech-effect/ai-analytics/algorithmic-bias-and-trust-in-ai.html.
  3. Angwin, J., Larson, J., Mattu S., Kircnur, L. (2016) Machine Bias: There's software used across the country to predict future criminals. And it's biased against blacks, ProPublica. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  4. Polli, F (2019) "Using AI to Eliminate Bias from Hiring", Harvard Business Review, https://hbr.org/2019/10/using-ai-to-eliminate-bias-from-hiring.
  5. Dietvorst, B., Simmons, J. P., & Massey, C. (2015). Aversión a los algoritmos: People Erroneously Avoid Algorithms after Seeing Them Err. Journal of Experimental Psychology: General, 144 (1), 114-126.
  6. Dastin, J. (2018) Amazon Scraps Secret AI Recruiting Tool that Showed Bias Against Women, Reuters. https://www.diverseeducation.com/students/article/15114427/ai-in-admissions-can-reduce-or-reinforce-biases#:~:text=Admissions%20offices%20have%20been%20rollling,these%20emerging%20tools%20are%20used.
  7. Notre Dame Technology Ethics Center (2022), "New Anthology by ND TEC Director Kirsten Martin Explores 'Ethics of Data and Analytics'" Universidad de Notre Dame, https://techethics.nd.edu/news-and-events/news/new-anthology-by-nd-tec-director-kirsten-martin-explores-ethics-of-data-and-analytics/
  8. J González, C. Cortina, Rodríguez, J (2019). El papel de los estereotipos de género en la contratación: A Field Experiment, European Sociological Review, Volume 35, Issue 2, 187-204, https://doi.org/10.1093/esr/jcy055
  9. Polli, F (2019) "Using AI to Eliminate Bias from Hiring", Harvard Business Review, https://hbr.org/2019/10/using-ai-to-eliminate-bias-from-hiring.
  10. Chiappa, S. (2019). Equidad contrafactual específica de la trayectoria. Actas de la Conferencia AAAI sobre Inteligencia Artificial, 7801-7808.
  11. McCracken, M (2020). Derribar los prejuicios en las admisiones, Kira Talent, https://blog.kiratalent.com/nine-forms-of-bias-in-admissions/

About the Authors

Read Next

blue photo of romans
Insight

Una dura mirada a la democracia

Tom Spiegler, cofundador y director general de The Decision Lab, se une a Nathan Collett para hablar de lo que la ciencia del comportamiento puede decirnos sobre las elecciones estadounidenses de 2020 y el estado de la democracia en general.

Notes illustration

Eager to learn about how behavioral science can help your organization?