man looking straight

La gobernanza de la IA

read time - icon

0 min read

Jun 14, 2018

Nuestras vidas se rigen por los datos. No sólo porque informan a las empresas de lo que queremos, sino porque nos ayudan a recordar y diferenciar lo que queremos, lo que necesitamos y lo que podemos ignorar. Todas estas decisiones dan lugar a patrones, y los patrones, cuando se agregan, nos dan una imagen de nosotros mismos. Un mundo en el que esos patrones nos sigan o incluso se adelanten a nosotros -para que los restaurantes sepan si somos alérgicos, para que las tiendas conozcan nuestra talla de ropa preferida- es ahora tan factible que etiquetarlo de ciencia ficción pondría de manifiesto más una falta de conciencia que de imaginación.

Las ventajas de la IA están facilitando y haciendo más cómodas muchas de nuestras elecciones y, al hacerlo, están intensificando la competencia en el espacio de elección del cliente. A medida que se produce esta evolución, la cuestión no es tanto hasta qué punto la IA determina nuestras elecciones, sino más bien cómo las determina. En un mundo así, debemos comprender cuándo y quién determina nuestro comportamiento.

Está claro que la mayoría de nosotros nos sentimos cómodos viviendo en un mundo en el que nuestras decisiones están determinadas por la IA. De hecho, ya vivimos en un mundo así: desde los motores de búsqueda hasta la fluidez del tráfico, muchas de nuestras comodidades cotidianas se basan en la velocidad que proporciona el backend. La pregunta que debemos hacernos al considerar la IA y su gobernanza es si nos sentimos cómodos viviendo en un mundo en el que no sabemos si estamos siendo influenciados ni cómo.

¿Prejuicios o señales de comportamiento?

La IA puede hacer por nuestra comprensión del comportamiento lo que el microscopio hizo por la biología.

Ya hemos llegado al punto en que los programas informáticos pueden descubrir tendencias en nuestros patrones de comportamiento que no tendríamos en cuenta, identificando rasgos que nuestros amigos y familiares desconocerían. La infame, aunque apócrifa, historia del padre que descubrió que su hija estaba embarazada cuando Target empezó a enviarle anuncios de proveedores para bebés (tras detectar un cambio en sus gastos) nos da un adelanto[i].

Nuestras vidas ya se rigen por suposiciones probabilísticas, destinadas a dirigir el comportamiento. Ahora tenemos que preguntarnos, y responder con sinceridad, ¿qué parte de nuestra vida estamos dispuestos a que determinen algoritmos que no entendemos? Y lo que es más importante, ¿quién debería encargarse de supervisar estos algoritmos para detectar si han tomado una mala decisión o una decisión intencionadamente manipuladora?

A medida que más empresas utilicen la IA, y la complejidad de sus conocimientos siga creciendo, nos enfrentaremos a una brecha por encima del derecho a la comprensión, o el derecho a ser informado - nos enfrentaremos a una brecha relativa a cuándo, y si, se ha producido una violación en absoluto.

A medida que crece nuestra presencia digital, y esta presencia se ve arrastrada por las orientaciones públicas para el futuro de la gobernanza electrónica y privadas para la forma en que nos relacionamos con nuestros intereses, una gobernanza significativa tendrá que incluir un primer paso esencial: el derecho a saber cómo se utilizan nuestros datos, quién los tiene y cuándo los utiliza.

Otro ejemplo de cómo el comportamiento y la tecnología están interactuando a un ritmo más rápido que nunca es a través de la observación de lo que los Chatbots han demostrado proporcionarnos: el potencial de asociaciones emocionales, que podrían ser utilizadas con fines manipulativos[ii] A medida que los avances en el procesamiento del lenguaje natural crecen para combinarse con la robótica avanzada, el potencial de construir ese vínculo a partir del tacto, la calidez, la comodidad, también crece - particularmente en un mundo en el que experimentamos la mayor endemia de soledad, llevando al Reino Unido a nombrar literalmente un ministro para la soledad.

A medida que crecen los datos de máquina a máquina en la Internet de las cosas, las empresas con acceso preferente tendrán cada vez más información sobre aspectos cada vez más minuciosos de patrones de comportamiento que nosotros mismos podríamos no entender, y con ello viene una poderosa capacidad para influir en el comportamiento. A medida que crece el Internet de las cosas, estamos poniendo en bandeja de plata a las empresas todo lo que necesitan saber sobre nosotros.

Podemos seguir argumentando que el problema no es el volumen, sino la asimetría de la competencia analítica en la gestión de ese volumen, lo que significa asimetrías en la captación de valor. A su vez, esto significa que algunas empresas no sólo le entienden a usted, sino que pueden predecir su comportamiento hasta el punto de saber cómo influir en una elección concreta de la forma más eficaz. En la era de los macrodatos, el mejor negocio es el negocio del conocimiento.

Rendición de cuentas: ¿quién vela por nosotros?

La primera cuestión relativa a la responsabilización es cómo mantener a los seres humanos en el circuito de decisión de los procesos que se hacen más autónomos gracias a la IA. La siguiente etapa debe preservar la responsabilidad en el derecho a la comprensión: saber por qué un algoritmo tomó una decisión en lugar de otra.

Ya están surgiendo nuevas propuestas sobre cómo hacerlo: por ejemplo, cuando los proyectos específicos de IA son aspectos propios de la competitividad de una empresa, podríamos ser capaces de utilizar sistemas contrafactuales para evaluar todas las opciones posibles a las que se enfrenta una IA[iii] Pero los sistemas que mapean las decisiones sin romper la caja negra no serán capaces de proporcionar la lógica por la que ese algoritmo tomó una decisión en lugar de otra.

Sin embargo, el problema es aún más profundo. El problema de los modelos de transparencia es la suposición de que sabremos qué buscar, de que sabremos cuándo es necesario elegir si queremos que una empresa no utilice nuestros datos. En un futuro próximo, puede que no seamos capaces de entender por nosotros mismos cuándo una IA nos está influyendo.

Esto nos lleva a una cuestión fundamental: para gobernar la IA, puede que necesitemos utilizarla.

Necesitaremos la IA no sólo para comprender cuándo estamos siendo influidos de forma manifiesta, sino para entender las nuevas formas emergentes en que las empresas pueden aprovechar la microcomprensión de nuestro comportamiento. Los marcos jurídicos, las instituciones políticas y las normas de rendición de cuentas existentes carecen de la capacidad necesaria para comprender, predecir y detectar el uso de la IA con fines manipuladores.

La colusión algorítmica ya es un problema, con cárteles de fijación de precios que dan paso a problemas de precios emergentes que pueden desaparecer, sin acuerdo previo, evitando así las reclamaciones iniciales[iv] Podemos imaginar un mundo en el que la colusión no esté organizada por el mercado, sino mediante el seguimiento del comportamiento de distintos grupos de individuos para organizar microcambios de precios.

Naturalmente, surgen preguntas: ¿quién gobernará la IA que utilizamos para vigilar la IA? ¿Cómo sabremos que no hay connivencia entre los vigilantes y los vigilados? ¿Qué tipo de sistema de transparencia necesitaremos para que una IA gobernante minimice las exigencias de transparencia de la IA corporativa?

El futuro de la gobernanza de la IA se decidirá en los márgenes: a lo que tenemos que prestar atención no es tanto a la estructura cambiante de la colusión y la manipulación, sino a la conducta, y a la capacidad de la IA competente para encontrar el número mínimo de puntos de influencia para moldear la toma de decisiones.

Necesitamos mantener una conversación para dejar dolorosamente claras nuestras suposiciones y creencias sobre la fijación de precios, sobre la colusión, sobre la manipulación. En la era de la inteligencia artificial, no podemos permitirnos vaguedades.

References

[i] Piatetsky, Gregory. Realmente Target predijo el embarazo de una adolescente? The Inside Story 7 de mayo de 2014 KD nuggets

[ii] Yearsly, Liesl. Hay que hablar del poder de la IA para manipular a los humanos. 5 de junio de 2017. MIT Tech Review

[Mittelstadt, Brent. Wachter, Sandra. Podrían los contrafactuales explicar las decisiones algorítmicas sin abrir la caja negra? 15 de enero de 2018. Blog del Instituto de Internet de Oxford.

[Algoritmos y colusión: La política de competencia en la era digital. OCDE 2017

About the Authors

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?