Inteligencia artificial para la mejora social: Bob Suh

PodcastFebruary 12, 2021
man holding a computer connecting to another man holding the same

Creo que somos animales sociales y, con algunas excepciones, tendemos a regirnos por costumbres y comportamientos que ayudan a todo el grupo. Y, creo que, de nuevo, esto vuelve a la IA puede ayudar a eso, o puede dañar eso. Podría explotar el arbitraje y la información o la realidad, o puede guiar los patrones de comportamiento más hacia el bien común, si se quiere.

Listen to this episode

spotify button background imagespotify button background image

Introducción

Desde la proliferación de las comparaciones sociales hasta el creciente extremismo político, los efectos negativos que la tecnología tiene en nuestro tejido social son evidentes. Pero, ¿podemos crear un futuro diferente? ¿Un futuro en el que la tecnología nos cubra las espaldas y vele por nuestros intereses?

En este episodio de The Decision Corner, nuestra presentadora Brooke Struck cuenta con la presencia de Bob Suh, fundador y CEO de OnCorps. OnCorps es una empresa estadounidense dedicada a elevar los resultados del rendimiento en el lugar de trabajo mediante el uso de inteligencia artificial. Mediante la aplicación de algoritmos predecibles a diversas decisiones y tareas, OnCorps reduce el trabajo, los errores y los riesgos en el sector de los servicios financieros. La organización proporciona soluciones de vanguardia a una serie de empresas, con asesores de Yale, Harvard y Oxford. Sus innovadores algoritmos les valieron el Premio NOVA 2019 de NICSA y el Premio Fintech Breakthrough 2019 al mejor software de infraestructura bancaria.

Bob Suh también ha escrito para Harvard Business Review sobre cómo el uso eficiente de la IA puede conducir a una mejor toma de decisiones y previsión. Consulte su trabajo aquí.

En este episodio, Brooke y Bob discuten:

  • La ciencia fundamental del comportamiento que se aplica a la IA
  • Cómo aprovechar la inteligencia emocional de los humanos en beneficio de la tecnología
  • Cómo nuestro fuerte dominio de la analítica de datos puede influir en comportamientos incompatibles con la verdad y la autenticidad, así como en una saturación de publicidad.
  • Cómo podemos mitigar algunos de estos problemas para utilizar la tecnología en favor de una arquitectura de elección positiva
  • La monetización de las plataformas sociales actuales y futuras, y cómo está cambiando
  • El futuro de la innovación social y tecnológica: cómo la tecnología avanza hacia resultados sociales positivos

Citas clave

Intuición frente a probabilidad en los pasillos del poder

"En particular, los que toman decisiones de alto nivel en profesiones de cuello blanco muy bien pagadas, debido a que son esencialmente tomadores de decisiones pagados, tienen esencialmente un sesgo hacia la sobre-creditación del poder de sus capacidades intuitivas y la sub-creditación de las leyes de la probabilidad, y, francamente, la mundanidad de los tipos de decisiones por las que se les paga bien y la previsibilidad de esas decisiones.."

El problema no es la IA, sino nosotros

"La IA solo amplifica lo que nosotros amplificamos. No hace más que amplificar lo que hacemos los humanos en las redes sociales. El problema es que los humanos son mucho más propensos a compartir noticias falsas. Las IA, los bots, simplemente vuelven a compartir cosas que nosotros compartimos mucho. No queremos cargar toda la responsabilidad sobre nuestros hombros. Ciertamente, somos parte del problema. El hecho de que compartamos en exceso noticias falsas es un problema. Es un problema especialmente en combinación con estas IAs que simplemente aumentan las cosas más compartidas".

La atención es dinero

"No se trata sólo de captar y retener usuarios. También se trata de monetización. Las megaplataformas actuales son eficaces porque pueden convertir la participación de los usuarios en activos por los que alguien está dispuesto a pagar. Normalmente, eso significa que venden nuestros datos a alguien que quiere vendernos algo, y a veces el algo que quieren vendernos es una ideología política."

Modelos alternativos de suministro de información

"Creo que el reto es que el mecanismo de entrega de publicidad de Facebook es mucho más eficaz que el de las revistas o los periódicos, por lo que sigo creyendo en la posibilidad de que un modelo basado en suscriptores siga beneficiando a los productores de bienes y servicios que esencialmente quieren promover algo positivo en la vida de alguien. Puede ser hacer que se sientan mejor consigo mismos o que vuelvan a una dieta sana, o lo que sea".

Tecnología reflectante

"Me encantaría ver una aplicación que simplemente dijera: 'Oye, estás pensando mal sobre lo que acabas de hacer. ¿Adivina qué? Es totalmente normal'. Creo que los medios de comunicación en general, y las plataformas sociales basadas en IA en particular, tienen una forma de magnificar la cola derecha de las cosas .... Solo digo que definitivamente tenemos un medio en el que la cola derecha está hiper magnificada, y hace que la gente se sienta mal. Creo que les hace preocuparse por cosas que no deberían preocuparles. Les hace sentirse inadecuados".

Calidad sobre cantidad

"Ferrari y Porsche son sólo dos empresas que decidieron no vender el mayor número de coches, sino vender los mejores coches en su mente. Creo que siempre es raro que alguien tome un camino diferente en una función objetivo. Pero, tal vez así es como debe ser. Quizá por eso se convierte en alta calidad".

La desilusión es un catalizador del cambio

"Ahora mismo hay mucha gente que se siente muy desilusionada con el tipo de sistemas en los que nos encontramos actualmente, y... probablemente irá a más antes de que empiece a cambiar. Esa desilusión puede ser un ingrediente causal necesario para que la gente realmente eche un vistazo al modelo en el que estamos operando en este momento y diga: "Este no es el tipo de mundo que quiero construir". Así que voy a convertir en mi misión profesional de los próximos 10, 20 o 30 años proponer algo que nos ofrezca la opción de hacerlo de otra manera".

Transcripción

Inteligencia artificial y ciencias del comportamiento

Brooke: Hola a todos. Bienvenidos al podcast de The Decision Lab, una empresa de investigación aplicada con conciencia social que utiliza la ciencia del comportamiento para mejorar los resultados de toda la sociedad. Mi nombre es Brooke Struck, directora de investigación en TDL, y seré su anfitriona para el debate.

Mi invitado de hoy es Bob Suh, fundador y CEO de OnCorps. En el episodio de hoy hablaremos de IA, empatía y de si las máquinas pueden salvarnos de nosotros mismos. Bob, gracias por acompañarnos.

Gracias, Brooke. Encantado de estar aquí.

Brooke: Así que has estado escribiendo sobre los prejuicios y el comportamiento humano y cómo estos prejuicios nos llevan a algunos malos resultados. Vamos a sumergirnos en el agua poco a poco. ¿Cuáles son algunos de los resultados que te preocupan y cómo contribuyen a ellos los prejuicios?

Bob: Creo que lo que más me preocupa es que los responsables de la toma de decisiones en profesiones de cuello blanco muy bien remuneradas y, de hecho, los propios líderes -porque básicamente son responsables de la toma de decisiones a sueldo- tienen una tendencia a sobrevalorar el poder de sus capacidades intuitivas y a infravalorar las leyes de la probabilidad y, francamente, la mundanidad del tipo de decisiones por las que se les paga bien y la previsibilidad de esas decisiones.

Hay un documental, no recuerdo el nombre, en el que intentan demostrar la ley de los grandes números, y el periodista empieza a encestar canastas con un jugador universitario. En los tres primeros tiros, el periodista gana dos a tres. Pero, obviamente, para demostrar la ley de los grandes números, después de 20 o 30 tiros, está claro que el jugador universitario es superior. Y lo que esto nos dice, por usar una analogía con la IA, es que los humanos pueden dar demasiada importancia a la casualidad, a los acontecimientos tempranos que no se rigen por la ley de los grandes números y subestimar el poder de la informática, el cálculo, la aplicación de la probabilidad a cada decisión y, de hecho, la necesidad de fracasar para hacer que algo funcione bien o para entrenar algo bien.

Así que, para mí, la cuestión más importante es: ¿Darán los líderes y los humanos una oportunidad a la IA, permitirán que prevalezca la ley de los grandes números, permitirán que la IA se entrene adecuadamente? Y luego, ¿aprenderán también a adoptar y a ser conscientes de sí mismos, de las decisiones que son francamente mundanas y que deberían tomarse según las reglas de la estadística frente a las que realmente requieren intuición, percepción multifactorial, lo que sea que un ser humano sepa hacer mejor que un ordenador?

Brooke: Sí, la creación de sentido, la creación de significado, ese tipo de cosas. Señalas que la IA puede mejorar o empeorar una situación. Si lo he entendido bien, lo que estás diciendo básicamente es que la IA es un potente amplificador. No es ni intrínsecamente positiva ni negativa. Más bien, la IA puede amplificar las partes buenas o malas de la señal. Si tomamos las noticias falsas como ejemplo, se ha debatido mucho sobre la posibilidad de que los algoritmos de IA y las redes sociales exacerben el problema de las noticias falsas. Algunos investigadores hicieron un estudio que me pareció realmente interesante, analizando si la IA era particularmente propensa a aumentar las noticias falsas más que las noticias reales.

Las conclusiones a las que llegaron es que la IA solo amplifica lo que nosotros hacemos. Así que solo amplifica lo que hacemos los humanos en las redes sociales. El problema es que los humanos son mucho más propensos a compartir noticias falsas. Las IAs, los bots, simplemente comparten cosas que nosotros compartimos mucho. No queremos cargar toda la responsabilidad sobre nuestros hombros. Ciertamente, somos parte del problema. El hecho de que compartamos en exceso noticias falsas es un problema. Sobre todo en combinación con las IA, que aumentan las cosas más compartidas. ¿Cómo ve esto en el contexto del que está hablando aquí, la IA como amplificador, potencialmente aumentando lo que sea que los humanos estén haciendo bajo la superficie?

Bob: Correcto. Bueno, cuando aprendes estadística básica, te enseñan que hay una variable Y y una variable X. La variable Y es el resultado. La variable Y es el resultado. Es lo que quieres cambiar. La variable X es la variable independiente. Como estudiante, pasas la mayor parte del tiempo intentando cambiar la variable X para que influya en la variable Y. Intentas encontrar la causalidad. Intentas encontrar causalidad o correlación. Lo que he aprendido a lo largo de los años es que, con demasiada frecuencia, la gente no tiene en cuenta el cambio de la variable Y, y el cambio de la variable Y es probablemente la acción de mayor palanca que se puede tomar para resolver un problema, no sólo con la IA, sino también en la investigación. En este caso, lo que estás describiendo es una variable Y para la popularidad, esencialmente.

Digo popularidad por varias razones. Una es que es casi como un incentivo de dos partes, donde no es sólo que las empresas de redes sociales necesiten ser reguladas o sean malvadas o lo que sea. Es que, a su punto, la gente está esencialmente tratando de ganar más puntos de vista y más visitas. Están cambiando la variable X para averiguar cómo ganar popularidad, pero no están cambiando la variable Y. Sólo están tratando de conseguir más visitas. Sólo están tratando de obtener más puntos de vista. Y así, tienes personas que están promoviendo intencionalmente conspiraciones y otras noticias locas para obtener más puntos de vista. Se dan cuenta de que tienen más visitas, y [vi un documental donde] Rush Limbaugh, en sus primeros días, era en realidad un liberal. Pero se dio cuenta de que cuando se volvía de derechas, tenía más audiencia. Y así, lo que da miedo de eso, para mí, es que nuestro mecanismo para no cambiar la variable Y de la función de recompensa de popularidad, si se quiere, es que estamos creando líderes que realmente no son líderes. Son sólo, en cierto sentido, seguidores. Ellos sólo están suscribiendo a una forma de liderazgo que les gana más puntos de vista o más visitas.

Creo que eso es realmente peligroso, y que lo que realmente tenemos que hacer es analizar cuál es la variable Y que realmente queremos, no sólo para nosotros mismos, sino para nuestro entorno político y empresarial. A menudo nos encontramos con que, por ejemplo, una empresa cuyo único objetivo, cuya única variable Y es el beneficio, puede hacer cosas muy destructivas. En cambio, si su variable Y, por ejemplo, fuera la calidad del producto, probablemente obtendría suficientes beneficios, pero probablemente también podría vivir consigo misma por la noche. Creo que definitivamente hay un problema con las redes sociales y con las primeras instancias de la IA donde la variable Y está casi fijada en este síndrome de "vistas, visitas, publicidad", y definitivamente no es saludable. Claramente, no es saludable, y estoy seguro de que será, en algún momento, regulado.

Tecnología y cociente emocional (CE)

Brooke: Correcto. Creo que es un buen giro que nos lleva a este punto que trataste en tu reciente artículo de HBR, hablando de inyectar un poco de Inteligencia Emocional en la mezcla cuando se trata de IA. Quiero darte un poco de espacio para hablar de ello. Quiero decir, quiero volver a esta idea de ajustar la variable Y. Creo que hay algo que usted ha recogido allí en el liderazgo que quiero volver también. Pero, empecemos con la Inteligencia Emocional.

Bob: Claro. Bueno, mi premisa es que tienes una relación. Especialmente en el mundo de la IA, se forma una relación con una aplicación de la misma manera que se forma una relación con una persona. Un estudiante universitario tiene una cita. Ese estudiante cuenta a su madre y a su compañero de piso dos historias completamente diferentes sobre la cita. Así que seleccionas lo que compartes en función de la audiencia.

Y, a su vez, si llevamos al extremo esta analogía de la personalidad con las aplicaciones, podemos pensar en los sistemas corporativos como regañinas. Casi siempre te están regañando. Has hecho algo mal. No puedes ir. No puedes iniciar sesión en esta cosa. Has sobrepasado el límite de caracteres o lo que sea. Y, puedes pensar en los sistemas de redes sociales como aduladores. En otras palabras, todo lo que intentan es hacerte sentir bien, independientemente de las consecuencias.

Y así, cuando piensas en las aplicaciones y en las personas como si estuvieran en una relación, cosa en la que realmente creo, entonces empiezas a ver que hay relaciones que son aduladoras, que están definidas por el regaño. Pero también hay relaciones que tienen una Inteligencia Emocional extraordinariamente alta, donde las acciones y contraacciones de las dos partes son empáticas. Son conscientes de sí mismas. Reconocen el hecho de que pueden estar regañando demasiado o ser demasiado aduladores. Entienden que necesitan dar marcha atrás en algo porque es demasiado punitivo para la discusión.

Y así, uno de los ejemplos que di es que estás en una relación temprana con alguien. Estáis viviendo juntos. Una persona te regaña y dice: "Oye, no has sacado la basura". No muy diferente a un sistema que te avisaría o alertaría. Pero, el otro sistema podría decir o la otra persona en tu apartamento podría decir: "Oye, me he dado cuenta de que has sacado la basura. Gracias". Bueno, eso es una alta interacción EQ porque esencialmente estás siendo amable, y estás recompensando a alguien. Pero, probablemente tambien estas afectando el cambio de comportamiento mucho mas de lo que lo harias si solo estuvieras regañando.

Así que creo que es un terreno que una aplicación puede pisar. No creo que sean interacciones peculiarmente humanas. Sólo creo que son consideradas. Requieren una lógica más sofisticada y ese tipo de cosas.

Brooke: Estás empezando a adentrarte en el ámbito del comportamiento y la empatía. Qué papel tienen que desempeñar los conceptos y la teoría del comportamiento en el enriquecimiento de estos ecosistemas de IA para, por un lado, promover un mejor comportamiento y mejores resultados y, por otro, fomentar una mentalidad más sana entre los usuarios?

Bob: Creo que son enormes. Es decir, cuando piensas en la investigación que Thaler y Kahneman han realizado, piensas en [el hecho de] que están revelando patrones en la naturaleza humana que, si se cambian, podrían realmente abrir cambios de rendimiento muy poderosos, si se quiere, especialmente en los negocios, o tal vez incluso en la vida personal. Creo que no hay duda en mi mente de que hay un futuro en los algoritmos que no sólo te hacen tratar de hacer clic en algo, sino que te atemperan de hacer clic en algo o te atemperan de enviar algo.

Creo que hay todo un mundo de algoritmos por ahí que probablemente sean teóricos de juegos, que consideran las consecuencias de la acción A o la acción B, y luego consideran qué tipo de comunicación o mensaje enviar que más probabilidades tenga de conseguir que actúes de una manera óptima. Estoy muy entusiasmado con ello.

Estamos investigando con el Laboratorio de Naturaleza Humana de Nicholas Christakis patrones de comportamiento muy simples. Lo llamamos el síndrome del ojo vidrioso. Pero, esencialmente, en los negocios, si estás revisando algo que ocurre muy raramente, todo lo que estás viendo son falsos positivos. [Digamos, por ejemplo,] alguien vino al síndrome de la TSA. Usted tiende a los ojos vidriosos. En otras palabras, podemos demostrar estadísticamente que no eres realmente capaz de encontrar un error, por ejemplo, en una gran transacción financiera.

Hemos descubierto que podemos identificar cuándo tienes los ojos vidriosos y, básicamente, se basa en el tiempo. El tiempo en realidad es una variable muy importante en el comportamiento de la IA. Si eres demasiado rápido o demasiado lento, es una variable muy poderosa.

Brooke: Así, el síndrome de la TSA y todos estos falsos positivos, para cualquiera que no esté familiarizado con ese fondo, si estoy leyendo bien, lo que estás hablando es, por ejemplo, el guardia de seguridad del aeropuerto que está viendo todo el mundo pasa su equipaje a través, y en alerta máxima, sospechoso de todo el mundo, tratando de identificar quién es la persona que está tratando de pasar de contrabando a través de un arma o lo que sea que no se supone que deben traer a través. Y, en ese tipo de situación en la que están en alerta máxima, sospechan mucho de cada persona, pero sabemos que la gran mayoría de la gente no está haciendo nada malo, es donde se produce este síndrome del ojo vidrioso, en el que te centras en demasiados pequeños detalles. ¿Es eso?

Exactamente. Ves un patrón de falsos positivos. Bueno, te daré un ejemplo perfecto: Alarmas de hotel. Nadie se despierta con una alarma de hotel creyendo que está en peligro inminente. Normalmente se despiertan y lo primero que piensan es ¿cuándo la apagarán para que pueda volver a dormir? Nunca piensan, oh, tal vez debería comprobar si la puerta está caliente, o tal vez podría comprobar si hay humo o algo por el estilo. Y, eso es esencialmente este síndrome de adormecerse a un falso positivo.

Alrededor del 99% de las alarmas domésticas son falsos positivos, por lo que la tecnología ha quedado obsoleta en cierto modo. Probablemente lo más importante es tener la señal de alarma como elemento disuasorio, no la alarma en sí. Y así, sí, eso es exactamente. Es esta manera para los seres humanos para apagar las alertas o algo por el estilo, y se ha demostrado que en realidad sucede con bastante frecuencia y con bastante rapidez.

El lado negativo de los datos

Brooke: Muy bien, creo que has expuesto muy bien cómo la IA puede ayudarnos a superar algunos de estos retos y que la ciencia del comportamiento tiene un papel que desempeñar a la hora de informar sobre cómo diseñar algoritmos que realmente promuevan un comportamiento más obediente o más eficaz, así como una mentalidad más sana.

Ahora quiero volver a esta cuestión de cambiar la variable Y porque creo que es un concepto realmente interesante. Cambiar la variable Y es de lo que tratan el liderazgo y la estrategia. La estrategia consiste en decidir en qué te vas a apoyar e identificar qué es lo que vas a optimizar.

Así que, en mi configuración inicial, cuando estaba introduciendo esto y dándote algo de espacio para esbozar tus ideas, caractericé a AI como un amplificador neutral. Pero, tal vez eso está mal. Tal vez nunca deberíamos pensar en la IA como un amplificador neutral. Siempre es neutral en el sentido de que siempre está optimizando. Pero, nunca es neutral en el sentido de que siempre tenemos que elegir qué es lo que estamos optimizando. Siempre hay que optimizar ¿para qué? Y ahí es donde entran en juego el liderazgo y la estrategia.

Exactamente.

Brooke: El ejemplo de Rush Limbaugh, que nunca había oído, por cierto, antes de que lo mencionaras, creo que es fascinante. Me hizo pensar que en el contexto de un negocio donde se puede escuchar a alguien decir: "Nuestra estrategia es vender lo que sea que la gente compre", esa es la abdicación del liderazgo. Es la abdicación de la estrategia. Y, eso parece ser exactamente de lo que se trata este tipo de teoría del amplificador neutral. Es solo decir, "Minimizamos el papel que tenemos que jugar decidiendo de que se trata la optimización."

Exactamente. Y, lo aterrador es que podrías preguntar, "Bueno, ¿por qué alguien no cambiaría la variable Y y haría algo con más integridad?" Porque funciona. Quiero decir, vale la pena no cambiar la variable Y. Vale la pena explotar los sistemas tal como están configurados, y es lamentable. Yo diría que siempre ha sido así. La gente siempre ha explotado los sistemas en los que opera. Definitivamente, corresponde a las grandes comunidades, a largo plazo, regular el mal comportamiento.

Creo que es algo que merece la pena explorar en la IA. ¿Puede una IA, del mismo modo que un pueblo intenta desalentar comportamientos perjudiciales para el pueblo, puede una comunidad más amplia -no un pequeño grupo que inscribes en tu página de Facebook- sino una gran comunidad regular de algún modo la definición de lo que debe ser una variable Y?

Sí. Has mencionado que compensa y que quizá no haya consecuencias. He estado leyendo un poco de historia últimamente, pero lo primero que me vino a la mente es, bueno, me pregunto lo que la familia real de Francia piensa de eso. En la Belle Époque, que realmente estaban explotando el sistema al máximo y la acumulación de riqueza masiva dentro de la familia real y esta aristocracia extendida. Y, por supuesto, el sistema en su conjunto volvió para corregir eso, con una guillotina.

Exactamente. Sobre todo cuando había desigualdades. Y sé que eso es lo que preocupa a la gente ahora, que las desigualdades son tan grandes que posiblemente habrá una reacción violenta. Y, supongo que la historia tiene razón en ese sentido. Normalmente se cierra el círculo. Aunque a veces lleva mucho tiempo.

Brooke: Sí. Sin duda nos ayudaría a dar sentido a algunas de las cosas que leemos en las noticias. Por ejemplo, a principios de esta semana e incluso al final de la semana pasada, una de las noticias de tendencia ha sido GameStop y todas estas ligas y ligas de inversores a través de Reddit coordinando grandes compras de esta acción de GameStop, así como algunas otras. Parte de esto parece estar motivado económicamente porque a medida que todos se amontonan, por supuesto, las acciones comienzan a calentarse. Pero, también hay un sentido en el que gran parte del discurso en torno a eso es vengativo. No se trata de personas que toman decisiones económicas sobre cómo quieren hacer dinero. Se trata de personas que toman decisiones expresivas acerca de decirle a un montón de conocedores de Wall Street lo que piensan de ellos y cómo se comportan.

Bob: Correcto. Y, creo que en una vena similar algunas personas ven Bitcoin de la misma manera, que dicen que es una liberalización de algo que está controlado por entidades muy poderosas que llegan a hacer las reglas, francamente. Es muy interesante. Es una discusión muy interesante.

Utilizar la tecnología para obtener resultados positivos

Brooke: Pasemos de las descripciones que has hecho a algo más parecido a un modelo normativo. ¿Quién establece los términos del buen comportamiento? Antes de lanzarte a ello, quería mencionar a un colega mío, Adam Briggle, que escribió un artículo que me encanta titulado "The Great Impacts Houdini", en el que habla de toda la infraestructura y el panorama de la investigación y la innovación que se ha creado en torno a la necesidad de que la investigación tenga impacto. La crítica que hace a toda esa infraestructura es que en ninguna parte se habla de lo que se supone que deben ser los impactos. ¿Qué diferencia el impacto positivo del negativo? Falta todo ese contenido del edificio. Como hemos dicho antes, se trata simplemente de optimización. Pero no se habla de qué optimizar.

Pero lo que señala en su artículo es que, socialmente, no estamos en un buen momento para mantener conversaciones sobre la sociedad ideal que queremos construir. Tenemos problemas para mantener conversaciones civiles entre personas que discrepan sobre quiénes deberían ocupar cargos políticos. Así que, este tipo de proyecto más amplio de cuál es la sociedad que queremos tener para nosotros mismos, para nuestros descendientes, dentro de 50 años, 100 años, 200 años? No parece que estemos en una posición muy ventajosa para mantener esas conversaciones. Pero, en última instancia, alguien tiene que tomar esa decisión. Cuando construimos un sistema, como un sistema de inteligencia artificial, ¿quién determina lo que constituye un comportamiento saludable y quién no?

Bob: Bueno, creo que hay dos respuestas a eso. La primera es que, volviendo al ejemplo de Rush Limbaugh, es cierto, pero también se podría encontrar gente en el otro extremo del espectro político que se hizo liberal porque pensó que así ganaría popularidad. Y en eso radica, creo, parte de la respuesta a tu pregunta: ¿queremos un sistema, una inteligencia artificial o una serie de aplicaciones que promuevan lo que hay que decir, o que contrasten lo que se dice con lo que realmente se consigue?

Creo que ahí es donde hay esperanza para algo donde una IA. Obviamente, como has dicho, una IA sólo hace lo que tú le ordenas que haga. Pero, una IA es muy objetiva y muy matemática, y creo que más gente debería pensar en variables Y que son resultados reales.

Realmente beneficioso sólo por razones simplistas, por utilizar la política como ejemplo, se podría argumentar que las opiniones extremas de cualquier extremo, de la izquierda o de la derecha, son bienintencionadas. Alguien está tratando de arreglar algo, y es un acto de intención positiva. Pero entonces, si le preguntas al algoritmo: "Bueno, cambia la variable Y", e intentas encontrar dónde realmente marca la diferencia, ¿dónde está afectando realmente a la vida de la gente o no está afectando a la vida de la gente? Eso es algo que yo diría que deberíamos analizar.

En el campo de los negocios, en el campo de la inversión, es blanco o negro. O ganas dinero o no lo ganas. No puedes defender una operación que pierde dinero durante mucho tiempo, que es esencialmente por lo que hay tremendas salidas en los últimos años de fondos activos a fondos indexados y fondos algorítmicos. Así que, como lo único que importa, ese resultado no es subjetivo en absoluto. Si le pidieras a una IA o a un sistema que incluya una IA que se ajuste a los resultados reales, creo que eso es lo que ha faltado.

Sí. Mientras hablabas, una de las cosas que me vino a la mente es que no hay tantos jugadores en este campo. Quizá una de las formas de atacar un poco este problema sea la innovación, y tengo que reírme de mí misma diciendo esto porque tantas veces he puesto los ojos en blanco ante gente que decía: "Bueno, la solución a cualquier problema es simplemente más innovación". Pero, parte de la solución podría ser decir: "No depende de nosotros decidir cuáles son los resultados correctos". Si pensamos en esta idea de Inteligencia Emocional que nos has esbozado hoy, la gente gravitará hacia sistemas que promuevan el tipo de interacciones que desean tener y que les hagan sentir como quieren sentirse.

Bob: Yo lo creo. Creo que somos animales sociales y, con algunas excepciones, tendemos a regirnos por costumbres y comportamientos que ayudan a todo el grupo. Y, creo que, de nuevo, esto vuelve a la IA puede ayudar a que, o puede dañar eso. Podría explotar el arbitraje y la información o la realidad, o puede guiar los patrones de comportamiento más hacia el bien común, si se quiere. Por supuesto.

Brooke: También hay que tener en cuenta el comportamiento. Parte de la decisión de seguir utilizando una plataforma no se debe únicamente a cómo me hace sentir. También va a estar muy influida por mi percepción de cómo se sienten los demás. Si pienso, por ejemplo, en que voy a una fiesta y miro a mi alrededor y parece que todo el mundo se lo está pasando bien, pero yo no me lo estoy pasando muy bien, puede que me quede y siga poniendo esta obra de teatro, que [parece] como si dijera: "Sí, yo también me lo estoy pasando bien". Cuando, en realidad, si hay un momento para apartar a un par de personas y decirles: "Escucha, ¿te estás divirtiendo de verdad en esta fiesta, o no nos lo estamos pasando bien todos y deberíamos largarnos?". Ese tipo de conversación puede promover mejores resultados.

Por lo tanto, este es el tipo de cosas en las que, como has mencionado antes, el diseño del sistema, integrando algunas de estas características de comportamiento, puede ser realmente poderoso porque mientras se mantenga esa ilusión, de que otras personas se están divirtiendo, pero esta plataforma está dejando a otras personas con el tipo de sensación que quieren sentir en términos de conexión con otros usuarios, ese tipo de cosas puede mantenerme como usuario individual durante bastante tiempo, potencialmente de forma indefinida.

Bob: Sin duda. Por cierto, nunca he tenido ese problema en las fiestas, más que nada porque nunca voy a ellas.

Brooke: Como un muy breve aparte. Durante toda esta pandemia, tengo la sensación de que se está acumulando tanta energía que, una vez que se liberen los controles, va a haber una serie de fiestas de lo más increíbles y escandalosas. Cuando pienso en la gripe española de finales de la década de 1910 y luego veo una película como El Gran Gatsby, pienso: "Oh, por eso hicieron todas esas cosas".

Correcto. Pent up demanda.

Contexto social y monetización

Brooke: Sí, eso es correcto. Así que hemos estado hablando mucho sobre cómo podríamos diseñar un sistema perfecto que superara algunos de estos retos, y creo que esta idea de que en realidad necesitamos muchos sistemas ahí fuera y adoptar un enfoque más de cartera para esto, que experimentemos con muchas cosas diferentes y que los usuarios tengan la oportunidad de votar con sus datos, de votar con su participación y una plataforma, que las que promuevan el tipo de cosas que los usuarios están buscando serán las plataformas que en última instancia lleven la voz cantante, si hay opciones y claridad en torno a esas plataformas.

Pero, parte del debate tan desafiante en torno a estos sistemas perfectos es que nunca podemos empezar de cero. Nunca operamos en un vacío histórico. Ya existen plataformas que tienen ciertas dinámicas y características, lo que también crea ciertas expectativas entre las bases de usuarios sobre cómo deberían funcionar las plataformas y cómo debería sentirse al utilizar una plataforma y este tipo de cosas. Igualmente bien, usted mencionó antes que no se puede seguir tirando dinero indefinidamente en una empresa de negocios que en última instancia no está mostrando ningún retorno. Así que también hay incentivos económicos en el ecosistema.

No se trata sólo de captar y retener usuarios. También se trata de monetización. Las megaplataformas actuales son eficaces porque pueden convertir la participación de los usuarios en activos por los que alguien está dispuesto a pagar. Normalmente, eso significa que venden nuestros datos a alguien que quiere vendernos algo, y a veces el algo que quieren vendernos es una ideología política. ¿Qué tipo de entornos de incentivos necesitamos para apoyar un ecosistema de plataformas y un ecosistema de IA que persiga los tipos de comportamientos saludables que usted describe? Para plantear la pregunta de una manera un poco concisa, ¿qué tipo de empresa querría anunciarse en mi plataforma si mi plataforma ayuda a la gente a controlar sus hábitos de gasto autodestructivos e impulsivos?

Bob: Creo que la tormenta perfecta de la industria publicitaria, al darse cuenta de que su modelo de publicidad física era tremendamente ineficaz, combinada con la aparición de las redes sociales, creo que la historia lo recordará casi como un polvorín, y de forma bastante negativa. Creo que lo que se pasó por alto es el hecho de que en realidad había algunos grandes negocios que seguían un modelo de suscripción en el que la gente realmente pagaba, estaba dispuesta a pagar, no mucho, pero estaba dispuesta a pagar por el derecho a utilizar su servicio, ya fuera Spotify o Apple. Amazon Prime es incluso un ejemplo de ello. Es un servicio de suscripción. Es una suscripción para comprar más cosas. Pero, obtienes beneficios por ello.

Me imagino un escenario en el que se pueda reconstruir una forma de colaborar y compartir personal y profesionalmente por la que merezca la pena pagar. Y, tal vez para que valga la pena pagar por ello, seas capaz de controlar lo que ves. Eres capaz de regular las cosas. Aprende sobre tus cosas, pero de forma positiva. Creo que el reto es que el mecanismo de distribución de publicidad de Facebook es mucho más eficaz que el de las revistas o los periódicos, por lo que sigo creyendo en la posibilidad de que un modelo basado en suscriptores siga beneficiando a los productores de bienes y servicios que esencialmente quieren promover algo positivo en la vida de alguien. Puede ser hacer que se sientan mejor consigo mismos o que vuelvan a una dieta sana, o lo que sea.

Y creo que un modelo autoseleccionado basado en suscriptores sería tan potente como un mecanismo de distribución de Facebook. No creo que nadie lo haya intentado. Quiero decir, tal vez alguien lo ha hecho, pero creo que será probablemente la próxima generación. Creo que sería muy positivo, quiero decir, a menos que estés promoviendo algo que sea descaradamente destructivo para la gente. Pero, creo que la mayoría de las personas que pasan su tiempo construyendo productos y servicios creen que están mejorando la vida de las organizaciones, equipos y personas.

Brooke: Has mencionado cómo se financian las plataformas, y yo estaba pensando en la historia, una vez más, de eso, y pensando, bueno, Facebook, Twitter, estas grandes plataformas de medios sociales, no son las primeras plataformas que han surgido para promover la comunicación entre las personas. ¿Cómo consiguió la oficina de correos despegar en primer lugar? Tuvo que haber financiación detrás, y también revolucionó la forma en que las personas se comunican entre sí.

Vemos todos los mismos tipos de características en los que la publicidad y, bueno, la publicidad de productos y servicios, así como la política y las políticas publicitarias, también se injertaron allí. El Servicio Postal de EE.UU., cuando inicialmente se extendió por todo el país, fue un mecanismo de entrega novedoso y extremadamente poderoso para los ensayos políticos y este tipo de cosas, que los partidos publicaban para tratar de influir en los votantes. No sé concretamente cuándo llegó al correo más publicidad de tipo comercial, pero no nos parece inadecuado que tengamos que pagar un sello para enviar algo. Podemos pegar en nuestro buzón una pegatina que prohíba el correo basura, y eso no significa que ya no podamos recibir las cosas que sí queremos. Hay otras plataformas que históricamente han desempeñado papeles funcionales similares en nuestra sociedad, y quizá podamos aprender de ellas.

Bob: Definitivamente.

El futuro de la innovación social

Brooke: En cuanto a los modelos de pago por usuario, también hay algo que considerar, creo, en torno a los beneficios que se pueden crear con estas plataformas. Si nos preguntamos a nosotros mismos quién se beneficia de una plataforma de usuarios felices o menos estresados, no se trata solo de un ideal utópico que, bueno, es una sociedad perfecta, pero nadie va a pagar por ella. Hay beneficios reales, concretos y tangibles por los que algunas personas pagarían para alcanzar ese tipo de situación. Uno de los ejemplos que me vienen a la mente son los empresarios.

Las empresas gastan miles y miles de millones de dólares en RRHH cada año para intentar asegurarse de que sus empleados sean personas felices, bien adaptadas y resistentes, porque las personas que tienen todas esas características, o que se describen con todas esas características en un momento dado, son productivas. Trabajan mejor, y eso crea más valor para las empresas en las que trabajan. Este es sólo un ejemplo. Un empleador puede ser el cliente, aunque no sea el usuario final, de una plataforma que promueve la colaboración sana, la mentalidad positiva, este tipo de cosas, como parte del diseño sistémico de la plataforma.

En Estados Unidos, quizá sea un poco diferente porque no hay una sanidad universal financiada por el Estado, pero en muchos países del mundo donde sí la hay, los gobiernos también tienen un enorme incentivo para que se reduzcan las cargas de la sanidad pública, de la salud mental. Así que, en cualquier lugar donde se pueda diseñar una plataforma para promover el bienestar físico y mental de las personas, hay que ser un poco creativo. No es fácil entablar esas conversaciones, ni siquiera entrar en la sala. Pero hay actores con mucho dinero para gastar que actualmente lo gastan resolviendo problemas, abordando los efectos, mientras que si se puede decir que se puede abordar esta corriente ascendente por un coste mucho menor y ocuparse de las causas, hay modelos de negocio muy, muy fuertes que se pueden construir a lo largo de esas líneas.

Bob: Oh, estoy completamente de acuerdo, y creo que cuando vuelves a la IA y algunos de los fallos, me encantaría ver una aplicación que simplemente dijera: "Oye, estás pensando mal sobre lo que acabas de hacer. ¿Adivina qué? Es totalmente normal". Creo que los medios de comunicación en general, y las plataformas sociales basadas en IA en particular, tienen una forma de magnificar la cola derecha de las cosas.

Mi mujer me hablará de alguna muerte trágica provocada por COVID y de lo horrible que es, y yo le diré: "Bueno, sé que hay 25 millones de casos. Si cogieras 25 millones de casos de alguien que va en coche al supermercado, seguro que podría encontrar historias realmente horribles". No estoy subestimando COVID en absoluto. Sólo estoy diciendo que definitivamente tenemos un medio en el que la cola derecha está hiper magnificada, y hace que la gente se sienta mal. Les hace, creo, preocuparse por cosas que no deberían preocuparse. Les hace sentirse inadecuados.

Como líder de una startup desde hace más de nueve años, intento decirle a todo el mundo que mi película favorita para una startup es Rocky, porque lo que importa no es ganar, sino pasar las 12 rondas. Es una función objetivo diferente o variable Y. Sobrevivir es lo que realmente importa en algunas startups. Si no sigues levantándote, es la forma más segura de fracasar. Pero, sigue levantándote, y cuanto más sigas levantándote en una startup de tus reveses, que son inevitables, más probabilidades tendrás de tener éxito.

Brooke: Así que, para alguien que esté interesado en la IA, el nudging empático, la construcción de este tipo de plataformas, ¿por dónde empezar? ¿Qué puede empezar a hacer el lunes por la mañana para poner en práctica estas ideas?

Bob: Creo que existe una rica literatura desde el punto de vista de la ciencia del comportamiento y la economía del comportamiento que obviamente conoces bien. Ese es sin duda un punto de partida. Pero, entonces usted tiene algunas personas muy brillantes que están haciendo modelado. Acabo de leer al profesor Sandholm en Carnegie Mellon, que está haciendo un Libratus AI que está ganando a los jugadores de póquer campeones del mundo. Y, hay algo en esos modelos que son teóricos del juego, interactivo, tratando de obtener un equilibrio de Nash, si se quiere.

Hay otras personas que están estudiando cómo los sistemas de aprendizaje, los sistemas educativos, pueden deducir de las preguntas que haces cuánto estás aprendiendo. Creo que hay piezas dispares de algunas ideas muy poderosas que la gente podría empezar a mirar. Sin duda, los profesores que están utilizando redes neuronales y la teoría de juegos para ser profesionales de los juegos. Creo que eso es definitivamente un punto de partida. La razón por la que digo eso es porque por lo general es un modelo de dos partes, creo que hay algo allí donde yo empezaría a mirar, así como mirar el trabajo fundacional de Kahneman y otros.

Brooke: ¿Qué hay del modelo de negocio, del liderazgo, de encontrar la variable adecuada o la variable Y adecuada? ¿Por dónde empezamos?

Bob: Filosóficamente, diría que nunca va a ser la ruta más popular. Ferrari y Porsche son sólo dos empresas que decidieron no vender el mayor número de coches, sino vender los mejores coches en su mente. Creo que siempre es raro que alguien tome un camino diferente en una función objetivo. Pero, tal vez así es como debe ser. Tal vez por eso se convierte en alta calidad.

Yo diría que no es diferente de cualquier otra cosa que hagas. Tienes que decidir por qué te levantas por la mañana. Creo que si decides que es algo superficial o algo incontrolable, te va a ir muy mal. En cambio, si decides que es algo intrínseco a mi aprendizaje o a una cualidad o a mejorar mi parte del mundo, creo que es algo intrínseco a algunas personas. Espero que más gente se ponga en contacto con ello, pero creo que es una de esas cosas que algunas personas deciden hacer y otras no.

Brooke: Bueno, tal vez eso sea algo de esperanza para nosotros de cara al futuro. Hay mucha gente ahora mismo que se siente muy desilusionada con el tipo de sistemas en los que nos encontramos actualmente, y ese tipo de desilusión, por decepcionante que sea que hayamos tenido que dejar que llegue tan lejos, probablemente irá a más antes de que empiece a cambiar. Esa desilusión podría ser un ingrediente causalmente necesario para que la gente realmente eche un vistazo al modelo en el que estamos operando ahora mismo y diga: "Ese no es el tipo de mundo que quiero construir. Así que voy a convertir en mi misión profesional de los próximos 10, 20 o 30 años el proponer algo que nos ofrezca la opción de hacerlo de otra manera".

Bob: Estoy de acuerdo, y sé que hay mucha, mucha gente que ya está pensando en esto y trabajando muy duro para conseguir una forma mejor de pensar en la colaboración. Así que soy optimista.

Muy bien. Bueno, Bob, muchas gracias por tu tiempo y tus ideas hoy.

Bob: Gracias.

Brooke: Esperamos tenerte de vuelta en algún momento.

De acuerdo. Un placer.

Queremos conocer su opinión. Si disfruta con estos podcasts, háganoslo saber. Envíe un correo electrónico a nuestro editor con sus comentarios, sugerencias, recomendaciones y opiniones sobre el debate.

About the Guest

Bob Suh

Bob Suh

Bob es fundador y CEO de OnCorps. Ha publicado artículos sobre economía del comportamiento en Harvard Business Review y el Financial Times. Antes de OnCorps, Bob fue estratega jefe de tecnología en Accenture y director de estrategia de la división de tecnología de la empresa. La revista Consulting Magazine lo incluyó en la lista de los 25 mejores consultores. Bob también fue presidente de grupo de Perot Systems, donde ayudó a sacar la empresa a bolsa. Bob obtuvo su máster, con especialización en economía política, en la Universidad de Harvard, donde fue asesor de clase y asistente de investigación del Premio Nobel de Economía de 2005. Se licenció en la Universidad del Sur de California.

About the Interviewer

Listen to next

Notes illustration

Eager to learn about how behavioral science can help your organization?