illustration of future of preferences

Perspectiva TDL: El futuro de las preferencias

read time - icon

0 min read

Dec 13, 2020

"Creo que las grandes preguntas de la neurociencia que aún no tienen respuesta van a ser grandes impulsoras de lo que decidamos hacer como especie con la tecnolo
gía".

man holding a computer connecting to another man holding the same

Prólogo

El proyecto TDL Perspectives es una serie de entrevistas con líderes de opinión que participan en nuestra misión de democratizar la ciencia del comportamiento. Seleccionamos ideas específicas que están en la frontera de los acontecimientos actuales en la ciencia del comportamiento, ya sean aplicaciones que introducen nuestras ideas en diversas industrias o debates teóricos sobre la polémica frontera de la investigación actual. Si tiene alguna idea sobre estas discusiones, tiene la experiencia que le gustaría compartir, o quiere contribuir de alguna manera, no dude en ponerse en contacto con Nathan en nathan@thedecisionlab.com.

Introducción

Hoy, Sekoul Krastev, Director General de The Decision Lab, se sienta con Nathan para hablar de la inteligencia artificial y el futuro de las decisiones humanas. Nos centramos en la intersección entre la IA y las ciencias del comportamiento para entender cómo el panorama de la toma de decisiones experimenta transiciones periódicas y qué se puede hacer para mejorar el mundo en este contexto. Deconstruimos las distintas formas de pensar sobre la cognición humana y la de las máquinas en los campos pertinentes. A continuación, miramos hacia el futuro de la tecnología para comprender cómo estas diferentes formas de entender la toma de decisiones aportan posibles soluciones a los problemas actuales.

Principales conclusiones

  • Aunque las decisiones se tomen en un instante, el proceso se extiende en el tiempo. Esto no siempre es así en el caso de las máquinas y cambia la forma en que se diseñan.
  • La mayor diferencia entre las personas y la IA puede tener que ver con la forma en que están configuradas, más que con sus procesos cognitivos una vez determinados los resultados.
  • Una cantidad finita de información es realmente importante para que un sistema de IA funcione bien.
  • La elección basada en el valor sigue siendo una cuestión abierta, que actualmente está fuera del alcance de la automatización.
  • La tecnología hace al individuo más influyente, pero tiene un precio.
  • La velocidad a la que la sociedad toma decisiones es cada vez mayor que la de las normas reguladoras, por lo que a menudo recae en los empleados de las empresas tecnológicas la responsabilidad de tomar decisiones importantes sobre nuestra forma de vida.
  • Las ciencias del comportamiento pueden ser un factor clave para cambiar la carrera entre el desarrollo tecnológico y los marcos éticos.

Debate

Nathan: Tengo Sekoul conmigo hoy y vamos a hablar de la IA y la ciencia del comportamiento. Empecemos. La gente suele considerar la IA como una alternativa a la toma de decisiones humana. La gente propone que la inteligencia artificial puede sustituir a la toma de decisiones humana en una serie de contextos, especialmente cuando reconocemos que nuestra toma de decisiones es defectuosa y que estamos cometiendo errores evitables. ¿Considera que la inteligencia artificial es una alternativa a la toma de decisiones humana?

Sekoul: Creo que en algunos contextos puede serlo. La inteligencia artificial es un término muy amplio. Abarca desde estadísticas sencillas hasta algoritmos de caja negra que resuelven problemas complejos. Así que, dependiendo de la decisión que se intente automatizar, creo que hay diferentes tipos de éxito.

Sekoul: En un escenario muy simple, en el que se trata de determinar, por ejemplo, si una imagen es de una célula cancerosa o no cancerosa, esa es una decisión que históricamente han tomado profesionales capacitados para ello. Y sabemos que la IA es ahora mejor que los humanos en el diagnóstico.

Nathan: ¿Qué crees que la IA está haciendo allí que nosotros no? ¿Se trata de introducir mejor la información? ¿O simplemente de seleccionar el tipo de información adecuado? ¿Cuál crees que es la diferencia?

"Se ha demostrado en experimentos que los humanos pueden [intuir] implícitamente, pero no pueden describir muchas de esas características de forma explícita. Así que la IA es capaz de hacer mucho de lo que llamamos intuición, que consiste esencialmente en procesar grandes cantidades de datos para llegar a un resultado muy simple."

Sekoul: Creo que es capaz de captar la información de una forma más perfecta. Creo que a lo largo de una carrera, un profesional puede aprender a entender intuitivamente características de la imagen que predigan un resultado u otro. Y creo que la IA puede hacer lo mismo mucho más rápidamente. La razón es que tienes un resultado muy claro. Y así eres capaz de dar retroalimentación a la IA, y decirle cuando es correcto, cuando es incorrecto. Cuando haces eso, aprende qué características son predictivas de un resultado y qué características no lo son.

Sekoul: Se ha demostrado en experimentos que los humanos pueden hacerlo implícitamente, pero no pueden describir muchas de esas características de forma explícita. Así que la IA es capaz de hacer mucho de lo que llamamos intuición, que consiste esencialmente en procesar grandes cantidades de datos para llegar a un resultado muy simple.

Nathan: Vamos a hablar de eso un poco más. ¿De qué crees que está hecha la intuición? Porque creo que es algo que a veces se malinterpreta en la ciencia del comportamiento, la idea de nuestra capacidad de procesamiento, de la que no somos necesariamente conscientes.

Nathan: Daniel Kahneman, en su libro bastante famoso, Pensar, rápido y lento, habla de cómo los juicios de expertos se hacen en un abrir y cerrar de ojos, de una manera que realmente no podemos reconocer como una especie de elección precisa deliberativa a fondo. Es algo que se consigue sin ningún tipo de procesamiento consciente. ¿Cree que hay sistemas inconscientes similares a los sistemas de aprendizaje automático? ¿O tenemos ciertas formas de procesar la información que nuestros actuales sistemas de inteligencia artificial no han alcanzado?

Sekoul: Así que no sabemos lo suficiente acerca de cómo el cerebro procesa la información para decir realmente. Es muy probable que lo haga de una forma que aún no hemos sido capaces de reproducir con la IA. Si pensamos en la filosofía de la neurociencia o de la ciencia cognitiva, no cabe duda de que existe una experiencia al tomar una decisión que la IA probablemente no está creando, ya sea el qualia o la experiencia de tomar una decisión.

Sekoul: En términos de puro procesamiento de la información, la intuición es algo que básicamente toma grandes cantidades de datos, y como nuestra atención no puede atender a cada pieza de información, en cierto modo apunta el foco a una parte muy pequeña de ella o incluso a ninguna. Y simplemente tienes la sensación de que algo es correcto o no.

Sekoul: Así que sólo porque algo no entra en su conciencia consciente, no significa necesariamente que usted está utilizando un sistema diferente para tomar esa decisión. Creo que eso es un concepto erróneo. Y en realidad hay muchas investigaciones que muestran que, incluso para las decisiones que consideramos conscientes, gran parte del procesamiento ocurre antes de que seamos conscientes de la decisión. Incluso hay una investigación de hace un par de años, que muestra que cuando se pide a la gente a alcanzar un artículo, los comandos para alcanzar el artículo en realidad viene antes de la conciencia de que tomó esa decisión. Así que, quiero decir, la gente usa eso para decir que no hay libre albedrío.

Sekoul: Curiosamente, el reverso de eso es que hay una voluntad libre, lo que significa que puede cancelar la acción como usted está alcanzando hacia el elemento, hasta el muy, muy último segundo de la misma. Así que tienes control consciente para abortar la acción. Pero en cuanto a la elección de hacerlo, parece que la conciencia está un poco separada del procesamiento de la información. Es decir, hay decisiones que tomamos de forma más o menos deliberada, pero en ambos casos procesamos la información con los mismos sistemas. Y esencialmente estamos creando un resultado que se basa en técnicas que son algo similares a lo que la IA está haciendo.

Nathan: Es curioso cuando pienso, especialmente en un contexto académico, el proceso de toma de decisiones o la experiencia de la toma de decisiones, como usted estaba diciendo, me parece que muchos de mis ideas preconcebidas acerca de cómo funciona desmoronarse con bastante rapidez.

[lea: Una dura mirada a la democracia].

Nathan: Un ejemplo reciente es cómo un votante hace su elección de voto y en qué momento se produce realmente esa elección. En este ejemplo, se procesa información durante semanas antes de las elecciones. Está claro que la gente recopila información de amigos, de anuncios, de figuras políticas, viendo discursos, debates, lo que sea. Pero no hay un punto claro de decisión. La experiencia de tomar decisiones se distribuye a lo largo de mucho tiempo.

Nathan: Y me pregunto, si nuestras máquinas se les da esa misma capacidad de procesar la información en el tiempo, porque por lo general esperamos una salida escupir justo cuando lo queremos. Y supongo que eso es lo mismo para los seres humanos también. Esperamos un resultado una vez que estamos en la cabina de votación o una vez que estamos en la consulta del médico o lo que sea.

Sekoul: Quiero decir, eso es interesante porque, de nuevo, su experiencia de su propia opinión puede necesitar cristalizar en un punto diferente. Así que, si en un momento dado, le preguntas a una persona a quién va a votar, se cristalizará de una manera particular, dependiendo de cómo se sienta en ese momento. Y es lo mismo con una IA, en un momento dado se están ejecutando promedios para diferentes resultados. Obviamente hay diferentes maneras de obtener un resultado. Usted puede tener cosas que compiten entre sí a una línea de meta. Puedes tener cosas que van en diferentes direcciones y son empujadas hacia arriba y luego comienzan a bajar. Y entonces, tan pronto como se alcanza un umbral en el lado positivo o negativo, se llega a una decisión.

Sekoul: Hay diferentes maneras de hacerlo. Pero en última instancia, en un momento dado, podemos precipitar esa decisión y tener algún tipo de comprobación del sistema. Y eso es cierto para la IA. Eso es cierto para los seres humanos también.

¿Podemos gestionar la incertidumbre con atajos cognitivos?

"Los algoritmos suelen diseñarse de forma más deliberada. A diferencia, por ejemplo, de un votante que puede no tener acceso a toda la información relacionada con la decisión que intenta tomar. Y ahí es donde creo que los algoritmos son más poderosos. No es tanto en la ejecución, es más en la configuración".

Nathan: Una idea que une algunos de estos hilos es la gestión de la incertidumbre. Hoy en día todo el mundo habla de lo inciertos que son los tiempos, ¿verdad? Para mí, esto equivale a la sensación de que no tenemos suficiente información para tomar las decisiones a las que nos enfrentamos. Si pensamos en una persona como un sistema que está constantemente recibiendo información y está llamado a tomar decisiones en momentos un tanto impredecibles, puede haber intervenciones que medien en la forma en que estamos recibiendo la información, ¿verdad?

Nathan: Me pregunto si crees que la IA puede ayudar con este tipo de problemas de gestión de la incertidumbre en los que las políticas no pueden construirse completamente porque no tenemos suficiente información para lograr lo que decidimos que son los resultados ideales. Por ejemplo, en una respuesta a una pandemia, no se sabe exactamente hasta qué punto la gente va a cooperar con cualquier política que se aplique. Y eso introduce un problema de previsión.

Nathan: La gente habla de cómo utilizamos ciertas heurísticas. Utilizamos atajos y formas baratas de procesar los datos para llegar a conclusiones, aunque no tengamos toda la información relevante. ¿Crees que las máquinas pueden adoptar esa forma de procesar los datos? ¿O cree que es beneficioso que las máquinas encuentren otras formas de tomar esas decisiones sin los atajos?

Sekoul: Creo que, en última instancia, tomamos atajos por las mismas razones que las máquinas. Los recursos computacionales del cerebro humano son finitos, igual que los de un ordenador. Y de hecho, si pensamos en un ordenador, los recursos son aún más finitos, es decir, tienen menos capacidad de procesamiento que el cerebro. Así que, en todo caso, las máquinas necesitan simplificar aún más los datos y la decisión. Dicho esto, la línea de tiempo que manejan normalmente no es la misma que manejamos nosotros. Es bastante raro pedirle a un algoritmo que tome una decisión, una decisión compleja como la que acabas de describir, con extrema rapidez. Mientras que a un humano se le puede pedir una opinión sobre algo así muy, muy rápidamente.

Sekoul: Así que creo que los algoritmos están diseñados más deliberadamente por lo general. A diferencia de, por ejemplo, un votante que puede no tener acceso a toda la información que pertenece a la decisión que están tratando de hacer. Y ahí es donde creo que los algoritmos son más poderosos. No es tanto en la ejecución, es más en la configuración.

Sekoul: Ahora, si usted toma un ser humano y lo entrena para entender diferentes temas y entender la relación entre esos temas y un resultado, etcétera, etcétera, etcétera. Si de alguna manera pudieras superar toda su formación y experiencia pasadas y convencerles de que miren los datos desapasionadamente y piensen puramente, vale, este es el resultado, y estas son las políticas que probablemente conduzcan a él con un X por ciento de probabilidad. Si se pudiera hacer eso, creo que un ser humano sería mejor que una IA a la hora de tomar decisiones.

¿Es la elección basada en valores un proceso exclusivamente biológico?

Nathan: Bueno, hay toda otra cuestión de valor en esas decisiones. Y la asignación de valor a los diferentes resultados. En un sentido puramente mecánico, siempre que tus resultados sean completamente deliberados, como hablábamos antes, asignar valor no es en realidad tan difícil. Porque se puede comparar lo cerca que un determinado paso me lleva a mi objetivo final.

Nathan: Pero con la toma de decisiones políticas o morales, tienes un problema de valor que se impugna de repente. Probablemente eso suponga todo un reto para las máquinas que intentan tomar este tipo de decisiones.

"¿Es preferible tomar decisiones basadas exclusivamente en pruebas? Como individuos, a veces quizá. Como grupos, probablemente no, porque la gente tiene preferencias. En última instancia, es muy difícil entender de qué se compone una preferencia. Creo que la gente asume que las preferencias se componen puramente de un resultado, que la ciencia es muy buena prediciendo en algunos casos. Pero creo que las preferencias son más complejas que eso".

Sekoul: Creo que ahí es donde la cosa se complica un poco. La elección basada en valores es un campo relativamente nuevo de la neurociencia y la psicología. Y no entendemos muy bien las elecciones basadas en valores. Sabemos que gran parte de ella es impulsada por la corteza prefrontal. Así que parece que estamos bastante deliberada sobre ese tipo de decisiones. Pero también sabemos que, dependiendo de la situación, hay diferentes niveles de efecto de los centros emocionales del cerebro que pueden anular esa elección deliberada.

Sekoul: Hay una dinámica en la forma en que esa decisión se toma en el cerebro. Eso hace que sea muy difícil entender hasta qué punto el resultado se ve afectado por diferentes informaciones. Sobre todo si se tiene en cuenta que muchas de las respuestas emocionales que podemos ver se deben a experiencias que se han formado a lo largo de toda una vida. Esa es la parte que creo que es realmente difícil de operacionalizar en un algoritmo.

Sekoul: Así que usted podría operacionalizar la corteza prefrontal. Podrías decir, estoy tratando de llegar del punto A al punto B, y esta política me ayudará a llegar allí. Y desde una perspectiva puramente corteza prefrontal, todo lo que necesitas hacer es hacer un plan y dibujar la ruta más corta entre los dos puntos. Y esa es tu solución óptima. Un algoritmo puede hacer eso. De nuevo, asumiendo que tienes información finita, y das la misma información a la persona y a la IA.

Sekoul: Una visión puramente prefrontal de cómo la elección basada en el valor se hace podría ser bastante similar entre un algoritmo y el cerebro. Pero tan pronto como se involucran otros centros cerebrales, y por supuesto, no es tan simple, lo estoy reduciendo a eso, pero definitivamente hay un misterio en torno a cómo las emociones y la experiencia pasada, los recuerdos, etcétera, impulsarán esa decisión en diferentes direcciones. Y eso es algo que el algoritmo no puede simular tan fácilmente. Sólo porque no entendemos exactamente cómo se crea ese efecto.

Nathan: Correcto. Tiene mucho sentido. ¿Hay alguna forma de que un algoritmo pueda aliviar parte de la carga cognitiva de la toma de decisiones? ¿Podríamos tomar las partes de nuestro proceso que entendemos y dividirlas en partes que podrían ser asistidas por la tecnología? ¿Podríamos utilizar la inteligencia artificial para simplificar las decisiones que tenemos que tomar?

Sekoul: Yo no diría que es la IA lo que utilizaríamos en ese caso. Es decir, la respuesta es definitivamente sí. Pero hasta cierto punto, es la ciencia la que lo hace. La ciencia lo hace por nosotros como sociedad. Así que nos fijamos en el mejor consenso científico que podemos obtener sobre un tema. Y lo consideramos un dato. Pero no creo que nadie se base sólo en eso para tomar decisiones en su vida.

Sekoul: Entonces, ¿es preferible utilizar una forma puramente basada en la evidencia para tomar decisiones? Como individuos, a veces tal vez. Como grupos, probablemente no, la verdad, porque la gente tiene preferencias. Así que, en última instancia, es muy difícil entender de qué se componen esas preferencias. Creo que la gente asume que las preferencias se componen puramente de un resultado, que la ciencia es muy buena prediciendo en algunos casos. Pero creo que las preferencias son más complejas que eso. ¿Cómo se llega al resultado? ¿Y cuál es la sensación que tienes al llegar ahí?

Nathan: Es interesante que hayas mencionado la ciencia o la tecnología como una forma de facilitar la toma de decisiones. Porque creo que existe una relación muy compleja entre la tecnología que hipotéticamente mejora nuestras vidas, simplifica nuestras decisiones y nos permite obtener mejores resultados más rápidamente. Pero creo que mucha gente también ve la ciencia como algo que está complejizando el mundo. Eso nos da de repente muchas más opciones y abre nuevas fronteras a la toma de decisiones. Pero también hace que nuestro entorno sea mucho más estresante para que lo procese el mismo aparato cognitivo.

¿Cómo manejan los humanos la tecnología avanzada?

Nathan: ¿Crees que tiene algún valor esa preocupación de que las tecnologías avanzadas que el usuario no comprende del todo pongan en peligro su capacidad para abrirse camino en el mundo?

Sekoul: Creo que la tecnología definitivamente abre más puertas, y como esas puertas permiten más acciones y decisiones, crea complejidad, crea carga cognitiva, hace nuestras vidas más difíciles. Pero también nos hace más productivos. Creo que la persona media de hoy es probablemente órdenes de magnitud más productiva, sólo como individuo, y su efecto en el mundo es más profundo, en comparación con alguien de hace cien o mil años. Creo que la tecnología tiene ese efecto amplificador. Y en virtud de la amplificación de nuestro efecto en el mundo, necesariamente trae este aumento de la complejidad, porque estamos básicamente afectando a la realidad de una manera más significativa.

Nathan: Creo que un punto interesante a partir de aquí es que no sólo tenemos más control sobre nuestro mundo gracias a la tecnología, sino que también tenemos control sobre esa tecnología, especialmente sobre las personas que la están diseñando. Y creo que las personas que diseñan la tecnología que facilita nuestra interacción con el mundo desempeñan un papel clave. ¿Cree que hay ciertas formas de diseñar esa tecnología que son beneficiosas? ¿Tal vez como incorporar la ciencia del comportamiento para mejorar esa tecnología? ¿Crees que es un uso valioso para la ciencia del comportamiento?

Sekoul: Sí, definitivamente. Hay diferentes maneras de hacerlo. Quiero decir, el diseño de la experiencia del usuario ha existido desde hace mucho tiempo. Y la creación de interfaces que se prestan mejor a las personas que expresan sus preferencias y opiniones y así sucesivamente. Creo que es algo realmente poderoso.

Sekoul: Creo que acortar la distancia entre el ser humano y el control de la tecnología es muy importante. Eso es, por ejemplo, lo que está haciendo Elon Musk con Neuralink, obviamente muy criticado por varias razones. Pero, en última instancia, la idea de salvar la distancia entre el usuario y la interfaz es muy poderosa. Sin duda, va a ser un tema importante en los próximos 30 años.

Sekoul: Al mismo tiempo, creo que entender lo que la gente quiere cuando utiliza la tecnología es realmente difícil. Así que, por mucho que se pueda acortar distancias y aumentar la participación, aumentar la velocidad a la que la gente interactúa con la tecnología, etcétera. Entender realmente lo que un usuario quiere de esa interacción es bastante difícil.

Sekoul: La razón de esto es que hay deseos a corto plazo y deseos a largo plazo. Y en el corto plazo se podría pensar, está bien, bueno, este usuario es impulsado a una mayor interacción cuando pongo colores brillantes y darles un montón de gustos y comentarios y lo que sea. Eso es genial, pero eso sólo crea un ecosistema de dopamina hedonismo o lo que sea. Básicamente crea una rueda de molino hedónica que la gente va a participar y se vuelven adictos a.

Sekoul: Pero en última instancia, en el largo plazo, la comprensión de lo que crea valor real, desde una perspectiva humanística, en la vida de las personas es algo que el diseño de experiencia de usuario es muy poco probable que alguna vez llegar. Así que creo que ahí es donde puede entrar la ciencia del comportamiento, entendiendo la perspectiva a largo plazo, haciéndonos preguntas más existenciales sobre cuál debería ser nuestra relación con la tecnología.

Sekoul: El problema es que se puede hablar de eso filosóficamente, pero cómo operacionalizar eso, cómo operacionalizar algo que hemos pasado miles de años tratando de entender, eso es realmente difícil. Y creo que eso es algo que empresas como Facebook y Apple y Google están luchando con más y más.

Nathan: ¿Han visto algo en este campo que consista en ofrecer esos resultados valiosos a largo plazo en lugar de aprovecharse de nuestras tendencias hacia ciertos tipos de productos destacados?

Sekoul: Sí, creo que han pasado de ofrecer un valor a muy corto plazo a un valor a medio plazo. Pero creo que el valor a largo plazo, a nivel personal y social, es un reto enorme. ¿Cómo se decide qué es el valor a largo plazo para la sociedad?

Nathan: Es difícil. Creo que una extensión de eso es que, especialmente para las grandes empresas, las personas con mucha influencia sobre el entorno en el que estamos tomando nuestras decisiones, en realidad tienen influencia sobre lo que es ese valor a largo plazo. Quiero decir, sabemos que nuestras preferencias extendidas sobre el mundo son variables y están sujetas a ciertas influencias. Y creo que, sobre todo cuando tenemos a ciertas personas al frente de un lugar como Facebook, donde la gente está involucrada con eso todos los días, pasando varias horas allí todos los días, probablemente tienen cierto control sobre cuáles son las preferencias de la gente.

¿Quién supervisa la ética del rápido cambio tecnológico?

Sekoul: Creo que es interesante que la gente hable cada vez más de que algunas de estas empresas de medios sociales podrían tener intenciones maliciosas. Y tienen una responsabilidad de la que no son plenamente conscientes.

Sekoul: No sé hasta qué punto es cierto. Lo que sí sé es que los avances tecnológicos llegan, se producen cambios de paradigma y, a medida que lo hacen, siempre hay una lucha por ponerse al día. Y creo que el más reciente donde básicamente se conectó a todos en el mundo en el lapso de una década o menos. No creo que ninguna empresa o individuo o grupo de personas podría haber manejado de una buena manera. No creo que sea posible hacerlo lenta y deliberadamente. Simplemente porque no entendemos fundamentalmente lo que eso significa. No entendemos cómo el cerebro trata ese tipo de entorno. Básicamente estamos hechos para interactuar con 50 personas en toda nuestra vida. Así que cuando nos expones a 500, 5.000, cinco millones, eso se vuelve realmente confuso. Y nadie puede saber realmente cómo será. Sobre todo porque, bueno, no está sucediendo a una persona, que está sucediendo a todo el mundo al mismo tiempo. Así que es un sistema muy complejo.

Nathan: Sí. No hay control.

Sekoul: Creo que en lugar de criticar a esas empresas, y por supuesto hay que criticarlas por muchas cosas, pero creo que desde una perspectiva existencial, nosotros, como sociedad, tenemos que pensar más en qué valor queremos de esas tecnologías. Y esto vuelve a la IA. Creo que entender el problema que intentamos resolver es la parte más importante de todo esto.

Sekoul: La gente utiliza la IA como si fuera una herramienta que puede ayudarnos a resolver muchos problemas, pero no hacen suficiente hincapié en la comprensión de los problemas. Piensan en la IA más como la solución, pero sólo es una solución para problemas que están extremadamente bien definidos. Y creo que tenemos que empezar a definir mejor los problemas.

Nathan: ¿Y de quién es la tarea de definir correctamente esos problemas? ¿Es tarea de quien se encarga de intentar mejorar la vida de la gente a través de esta tecnología? ¿O hay un antecedente, es una cuestión política de a quién se le asigna? ¿O es simplemente quien está ahí en ese momento? Si estás al frente de una empresa de tecnología, a medida que explotamos en esta era digital. De repente, es tu problema sólo porque eres el único capaz de resolverlo.

Sekoul: Creo que la gente se encarga literalmente de resolver esos problemas. Hay gente cuyo trabajo es resolver el problema. Y no creo que profundicen lo suficiente. Si estás diseñando una nueva interfaz para el iPhone, por ejemplo, tu trabajo es, literalmente, pensar en ese problema. Pero probablemente has adoptado una visión más a corto plazo. Estás pensando, ¿cómo puedo hacer esta interacción más rápida? ¿Cómo hago que sea más eficaz, eficiente y agradable para el usuario? ¿Cómo puedo vender más teléfonos, etcétera?

Sekoul: Así que en última instancia, los conductores económicos se apresurará la decisión. Y no creo que sea culpa de esas personas. No es que ellos tengan la culpa. Si se sigue esa lógica, se podría decir que son los consumidores y las políticas las que impulsan esos motores económicos. Así que, sin duda, hay lugar para políticas que ralenticen esas decisiones y las hagan un poco más deliberadas. Creo que no entendemos del todo cómo la tecnología, la inteligencia artificial y todas esas cosas nos afectarán a nivel social. Y creo que a veces está bien ir más despacio, tomarse su tiempo y entender las cosas antes de lanzarse a ellas. No creo que eso vaya a ocurrir. Así que se trata más bien de una hipótesis, en la que estaría bien, pero hay muchas razones por las que no puede suceder así como así.

Nathan: Quiero decir, podríamos tomar, y tal vez terminamos con este tipo de estudio de caso, podríamos tomar un estudio de caso de la reacción casi instantánea a COVID-19 moviendo la mayor parte del mundo en línea, la mayor parte de nuestra interacción social en línea. Y no había un punto donde pudiéramos parar y decir, espera, vamos todos a tener una gran discusión de grupo sobre cómo hacer esto correctamente. Si vamos a utilizar Zoom. ¿Cuáles son los efectos potenciales de tomar seis horas de clase al día en línea? No hay un punto de, esto es volver a lo que estábamos diciendo al principio sobre el punto de decisión, no hay un lugar donde se puede parar y decir, espera, esto es exactamente lo que tiene que suceder.

Nathan: Y así, cuando pensamos en la tecnología, especialmente en la tecnología de inteligencia artificial, como algo que sólo se puede aplicar cuando esa decisión está cristalizada y cuando sabemos exactamente qué resultados queremos, nos metemos en una situación delicada. ¿Qué cree que pueden hacer las ciencias del comportamiento para mejorar ese proceso? Ya sea ralentizándolo o simplemente trabajando en el momento tan rápido como podamos para redirigir algunos de los flujos, especialmente los niveles más altos de la gobernanza del diseño y también de los negocios. ¿Qué puede hacer la ciencia del comportamiento en ese momento?

Sekoul: COVID-19 es un buen ejemplo de ello. Porque hubo una avalancha en línea, al menos en el mundo occidental. Creo que hay que matizarlo. Debido a que una gran cantidad de, quiero decir, la mayor parte del mundo no se trasladó a las clases de Zoom. La mayor parte del mundo siguió como antes en muchos sentidos. Porque están por debajo del umbral de pobreza o cerca de él, y no tenían otra opción. Pero para la parte del mundo en la que estamos. Y creo que muchos de los cambios que vimos ocurrieron muy rápidamente.

Sekoul: Y creo que en gran medida, mucho de lo que la tecnología nos ofrece en una situación como esa es una herramienta. Y la forma en que decidimos utilizarla refleja el tipo de problema inmediato que intentamos resolver. En este caso, no podíamos vernos físicamente, así que trasladamos las clases a Internet. Eso es estupendo.

Sekoul: Creo que lo que la ciencia del comportamiento puede hacer en esa situación no es necesariamente impedir que eso ocurra. No creo que eso sea realista. Pero creo que basta con comprender los efectos, tratar de entender qué tipo de preguntas hay que hacerse al hacerlo. Tratar de entender cuáles son los problemas que se están creando y cómo puede afectar a la gente. Básicamente experimentando en torno a este cambio. Y yendo hacia una dirección en la que puedas tomar esas decisiones de forma más deliberada y hacer pequeños ajustes en torno a ellas.

Sekoul: Así, por ejemplo, digamos que usted hizo esto completamente sin preocuparse por la psicología de las personas, que acaba de mover a la gente en línea y usted dice, está bien, chicos, sólo pasar seis horas al día en Zoom, eso es todo. Ese es un escenario. Y podrías terminar con una buena situación o no.

Sekoul: Pero otro escenario es uno donde se mueve todo en línea. Se prueban cosas diferentes. Hay aulas en las que, por ejemplo, se hace una pausa para comer y los niños pueden pasar el rato en Zoom. Otras aulas donde no se hace eso. Hay aulas donde hay un tipo de interacción Zoom. Tal vez tienen pequeños grupos de trabajo donde interactúan en pequeños equipos, otro donde siempre es un gran grupo, etcétera.

Sekoul: Y con el tiempo, creo que respondes a preguntas sobre qué tipos de interacciones son más positivas. Pero creo que ese es el valor que aportará la ciencia del comportamiento. En última instancia, nos proporcionará más datos sobre lo que impulsa las interacciones positivas y los sentimientos positivos.

Sekoul: Una vez más, sin embargo, creo que las preguntas más grandes son en torno a lo que sucede si usted fuera a hacer esto durante décadas. Durante mucho tiempo. Esperemos que no sea el caso aquí. Creo que estamos a meses de que no sea el caso.

Sekoul: Pero para mucho de lo que la tecnología nos está ofreciendo, es el caso. Nos dirigimos hacia un mundo en el que no podemos vivir sin ella. Y ahí es donde la ciencia del comportamiento necesita hacer preguntas más fundamentales. Ahí es donde entra en juego la investigación fundamental de las ciencias del comportamiento. No sólo la investigación en el marco de una empresa, sino la que se realiza en las universidades en torno a cuestiones como ¿qué es ser humano? ¿Y qué nos satisface en última instancia? ¿Cómo procesamos la información?

Sekoul: Creo que los grandes interrogantes de la neurociencia que aún no tienen respuesta van a ser grandes impulsores de lo que decidamos hacer como especie con la tecnología.

Nathan: Muy bien. Es un excelente punto final. Gracias por acompañarme.

About the Authors

Read Next

Notes illustration

Eager to learn about how behavioral science can help your organization?