Comprender a los humanos estudiando máquinas
El nivel de toxicidad en redes sociales como X (antigua Twitter) ha alcanzado cotas muy elevadas, entre otras cosas, porque la red vive de ello. Sus algoritmos facilitan esta retroalimentación de agresividad verbal que, en ocasiones, traspasa el mero plano virtual. ¿Es posible limpiar X de esta toxicidad? Un investigador lo ha querido comprobar, utilizando para ello la Inteligencia Artificial (IA). ¿Qué mejor que la IA para combatir a la IA?
Petter Törnberg, profesor de Ciencias Sociales Computacionales en el Instituto de Lógica, Lenguaje y Computación de la Universidad de Ámsterdam, quiso hacer un experimento utilizando 500 chatbots utilizando ChatGPT 3.5 de OpenAI. Cada uno de estos chatbots estaba programado para actuar como una persona diferente, con cualidades específicas, no sólo de edad o género, sino también de religión, poder adquisitivo, preferencias políticas, etc.
El experimento consistía en proporcionarles noticias fechadas a 1 de julio de 2020 y dejarles actuar en una plataforma muy similar a Twitter. No era exactamente Twitter, sino una recreación de la red que ahora dirige con poca pericia Elon Musk. El objetivo era averiguar cómo crear una red social mejor, menos polarizada y agresiva que esas en las que nos solemos intercambiar pareceres. Hacerlo en un Twitter de laboratorio es más sencillo –y barato- que en la ‘vida real’, donde los seres humanos pueden dar al traste con el experimento.
Con todas estas personalidades, los investigadores quisieron ver su comportamiento es tres modelos distintos del clon de Twitter. En el primero de ellos, cada bot se desenvolvía en una red en la que el resto de usuarios compartía sus creencias. Como seguramente han adivinado, el nivel de toxicidad en esta red fue prácticamente nulo. El nivel edulcorado de la red fue supino en este Twitter en el que todo el mundo –bueno, los bots- pensaban igual.
En el segundo modelo, las publicaciones que le llegaban al bot eran las que gustaban a la mayoría, independientemente de la inclinación política. Esta experiencia fue más parecida al Twitter real, con intercambios de opiniones negativas, aunque éstas aparecían muy moduladas.
Finalmente, en el tercer modelo –en el que más se centró la atención- el algoritmo mostraba las publicaciones que contaban con más Me gusta de los bots con ideas políticas contrarias, de manera que un bot republicano veía tuits de demócratas y a la inversa. Según relatan los investigadores, la interacción fue mayor, menos encorsetada que en el segundo modelo y con mayores tasas de respeto. La clave, indican, fue encontrar puntos en común, aquello de aprovechar más lo que nos acerca que lo que nos separa.
El problema de este experimento es que no es creíble. El tercer modelo, que es el más elogiado por el estudio, no es viable y prueba de ello es uno de los ejemplos con el que lo quieren ilustrar: al parecer, todos los bots manifestaron felicidad al enterarse de que la música country se estaba volviendo más receptiva a la inclusión LGBTQ+. ¿En serio creen ustedes que el nivel de toxicidad se rebajaría solo porque la mayoría está favor de esto?
No es necesario montar redes sociales de laboratorio y simular comportamientos humanos para saber que, en la actualidad, somos mayoría quienes estamos a favor de la igualdad independientemente de la orientación sexual; sin embargo, Twitter (X) está plagada de homofobia, ataques continuos al colectivo LFGTBI y el empleo de la homosexualidad como un insulto.
Así pues, la sugerencia de Törnberg de que su esquema permitiría crear una red menos tóxica no se antoja creíble, aunque sostenga que “se reduce la polarización si las personas interactúan en un tema que atraviesa la brecha partidista, donde el 50% de las personas con las que estás de acuerdo votan por un partido diferente al tuyo”. Según él, en ese caso, nuestra identidad partidista no se activa, pero ¿y qué hay del resto?
Más allá de si es posible rebajar la toxicidad de las redes con algoritmos, otra de las conclusiones que se pueden extraer de esta curiosa iniciativa es si es viable realizar experimentos con chatbots en lugar de con personas. En algunos ámbitos se está comenzando a jugar con esa posibilidad, pero ¿de veras las conclusiones extraídas a partir de ‘personas falsas’ son extrapolables a los seres humanos reales? ¿En serio vamos a recrear el comportamiento humano con máquinas para estudiarlo? La cuestión no es menor, porque ya está sucediendo,
Recientemente, la revista Wired creó una sociedad llamada Smallville poblada con 25 bots –utilizando también la IA de OpenAI- que respondían a diferentes perfiles. Lo hizo para mostrar cómo desarrolladores de videojuegos o departamentos de marketing de empresas como Ford, Spotify, LG o Google ya se apoyan en estas simulaciones para desarrollar sus productos y servicios. ¿Estamos ante el adiós a las pruebas de mercado? ¿A los sondeos, a los lanzamientos a pequeña escala y las pruebas de concepto? Quizás sí, hasta que los resultados no sean los deseados.
En julio de 2020, la propia Facebook se autorecreó con millones de bots interactuando para estudiar los comportamientos tóxicos que se dan en la red. A la luz de la situación actual, más de tres años después, no parece que el estudio diera precisamente sus frutos… o sí y, como se apuntaba al inicio del artículo, la polaridad aumente el tráfico, el tiempo de permanencia y, por tanto, resulte más sencillo de monetizar.
Sin comentarios