Demasiado poder en las manos equivocadas



 

Cuanto más voy viendo los desarrollos de Meta en el ámbito de la inteligencia artificial y, en particular, en la algoritmia generativa, más me convenzo de que tenemos un serio problema.

Hablamos de la que ha sido probablemente la compañía más irresponsable de la historia reciente de la tecnología, con escándalos en su haber que van desde la manipulación electoral en múltiples países hasta el genocidio. Que además, tras fracasar miserablemente en su intento de apropiarse del término «metaverso» con un intento de vendernos una plataforma cerrada y propietaria sobre la cual muy pocas compañías se plantearon desarrollar nada, cree haber aprendido la lección y pretende convencernos de un supuesto compromiso con el open source y el desarrollo abierto lanzando LLaMA, un algoritmo generativo que, por mucho que pretenda la compañía, ni es open source ni se le parece.

Y ahora, en su reciente presentación en su evento Meta Connect, empezamos a ver que los desarrollos a los que parece apuntar tienen cada vez más que ver con la creación de personajes generativos que adoptan una personalidad con unos rasgos determinados, mucho más ambiciosos que lo que conocimos en nuestras interacciones con asistentes como Siri, Alexa y similares, que pueden adoptar la imagen y personalidad de famosos como Charli D’Amelio, Dwyane Wade, Kendall Jenner, MrBeast, Snoop Dogg, Tom Brady, o Paris Hilton tras llegar a acuerdos económicos con ellos, y que pueden comportarse como «amigos» del usuario.

¿De qué estamos hablando? Básicamente, de la red social sintética. Un desarrollo que no es nuevo, todos probablemente hemos tenido alguna vez «amigos virtuales» en algún servicio online además de, seguramente, muchos más «amigos imaginarios» en forma de perfiles creados en alguna fábrica de bots en un país con bajos costes laborales unitarios, pero que ahora, con la llegada de algoritmos generativos capaces de llevar estas personalidades a extremos razonablemente creíbles, puede, en manos de una compañía sin ningún atisbo de ética como Meta, convertirse en un problema.

¿Quién desengancha de la red a un fan de una personalidad concreta que se encuentra, ahora, con una atención completamente personalizada, que le contesta 24×7, y que además le vende cosas? Estos modelos pueden evolucionar para convertirse en compañeros con rasgos de personalidad, que podrían brindar apoyo emocional, entrenamiento, tutoría o terapia a los usuarios, algo especialmente valioso para personas solitarias o aisladas. Pero de repente, la idea de una personalidad sintética que pueda proporcionar compañía a quienes están solos o necesitan asistencia en algún tema se convierte, en manos de Meta, en la perfecta herramienta para colocar a sus anunciantes, con embajadores de marca sintéticos armados con un excelente poder de convicción.

A poco que desarrollemos la idea, nos encontraremos con personajes capaces ya no solo de vendernos algo, sino también de compartir nuestros miedos o, por qué no, de convencernos para votar a un partido o a otro. Y con la posibilidad, incluso, de no revelar qué personalidades son sintéticas y cuáles reales, con el fin de poder simular e impostar movimientos sociales determinados, crear estados de opinión, etc. Nada, recordemos, que esta compañía no haya hecho antes.

¿Ciencia-ficción? ¿Paranoias de hater? Tecnológicamente, las herramientas ya están ahí, y en manos de una compañía que nunca ha tenido el más mínimo escrúpulo para desarrollar herramientas similares y venderlas al mejor postor. La misma compañía que hace años ensayaba maneras de influenciar el estado de ánimo de sus usuarios mediante el filtrado selectivo de sus timelines.

Una herramienta capaz de crear personalidades sintéticas creíbles y de ponerlos a interactuar a través de redes sociales puede ser interesante, e incluso potencialmente inevitable. Podría tener muchas posibles aplicaciones, muchas de ellas interesantes y positivas, y muchas otras cuestionables que, seguramente y en función de su potencial, deberíamos pensar en regular. Pero si de algo estoy seguro es de que ese tipo de herramienta, en manos de una compañía que ha dado ya tantísimas pruebas de ser lo que es, puede convertirse en un verdadero problema. Y estoy desgraciadamente seguro de que tendré unas cuantas oportunidades de volver a vincular este artículo más adelante.


This article is also available in English on my Medium page, «Too much power in the wrong hands«


Original Post>