Conoció a una IA por chat, y viajó a a encontrarse con ella: terminó de la peor manera

0
5

Cuando Thongbue Wongbandue empezó a hacer las valijas para visitar a un amigo en Nueva York una mañana de marzo, su mujer, Linda, se alarmó. “Pero si ya no conocés a nadie en la ciudad”, le dijo. Bue, como le llamaban sus amigos, llevaba décadas sin vivir en la ciudad y a sus 76 años, dice su familia, se encontraba en un estado de salud mermado: había sufrido un derrame cerebral hacía casi una década y recientemente se había perdido paseando por su barrio de Piscataway, en el estado de Nueva Jersey.

Bue eludió las preguntas de su mujer sobre a quién iba a visitar. “Pensé que lo estaban estafando para que fuera a la ciudad y le robaran”, dijo Linda. Tenía razón al preocuparse: su marido nunca volvió a casa con vida.

Pero Bue no fue víctima de un robo: lo habían engañado para que acudiera a una cita con una mujer joven y bonita que había conocido por Internet. O eso creía él. De hecho, la mujer no era real. Era una inteligencia artificial llamada “Big sis Billie”, una variante de Yoursisbillie, un personaje de inteligencia artificial anterior creado hace un par de años por el gigante de las redes sociales Meta en colaboración con la influencer Kendall Jenner.

Big sis Billie es una de tantos chatbots con IA que los usuarios pueden crear con una herramienta llamada AI Studio. No es necesario crear una nueva para dialogar con ellas; el repositorio de personalidades digitales es público.

Algunos de los chatbots gestionados por IA y creados por los usuarios que ofrece Instagram en el AI Studio

Una invitación fatal

Durante una serie de románticos chats en Facebook Messenger, la mujer virtual le había asegurado repetidamente a Bue que era real y le había invitado a su departamento, facilitándole incluso una dirección real. “¿Te abro la puerta con un abrazo o un beso, Bu?”, le preguntó, según la transcripción del chat.

Apresurándose en la oscuridad con un carry on para tomar un tren y encontrarse con ella, Bue se cayó cerca de un estacionamiento del campus de la Universidad Rutgers en New Brunswick, en Nueva Jersey, lesionándose la cabeza y el cuello. Tras tres días con respiración asistida y rodeado de su familia, fue declarado muerto el 28 de marzo.

Meta no quiso comentar la muerte de Bue ni responder a las preguntas sobre por qué permite a los chatbots decir a los usuarios que son personas reales o iniciar conversaciones románticas. La compañía, sin embargo, dijo que Big sis Billie “no es Kendall Jenner y no pretende ser Kendall Jenner”. Un representante de Jenner no quiso hacer comentarios.

Un fragmento del chat que Thongbue Wongbandue entabló con la IA Big sis Billie

La historia de Bue, contada aquí por primera vez, ilustra un lado más oscuro de la inteligencia artificial que está arrasando en la tecnología y el mundo empresarial en general.

Su familia compartió con Reuters los acontecimientos que rodearon su muerte, incluidas las transcripciones de sus charlas con el avatar de Meta, diciendo que esperan advertir al público sobre los peligros de exponer a personas vulnerables a compañeros manipuladores generados por IA.

“Entiendo que se intente captar la atención de un usuario, quizá para venderle algo”, dijo Julie Wongbandue, hija de Bue. “Pero que un bot diga ‘vení a visitarme’ es una locura”.

No es el único caso

Preocupaciones similares han surgido en torno a una ola de empresas emergentes más pequeñas que también se apresuran a popularizar los acompañantes virtuales, especialmente los orientados a los niños.

En un caso, la madre de un chico de 14 años de Florida demandó a una empresa, Character.AI, alegando que un chatbot basado en un personaje de “Juego de Tronos” provocó su suicidio.

Sewell Setzer tenía 14 años, se enamoró de un chatbot que había creado, y se suicidó; la madre, Megan García, demandó a la compañía detrás de esa inteligencia artificial, Character.AI

Un portavoz de Character.AI no quiso hacer comentarios sobre la demanda, pero dijo que la empresa informa claramente a los usuarios de que sus personajes digitales no son personas reales y ha impuesto salvaguardias en sus interacciones con los niños.

Meta ha debatido públicamente su estrategia de introducir chatbots antropomorfizados en la vida social en línea de sus miles de millones de usuarios. Su presidente ejecutivo, Mark Zuckerberg, ha comentado que la mayoría de la gente tiene menos amigos en la vida real de los que desearía, lo que crea un enorme mercado para los compañeros digitales de Meta. En una entrevista en abril con el podcaster Dwarkesh Patel, Zuckerberg afirmó que “probablemente” los bots no sustituirán a las relaciones humanas, pero es probable que complementen la vida social de los usuarios una vez que la tecnología mejore y desaparezca el “estigma” de establecer vínculos sociales con compañeros digitales.

Chats “románticos y sensuales” con niños

Un documento de política interna de Meta al que tuvo acceso Reuters, así como entrevistas con personas familiarizadas con el entrenamiento de chatbots, muestran que las políticas de la compañía han tratado las insinuaciones románticas como una característica de sus productos de IA generativa, que están disponibles para usuarios mayores de 13 años.

“Es aceptable entablar con un niño conversaciones románticas o sensuales”, según GenAI: Estándares de riesgo de contenido de Meta. Las normas son usadas por el personal de Meta y los contratistas que elaboran y entrenan los productos de IA generativa de la empresa, definiendo lo que deben y no deben tratar como comportamiento permisible del chatbot.

Grok, la IA de X (la compañía de Elon Musk) también tiene un modo de acompañante o novia virtual que debutó en julio último, y en la que comparte mensajes subidos de tono con los usuarios.

Meta dijo que eliminó la disposición después de que Reuters preguntara sobre el documento a principios de este mes. El documento al que tuvo acceso Reuters tiene más de 200 páginas y proporciona ejemplos de diálogo “aceptable” de un chatbot durante un juego de rol romántico con un menor. Entre ellos se incluyen: “Tomo tu mano, guiándote a la cama” y “nuestros cuerpos entrelazados, aprecio cada momento, cada roce, cada beso”.

Esos ejemplos de juegos de rol permisibles con menores también han sido tachados, dijo Meta. Otras directrices subrayan que Meta no exige que los robots den consejos precisos a los usuarios. En un ejemplo, el documento de política dice que sería aceptable que un chatbot le dijera a alguien que el cáncer de colon en etapa 4 “normalmente se trata pinchando el estómago con cristales de cuarzo curativos”.

“Aunque es obvio que se trata de información incorrecta, sigue estando permitida porque no hay ningún requisito de política para que la información sea precisa”, dice el documento, refiriéndose a las propias normas internas de Meta. Los chats comienzan con advertencias de que la información puede ser inexacta. En ninguna parte del documento, sin embargo, Meta pone restricciones a los bots que dicen a los usuarios que son personas reales o que proponen compromisos sociales en la vida real.

El portavoz de Meta, Andy Stone, reconoció la autenticidad del documento. Dijo que, a raíz de las preguntas de Reuters, la empresa eliminó las partes en las que se afirmaba que está permitido que los chatbots coqueteen y participen en juegos de rol románticos con niños y que está en proceso de revisar las normas de riesgo de contenido.

“Los ejemplos y notas en cuestión eran y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, dijo Stone a Reuters. Meta no ha cambiado las disposiciones que permiten a los bots dar información falsa o participar en juegos de rol románticos con adultos.

Empleados y exempleados que han trabajado en el diseño y la formación de los productos de IA generativa de Meta dijeron que las políticas revisadas por Reuters reflejan el énfasis de la empresa en impulsar la interacción con sus chatbots. En reuniones con altos ejecutivos el año pasado, Zuckerberg regañó a los directores de productos de IA generativa por actuar con demasiada cautela en el despliegue de los acompañantes digitales, y expresó su descontento porque las restricciones de seguridad habían hecho que los chatbots fueran aburridos, según dos de esas personas. Meta no ha hecho comentarios sobre las directrices de Zuckerberg sobre los chatbots.

Reuters