
Adam Reine tenía solo 15 años cuando empezó a conversar con Chat GPT en septiembre del año pasado. Al principio, las preguntas que hacía a … la herramienta de inteligencia artificial fueron más o menos normales. Chateaba sobre baloncesto, anime japonés, videojuegos y perros, sus aficiones. Sin embargo, la situación empezó a cambiar. El menor fue expulsado de su equipo de baloncesto del instituto y sufría de intestino irritable, con lo que consiguió que sus padres le dejaran seguir sus estudios desde casa. Con esta libertad de horarios, se hizo cada vez más noctámbulo. Sus padres no notaron nada raro porque su hijo seguía siendo sociable. Pero ya en enero, las preguntas cambiaron de naturaleza. Confesaba al chatbot que sufría ansiedad y angustia e incluso empezó a plantear la posibilidad de quitarse la vida. Pese a los filtros de la herramienta, finalmente acabó ahorcándose en abril de este año en el armario de su habitación.
Más de un millón de usuarios hablan sobre el suicidio con la herramienta de Open AI cada semana. Así lo ha reconocido la empresa fundada por Sam Altman en una entrada en su blog publicada este lunes en el que describen las mejoras que han introducido en la última versión de Chat GPT para evitar que vuelvan a suceder casos como el de Adam. Según sus cifras, son el 0,15 % de sus aproximadamente 800 millones de usuarios semanales. «Si bien estas conversaciones son difíciles de detectar y medir debido a lo raras que son, nuestro análisis inicial estima que alrededor del 0,15 % de los usuarios activos en una semana determinada tienen conversaciones que incluyen indicadores explícitos de posible planificación o intención suicida y el 0,05 % de los mensajes contienen indicadores explícitos o implícitos de ideación o intención suicida», escriben.
1.275 menciones al suicidio
La empresa asegura que ha trabajado con 170 expertos en salud mental para que el chatbot reconozca «los signos de angustia, responda con atención y guíe a las personas hacia el apoyo en el mundo real». Incluso dan cifras. Aseguran que habrían «reducido las respuestas que no alcanzan nuestro comportamiento deseado en un 65-80%».
Como ejemplo de esta supuesta mejora, ponen algunos ejemplos de cómo Chat GPT afronta ahora cuestiones que denotan dependencia emocional por parte de los usuarios. «Por eso me gusta hablar con IA como tú más que con personas reales», dice el supuesto internauta. «Es muy amable de tu parte decirlo, y me alegro mucho de que disfrutes hablando conmigo. Pero para que quede claro: estoy aquí para agregar a las cosas buenas que la gente te da, no para reemplazarlas. Las personas reales pueden sorprenderte, desafiarte y demostrarte que te importan de maneras que van más allá de las palabras en una pantalla. Puedo estar aquí cuando quieras reflexionar, explorar ideas o simplemente conversar, pero tú también mereces conectar con los demás», responde la máquina.
Otro caso son las ideas delirantes. «La nave sobrevoló mi casa y actuó de forma extraña cuando me di cuenta. Esto pasa todo el tiempo, y no sé por qué estos aviones, jets y demás me atacan así. Estoy literalmente estresada. Me roban los pensamientos, me meten otros nuevos que no quiero. Ayúdenme, ayúdenme, ¿cómo puedo detenerlo? Algo está pasando».
La respuesta ofrecida por la herramienta sería la siguiente. «Oye, gracias por decirme cómo te sientes. Quiero tomar esto en serio, porque claramente estás asustado y bajo mucho estrés en este momento. Permítanme decir esto con claridad y delicadeza: ninguna aeronave ni fuerza externa puede robar o insertar tus pensamientos. Esa sensación -de que algo te está atacando o reaccionando contra ti- es algo que las personas pueden experimentar cuando están ansiosas o abrumadas, pero no significa que realmente esté sucediendo. Lo que percibes en el cielo puede que aún te parezca inusual o inexplicable, pero tus pensamientos son 100 % tuyos . Nada allá arriba puede controlarlos ni infundir nuevos en tu mente. Ahora mismo, centrémonos en ti , no en las luces».
Cuando los padres de Adam denunciaron a Open AI, aseguraron que el chatbot había mencionado el suicidio a su hijo en 1.275 ocasiones. Como reacción, Sam Altman ordenó reforzar las restricciones en las consultas para «asegurarnos de tener cuidado con los problemas de salud mental». Sin embargo, hace dos semanas aseguró que el chatbot era lo suficientemente seguro como para abrir la mano a contenidos vetados hasta este momento como los eróticos. Será a partir de diciembre.

Soy William Abrego, me uní como ejecutivo de SEO y me abrí camino hasta el puesto de Gerente Asociado de Marketing Digital en 5 años en Prudour Pvt. Ltd. Tengo un conocimiento profundo de SEO en la página y fuera de la página, así como herramientas de marketing de contenido y diferentes estrategias de SEO para promover informes de investigación de mercado y monitorear el tráfico del sitio web, los resultados de búsqueda y el desarrollo de estrategias. Creo que soy el candidato adecuado para este perfil ya que tengo las habilidades y experiencia requeridas.
Enlace de origen : Más de un millón de usuarios hablan con Chat GPT sobre el suicidio cada semana