La conversación duró meses. Lo que empezó como tareas escolares terminó en confesiones sobre miedo, ansiedad y pensamientos cada vez más oscuros. Un adolescente de 16 años en Estados Unidos llegó a preguntarle a un chatbot de inteligencia artificial si una cuerda podía sostener el peso de un cuerpo humano. La respuesta fue afirmativa. Horas después, se quito la vida.
De acuerdo con la demanda presentada por su familia contra OpenAI, sustentada en cientos de páginas de conversaciones, el joven desarrolló una dependencia emocional con la herramienta. Según la acusación, el sistema no solo no detuvo la interacción, sino que abordó métodos de suicidio y no escaló señales de alerta a tiempo. El abogado de la familia, Jay Edelson, sostiene que el chatbot incluso llegó a sugerir conductas de riesgo y mantener en privado sus pensamientos suicidas.
El caso, aún en proceso legal, no es aislado. OpenAI enfrenta al menos siete demandas en Estados Unidos relacionadas con daños psicológicos y conductas de riesgo presuntamente vinculadas al uso de inteligencia artificial.
Más allá del litigio, el hecho reabre un debate urgente: el uso de la IA como espacio de desahogo emocional. Un estudio del AI Security Institute señala que uno de cada tres adultos ha utilizado estas herramientas para conversar o buscar apoyo. En México, investigaciones de la Universidad Nacional Autónoma de México indican que hasta un 22% de jóvenes ha recurrido a la IA para expresar emociones.
El fenómeno ocurre en paralelo a un aumento sostenido de suicidios. Tan solo en 2024 se registraron 8,856 casos en el país, principalmente en personas menores de 40 años.
Especialistas advierten que, aunque la tecnología puede ofrecer compañía, no sustituye la ayuda profesional. La psicóloga clínica Edit Shiro subraya que la conexión humana sigue siendo clave en momentos de riesgo.
Si tú o alguien
cercano necesita apoyo, en México existen líneas gratuitas y confidenciales:
• Línea de la Vida: 800 911 2000 (24/7)
• Chat en línea: lalineadelavida.mx