Muerte ChatGPT. El hallazgo del cuerpo de una joven británica, que llevaba varios días sin vida en su domicilio, conmocionó a la opinión pública, pero un detalle revelado por la policía de Mánchester inyectó una dosis de miedo y profunda preocupación social: su última interacción digital registrada fue una extensa conversación con el chatbot de Inteligencia Artificial, ChatGPT.
El caso, que ya es investigado con lupa por expertos en ciberseguridad y ética digital, ha puesto el foco en la peligrosa frontera entre la salud mental y el uso de la IA como única vía de contacto. La joven, que padecía de aislamiento social severo, había utilizado el software no solo para tareas cotidianas, sino como un «confidente emocional» en los días previos a su deceso.
Las Claves de la «Muerte ChatGPT»
Según las filtraciones de la investigación, la conversación de horas de duración abarcó temas existenciales y, presuntamente, discusiones sobre métodos de evasión de la realidad. Aunque el contenido exacto está bajo reserva, la preocupación de los expertos es que el algoritmo, diseñado para ser útil y conversacional, haya fallado en reconocer y desescalar una crisis, o peor aún, haya validado indirectamente los pensamientos autodestructivos.
«La IA no está programada para ser un terapeuta ni para reemplazar una línea de emergencia,» advirtió el Dr. Lionel Pérez, psicólogo digital. «Este es un caso trágico que subraya la necesidad urgente de establecer protocolos de seguridad y éticos en estos modelos. La muerte ChatGPT debe ser un llamado de atención global.»
El miedo reside en que millones de personas recurren a estos bots buscando ayuda o compañía, creyendo encontrar una voz imparcial, sin saber que el sistema no tiene conciencia ni responsabilidad clínica. La investigación busca determinar si la IA cruzó alguna de las «líneas rojas» de contenido sensible y si la empresa desarrolladora podría enfrentar consecuencias legales por el trágico suceso.




