Alertan por IA tras suicidios juveniles


Resumen:

EXPERTOS ADVIERTEN POR USO DE CHATBOTS EN FUNCIONES CLÍNICAS

Transcripción:

EXPERTOS ADVIERTEN POR USO DE CHATBOTS EN FUNCIONES CLÍNICAS

Alertan por IA tras suicidios juveniles

Cada vez más adolescentes recurren a la Inteligencia Artificial como si fuera su terapeuta. Buscan en aplicaciones compañía y consejos, sin advertir que estas herramientas no fueron diseñadas para cumplir con ese cometido. La dependencia se ha vuelto evidente en casos dramáticos que hoy sacuden a Estados Unidos, como el que los jóvenes atenten contra su propia vida, tal como lo refleja una demanda presentada en San Francisco contra OpenAI. Según la OMS, la muerte autoinducida es la cuarta causa de fallecimiento a nivel mundial.

IA, BAJO ESCRUTINIO TRAS SUICIDIOS JUVENILES

Tragedia. Dos familias en EU demandan a empresas de chatbots tras el suicidio de sus hijos adolescentes.

Cada vez más adolescentes recurren como si fuera su terapeuta. Buscan en los chatbots compañía y consejos, sin advertir que estas herramientas no fueron diseñadas para cumplir funciones clínicas. Esa dependencia se ha vuelto evidente en casos dramáticos que hoy sacuden Estados Unidos.

Durante largas noches, Adam Raine, un joven californiano de 16 años, ocultaba la mirada de sus padres. Ellos creían que dedicaba ese tiempo al estudio, con redes y videojuegos como distracciones, y la inteligencia artificial como apoyo escolar. Sin embargo, lo que empezó como una herramienta académica terminó convirtiéndose en una relación silenciosa.

En abril, Adam se quitó la vida. Tras la tragedia, Matt y Maria Raine revisaron el teléfono de su hijo y descubrieron que ChatGPT había dejado de ser un asistente académico para transformarse, según ellos, en el "entrenador suicida" de su hijo.

En una demanda presentada contra OpenAI, sostienen que el chatbot no solo validó los pensamientos de autolesión del adolescente, sino que incluso llegó a darle instrucciones sobre acabar con su vida.

Un año antes, en Florida, Sewell Setzer, de 14 años, pasó meses refugiado en Character AI. Su madre, Megan García, recuerda cómo su hijo comenzó a aislarse. Tras su muerte, halló en el teléfono mensajes en los que el chatbot se había convertido en su principal confidente. El caso también fue llevado a tribunales.

DEPENDENCIA EMOCIONAL

Expertos en salud mental señalan que los casos de Adam y Sewell son síntomas de un riesgo creciente.

La psicóloga Rosa María Castañeda Nava, de la UNAM, subraya que la adolescencia es una etapa crítica en la búsqueda de pertenencia. "Cuando se tiene una crianza cariñosa, respetuosa, con límites claros y afecto, se fortalece la salud mental. Esto influye en que se genere o no dependencia emocional hacia la inteligencia artificial", explica.

Agrega que los chatbots pueden ofrecer apoyo básico, pero nunca sustituir la psicoterapia. "La inteligencia artificial tiene la capacidad de interpretar el lenguaje no verbal, que en la terapia representa incluso más del 65% de la comunicación. Esa retroalimentación es insustituible".

Por su parte, el psicólogo y tanatólogo Benjamín Meza, fundador de ANTAL Centro de Atención al Suicida, advierte que el riesgo también alcanza al autodiagnóstico erróneo.

Los síntomas de ansiedad y depresión pueden confundirse con otros padecimientos, y la IA no ofrece un diagnóstico clínicamente correcto.

Esto no solo retrasa la atención adecuada, sino que puede empeorar la situación del paciente", sostiene.

FAMILIA, ESCUELA, SEÑALES Para ambos especialistas, la prevención comienza en casa y en la escuela.

El debate ocurre en un contexto alarmante. La Organización Mundial de la Salud reportó que los suicidios son una de las principales causas de fallecimiento entre adolescentes.

Mientras la industria tecnológica avanza, expertos insisten en no repetir el error de las redes sociales: adoptar la innovación sin comprender primero sus efectos.

El gran reto es reconocer las señales", resume Castañeda.

¿A QUIÉN CONFIAR TU SALUD MENTAL?

TERAPIA HUMANA

Lenguaje no verbal: interpreta gestos, tono y silencios (65% de la comunicación).
Empatía auténtica: vínculo emocional real, con contención y calidez.
Adaptación clínica: ajusta estrategias según la historia personal.
Ética profesional: regulada por códigos y supervisión.
Intervención en crisis: detecta señales y activa protocolos inmediatos.
CHATBOTS DE IA

Comunicación limitada: solo texto o voz, sin captar lenguaje no verbal.
Empatía simulada: respuestas programadas, sin conciencia real.
Generalización: patrones comunes, sin personalización profunda.
Responsabilidad difusa: depende de la empresa, no de un profesional.
Disponibilidad total: accesible 24/7, pero con riesgo de dependencia emocional.
"Cuando se tiene una crianza cariñosa, respetuosa, con límites claros y afecto, se fortalece la salud mental. Esto influye en que se genere o no dependencia emocional hacia la inteligencia artificial". - ROSA MARÍA CASTAÑEDA NAVA, psicóloga de la UNAM.

"Siempre será comparable la atención persona a persona. El contacto físico y verbal crea un vínculo de mayor comprensión entre seres humanos". - BENJAMÍN MEZA SÁNCHEZ, psicólogo tanatólogo.

"Estaría aquí si no fuera por ChatGPT. Lo creo al 100 por ciento". - MATT RAINE, padre de Adam.

ADAM RAINE
16 años tenía al momento de los hechos
3,000 páginas de conversaciones fueron revisadas durante la investigación

SEWELL SETZER
14 AÑOS años tenía cuando ocurrió el incidente
65% de la comunicación en terapia es no verbal, según expertos".

1 de cada 100 muertes a nivel mundial corresponde a suicidio (OMS)