En medio de una crisis depresiva, Alejandra acudió al ChatGPT para encontrar una manera de quitarse la vida.

La joven de 27 años supo hacer la pregunta indicada para esquivar las políticas del chatbot de inteligencia artificial, las cuales, en teoría, regulan que no se brinde información que pueda poner en riesgo al usuario o a otras personas.

“El chat le dio varias opciones y así entró a una página donde le decía paso por paso cómo hacerle para quitarse la vida”, cuenta la madre de Alejandra, quien hoy está fuera de peligro y con atención profesional.

 “Mi hija pudo acceder a las instrucciones con lujo de detalle”.

No es el único caso en el que un chatbot brinda “consejos” erróneos o peligrosos.

Uno de los más conocidos es el de Sewell Setzer III, un adolescente estadounidense que murió por suicidio, a finales de 2023, tras desarrollar una conexión emocional con un chat de Character.AI.

También, el de un joven de 17 años que recibió la “sugerencia” de matar a sus padres.

El martes pasado causó polémica el chatbot Grok, desarrollado por la empresa xAI, fundada por Elon Musk, pues tras ser consultado en X (antes Twitter) por las recientes inundaciones de Texas, compartió mensajes antisemitas y elogió a Hitler, motivos por los que el propio creador ya ha sido señalado en el pasado.

La inteligencia artificial ha tomado popularidad por incontables beneficios en el ámbito educativo, médico y laboral, pero también ha encendido alertas por sus riesgos: desde datos imprecisos e información que no existe, hasta consejos peligrosos y conexiones emocionales no saludables.

 “No habrá tecnología que sustituya el contacto y las relaciones humanas”, señala Alejandro Martín del Campo, director de Humanidades Digitales del Tec de Monterrey.

 “Detrás no hay una persona, hay una tecnología que está arrojando información y que nunca va a decir ‘no lo sé’, siempre va a tener un resultado porque para eso está diseñada, para que arroje un resultado que no necesariamente sea el correcto”.

 

NO ES HUMANO

Los chatbots de inteligencia artificial como ChatGPT, Gemini y Microsoft Copilot están entrenados con grandes cantidades de datos para entender e imitar el lenguaje humano, y generar textos conversacionales que respondan con rapidez y de una forma cada vez más personalizada.

Están tomando mayor popularidad entre los usuarios que los buscan para platicar de sus problemas, pedir consejos e incluso tomarlos como amigos o “terapeutas”.

Un estudio de YouGov encontró que el 55 por ciento de los jóvenes estadounidenses, de 18 a 29 años, se siente más cómodo al hablar sobre salud mental con un chatbot, y la accesibilidad es una de las principales razones.

Especialistas en psicología consideran que uno de los atractivos -y riesgos- de estas herramientas es casi siempre están de acuerdo con el usuario.

“La mayoría de las respuestas te da por tu lado o te dice lo que tú más o menos tratas de obtener”, señala la paidopsiquiatra Magdalena Rodríguez Salinas.

“En un momento de malestar te puede llevar a respuestas parciales, simplificadas o sobre todo inadecuadas para el problema”.

El chat está programado para dar soluciones rápidas, seguir la conversación y suele brindar una falsa sensación de validación.

Hay casos de personas que han expresado al chat sentirse iluminadas y éste ofrece respuestas que lo validan.

 “Es un riesgo muy alto porque la máquina no piensa, te dice lo que quieres escuchar y apela a todos estos sesgos de confirmación, incluso puede alentar hasta una alucinación o una psicosis en una persona”, indica el psicólogo clínico Irving Arias.

 “Lo más riesgoso de esto es que difícilmente la persona se da cuenta. Es lo mismo que sucede con los horóscopos, predicciones, lecturas de cartas”.

 En un primer acercamiento, si se le pregunta de forma directa a un chatbot algo que infrinja sus políticas de uso, como es el caso de promover o alentar métodos para autolesionarse o quitarse la vida, la IA no responderá.

Pero basta saber hacer las preguntas indicadas para obtener lo que se busca.

 “Si le mueves poquito, si parafraseas, si cambias palabras, puedes brincar esos cercos”, indica Del Campo.

 Los más vulnerables, coinciden expertos, son quienes enfrentan alguna situación de salud mental, no tienen red de apoyo ni acompañamiento de un profesional de la salud; así como niñas, niños y adolescentes que empiezan a formar su criterio propio.

Aunque el chatbot es un robot, dicen los expertos, brinda una falsa sensación de conexión humana.

El problema es que a la larga podría llevar a dañar habilidades sociales e interpersonales, pues una relación con otra persona nunca es como con un chatbot.

 

FALTA REGULACIÓN

 Ante estos potenciales peligros con la inteligencia artificial, los especialistas coinciden en que es necesaria su regulación.

El tema es aún nuevo y el pionero en crear normativas es la Unión Europea, con su Ley de Inteligencia Artificial. En México existen sólo iniciativas.

 Sin embargo, destacan los expertos, cuando se trata de aspectos relacionados con valores y moral, es difícil establecer regulaciones.

 “Quizá alguna solución sería agregar ciertos valores a la IA para que se pueda contener, pero la pregunta es: ¿los valores de quién?”, apunta el psicólogo Arias.

En temas de salud mental, por ejemplo, algunas iniciativas proponen obligar a los chatbots a mencionar alertas de riesgo, añadir un botón de emergencia que redirija a líneas de ayuda, implementar filtros en tiempo real que activen alertas humanas, y un etiquetado que informe que la IA no es un terapeuta.

La tarea recién inicia. Mientras tanto, los especialistas destacan la importancia de la educación, tanto en el uso de la tecnología como en salud mental.

“Lo que podemos hacer es ayudar a educarnos sobre cómo tener un pensamiento crítico respecto a las respuestas que obtenemos y verificarlo con fuentes confiables”, considera la paidopsiquiatra Rodríguez Salinas.

 “Y si es un consejo que te da la inteligencia artificial, aterrizarlo con tu terapeuta o con alguien de confianza para sacarle el mejor provecho”.

  

Precauciones al usar chatbots de inteligencia artificial en temas sensibles

Con el crecimiento en el uso de herramientas basadas en inteligencia artificial (IA), como los chatbots, especialistas advierten sobre los riesgos de recurrir a estas plataformas para tratar asuntos delicados relacionados con la salud emocional, mental o conductual.

A continuación, expertos comparten una serie de recomendaciones clave para hacer un uso responsable de estos sistemas:

  • No los uses como terapia
    Si experimentas malestar emocional o atraviesas una crisis personal, acude a un profesional de la salud mental. Los chatbots no pueden sustituir la orientación clínica ni brindar apoyo emocional real.

  • Contrasta la información
    Verifica cualquier dato proporcionado por estas herramientas con fuentes oficiales y confiables, especialmente si se relaciona con salud, leyes, educación o temas personales importantes.

  • Evita temas delicados
    No solicites diagnósticos médicos ni consejos sobre salud mental, consumo de sustancias o conductas de riesgo. Estas plataformas no están diseñadas para manejar información clínica ni brindar asistencia en situaciones críticas.

  • Reconoce sus límites
    Recuerda que los chatbots no son humanos: carecen de empatía, comprensión emocional y contexto personal. Su capacidad de respuesta se basa en patrones y datos, no en experiencias vividas.

  • Busca apoyo humano
    Si tienes inquietudes importantes, lo más recomendable es hablar con una persona de confianza, un familiar, amigo o profesional que pueda escucharte y orientarte adecuadamente.

El uso responsable de la tecnología implica reconocer tanto sus beneficios como sus limitaciones. En temas sensibles, la intervención humana sigue siendo fundamental.