¿Conversas con ChatGPT cuando te sientes mal? Cada vez más personas en Chile —el país que lidera el uso de inteligencia artificial en Latinoamérica— están utilizando estas herramientas para hablar de emociones o buscar consejo. Pero ¿es realmente una buena idea?
Expertas UC tienen algo que decir. Tres académicas de la Universidad Católica de Chile explican que, aunque la IA puede ser útil como apoyo emocional ocasional, no sustituye en ningún caso la atención profesional en salud mental.
Leer más WhatsApp comienza a incluir anuncios, pero no en los chats personales
“Nos acostumbramos a la respuesta rápida”. La psicóloga UC Paula Errázuriz advierte que sus pacientes llegan a terapia luego de conversar con ChatGPT. “Puede hacernos sentir escuchados, pero no reemplaza a un profesional”, aclara. Especialmente en casos graves o de riesgo vital, confiar en la IA es un peligro.
La paradoja de la compañía automatizada. Para la académica en ética aplicada Gabriela Arriagada-Bruneau, hay un problema de fondo: “Buscamos consuelo emocional en un mundo automatizado”. Aunque conversar con un bot puede ser más fácil que hablar con un amigo, eso no lo hace mejor.
Diseñado para mantener al usuario enganchado
El problema es que la IA está hecha para enganchar, no para cuidar. La investigadora en inteligencia artificial Jocelyn Dunstan recalca que estos sistemas sirven para ordenar ideas o detectar urgencias, pero nunca para reemplazar terapia. Además, “su negocio es mantenernos conversando, no dar consejos responsables”.
La ChatGPT también está sesgada. “Muchos de estos sistemas están entrenados con textos anglosajones y racionalistas. No entienden bien el contexto cultural o emocional del usuario chileno”, agrega Arriagada-Bruneau.
¿Entonces, qué hacemos? La solución no es abandonar la tecnología, sino educar a la ciudadanía sobre sus límites y desarrollar plataformas con diseños éticos que alerten cuando se detecten crisis emocionales, sugieran contacto profesional o limiten la interacción.
Innovar con empatía también es posible. Dunstan propone crear clasificadores que indiquen el nivel de urgencia emocional según las conversaciones, para derivar a tiempo. Y Errázuriz recuerda que el acceso a salud mental sigue siendo un gran obstáculo, pero hay alternativas de bajo costo como la clínica Psiconecta UC.
El llamado final es humano. “Aunque el alivio con IA sea rápido, no dejemos de esforzarnos por mantener los vínculos reales”, dice Errázuriz. Si no puedes ver a alguien en persona, hazlo por videollamada, por teléfono, y si no queda otra, por WhatsApp. Pero que no se pierda el contacto humano.
Porque, aunque la IA sepa mucho, hay heridas que sólo sana una conversación de verdad.
Por Jocelyn Dunstan
Seguir leyendo
- Fedeagro pidió fijar precios mínimos de sustentación en el campo
- Bebé de un año muere tras caer en pozo de agua
- Yván Gil dice que Venezuela ha sido víctima de «discursos de odio» de EEUU
- Madre venezolana es asesinada frente a sus hijas en Chile +vídeo
- Colombia, los venezolanos venimos del futuro
Visítanos en Twitter e Instagram