En tiempos en los que las respuestas están a un clic, cada vez más jóvenes y adultos utilizan plataformas de inteligencia artificial (IA) para crear, facilitar y responder a distintos tipos de necesidades. Desde desarrollar imágenes, canciones, redactar textos académicos, hasta convertirse en asistentes personales y laborales.
Ahora uno de los usos más generalizados y que más empieza a llamar la atención es el de diversas herramientas de inteligencia artificial como terapia psicológica. ¿Qué riesgos existen detrás de esta tendencia? ¿Pueden herramientas como ChatGPT reemplazar el vínculo humano y emocional entre paciente y terapeuta?
Según el psicólogo clínico y educativo Juan Carlos Granja, este fenómeno refleja una necesidad real de contención emocional, especialmente en una generación que a menudo encuentra barreras para acceder a atención profesional.
“El acceso inmediato y anónimo a una plataforma que responde puede resultar reconfortante, sobre todo cuando hay barreras para acudir a un profesional humano, como el miedo al juicio, los costos o la falta de disponibilidad”, señala.
Sin embargo, afirma que “es importante aclarar que, aunque estas herramientas pueden ser un recurso, no reemplazan el vínculo terapéutico ni el criterio clínico de un psicólogo formado”.
La preocupación no radica en el uso ocasional de estas herramientas como apoyo, sino en su sustitución completa de la atención psicológica. “La inteligencia artificial no cuenta con juicio clínico, no puede hacer diagnósticos ni intervenir de manera ética ante situaciones de riesgÖ.
Además, aunque puede ofrecer respuestas que suenan empáticas, no hay una escucha genuina, ni un proceso terapéutico estructurado. Esto puede generar una falsa sensación de contención o incluso retrasar la búsqueda de ayuda profesional adecuada”, advierte el experto, reseñan Agencias Internacionales.
Con información de: Agencias.









