Expertos advierten que las tecnologías actuales de IA no ofrecen una atención segura, ética ni efectiva en terapias psicológicas, requiriendo supervisión profesional. La proliferación de herramientas de inteligencia artificial en el ámbito de la salud mental ha generado preocupación entre profesionales debido a las limitaciones actuales de estas tecnologías. Aunque se utilizan en aplicaciones que van desde chatbots hasta asistentes emocionales, su capacidad para ofrecer una atención clínica segura y ética aún es cuestionable. Los expertos señalan que muchas de estas herramientas no han sido rigurosamente evaluadas en entornos reales y pueden implicar riesgos para los pacientes si se emplean sin supervisión especializada. Diversas investigaciones evidencian que los modelos de IA pueden promover conductas inapropiadas, gestionar mal situaciones de crisis y crear una falsa sensación de empatía, lo que puede afectar negativamente la recuperación del usuario. Además, fallan en ofrecer un vínculo genuino y seguro, aspecto fundamental en terapias efectivas. La falta de adaptación al contexto, posibles prejuicios y la inseguridad en la protección de datos son otras preocupaciones que limitan su utilidad. En consecuencia, la atención en salud mental sigue siendo una responsabilidad exclusiva de profesionales capacitados, quienes garantizan empatía, confidencialidad y seguridad en cada proceso. La incorporación responsable de IA en la salud mental puede complementar la labor clínica, pero nunca sustituirla en sus funciones esenciales. La regulación y evaluación rigurosa de estas tecnologías son un paso imprescindible para su integración segura.
Temas:
