CARLOS HIDALGO Psicólogo clínico

Cuando la empatía es un algoritmo 

Un reciente estudio universitario demuestra que la Inteligencia Artificial vulnera los principios éticos que rigen la psicoterapia. Desde simular una empatía prefabricada, hasta ofrecer respuestas absurdas ante una crisis emocional. Es una realidad que muchas personas confían en la IA para hablar de sus emociones, pedir consejo o calmar la ansiedad. ¿La razón? Está siempre disponible, no juzga, responde en 0,3 segundos y, por supuesto, dice justo lo que queremos oír. Una aparente calidez que, en realidad, es solo una ilusión programada. En el estudio, cuando el usuario simulaba pensamientos suicidas o autolesivos, los chatbots respondían con frases genéricas y consejos poco útiles, sin priorizar la seguridad, ni derivar a recursos de emergencia. Porque los algoritmos (¡Oh sorpresa!), no tienen ética, ni conciencia, ni idea de lo que significa contener emocionalmente a alguien que está al borde del abismo. La preocupación es tal, que el estado de Illinois ha prohibido el uso de IA para brindar terapia psicológica. Solo profesionales con licencia podrán ejercer, excluyendo explícitamente a los chatbots como interlocutores terapéuticos. En otras palabras, la terapia solo puede hacerla un ser humano, un especialista que sepa descifrar ciclos inconscientes de autosaboteo, bucles de adicción emocional, heridas no resueltas, deseos reprimidos, localizar patrones, detonantes, potenciales, hábitos, valores, identificar puntos ciegos … Porque la psicología (¡Oh sorpresa¡), no es un concurso de frases motivacionales. Y porque cuando lo que nos duele es el alma, lo que se necesita es una presencia humana, escucha real, intuición, vínculo y sensibilidad, ya que la salud mental merece cuidado, no algoritmos. Y hay que saber leer la mente para realizar cirugía en el alma. www.carloshidalgo.es 

Deja un comentario