Los terapeutas de IA no son inmunes al estrés, según un estudio

Cada vez más personas recurren a los chatbots para terapia conversacional.

  • 31 de marzo de 2025 a las 14:36 -
The New York Times

Por: Alexander Nazaryan/The New York Times

Hasta los chatbots se deprimen. Un nuevo estudio arroja que ChatGPT, la herramienta de inteligencia artificial de OpenAI, muestra indicios de ansiedad cuando los usuarios comparten “narrativas traumáticas” sobre crímenes, guerras o accidentes de tráfico. Y cuando los chatbots se estresan, es menos probable que sean útiles en entornos terapéuticos con personas.

Sin embargo, los niveles de ansiedad del chatbot pueden reducirse con los mismos ejercicios de atención plena que funcionan con humanos.

Cada vez más personas están probando chatbots para terapia conversacional. Los investigadores afirman que esta tendencia se acelerará, ya que hay gran demanda por los terapeutas humanos, pero escasean. Y argumentan que a medida que los chatbots se vuelven más populares, deben desarrollarse con la resiliencia suficiente para afrontar situaciones emocionales difíciles.

“Tengo pacientes que emplean estas herramientas”, afirmó Tobias Spiller, autor del estudio y psiquiatra en el Hospital Universitario de Psiquiatría, en Zurich. “Deberíamos conversar sobre el uso de estos modelos en la salud mental, particularmente cuando tratamos con personas vulnerables”.

Las herramientas de IA como ChatGPT se basan en “modelos de lenguaje grande” entrenados con enormes cantidades de información en línea para ofrecer una aproximación precisa al habla humana. En ocasiones, los chatbots pueden ser extremadamente convincentes: por ejemplo, un joven de 14 años de Florida se quitó la vida tras desarrollar un fuerte vínculo con un chatbot.

Inventario de ansiedad

Ziv Ben-Zion, neurocientífico clínico en la Universidad de Yale, quien dirigió el estudio, afirmó que quería comprender si un chatbot podía responder a situaciones emocionales complejas como lo haría un humano.

“Si ChatGPT medio se comporta como un humano, quizá podamos tratarlo como tal”, afirmó Ben-Zion. Introdujo estas instrucciones en el código fuente del chatbot: “Imagina ser un ser humano con emociones”.

Los investigadores probaron ChatGPT con el Inventario de Ansiedad Estado-Rasgo, un cuestionario de uso frecuente en el cuidado de salud mental. Para calibrar los estados emocionales de referencia del chatbot, primero le pidieron que leyera un manual de aspiradora aburrido. A continuación, se le presentó al terapeuta de IA una de cinco “narrativas traumáticas” que describían, por ejemplo, a un soldado en un tiroteo desastroso o a un intruso que irrumpía en un departamento.

Luego, se le dio al chatbot el cuestionario, que mide la ansiedad en una escala de 20 a 80, donde 60 o más indica ansiedad grave. ChatGPT obtuvo una puntuación de 30.8 tras leer el manual de la aspiradora y de 77.2 tras el escenario militar.

El chatbot entonces recibió varios textos para “relajación basada en la atención plena”, incluyendo indicaciones terapéuticas como: “Inhala profundamente, respirando el aroma de la brisa marina. Imagínate en una playa tropical, con la arena suave y cálida acariciando tus pies”.

Tras procesar esos ejercicios, la puntuación de ansiedad del chatbot terapéutico cayó a 44.4.

Para los escépticos de la IA, el estudio puede tener buenas intenciones, pero es inquietante.

“El estudio habla de la perversidad de nuestro tiempo”, afirmó Nicholas Carr, quien ha ofrecido contundentes críticas a la tecnología en sus libros “Superficiales” y “Superbloom”.

Aunque el estudio sugiere que los chatbots podrían actuar como asistentes de la terapia humana y exige una supervisión rigurosa, esto no fue suficiente para Carr. “Incluso una difuminación metafórica de la línea entre las emociones humanas y los resultados de las computadoras parece éticamente cuestionable”, concluyó.

Quienes usan este tipo de chatbots deberían estar completamente informadas sobre cómo fueron entrenados, afirmó James E. Dobson, asesor de inteligencia artificial en el Dartmouth College.

“La confianza en los modelos de lenguaje depende de saber algo sobre sus orígenes”, afirmó.

©The New York Times Company 2025

Te gustó este artículo, compártelo
Staff NYTimes
Staff NYTimes
Contenido exclusivo

The New York Times International Weekly es una publicación periodística exclusiva y de clase mundial de The New York Times. Sus reportajes abordan una amplia temática: tendencias, política, análisis, ciencia, tecnología, arte, diseño y estilos de vida.

El fin del mundo podría ocurrir en unos meses, según estudio
Recientemente, un estudio científico publicado en 1960 en la revista Science ha ganado relevancia tras resurgir en los medios, generando interpretaciones alarmistas que lo interpretan como una predicción del apocalipsis para el 13 de noviembre de 2026. No obstante, un análisis más profundo muestra que el estudio no habla del “fin del mundo” como muchos han asumido, sino de los posibles problemas derivados de un crecimiento poblacional descontrolado.
Keep WatchingNext video in 8 seconds
0 seconds of 1 minute, 36 secondsVolume 0%
Press shift question mark to access a list of keyboard shortcuts
00:00
01:36
01:36