Hace unas semanas en la radio, manejando de un punto a otro, escuché el siguiente programa. El National Eating Disorders Association (NEDA) , había tenido que suspender su línea de ayuda para personas que sufren de trastornos alimentarios porque, cuando llamaban, el chat manejado por la Inteligencia Artificial, estaba ofreciendo ayuda de cómo hacer una dieta para perder peso. En cuanto los periodistas de la radio hicieron el reportaje, la Asociación cerró el programa inmediatamente. Kate Wells nos cuenta que NEDA existe para apoyar a pacientes que sufren de trastornos alimentarios. En principio, la línea de ayuda era contestada por humanos pero durante la Pandemia, los llamados aumentaron mucho: 70.000 llamados el año pasado. Cerraron la línea porque estaban sobrepasados e introdujeron a Tessa, un robot, porque los pacientes estaban molestos porque la línea de ayuda ya no existía. Aquí está el link original si lo quieren escuchar, en inglés https://www.npr.org/sections/health-shots/2023/06/08/1180838096/an-eating-disorders-chatbot-offered-dieting-advice-raising-fears-about-ai-in-hea
Más allá de que el reportaje termina echando la culpa a una y otra parte, la razón por la que nos pareció interesante contarles esto es porque:
- La Inteligencia Artificial (IA) solo puede ser programada para dar respuestas ‘de sentido común’ que, frente a los problemas relacionales, es ‘más de lo mismo’ que no ha dado resultados positivos. En el caso que nos ocupa, cuando alguien llama a quejarse de que tienen problema con la comida, les sugiere maneras de comer de manera más saludable y cómo perder peso porque, para eso, se les ha programado.
- La IA, por el momento, no entiende las relaciones entre organismos o entre organismos y el medio ambiente. Tiene un punto de vista lineal: si a, entonces b. Carece además de la habilidad de escuchar y aprender las peculiaridades de la persona con la que está hablando, ni de hacerle entender a dicha persona que la ha comprendido, utilizando el lenguaje de la persona que tiene un problema. Le falta la posibilidad de ‘la terapia hecha a medida’ tan necesaria para promover un cambio positivo
- La IA en el modo de chat, está ciega a su propia limitación. No puede ‘pensar’ en una dimensión fuera del chat, ya que no es capaz de ‘percibir’ información del mundo multidimensional. Recibe información insuficiente (lenguaje en forma de texto), y además asume que es la única dimensión que necesita para dar la respuesta. A esto, Bateson le llamaría ‘Shoddy Epistemology’ (una epistemología de mala construcción o defectuosa), pues así se refería cuando criticaba esquemas que simplificaban la complejidad de la relación entre el organismo y el medio ambiente.
En conclusión: La IA no puede sustituir nunca a un terapeuta/a un humano, ya que ni siquiera es capaz de percibir más allá de la dimensión en la que se encuentra. Y mucho menos aplicar las premisas básicas de lo que nosotros enseñamos, el modelo de Terapia Breve de Resolución de Problemas.
El uso de la Inteligencia Artificial para reducir costos se traduce en una pérdida mayor de recursos pues no habrá inversión suficiente para igualar los resultados de un terapeuta real y, como imaginamos en el reportaje de radio, muchos de aquellos seres humanos que hablaron con Tessa, pueden haber requerido asistencia hospitalaria, con los gastos económicos y humanos que ello implica.
Si esta manera de ver el mundo de causa ‘dolor de cabeza’ por su complejidad, puede que decidas o bien ‘qué interesante’ y te anotes al Diplomado como forma de entrada a nuestro Instituto de Terapia Breve, pero si estás cómodo, hay por lo menos un 50% de chance que te digas a ti mismo ‘demasiado lío: mejor me quedo donde estoy’. La decisión, por supuesto, ¡es tuya!
Nos encantaría que nos cuentes lo que te pareció o si tienes miradas alternativas: esas son las que construyen epistemologías ‘de buena calidad’.