Header Ads

¿Un chatbot puede sustituir a un psicólogo?


Dos empresas americanas quieren crear un psicólogo virtual usando inteligencia artificial. Están desarrollando unos chatbot que respondan como lo haría un coach, un psicólogo o un amigo.

En Estados Unidos casi un 7% de la población sufre depresión.  La psicoterapia ha demostrado su capacidad de mejorar el estado de estos pacientes, y el apoyo social es parte esencial del tratamiento.

Del diván a tu bolsillo


Desde hace tiempo existen consultas psicológicas virtuales en los Estados Unidos, como Ginger.io donde podemos encontrar desde coach (una especie de "entrenador emocional"), a psicólogos o psiquiatras, con los que realizar sesiones virtuales. Una vez abonados al servicio (desde 129 €/mes), podremos ponernos en contacto con profesionales de carne y hueso.

Pero en la Virtual Assistant Summit organizada por RE•WORK, se plantearon si un chatbot podría ayudar a personas afectadas por trastornos mentales o al menos dar un apoyo en su día a día.

Los asistentes virtuales conversacionales (chatbots) son herramientas digitales especializadas en imitar conversaciones más o menos humanas, según su complejidad. Un ejemplo de asistentes conversacionales conocido por todos es Siri, de Apple. Hay muchos otros como Amy de x.ai o Alizia, si queréis uno en español.

Chatbots - psicólogos en el bolsillo


Joy, parece que sabe español
Si pueden imitar la conversación con un humano, los asistentes virtuales podrían adquirir las habilidades de escucha y comprensión necesarias para mantener una charla profesional. Pero ¿pueden entrenarse lo suficiente como para ayudar a tratar a pacientes con depresión u otros trastornos?

Es lo que intentan en Joy. Este chatbot creado por Danny Freed (de 23 años), funciona en el Messenger de Facebook. Reconoce las emociones básicas (positivas o negativas) de los mensajes y lanza una pregunta para buscar la confirmación de su hipótesis del tipo "te noto enfadado, ¿qué te pasa?". Una vez al día pregunta al usuario sobre su jornada, utiliza las respuestas para identificar las emociones y propone consejos para mejorar el estado del usuario.

Como dice su creador, el objetivo es seguir desarrollando el sistema para hacerlo cada vez más eficaz en su misión de dar el máximo apoyo a las personas que lo quieran utilizar.

Un chatbot con personalidad propia



En la misma conferencia, otra pequeña empresa llamada Replika ha despertado interés. Ofrecen un servicio de apoyo continuo a través de un chatbot capaz de aprender del histórico de la conversación, no sólo los hábitos, si no también la forma de escribir del usuario. Luego reproducirá este estilo y usará los nuestras respuestas para preguntarnos también por tareas que teníamos pendientes.

La creadora de esta herramienta, Eugenia Kuyda, quiso crear la idea tras perder a una amiga muy cercana. Así, imaginó un chatbot que aprendiera a expresarse como lo hacía su amiga y así poder manteniendo las conversaciones que tenía con ella. ¿Esta historia os recuerda a algo?

Si el chatbot pudo ayudar a esta joven empresaria a sobrellevar el luto tras la muerte de una amiga, cabe plantearse la duda sobre el impacto que puede tener una herramienta de este tipo sobre la mente de alguien sufriendo un trastorno mental. Además, no parece que un gran número de personas pudiera aceptar "seguir existiendo" en forma de chatbot. Os recomiendo encarecidamente el episodio Be Right Back de Black Mirror si queréis tener más elementos para reflexionar sobre este tema.


De momento, debemos tomar con muchas precauciones cualquier intento de actuar sobre pacientes con herramientas que todavía no somos capaces de controlar. Y si no que se lo cuenten a Microsoft, cuyo proyecto de chatbot TayTweets tuvo que ser retirado porque un grupo de usuarios la convirtió en una racista, misógina y homófoba en menos de 24 horas.

No hay comentarios

Siéntete libre de expresar tus opiniones pero muestra respeto por los demás y por nuestra politica de contenido.

Con la tecnología de Blogger.