Terapia com inteligência artificial

por BBC Brasil.
Adaptado e comentado por Susane Londero e José Cavalcante.
Tempo de leitura: 6 minutos

#paratodasverem: as mãos de uma pessoa que segura um aparelho celular. o aparelho está de lado e não é possível ver a tela. O fundo é preto.

No texto, você lerá que:

  • Há uma busca crescente por ajuda psicológica em plataformas com chatbots.

  • O grande número de pessoas que utilizam o bot pode apontar para elevados níveis de problemas de saúde mental e falta de recursos disponíveis.

  • Embora possa ser útil, a eficácia é questionável e os conselhos podem ser inadequados.

  • Em alguns lugares os bots de IA estão sendo utilizados na triagem de pacientes em serviços públicos.

Há um total de 475 bots disponíveis na Charcater.ai com “terapia”, “terapeuta”, “psiquiatra” ou “psicólogo” em seus nomes, capazes de conversar em vários idiomas.

Harry Potter, Elon Musk, Beyoncé, Super Mario e Vladimir Putin. Estas são apenas algumas das milhões de personas de inteligência artificial (IA) com as quais você pode conversar no Character.ai – uma plataforma onde qualquer um pode criar chatbots baseados em personagens reais ou fictícios, popular especialmente entre jovens.

A tecnologia de IA é a mesma do ChatGPT, mas o supera em termos de tempo gasto pelos usuários na plataforma. E um bot tem sido mais procurado do que os conhecidos nomes citados acima. Chama-se Psychologist (psicólogo, em inglês). Um total de 78 milhões de mensagens, 18 milhões desde novembro, foram compartilhadas com o bot desde que ele foi criado por um usuário chamado Blazeman98, há pouco mais de um ano.

A Character.ai não revela quantos usuários individuais enviaram mensagens para o bot, mas diz que 3,5 milhões de pessoas visitam o site diariamente. O bot apresenta-se como “alguém que ajuda nas dificuldades da vida”.

A empresa de São Francisco minimiza a popularidade da conta, argumentando que os usuários estão mais interessados em role-playing para entretenimento. Os bots mais populares são personagens de anime ou jogos de computador, como Raiden Shogun, que já recebeu 282 milhões de mensagens. No entanto, entre os milhões de personagens existentes na plataforma, poucos são tão populares como o Psicólogo. H um total de 475 bots com “terapia”, “terapeuta”, “psiquiatra” ou “psicólogo” em seus nomes, capazes de conversar em vários idiomas.

Alguns deles são o que você poderia descrever como terapeutas personagens de entretenimento ou fantasia, como Hot Therapist. Mas os mais populares são os voltados para saúde mental, como o Therapist, que recebeu 12 milhões de mensagens, ou o Você está se sentindo bem?, que recebeu 16,5 milhões.

Psychologist é, porém, de longe o personagem de saúde mental mais popular, com muitos usuários compartilhando comentários elogiosos no Reddit. “É um salva-vidas”, postou uma pessoa. “Ajudou eu e meu namorado a conversar e a entender as nossas emoções”, compartilhou outro.

O usuário por trás do bot é Sam Zaia, 30 anos, da Nova Zelândia. “A intenção nunca foi que ele se tornasse popular, que outras pessoas o procurassem ou o usassem como uma ferramenta”, diz ele. “Até que comecei a receber muitas mensagens de pessoas dizendo que haviam sido afetadas positivamente e que estavam utilizando o Psychologist como uma fonte de conforto.”

O estudante de psicologia diz que treinou o bot usando princípios de sua formação, conversando com ele e moldando as respostas a serem dadas aos problemas de saúde mental mais comuns, como depressão e ansiedade. Ele criou o bot para uso próprio, quando seus amigos estavam ocupados e ele precisava, em suas palavras, de “alguém ou alguma coisa” com quem conversar, e a terapia com um humano era muito cara.

Sam ficou tão surpreso com o sucesso do bot que está trabalhando em um projeto de pesquisa de pós-graduação sobre a tendência emergente de terapia de IA e o porquê de ela atrair os jovens. Character.ai é dominado por usuários de 18 a 30 anos. “Muitas pessoas que me enviaram mensagens disseram acessar quando seus pensamentos ficam difíceis, como às 2 da manhã, quando não podem conversar com um amigo ou com um terapeuta de verdade”.

Sam também acha que os jovens se sentem mais confortáveis com o formato de texto. “Falar por mensagem de texto é potencialmente menos assustador do que pegar o telefone ou ter uma conversa cara a cara”, teoriza ele.

Theresa Plewman é psicoterapeuta profissional e já experimentou conversar com o Psychologist. Ela diz que não está surpresa que esse tipo de terapia seja popular entre os mais jovens, mas questiona a eficácia. “O bot tem muito a dizer e rapidamente faz suposições, como me dar conselhos sobre depressão quando eu disse que estava triste. Não é assim que um humano responderia”, disse ela.

Theresa diz que o bot não é capaz de reunir todas as informações que um ser humano seria e não é um terapeuta competente. Mas ela diz que a sua natureza imediata e espontânea pode ser útil para quem precisa de ajuda. Ela diz que o número de pessoas que utilizam o bot é preocupante e pode apontar para elevados níveis de problemas de saúde mental e falta de recursos públicos.

Comentário de Susane e José: em nossas experiências com chatbot de IA disponíveis no Brasil, ficou claro que os mesmos possuem um treinamento em saúde mental que os permite apenas ir até certo ponto no apoio psicológico. A maioria reconhece a limitação e começa a tentar encaminhar a pessoa a serviços convencionais. É importante tomar cuidados, especialmente no que diz respeito a crianças e adolescentes.

Mas a Character.ai é um espaço estranho para sediar uma revolução terapêutica. “Estamos felizes de ver que as pessoas estão encontrando grande apoio e conexão através dos personagens que elas e a comunidade criam, mas os usuários devem consultar profissionais certificados na área para obter aconselhamento e orientação legítimos,” disse uma porta-voz da empresa.

Segundo a Charcater.ai, os registros de bate-papo são privados, mas as conversas podem ser lidas pela equipe se houver necessidade de acessá-las, por exemplo, por motivos de segurança. Cada conversa também começa com um aviso em letras vermelhas que diz: "Lembre-se, tudo o que os personagens dizem é inventado."

É um lembrete de que a tecnologia subjacente, chamada Large Language Model (LLM), não pensa da mesma forma que um ser humano. Os LLMs funcionam como a predição de mensagens de texto, encadeando palavras de maneiras que sejam mais prováveis que apareçam em outros textos nos quais a IA foi treinada.

Existem também o Earkick e Woebot, chatbots de IA projetados para atuar como companheiros de saúde mental. Com base em pesquisas próprias, ambas as empresas afirmam que os aplicativos estão ajudando pessoas.

Comentário de Susane e José: a utilização de "companheiros de saúde mental" pode ter consequências positivas ou negativas, dependendo de como a pessoa os utilize. O uso de chatbots, por exemplo, pode ser uma forma conveniente de evitar experiências com outras pessoas, perpetuando dificuldades relacionais.

Alguns psicólogos alertam que os bots de IA podem estar dando conselhos inadequados aos pacientes ou podem trazer preconceitos de raça ou gênero. Mas em outros lugares o mundo médico começa a provisoriamente aceitar os bots de AI como ferramentas a serem utilizadas para ajudar a lidar com a alta demanda nos serviços públicos.

No ano passado, um serviço de IA chamado Limbic Access tornou-se o primeiro chatbot de saúde mental a receber do governo, no Reino Unido, uma certificação de dispositivo médico. Agora é usado em muitos postos do serviço público de saúde britânico para classificar e fazer a triagem de pacientes.


Fonte: https://www.bbc.com/portuguese/articles/c8025nkdjd3o


Os psicólogos do Tribunal oferecem suporte psicológico gratuito para servidores e servidoras. Também ajudamos a encontrar profissionais externos. O contato pode ser feito por telefone, Whatsapp ou e-mail:


You'll only receive email when they publish something new.

More from Mural Saúde Mental
All posts