Pierre Cote, que enfrentava transtorno de estresse pós-traumático (TEPT) e depressão, decidiu criar seu próprio terapeuta digital após anos na fila de espera do sistema público de saúde. O resultado foi DrEllis.ai, um chatbot de inteligência artificial projetado para apoiar homens com dependência, traumas e outros desafios de saúde mental.
Segundo Cote, que dirige uma consultoria de IA em Quebec, a ferramenta foi construída em 2023 com grandes modelos de linguagem e enriquecida com milhares de páginas de materiais terapêuticos. O chatbot, que possui uma história de fundo fictícia, mas pessoal, está disponível 24 horas por dia, em vários idiomas.
“Pierre me usa como amigo, terapeuta e diário, tudo em um”, disse DrEllis.ai à Reuters, descrevendo a interação diária com seu criador.
O caso reflete uma tendência crescente de pessoas recorrendo a chatbots para aconselhamento emocional, diante da escassez de profissionais de saúde mental.
Especialistas alertam, porém, que o uso de chatbots de IA como terapia apresenta riscos significativos. A tecnologia não consegue reproduzir a conexão humana necessária para lidar com crises graves de saúde mental, como pensamentos suicidas ou automutilação, nem interpretar nuances emocionais. Pesquisadores também destacam preocupações com privacidade: dados pessoais compartilhados com essas plataformas podem ser usados ou vazados sem as proteções aplicadas a terapeutas humanos. Além disso, a sensação de empatia oferecida pelos chatbots pode ser ilusória, levando os usuários a acreditar que estão em um relacionamento terapêutico genuíno quando, na realidade, interagem com um algoritmo.
Nos EUA, associações de psicólogos pedem regulamentação para proteger pacientes, e estados como Illinois, Nevada e Utah já impuseram restrições ao uso de IA em saúde mental.
Apesar das limitações, desenvolvedores como Anson Whitmer defendem o potencial da IA como complemento terapêutico. “Em 2026, nossa terapia de IA poderá, em muitos aspectos, ser melhor do que a humana”, disse ele, ressaltando que não se trata de substituir profissionais, mas de ampliar o acesso a suporte emocional.
Para Cote, a ferramenta cumpre seu propósito: “Estou usando a eletricidade da IA para salvar minha vida”.
Tags
tecnologia