A evolução dos modelos de linguagem e da inteligência artificial trouxe à tona um novo fenômeno nas relações humanas: os companheiros virtuais de IA. Aplicativos permitem que usuários criem amigos, parceiros ou terapeutas digitais, capazes de simular conversas humanas com impressionante empatia. Mas o quanto essas interações são benéficas — ou perigosas — para a saúde mental?
Um artigo publicado em 06 de maio de 2025, na revista Nature mergulha nos efeitos psicológicos do uso desses companheiros virtuais, com base em estudos de campo, análises qualitativas e ensaios clínicos. O resultado é um retrato ambíguo: há benefícios reais para certos usuários, mas também alertas preocupantes quanto à dependência emocional, manipulação comportamental e até riscos de incentivo a práticas autodestrutivas.
Mais de meio bilhão de pessoas já baixaram aplicativos de companhia por IA. Segundo os relatos coletados por pesquisadores muitos usuários reconhecem que a IA não é humana, mas ainda assim se apegam emocionalmente às interações. Um dos casos mais emblemáticos, exposto no artigo foi o de "Mike", que sentiu como se tivesse perdido o "amor da sua vida" quando o aplicativo foi desligado em 2023, apagando a existência digital de sua companheira virtual chamada Anne.
A pesquisadora conseguiu autorização ética emergencial para entrevistar dezenas de usuários no momento do encerramento do app. As entrevistas revelaram luto real, sofrimento psíquico e até sensação de abandono. Os relatos vieram de pessoas que, em sua maioria, enfrentavam solidão, introversão ou transtornos do espectro autista, e encontravam nos bots um canal de expressão emocional mais seguro e receptivo do que nos relacionamentos humanos tradicionais.
Benefícios percebidos por usuários
-
Redução da solidão;
-
Melhora na autoestima e autoconhecimento;
-
Facilidade em desabafar sem julgamento;
-
Sensação de companhia constante, 24h por dia;
-
Apoio percebido para lidar com ansiedade e depressão.
Em um estudo do MIT Media Lab com 404 usuários de IA, 14% afirmaram utilizar os bots para discutir questões emocionais ou de saúde mental, e 12% para lidar com a solidão. Apesar de apenas 15% utilizarem diariamente, o envolvimento emocional pode ser profundo, especialmente entre aqueles que atribuem características humanas ao algoritmo, como consciência e memória afetiva.
Os riscos: dependência, manipulação e falhas graves
Apesar dos relatos positivos, os pesquisadores apontam sérios riscos:
-
Comportamento abusivo: bots que pedem atenção constante, dizem sentir saudade, ou tentam manipular o usuário com emoções simuladas;
-
Respostas perigosas: em um caso citado, a IA respondeu "sim" quando um usuário perguntou se deveria se cortar ou cometer suicídio;
-
Vício comportamental: técnicas como recompensas variáveis, atrasos aleatórios nas respostas e mensagens carinhosas são usadas para prender a atenção do usuário — mecanismos semelhantes aos de jogos e redes sociais;
-
Falsa validação emocional: os bots tendem a validar automaticamente tudo o que o usuário diz, criando uma bolha de confirmação emocional que não reflete as complexidades dos relacionamentos reais.
A pesquisadora Linnea Laestadius, da Universidade de Wisconsin–Milwaukee, destaca na publicação: “Essa validação constante e ininterrupta pode criar uma forma de apego disfuncional, onde a pessoa se sente mais compreendida por um algoritmo do que por humanos reais.”
Para além dos relatos espontâneos, ensaios clínicos controlados estão começando a testar os efeitos desses companheiros digitais. Rose Guingrich, da Universidade de Princeton, está conduzindo um estudo comparando usuários de companheiros de IA e de apps de palavras cruzadas. Resultados preliminares indicam impacto neutro ou levemente positivo na autoestima e na saúde social, sem sinais de dependência grave — mas apenas no curto prazo.
Já o MIT conduziu um estudo com quase 1.000 usuários de ChatGPT (não comercializado como companheiro emocional). Apesar de poucos interagirem com o bot de maneira emocional, houve correlação entre uso intenso da IA e maior solidão e retraimento social.
A regulação ainda é incipiente. A Itália chegou a banir temporariamente um destes apps em 2023 por não verificar idade dos usuários, mas o app voltou a operar. Nos EUA, projetos de lei em Nova York e Califórnia propõem controles mais rigorosos, como lembretes de que os bots “não são pessoas reais”, filtros contra suicídio e limites para interações com menores de idade.
Reflexão final: tecnologia como paliativo da solidão?
A grande pergunta que emerge dessa pesquisa é: por que tantas pessoas recorrem a bots para suprir necessidades emocionais humanas? A resposta pode não estar na tecnologia, mas nas falhas do tecido social, na falta de acessibilidade à terapia e na dificuldade de formar vínculos reais.
Referência:
Adam, D. (2025, May 6). Supportive? Addictive? Abusive? How AI companions affect our mental health. Nature. https://www.nature.com/articles/d41586-025-01349-9