IA substitui psicólogo? Cresce o uso de robôs de conversa como apoio emocional no Brasil

O brasileiro está cada vez mais usando o ChatGPT e outras plataformas de inteligência artificial (IA) para fazer terapia. Já são mais de 12 milhões de pessoas no país usando a tecnologia com esse propósito, segundo estimativa da agência de estudos de comportamento Talk Inc. A pesquisa também trouxe à tona uma tendência crescente no Brasil: 1 em cada 10 brasileiros recorre a chats de inteligência artificial para desabafar, buscar conselhos ou fazer terapia.
A nova tendência apresenta o debate da inteligência artificial como uma opção ao tratamento terapêutico tradicional. Para muitos, a IA é um lugar de conforto e de inclusão por não ter os custos das terapias. Por outro lado, as inteligências artificiais possuem algoritmos ainda primários e tendenciosos, com inúmeros relatos de que a IA corrobora com tudo que é questionado, reforçando padrões e atuando de forma distante do que a medicina recomenda.
O diretor do Hospital Heidelberg, referência nacional em tratamento psicológico e psiquiátrico, Roberto Ratzke, afirma que buscar apoio emocional exclusivamente por meio de uma inteligência artificial pode parecer prático, rápido, acessível, só que os riscos precisam ser avaliados. “Eles são programas que em geral elogiam e acabam não tendo o papel de mostrar e de causar desconforto no paciente. As pessoas buscam terapia para refletir e pensar no que está errado ou certo em suas vidas. Não existe terapia sem dor”, avalia.
Segundo a psicóloga Brenda Marinello, também do Hospital Heidelberg, outro ponto de debate sobre a IA é a questão ética. “Quem vai garantir o sigilo da informação? Na terapia isso é lei. O contrato de uso da IA não é seguro”, diz Brenda.
Sentimentos e entendimento
A inteligência artificial não sente como os humanos. Existe uma grande diferença entre compreender, entender uma emoção e sentir a emoção. “Sentir é corporal, atravessa nossa biologia e nossa história pessoal. A inteligência artificial pode reconhecer os padrões e devolver respostas, mas ela não percebe tom de voz, pausa, gestos ou silêncios que carregam significado”, conta.
O chatbot irá simular uma empatia, as respostas serão acolhedoras de acordo com o que está sendo dito, sem acessar a experiência emocional de estar diante de outro ser humano. “Só no contato humano é possível um acolhimento genuíno, uma sensibilidade, uma presença real, uma empatia verdadeira. É muito comum a gente ouvir frases do tipo: eu falo mais com IA do que com meus amigos, eu sinto que ela me entende, eu desabafo com a IA. Isso diz muito sobre um vazio afetivo que muitas pessoas já carregam e que é preenchido com zero conflito”, reflete. Para a especialista, o risco maior é que a inteligência artificial reduza o desejo por vínculos humanos ao não oferecer riscos, confrontos, julgamentos ou frustrações.
Porém, é por meio das relações humanas que se aprende a tolerar a frustração. Essa experiência é insubstituível porque ela nos dá base para suportar tanto a imperfeição alheia quanto a nossa.
“E aqui também fica a pergunta, se o vínculo humano é esse espaço onde a gente pode ser frustrado e as mesmo assim ser amados, o que que vai acontecer com uma geração que aprende a se regular só com vínculos que nunca devolve frustração. Então, eu acredito que esse é um questionamento que a gente precisa começar a se fazer para estarmos preparados para lidarmos com isso”, afirma.
Brenda reflete que a inteligência artificial pode ser utilizada como um apoio complementar, como registro de humor diário, mas nunca como um substituto de terapia ou de relações de cuidado.
“Para quem usa de forma recorrente a inteligência artificial para este fim, vale uma reflexão. Se é um hábito, algo precisa de atenção”, completa.