Segundo dados da agência de
comportamento Talk Inc., mais de 12 milhões de brasileiros já utilizam chatbots
de Inteligência Artificial para apoio psicológico, sendo que 6 milhões recorrem
especificamente ao ChatGPT, modelo de linguagem capaz de simular conversas
humanas. A preocupação se intensifica neste Dia de Prevenção ao Suicídio,
lembrado nesta quarta-feira (10), em meio à repercussão de episódios trágicos
relacionados ao tema.
Emmanuelle Pimenta explica que
a interação com a Inteligência Artificial é apenas uma conversa, não uma
relação. Segundo ela, a IA não consegue compreender os sentimentos humanos,
pois, ao falar uma frase, o ser humano também utiliza outros elementos — como
tom de voz, expressão corporal e facial — fundamentais para a interpretação
emocional.
“A principal questão é o
perigo, porque a pessoa vai estar conversando com uma IA que não possui a
leitura de um ser humano. Ela não consegue captar, inclusive nas entrelinhas, o
que o paciente traz. A IA, por si só, tende a validar tudo que você diz, independentemente
do conteúdo. Se pegarmos um paciente em crise, com pensamentos suicidas, e ele
afirmar que vai fazer algo, a IA pode validar, pois não tem consciência do
processo”, relatou.
Emmanuela Pimenta é mestre em
psicologia e possui formação em terapia cognitivo-comportamental, ela explica
que não há como substituir a psicoterapia por IA | Foto: TN Play
No dia 26 de agosto deste ano,
os pais de um jovem residente em São Francisco, nos Estados Unidos, processaram
a OpenAI por supostamente “contribuir” para o ato de suicídio do filho. O
adolescente teria recebido orientações negativas fornecidas pelo ChatGPT, com
formas de autoagressão, o que possivelmente levou à consumação da morte. Após o
caso, a empresa afirmou que planeja implementar controles parentais e explorar
formas de incentivar usuários em crise a buscar ajuda humana.
O episódio acende um alerta,
especialmente no Brasil, onde cerca de 18 milhões de pessoas — 9,3% da
população — convivem com transtornos de ansiedade, segundo a Organização
Mundial da Saúde (OMS). O caso levanta debates sobre até que ponto a IA pode
concordar e ajudar em situações críticas.
Entendendo a Inteligência
Artificial
A validação da ferramenta
acontece porque ela opera com base em estatísticas, e não na verdade, buscando
agradar o usuário e manter a interação. Esse conceito é defendido por Raniery
Pimenta, diretor regional do Senac e especialista em IA.
“Ele [ChatGPT] faz cálculos e
análises, como se fosse o corretor do seu celular. Tenta entender qual é a
palavra que você está querendo dizer, mas de forma mais ampla: compreende a
sentença inteira, às vezes o contexto, fazendo milhões de cálculos em frações
de segundos”, explicou.
Segundo Raniery, os dados
utilizados pelos chatbots vêm de sites públicos, livros de domínio público,
artigos, transcrições de vídeos, redes sociais e interações em plataformas
digitais abertas. “Com base nisso, ele aprende, entende, compreende e utiliza
essas informações para gerar respostas que parecem conversas naturais, mas são
cálculos elaborados”, completou.
Ele também ressalta que os
limites da IA são definidos por cada empresa, estabelecendo critérios de ética
sobre o que deve ou não ser compartilhado.
Diretor regional do Senac, Raniery
Pimenta também é especialista em IA e estudioso da transformação digital no
mundo do trabalho e na educação | Foto: TN Play
IA não substitui
psicoterapia
Os profissionais da psicologia
possuem carga horária de trabalho diária e valor fixo por consulta. Com a
Inteligência Artificial, fazer autoterapia digital é gratuito e pode ser
realizado a qualquer hora do dia. Porém, essas vantagens não são suficientes
para ter os mesmos resultados de uma consulta humana. Emmanuela Pimenta
acredita que não tem como substituir um tratamento com um terapeuta pela
conversa com a IA.
“As pessoas que não fazem
terapia, quando usam a IA em casos leves — depressão ou ansiedade — apresentam
melhora imediata, o que não podemos negar. Mas esse alívio é passageiro e não
tem continuidade, fazendo com que o quadro clínico acabe regredindo. Por isso,
não é interessante utilizá-la como substituta do profissional”, disse.
O uso constante da ferramenta
pode gerar dependência psicológica, impedindo que o paciente tome decisões
sozinho.
“Enquanto terapeutas, buscamos
dar autonomia ao paciente, ensinando estratégias para que ele se torne seu
próprio terapeuta. Com a IA, a pessoa se torna dependente: sempre que houver um
problema, perguntará à ferramenta ‘o que eu faço?’. Na psicologia, nosso
objetivo é justamente a autonomia do sujeito”, reforçou Emmanuela.
Como a IA deve ser usada
Para evitar que a IA valide
tudo automaticamente, é necessário treiná-la para criar senso crítico nas
respostas, utilizando-a principalmente para pesquisas gerais, não para análise
de sentimentos. Raniery Pimenta também alerta para a importância de checar a
veracidade das informações. “O que ela [IA] quer é dar uma resposta. Devemos
ter cuidado, porque somos responsáveis pelo uso dessas informações”, disse.
Em linhas gerais, plataformas
como o ChatGPT são criadas para analisar perguntas e gerar respostas úteis,
claras e criativas, sendo eficazes para trabalho e vida pessoal, mas sempre com
limites e consciência do usuário.
“É muito importante que você
não queira necessariamente fazer da ferramenta de IA uma ferramenta de
perguntas e respostas, ela é uma ferramenta que vai potencializar as suas
entregas. Então a minha dica é que converse, interaja, critique, discuta e peça
fontes, como faria com qualquer ser humano inteligente”, completou.
Emmanuela defende que a IA
pode ser aliada dos psicólogos, auxiliando na personalização do atendimento e
no monitoramento dos pacientes. “A IA não deve ser concorrente, mas
favorecedora, desde que usada de forma ética”, afirmou.
Buscar ajuda psicológica é um
ato de coragem. No Brasil, há canais de apoio em situações de emergência:
CVV (188) – Apoio
emocional 24h, gratuito, por telefone, chat ou e-mail.
SAMU (192) –
Emergência em crises graves.
UBS / CAPS –
Atendimento psicológico pelo SUS.
Tribuna do Norte

Nenhum comentário:
Postar um comentário