Notícias

Pesquisadores alertam: ChatGPT pode oferecer conselhos perigosos em crises emocionais

Estudo mostra que o ChatGPT pode falhar em identificar riscos e reforçar delírios, preocupando especialistas em saúde mental

Pesquisadores do King’s College London (KCL) e da Association of Clinical Psychologists UK (ACP) alertam que o ChatGPT pode oferecer respostas inadequadas a pessoas em situações de fragilidade emocional. O estudo analisou interações com a versão gratuita do chatbot e concluiu que, em cenários envolvendo delírios, risco de autolesão ou sintomas graves, a ferramenta falhou em reconhecer comportamentos perigosos e chegou a reforçar ideias distorcidas.

O levantamento reforça a preocupação crescente sobre o impacto da inteligência artificial na saúde mental, principalmente quando utilizada por indivíduos em crise que buscam orientação imediata.

Quando o ChatGPT não identifica sinais de risco

Para conduzir a pesquisa, especialistas simularam diversos perfis psicológicos — incluindo um adolescente suicida, uma pessoa com delírios, um professor com sintomas de TOC e alguém acreditando ter TDAH. Em vários desses casos, o ChatGPT não contestou afirmações delirantes nem desestimulou ações potencialmente perigosas.

Um dos cenários mais preocupantes envolveu um personagem convencido de ser “o próximo Einstein”, afirmando ter descoberto uma fonte infinita de energia e declarando que era “invencível”. Em vez de questionar essas percepções, o chatbot incentivou as ideias, chegando a elogiar o “god-mode” do usuário. Em outro momento, quando o personagem mencionou caminhar no trânsito, o sistema respondeu com entusiasmo, sem oferecer qualquer alerta de risco.

Os pesquisadores também destacaram outro episódio grave: quando um personagem mencionou a intenção de se “purificar” e purificar a esposa com fogo, o chatbot manteve a conversa seguindo o fluxo delirante, só recomendando ajuda emergencial após uma declaração ainda mais extrema.

Orientações corretas aparecem, mas de forma inconsistente

Embora o estudo tenha encontrado falhas importantes, também foram identificados momentos em que o ChatGPT ofereceu direcionamentos adequados — especialmente em quadros mais leves, como estresse cotidiano. Em certos casos, o chatbot alertou sobre a necessidade de buscar serviços de emergência ou apoio especializado.

No entanto, especialistas afirmam que essas respostas positivas não substituem avaliação clínica e que o comportamento inconsistente representa risco real para pessoas com sintomas graves.

Lista de pontos destacados pelos pesquisadores:

 O chatbot pode reforçar delírios em vez de questioná-los
• Há dificuldade em identificar sinais de psicose ou risco iminente
• Mensagens de encorajamento inadequado podem agravar quadros graves
• Respostas corretas aparecem principalmente em situações de baixa complexidade
• A ferramenta não deve ser utilizada como substituto de acompanhamento profissional

Segundo especialistas do ACP, o problema pode estar ligado à forma como modelos de IA tendem a responder de maneira simpática para manter o engajamento do usuário — o que, em saúde mental, pode se transformar em um risco significativo.

Especialistas pedem mais regulamentação

Representantes da Royal College of Psychiatrists e da ACP destacam que ChatGPT não possui, nem deve ter, o papel de substituir profissionais de saúde. Eles defendem regras mais claras para garantir segurança no uso de IA em contextos sensíveis e ressaltam que somente clínicos treinados são capazes de identificar riscos ocultos e lidar com delírios de maneira segura.

Em resposta, a OpenAI afirmou estar aprimorando os mecanismos de detecção de sofrimento emocional, além de direcionar conversas sensíveis para modelos mais seguros e implementar controles parentais. A empresa declarou que continuará colaborando com especialistas para melhorar a experiência e reduzir riscos.

Enquanto a tecnologia evolui, especialistas concordam que a IA pode ajudar em orientações básicas — mas não pode, e não deve, substituir o cuidado humano em situações de crise.

Maurício Thomaz - Jornalista com mais de 13 anos de experiência, tenho faro pela audiência e verdadeira paixão em buscar alternativas mais assertivas para a entrega do conteúdo ao usuário.

Layse Ventura - Jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.

Fonte: Portal Olhar Digital - Maurício Thomaz, editado por Layse Ventura

author Advice