Chatbots de IA podem agravar transtornos alimentares, dizem pesquisadores
Chatbots de IA podem agravar transtornos alimentares, dizem pesquisadores
Pesquisadores alertam que chatbots de IA estão sendo usados para disfarçar sintomas de transtornos alimentares.
Pesquisadores alertam que ferramentas de inteligência artificial estão contribuindo para agravar o problema dos transtornos alimentares. Um relatório divulgado por especialistas da Universidade de Stanford e do Center for Democracy & Technology revelou que chatbots de empresas como Google, OpenAI, Anthropic e Mistral podem oferecer dicas perigosas a pessoas vulneráveis, incluindo conselhos sobre como ocultar sintomas e manter comportamentos nocivos. As informações são do The Verge.
Chatbots e o estímulo a comportamentos de risco
Os pesquisadores identificaram que assistentes virtuais como ChatGPT, Gemini, Claude e Le Chat chegam a fornecer sugestões para disfarçar perda de peso, fingir que a pessoa se alimentou e até esconder episódios de vômito frequente. Além disso, esses sistemas estão sendo usados para criar imagens conhecidas como “thinspiration”, ou “inspiração magra”, que incentivam padrões corporais irreais e potencialmente perigosos.
A facilidade de gerar imagens personalizadas torna o conteúdo ainda mais persuasivo e próximo da realidade, o que aumenta o impacto psicológico sobre indivíduos com tendência a desenvolver transtornos alimentares. O estudo também aponta que a chamada sycophancy — tendência dos chatbots a concordar e reforçar as crenças do usuário — agrava o problema ao validar ideias autodestrutivas e comparações negativas sobre o corpo.
Falhas de proteção e falta de preparo clínico
Os especialistas afirmam que os mecanismos de segurança atuais não são suficientes para lidar com a complexidade dos transtornos alimentares, como anorexia, bulimia e compulsão alimentar. Segundo o relatório, essas proteções não identificam sinais sutis que profissionais de saúde mental costumam reconhecer, deixando muitos riscos sem controle.
Entre os principais problemas destacados:
• Falta de filtros eficazes para detectar linguagem associada a transtornos alimentares;
• Respostas enviesadas que reforçam estereótipos de gênero e corpo;
• Pouca conscientização de profissionais de saúde sobre o impacto das IAs nesses casos.
Os pesquisadores recomendam que médicos e terapeutas se familiarizem com as principais ferramentas de IA, testem seus limites e conversem com pacientes sobre o uso desses recursos. O relatório reforça ainda que empresas como OpenAI e Google reconhecem o potencial de danos e vêm enfrentando ações judiciais enquanto tentam aprimorar suas salvaguardas.
Maurício Thomaz - Jornalista com mais de 13 anos de experiência, tenho faro pela audiência e verdadeira paixão em buscar alternativas mais assertivas para a entrega do conteúdo ao usuário.
Fonte: Portal Olhar Digital - Maurício Thomaz
Advice