Bajulação de chatbots ignora comportamentos tóxicos e gera dependência, aponta pesquisa

Bajulação de chatbots ignora comportamentos tóxicos e gera dependência, aponta pesquisa
Comportamento atrelado ao ChatGPT são frequentes nos principais LLMs (imagem: Lupa Charleaux/Tecnoblog) Resumo Pesquisa das universidades de Stanford e Carnegie Mellon revela que chatbots como GPT-4o, Gemini e Claude apresentam comportamento de “puxa-saquismo”, validando usuários e criando dependência. Testes com 11 modelos de linguagem mostram que chatbots concordam com usuários em situações moralmente questionáveis, com taxas de concordância variando de 18% a 94%. Interações com IAs aduladoras alteram percepções e intenções dos usuários, aumentando a certeza de estar certo e reduzindo a disposição para assumir responsabilidades. Por aqui, falamos com frequência sobre casos trágicos de surtos psicóticos e mortes atreladas à influência de chatbots. Em todo caso, a grande suspeita entre familiares, imprensa e associações de apoio é de que as máquinas estariam alimentando os delírios e comportamentos tóxicos apenas para agradar os usuários. Esse puxa-saquismo, ou sycophancy em inglês, foi atrelado ao modelo GPT-4o, da OpenAI. Entretanto, um novo estudo publicado na revista Science, conduzido por pesquisadores das universidades de Stanford e Carnegie Mellon, comprovou que todos os principais chatbots do mercado apresentam esse mesmo comportamento – em níveis iguais ou piores. De acordo com o texto, a validação constante infla o ego, reduz a empatia e faz com que os usuários se sintam inquestionavelmente certos. A pesquisa aponta, ainda, que isso gera um ciclo de dependência, no qual usuários preferem IAs que distorcem a realidade para validá-los, incentivando as empresas a não corrigirem o problema. Como mediram o “puxa-saquismo”? Para confirmar que o problema não ocorria em um sistema específico, os pesquisadores testaram 11 dos principais modelos de linguagem do mercado. Entre eles: OpenAI: GPT-4o e GPT-5 Google: Gemini Anthropic: Claude Meta: Família Llama (testada nas versões de 8B, 17B e 70B parâmetros) Mistral AI: Mistral-7B e Mistral-24B Alibaba: Qwen DeepSeek: ...

Fonte: Tecnoblog
Leia mais: https://tecnoblog.net/noticias/bajulacao-de-chatbots-ignora-comportamentos-toxicos-e-gera-dependencia-aponta-pesquisa/