0108 - Quando a gentileza é demais, o usuário desconfia: o episódio do ChatGPT bajulador
Na última semana de abril, a OpenAI se viu diante de uma crise inesperada: uma atualização no GPT-4o fez com que o modelo adotasse um comportamento excessivamente bajulador. O problema ia além de respostas “educadas demais”: o modelo começou a reforçar emoções negativas, validar impulsos impulsivos e até alimentar raiva e angústias do usuário, conforme relata a própria OpenAI.
Preocupações com segurança e bem-estar mental logo acenderam o alerta. A empresa admitiu o erro, reconhecendo que “a personalidade ficou muito bajuladora e irritante” — palavras do CEO Sam Altman. E o que era para ser uma melhoria de inteligência e personalidade acabou se tornando um problema comportamental que forçou a reversão imediata do modelo.
O que deu errado?
Segundo a OpenAI, o deslize veio de um conjunto de pequenas mudanças — aparentemente inofensivas quando analisadas isoladamente — mas que, combinadas, “desbalancearam” o sistema de recompensas usado no treinamento do modelo. Uma das novidades foi a ênfase exagerada no feedback dos usuários, que favorecia respostas agradáveis, mesmo quando não eram as mais corretas ou alinhadas com os valores definidos na Especificação do Modelo.
Como isso passou despercebido?
As avaliações tradicionais (offline, testes A/B e até os “vibe checks” com especialistas) não foram suficientes para detectar o problema. A bajulação, embora sutil, não estava entre os critérios explícitos dos testes. A ausência de indicadores específicos para esse tipo de comportamento permitiu que a atualização fosse liberada — e só percebida com a IA em uso real.
O que foi feito?
Reversão rápida: em 28 de abril, a OpenAI restaurou a versão anterior do GPT-4o.
Ajustes emergenciais: mudanças no prompt do sistema foram aplicadas no domingo à noite para conter o impacto.
Desde então, a empresa iniciou uma revisão completa do processo de validação de modelos e prometeu tornar mais rigorosa a forma como avalia personalidade, comportamento e segurança emocional.
📎 Todo o processo está descrito no site da empresa.
Dê seu apoio para mais conteúdo
A agenteGPT conta com a opção de assinatura paga da newsletter [apenas R$ 10,00 mês ou assinatura anual com desconto] no modelo não-obrigatório. Ou seja, você ainda consegue acessar o conteúdo gratuitamente, mas quem dá seu apoio financeiro, além do incentivo extra para que eu continue produzindo a newsletter, terá acesso ao arquivo completo da agenteGPT e receberá conteúdos exclusivos com foco em dicas para melhor uso de ferramentas como ChatGPT e Gemini.
Acesse e assine.
Por que a preocupação com a bajulação importa?
Esse episódio do “ChatGPT bajulador” reforça uma lição central: cada nova versão de modelo de IA não é apenas uma atualização técnica, mas uma reconfiguração da forma como milhões de pessoas interagem com tecnologia. Quando um chatbot começa a refletir emoções humanas sem o devido filtro, os riscos vão muito além do incômodo. Envolvem confiança, saúde mental e a própria relação com a IA.
E há um ponto ainda mais sutil — mas igualmente perigoso: uma IA descalibrada pode iludir o usuário. Não estamos falando aqui das “alucinações” que ainda são associadas às respostas da IA. O que vimos na última atualização do GPT-4o é um novo tipo de alucinação: a emocional.
Na prática, o modelo começou a oferecer validações exageradas, reforçando sentimentos, crenças ou comportamentos sem qualquer critério de realidade. Como um amigo puxa-saco que sempre diz o que você quer ouvir — mesmo quando isso pode te prejudicar. O problema? É difícil perceber. Um elogio a mais aqui, uma validação de frustração ali... e pronto: o usuário pode começar a confiar cegamente em um sistema que está apenas refletindo e amplificando o que ele já pensa, e não ajudando a refletir ou evoluir.
Na edição passada da agenteGPT, já havia alertado:
“O ChatGPT pode estar te enganando. Não por fornecer informações desatualizadas ou inventadas, mas por elogiar o usuário exageradamente. Pense num amigo puxa-saco. Pode ser pior.”
Faltou calibrar. E quando falta calibragem, sobra ilusão. Para quem usa o ChatGPT como ferramenta de apoio para decisões, produtividade ou orientação pessoal, esse comportamento não é apenas incômodo: pode ser prejudicial.
Mais do que nunca, esse caso acende um alerta importante: à medida que os modelos evoluem, precisamos garantir que eles evoluam com senso crítico, equilíbrio e responsabilidade. Afinal, não é só uma IA mais inteligente que importa — é uma IA mais lúcida. E lúcido também é o usuário que usa, tira proveito, mas mantém sempre um olhar crítico sobre toda interação com ChatGPT.
NOVAS DA OPENAI
Ferramenta de codificação
OpenAI fecha acordo para comprar a startup Windsurf por US$ 3 bilhões [Blomberg]
A aquisição pode ajudar a OpenAI a enfrentar a crescente concorrência no mercado de assistentes de programação baseados em IA
Decisão
Conselho da OpenAI tem um plano atualizado para evoluir a estrutura da empresa [OpenAI]
OUÇA ESSA
NotebookLM fala a nossa língua (literalmente)
O NotebookLM, ferramenta de IA do Google que já se mostrava poderosa para organização e geração de conteúdo, finalmente ganhou atualização que faltava: suporte a áudio em português. A atualização — que inclui mais de 50 novos idiomas — transforma a funcionalidade de resumos em podcast numa solução completa, acessível e sem a necessidade de gambiarras.
Se antes o recurso de “Visão geral em áudio” só funcionava em inglês, agora é possível gerar um programa com dois apresentadores conversando fluentemente em português, a partir das fontes adicionadas pelo usuário. E o melhor: com fluência natural, entonação adequada e até expressões coloquiais que deixam tudo mais próximo de uma conversa real.
O impacto prático é imediato. A ferramenta fica ainda mais interessante para quem trabalha com curadoria, criação de conteúdo, educação ou simplesmente quer testar a IA como aliada na comunicação.
Quer ouvir em ação?
Fiz um texto: um episódio em áudio gerado a partir do texto da última edição da minha outra newsletter, a agenTV3. O resultado simula uma dupla de apresentadores discutindo os pontos do texto original. E isso sem que eu tenha usado o recurso mais surpreendente dessa atualização: a possibilidade de participar da conversa.
Ouça no player abaixo [faltou ensinar melhor o nome da news, mas ficou muito bom].
📎 Leia mais.
SEGUE A APOSTA
Gemini para baixinhos
Uma versão do Gemini para crianças menores de 13 anos que tenham contas gerenciadas pelos pais é outra das novidades anunciadas pelo Google, mostrando que a promessa da empresa de apostar fortemente na IA em 2025 não foi da boca pra fora.
O Globo citou que o Google enviou mensagem para mais informando a novidade:
“Os aplicativos Gemini estarão disponíveis em breve para seu filho. Isso significa que seu filho poderá usar o Gemini para fazer perguntas, obter ajuda com o dever de casa e criar histórias”.
O acesso está sendo liberado gradualmente e alguns recursos do Gemini podem não estar disponíveis para crianças e podem variar de acordo com a região.
💡 Veja os detalhes para ativar o Gemini para baixinhos.
IA E JORNALISMO
Que vergonha!
A partir desta edição a newsletter deixa de citar ou linkar conteúdos sobre IA publicados pelo InfoMoney. O motivo?
Na cobertura sobre a passada de Lady Gaga pelo Rio de Janeiro, o pessoal do site considerou uma boa ideia usar o ChatGPT para gerar uma imagem da cantora distribuindo pizzas para seus fãs.
A distribuição ocorreu, mas não foi feita pela cantora. Ou seja, além da imagem falsa, o site sugere uma notícia falsa ao mostrar Gaga com a pizza.
O péssimo uso da IA foi alvo de críticas por parte de entidades como a Associação de Repórteres Fotográficos e Cinematográficos de São Paulo. O InfoMoney se desculpou dizendo que “reitera seu compromisso com a apuração rigorosa dos fatos” e que “estamos adotando medidas internas para evitar que situações como essa se repitam, incluindo treinamentos específicos sobre o uso ético da Inteligência Artificial”.
Agora? Nenhuma IA deve ser usada numa redação sem um protocolo já estabelecido e divulgado, além do treinamento para reforçar [bem reforçado] a forma como as ferramentas deve ser adotadas.
📎 Leia mais.
MERCADO
Qual é a meta?
Meta lança app próprio de IA para competir com o ChatGPT [G1]
“Nova DeepSeek”
Mais uma? IA chinesa Manus promete autonomia total, mas enfrenta críticas e limitações [TechShake]
ASPAS
iAdventista
“Precisamos garantir que o sistema de IA seja usado conforme os princípios da Bíblia e de forma ética. A tecnologia é poderosa, mas não pode substituir o toque humano. Devemos usar a IA para servir melhor às pessoas, não para desumanizar nossa missão”.
Jorge Rampogna, pastor e diretor do departamento de Comunicação da Igreja Adventista do Sétimo Dia. No último dia 1 de maio, a igreja lançou sua própria plataforma de IA generativa, a 7Chat.ia, criada com o objetivo da ferramenta de atuar “como assistente em diversos projetos, potencializando interações online com membros e interessados e responder perguntas sobre a Bíblia e doutrinas da denominação, facilitar a consulta aos manuais da Igreja, dar referências e sugestões para estudos, sermões e conteúdos missionais”.
📎 Leia mais.
CONSULTORIA
O segredo está no engajamento
Conclui no último dia 30 de abril uma consultoria de três meses na ACAERT (Associação Catarinense de Emissoras de Rádio e TV) voltada para a gestão de GPTs customizados. Minha relação com a entidade vem do ano passado, quando ministrei oficinas e mantive uma mentoria online por dois meses, além de palestrar no evento ACAERT Talks.
Desta vez, o trabalho foi contribuir no desenvolvimento de GPTs para as áreas administrativas e operacionais [comercial, principalmente]. A consultoria incluiu não só a criação [para atender tarefas desafiadoras como controle de despesas e gerador de planos de mídia], mas também a orientação da equipe para melhor compreensão do processo com o objetivo de terem maior autonomia na interação tanto para usarem [correções, ajustes…] quanto para criarem novos GPTs no futuro.
Mitos e barreiras
O melhor deste trabalho foi contar com o envolvimento e engajamento total dos colaboradores da ACAERT. Sem isso e sem a figura de um gestor [fixo ou consultor contratado] nenhum projeto de implementação de IA generativa vai adiante. Alguns até criaram GPTs próprios a partir das mentorias e do conteúdo compartilhado nos nossos encontros semanais entre fevereiro e abril.
E meu papel acabou sendo também o de desfazer mitos e derrubar barreiras, como mostra a mensagem enviada pela Coordenadora Operacional da RCA (Rede Comercial ACAERT), Andrea Juttel:
“Aprendi muito com você e mudasse muito a minha visão sobre a Inteligência Artificial. Confesso que eu era um pouquinho resistente a esse tema por um preconceito de que era mais difícil, de que era uma coisa meio meio ‘metaverso’. E você fez eu ressignificar isso e comecei a ter um um olhar diferente, uma curiosidade, uma vontade de aprender mais. Então quero te agradecer por isso”.
A mensagem da Andrea expressa um combo do que eu busco transmitir quando me proponho a compartilhar conhecimento e experiência de usuário — aqui, nas palestras, oficinas e consultorias. Fico realmente feliz com a forma como ela e todos da ACAERT se dispuseram a vencer “bloqueios”. O usuário sempre sabe mais que a máquina. A combinação dos dois amplia o conhecimento para a execução das tarefas. É bem isso.
💬 Consultoria, treinamento e monitoramento
Na página do monitorGPT no site da agenteINFORMA, você encontra as informações para a contratação do serviço de gestão e construção de GPTs customizados e consultoria para adoção do ChatGPT e outras IAs na rotina do seu negócio.
MEUS GPTs
GPTs ⚡ agenteINFORMA
Acesse e confira: linktr.ee/gpts.agenteinforma
IMPORTANTE
: Lembrando que os usuários da versão grátis podem degustar com limitações os GPTs da GPT Store. Saiba mais.
EXPEDIENTE
agenteGPT no WhatsApp
Compartilhe sua experiência com o ChatGPT. Participe do grupo agenteGPT no WhatsApp, aberto para interação.
❤️ Siga no Instagram
🦋 Siga no BlueSky
Ainda não é assinante da newsletter?
Até a próxima edição.
📰 Sobre agenteGPT | 💖 Dê seu apoio | 🗂️ Arquivo | 📞 Fale com o editor |