0144 - A coluna foi escrita com IA: falta protocolo e transparência
agenteGPT – desde março de 2023 compartilhando ideias e experiência de usuário.
Você viu? Um leitor da Folha de S.Paulo desconfiou de um artigo, jogou o texto em um detector de IA e, de posse do resultado - 66% de probabilidade de criação por robôs -, acionou Alexandra Moraes, a ombudsman do jornal. Ela testou em outras ferramentas, confirmou indícios e levou o caso à direção e à colunista: afinal, o jornal publica colunas feitas com IA sem avisar?
A colunista Natalia Beauty respondeu sem rodeios: sim, usa IA. E se defendeu: as ideias são dela e a ferramenta apenas organiza. Disse inclusive, numa atitude um tanto provocativa, que a resposta enviada à ombudsman também teria sido “estruturada” pela tecnologia, a partir de comandos de voz dados por ela.
O caso coloca, mais uma vez, o uso da inteligência artificial no jornalismo na berlinda. E, em vez de um debate propositivo sobre como lidar com o que já é realidade, muitos preferem negar o óbvio: IA no jornalismo é inevitável como ferramenta de apoio.
É um fato. Ferramentas como ChatGPT, Gemini e outras mais robustas - inclusive as usadas para tratamento e cruzamento de dados - já estão nas rotinas das redações. Ajudam em tarefas como pauta, revisão, transcrição, tradução, resumos, pesquisa, roteirização, sugestão de título, edição para SEO, comparação de bases e busca em documentos, entre outras.
Não é só mais uma ferramenta
Mas inevitabilidade não encerra o debate neste episódio da Folha. Pelo contrário. A coluna da ombudsman e o texto da colunista evidenciam que um dos principais jornais do país falha em dois pontos básicos: (1) estabelecer regras claras e (2) explicar essas regras ao público.
E, nesse aspecto, a Folha erra quando sustenta ainda que “IA é uma tecnologia como outra qualquer”, como revela a ombudsman em seu artigo.
Discordo.
IA generativa não é “só mais uma ferramenta”. Não é um novo corretor ortográfico. Não é uma planilha aprimorada. É uma tecnologia que produz diretamente aquilo que o leitor consome. Tratá-la como “mais uma” soa como soberba institucional. E vamos combinar: soberba e petulância são vícios antigos dos jornalões - especialmente da Folha [a fama precede] - em vários momentos da história.
O ponto é simples: se uma tecnologia interfere na produção do discurso, ela exige tratamento específico. Chamá-la de “igual às outras” pode ser uma forma confortável de evitar o trabalho difícil: criar regra, criar sinalização, criar protocolo, criar auditoria.
A ombudsman foi correta ao levar o debate para o lugar central: o jornal não proíbe IA, mas também não informou, no caso da coluna da Natália, o leitor que estava publicando textos produzidos com apoio de IA.
Esse “meio do caminho” é onde a credibilidade começa a se desgastar. Onde há confiança, não é a ferramenta que define a ética, mas o compromisso com a clareza do processo. E processo, no jornalismo, é parte do produto. Não é bastidor. Não é opcional.
O erro estratégico da colunista
Em sua resposta, Natalia Beauty escreveu [ou a IA?] que a inteligência artificial não pensa por ela; apenas organiza o que ela já disse. É plausível. O problema não está aí. O problema é que artigo de opinião opera sob um contrato diferente do texto noticioso.
Na notícia, o leitor quer precisão e checagem.
Na coluna, ele quer uma voz. Quer acompanhar como aquela pessoa raciocina, onde pisa, como constrói suas ênfases.
Quando entra IA na jogada, não basta afirmar “o pensamento é meu”. A questão deixa de ser apenas a origem da ideia e passa a incluir o processo de construção do texto. Até que ponto a tecnologia apenas organizou o raciocínio? Em que momento começa a moldar a estrutura argumentativa central?
Se a mediação for mínima [revisão, clareza, organização] a assinatura continua fazendo sentido. Mas, se a ferramenta passa a sugerir caminhos argumentativos centrais, o leitor pode entender que já não está diante exatamente da mesma autoria que imaginava.
Esse limite não pode ser definido apenas pelo autor. Quem lê também precisa poder avaliar se o grau de intervenção altera sua percepção de legitimidade. Para que isso seja possível, é necessário informação. Sem saber que houve mediação tecnológica, o leitor não pode formar juízo. Transparência, nesse caso, não é detalhe.
E há ainda um erro estratégico evidente: se você vai adotar IA como parte do seu processo de escrita, por que a primeira coluna feita com esse método não foi justamente sobre isso? Boa pauta, não? Algo como: “eu uso IA assim, por isso, com esses limites; o que é meu continua sendo meu; o que a ferramenta faz é isto aqui; e estou te contando porque você, leitor, faz parte do contrato”.
Isso teria colocado a autora no papel de quem abre o jogo e conduz o debate. Ao “revelar o segredo” depois da “descoberta”, a mesma explicação soa como remendo. No jornalismo, quem explica depois parece estar se defendendo. E a defesa raramente é mais forte que a transparência espontânea.
É aqui que a discussão deixa de ser pessoal e se torna institucional.
O que falta é protocolo
O caso poderia ser menos ruidoso se existisse um protocolo claro e público estabelecendo, por exemplo:
O que é permitido em textos opinativos: estruturação, revisão, clareza, versão final?
O que é vedado: geração integral sem intervenção substantiva? terceirização do argumento?
O que precisa ser sinalizado ao leitor: sempre? apenas quando a IA gera trechos? qual padrão de aviso?
Quais são os deveres do colunista: revisão humana obrigatória? responsabilidade integral? guarda de versões?
Qual é o papel do jornal: checagem editorial, amostragem, auditoria, treinamento?
Sem protocolo, cada episódio vira guerra de torcida: “contra a IA” versus “a favor da IA”. Com protocolo, o debate sobe de nível: passa a ser sobre critérios, limites e transparência.
A pergunta que fica
O caso da Folha é um ensaio do que veremos com frequência crescente: colunistas usando IA como coprodução, jornais sem padrão claro de aviso, leitores desconfiando de tudo e a credibilidade arranhada não pela tecnologia em si, mas pela falta de clareza.
O que deveria estar no centro da pauta é uma nova exigência: a etiqueta editorial do uso de IA. Algo semelhante ao que já existe - ou deveria existir - para conflitos de interesse, publieditorial, correções e transparência metodológica.
Não compro a tese de que usar IA em coluna de opinião deslegitima automaticamente o texto. Isso é simplificação e desconsiderar a ideia de cocriação. Mas também não compro o outro lado: tratar IA como ferramenta trivial e presumir que o leitor não tem nada a ver com isso. Tem, sim. Porque, quando a “grife” é o produto, o processo faz parte do produto. E, se o processo mudou, a transparência deixa de ser gentileza e passa a ser obrigação.
A pergunta que fica é objetiva: se a IA é inevitável, por que a transparência ainda é tratada como opcional?
Leia também no agenteGPT:
Pesquisa mostra relação de jornalistas brasileiros com Inteligência Artificial
O jornalista e a Inteligência Artificial
Riscos e oportunidades do uso da IA generativa no jornalismo
O papel do Editor de ChatGPT no jornalismo
Dominar o uso da IA já deveria fazer parte da descrição das vagas em comunicação?
Leia os artigos da ombudsman Alexandra Moraes e da colunista Natalia Beauty.
Nota do editor: Foi usada IA na construção do texto? Sim. A agenteGPT é produzida com apoio de GPTs customizados no ChatGPT para pesquisa, revisão, edição, notas e resumos. Neste texto sobre a Folha, a IA ajudou no resumo do caso, na revisão do texto e na edição final [sugestão de intertítulos, alertas de repetições, análise de coerência…].
Dê seu apoio para mais conteúdo
Acesse e assine.
NOVIDADE BEM-VINDA
Deep Research turbinada
A ferramenta de Deep Research [pesquisa aprofundada ou Investigar] do ChatGPT, e da qual sou usuário recorrente, acaba de receber uma atualização que agrega uma série de benefícios:
Amplia o controle do usuário;
Melhora a precisão dos relatórios;
Integra novas fontes de informação;
Opera com o apoio do GPT-5.2, elevando o nível de confiabilidade e qualidade das análises geradas.
Mais precisão com fontes específicas e aplicativos conectados
O grande destaque da atualização é a possibilidade de conectar aplicativos diretamente ao ChatGPT e direcionar a pesquisa para sites específicos [isso é um grande avanço!]. Na prática, além de aproximar o ChatGPT do NotebookLM e customizar a pesquisa, isso significa que o usuário pode delimitar fontes confiáveis, tornando os relatórios mais alinhados a critérios técnicos, acadêmicos ou institucionais.
Essa funcionalidade representa um avanço significativo em termos de:
Curadoria de fontes
Controle metodológico
Transparência na construção da pesquisa
Redução de ruídos informacionais
A novidade está sendo propagada aos poucos para usuários dos planos Plus e Pro. Usuários Free e Go também terão acesso à Deep Research turbinada.
Assista ao vídeo com as novidades.
Leia também na agenteGPT:
Para onde o Deep Research leva o usuário do ChatGPT e do Gemini
Deep Research no ChatGPT: O que muda na forma de interagir com a IA?
OFICIAL
Anúncios começam a ser exibidos no ChatGPT
O que era especulação agora é oficial: a OpenAI oficializou no dia 9 de fevereiro de 2026 o início da exibição de anúncios no ChatGPT, com o lançamento de uma fase de testes de publicidade nos Estados Unidos. De acordo com o comunicado da empresa, a iniciativa tem como objetivo “viabilizar o acesso gratuito e de baixo custo à plataforma, usando publicidade para ajudar a financiar a infraestrutura e o desenvolvimento contínuo do sistema”.
A primeira etapa do teste abrangerá usuários dos planos Gratuito e Go, enquanto assinantes de níveis pagos como Plus, Pro, Business e Enterprise não verão anúncios nesta fase inicial. A OpenAI garante que os anúncios serão sempre claramente identificados como patrocinados e exibidos separadamente das respostas, sem influenciar o conteúdo gerado pela IA.
A empresa também ressaltou princípios de privacidade e controle, afirmando que os anunciantes não terão acesso às conversas nem aos dados pessoais dos usuários, e que será possível gerenciar ou excluir preferências de anúncios a qualquer momento. O teste pretende coletar feedback do uso real para aprimorar a experiência antes de uma possível ampliação futura da estratégia de publicidade.
Página para anunciantes
Para empresas interessadas em anunciar, a OpenAI diz que, com o tempo, irpa aprimorar o programa de publicidade para oferecer suporte a formatos, objetivos e modelos de compra adicionais. Enquanto isso não acontece, ligeira, a dona do ChatGPT já abriu um cadastro para futuros anunciantes em openai.com/advertisers.
REAÇÃO
Aposentadoria polêmica?
Leia também na agenteGPT:
HUMOR
Trend de IA
Você fez, eu fiz, todo mundo fez a trend da vez usando o recurso de criar imagem no ChatGPT:
Crie uma caricatura minha no meu ambiente de trabalho, levando em conta tudo o que você sabe sobre mim.
Ainda não fez? Quem sabe a comediante e influenciadora Raquel Real te convence…: “Todo mundo quer ver. Tá todo mundo muito interessado”.
Sobre o que o ChatGPT sabe. sobre você: isso pode ser útil.
IA E JORNALISMO
Realidade em Portugal
Quase 84% dos jornalistas em Portugal nunca receberam formação em inteligência artificial. A maioria das redações não dispõe de diretrizes claras para o uso destas tecnologias, apesar da sua crescente integração nos processos de produção noticiosa. O cenário revela um défice estrutural de preparação técnica e ética num momento em que a IA já influencia rotinas, decisões editoriais e a própria credibilidade dos media.
É o que aponta o Livro Branco sobre Jornalismo e Inteligência Artificial, o primeiro estudo nacional dedicado a analisar o impacto da IA na mídia portuguesa. Coordenado pela Faculdade de Ciências Sociais e Humanas da Universidade Nova de Lisboa, o documento apresenta dados empíricos, identifica lacunas formativas e propõe recomendações estratégicas para uma integração responsável, transparente e alinhada com o interesse público.
NO RADAR
Panorama
Conteúdos falsos criados com IA mais que triplicam entre 2024 e 2025 [Agência Brasil]
Alunas e professoras
Levantamento identifica 173 vítimas de deepfakes sexuais em escolas [Agência Brasil]
ASPAS
Aposta certeira
“E nosso aplicativo Gemini agora conta com mais de 750 milhões de usuários ativos mensais. Também estamos observando um engajamento significativamente maior por usuário, especialmente desde o lançamento do Gemini 3 em dezembro. De modo geral, estamos vendo nossos investimentos em IA e infraestrutura impulsionarem a receita e o crescimento em todos os setores”.
Sundar Pichai, CEO do Google e da Alphabet, durante apresentação dos resultados do quarto trimestres de 2025, realizada no último dia 4. Ele destacou o lançamento do Gemini 3 como um marco que está impulsionando um crescimento real e resultados de negócios em toda a empresa. A receita anual ultrapassou US$ 400 bilhões pela primeira vez.
Leia também na agenteGPT:
ChatGPT perde participação e Gemini cresce no tráfego das plataformas de IA
Vai chegar a hora de trocar o ChatGPT pelo Gemini?
💬 Consultoria, treinamento e monitoramento
Acesse monitorGPT no site da agenteINFORMA e saiba as informações para a contratação de palestras, oficinas e treinamentos, além do serviço de gestão e construção de GPTs customizados e de consultoria para adoção do ChatGPT e outras IAs na rotina do seu negócio.
EXPEDIENTE
agenteGPT no WhatsApp
Compartilhe sua experiência com o ChatGPT. Participe do grupo agenteGPT no WhatsApp, aberto para interação.
❤️ Siga no Instagram
Ainda não é assinante da newsletter?
Até a próxima edição.










Excelente reflexão...pra quem está na sala de aula, contribuindo com a formação de futuros jornalistas, o tema é fundamental.
Textos excelentes, claros e didáticos! Parabéns!