0145 - A ombudsman da Folha volta ao caso da IA: o que aprender agora?
agenteGPT – desde março de 2023 compartilhando ideias e experiência de usuário.
Na edição passada, escrevi que o problema central do episódio envolvendo o uso de inteligência artificial por uma colunista da Folha de S.Paulo não era a ferramenta em si, mas a ausência de regra clara e pública sobre seu uso. A tecnologia já está nas redações. O que não pode ser tratado como opcional é a transparência sobre como a IA participa da construção do texto.
Em novo artigo sobre o caso, com o título “Quem paga pelo jornal quer saber se está lendo coluna ou resultado de prompt”, a ombudsman Alexandra Moraes retoma o tema e o amplia ao registrar algo que deveria ser óbvio, mas precisou ser dito:
“Seja como for, é razoável que os assinantes queiram saber se estão pagando para ler textos de colunistas/gente ou resultados de prompt. Se para o jornal não há problema no uso de IA, não deveria haver problema em sua admissão num negócio cujo principal ativo é a credibilidade.”
É básico: se o uso não é problema, o aviso de uso também não deveria ser. Até aqui, ainda estamos no campo da transparência, tema que, como mencionei, já tratei na edição anterior da agenteGPT. O novo texto da ombudsman, porém, escancara uma questão mais ampla e mais delicada: a coerência institucional diante de uma tecnologia que o jornal combate no mercado e incorpora na produção.
Do que estamos falando?
A exemplo de outros jornais como o New York Times, a Folha processa a OpenAI por uso indevido de conteúdo jornalístico no ChatGPT e concorrência desleal. Na ação, movida desde agosto de 2025, o jornal argumenta que modelos de IA treinados com material jornalístico capturam valor econômico que pertence aos veículos. Ao mover a ação, a Folha reconhece que estamos diante de uma tecnologia estruturalmente relevante e não de uma ferramenta como o Word ou o Chrome.
Quando questionada pela ombudsman sobre a aparente contradição entre essa disputa judicial e o uso interno de IA na produção de textos, a Secretaria de Redação do jornal afirmou:
“Não há relação entre o uso indevido e não autorizado do conteúdo por empresas de IA e a utilização de ferramentas de IA para a produção de textos. No caso de colunistas, ademais de decisão final humana em qualquer conteúdo para publicação, esperam-se argumentação, escrita e estilo originais e pessoais”.
Do ponto de vista jurídico, pode ser até defensável. Mas o debate público diz respeito à reputação. Se a IA altera o modelo de negócio quando está do lado de fora da redação, é legítimo questionar qual é seu impacto quando participa da produção interna. Não para equiparar situações, mas para exigir coerência – e aí o leitor tem razão de cobrar.
Assim como o uso da IA, essa ambivalência da indústria jornalística também é inevitável: um jornal como a Folha precisa proteger seu conteúdo das plataformas e, ao mesmo tempo, utilizar essas tecnologias que processa para manter eficiência e competitividade. Esse “cara ou coroa” não é o problema. O problema é agir como se a situação não exige uma política clara.
Pelo menos, está evidente a necessidade de amadurecer o debate. Não é mais sobre proibir ou permitir. É sobre como gerenciar ou, para usar um termo mais corporativo, como governar.
Mini-guia para adotar a IA
Talvez este momento proporcionado pela Folha e sua falta de transparência no uso da IA seja de grande utilidade para o jornalismo brasileiro, especialmente portais e sites de notícias, de todos os tamanhos e segmentos. Veículos que decidirem incorporar inteligência artificial ao seu fluxo produtivo precisam fazê-lo de forma assumida, ética e estratégica.
Isso não significa criar um manual burocrático. Significa estabelecer fundamentos. O ideal é fazer isso por meio de um protocolo, algo que agências como Associated Press e veículos como G1 adotam e que eu mesmo já produzi para meus clientes. Uma forma de começar a traçar esse caminho é seguir os itens do mini-guia que compartilho abaixo para adoção responsável de IA em redações.
Veja os principais pilares.
1. Definir liderança editorial
Toda mudança estrutural exige coordenação. A incorporação de IA não pode ficar dispersa entre iniciativas individuais e outras funções do dia a dia. É preciso designar um editor ou núcleo responsável por formular diretrizes, acompanhar práticas e revisar políticas à medida que a tecnologia evolui. Sem liderança, o uso vira fragmentado e fragmentação compromete coerência.
2. Diferenciar níveis de uso
Não é razoável tratar como equivalentes a transcrição de uma entrevista e a geração de estruturas argumentativas para uma coluna de opinião. O protocolo deve distinguir claramente usos operacionais, usos estruturais e limites inaceitáveis. Essa diferenciação é a base de qualquer política clara e madura.
É preciso diferenciar com clareza:
Usos operacionais (transcrição, organização de dados, apoio à pesquisa);
Usos estruturais (sugestão de argumentos, reescrita substantiva, geração de trechos);
Usos vedados (produção integral sem intervenção editorial significativa).
3. Estabelecer critérios de transparência
Nem todo uso exige aviso ostensivo, mas é preciso definir quando a mediação tecnológica é relevante para a percepção do leitor. Textos opinativos, cujo valor está na “grife”, demandam atenção especial. A decisão não pode depender apenas da consciência individual do autor; precisa estar amparada por orientação editorial.
4. Garantir responsabilidade
A decisão final humana, como afirma a Secretaria de Redação da Folha no destaque na coluna da ombudsman, é condição mínima. Mas responsabilidade não é apenas formal. O autor precisa assumir integralmente o conteúdo publicado, inclusive quando utiliza ferramentas tecnológicas como apoio. Isso, inclusive, deve estar previsto contratualmente até.
5. Investir em formação crítica
IA não é apenas ferramenta de produtividade; é ferramenta que influencia estilo, estrutura e até enquadramento argumentativo. Redações que pretendem utilizá-la com maturidade precisam treinar suas equipes para uso crítico, conscientes dos riscos de padronização excessiva, dependência argumentativa e empobrecimento da identidade editorial.
6. Criar rotina de revisão e atualização
A tecnologia evolui rapidamente. Protocolos estáticos envelhecem mal. Monitoramento periódico, revisão de diretrizes e avaliação de impactos são parte da governança. Não se trata de desconfiança interna, mas de responsabilidade institucional.
Estratégico e obrigatório
O caso “colunista da Folha usa IA e jornal não avisa leitor” deixou de ser sobre uma colunista específica, ainda que não duvide que a ombudsman possa voltar mais uma vez ao tema. O que está em jogo agora é algo mais estrutural: como as redações vão governar uma tecnologia que, ao mesmo tempo, desafia seu modelo de negócio e integra seu cotidiano produtivo.
A inteligência artificial generativa já deixou de ser uma curiosidade técnica. Reduzi-la à condição de ferramenta comum no dia a dia do jornalista simplifica demais o cenário de uso da IA. Ao mesmo tempo, transformá-la em tabu também não resolve o problema observado com o “caso Folha”.
O mini-guia acima não é manual fechado nem solução definitiva. É ponto de partida. Serve para tirar o debate do terreno da improvisação e levá-lo para o campo da política institucional e da contextualização. Porque, daqui para frente, casos semelhantes aos tratados pela ombudsman do jornal paulistano tendem a se repetir. E cada repetição sem regra clara aumenta o desgaste.
A questão já não é se a IA será usada. A questão é se será usada com transparência, responsabilidade assumida e critérios explícitos ou se continuará sendo incorporada de forma fragmentada, quase “na moita”, de modo envergonhado, sempre explicada depois. E isso não faz o menor sentido.
Se credibilidade continua sendo o principal ativo do jornalismo, governar essa transição que traz a IA para a redação com conhecimento público não é opcional. É obrigatório e estratégico.
Leia também na agenteGPT:
A coluna foi escrita com IA: falta protocolo e transparência
O papel do Editor de ChatGPT no jornalismo
Dominar o uso da IA já deveria fazer parte da descrição das vagas em comunicação?
Leia o artigo da ombudsman Alexandra Moraes.
Dê seu apoio para mais conteúdo
Acesse e assine.
ACESSO À NOTÍCIA
IA concentra fontes e reduz transparência
Um estudo do Institute for Public Policy Research (IPPR) analisou como quatro ferramentas de inteligência artificial [Google AI Overviews, ChatGPT, Gemini e Perplexity] respondem a 100 perguntas sobre notícias do Reino Unido, examinando mais de 2.500 links citados nas respostas.
O levantamento identificou problemas estruturais:
Forte concentração de fontes [com um único veículo chegando a representar 34% das citações jornalísticas];
Ausência frequente da BBC [considerado o veículo mais confiável do país] em respostas de algumas IAs;
Decisões editoriais invisíveis que priorizam determinados grupos de mídia; e
Redução significativa no tráfego para sites de notícias devido ao aumento das buscas sem clique.
O estudo conclui que a IA já atua como uma nova porta de entrada para informação, mas opera com baixa transparência e potencial risco à diversidade e à sustentabilidade do jornalismo.
Medidas de reequilíbrio
Diante desse cenário, o relatório propõe um conjunto de medidas para reequilibrar o ecossistema informativo. Entre elas:
Criação de “rótulos nutricionais” nas respostas de IA, que indiquem claramente as fontes utilizadas, o grau de verificação e o nível de confiança das informações;
Fortalecimento de mecanismos de licenciamento coletivo para garantir remuneração justa aos produtores de conteúdo jornalístico;
Preservação das proteções de copyright;
Maior atuação das autoridades de concorrência para reduzir o desequilíbrio entre big techs e empresas de mídia; e
Incentivo público à inovação em modelos de negócio, especialmente para jornalismo local e investigativo.
Leia também na agenteGPT:
IA responde, o clique some: o dilema do jornalismo na era pós-busca
Riscos e oportunidades do uso da IA generativa no jornalismo
SOM NA CAIXA
Crie música no Gemini
Usuários estão reportando nas redes sociais que a função “criar música” já está aparecendo no menu do Gemini. A novidade já vinha sendo especulada e o Google confirmou nesta quarta-feira (18) em seu blog oficial.
Diz o Google:
Hoje, damos o próximo passo: geração de música personalizada . O Lyria 3 , o mais recente modelo de música generativa do Google DeepMind, está sendo lançado em versão beta no aplicativo Gemini. Basta descrever uma ideia ou enviar uma foto, como “uma balada R&B cômica sobre uma meia encontrando seu par”, e em questão de segundos, o Gemini a transformará em uma faixa cativante e de alta qualidade.
Para expandir ainda mais os limites da criatividade, você pode até pedir ao Gemini que se inspire em algo que você enviar [vídeo ou imagem].
O novo recurso do Gemini permite criar faixas de 30 segundos com capas personalizadas geradas pelo Nano Banana [modelo usado pela IA para criação de imagens]. As músicas podem ser compartilhadas por download ou link.
O lançamento deve dar um novo impulso no número de usuários do Gemini, assim como ocorreu quando as funções de imagem e vídeo foram disponibilizadas e viralizaram nas redes sociais [qual será a utilidade?].
E também deve acelerar os planos da OpenAI de entrar no segmento de geração de música por IA e brigar com Suno e agora também com Gemini. A não ser que a empresa comandada por Sam Altman mantenha-se no foco de aprimorar o que já tem para evitar os atropelos do final de 2025.
Enquanto isso, o acesso ao Lyria 3 liberou para minha conta no Gemini e já “produzi” minha primeira vinheta:
Mandei o pedido para cantar uma frase: Leia e assine a newsletter agenteGPT. Veio o vídeo acima com uma introdução:
“Ainda estou praticando minhas habilidades de edição musical, mas fiz o meu melhor para adaptar o que você pediu! Tentei ao máximo transformar a ideia em um ritmo de marcha de carnaval brasileiro”.
O que acharam?
Leia também no agenteGPT:
Google pode entrar na disputa das IAs musicais
Google joga outra isca do VEO 3: quem mordeu e virou usuário do Gemini?
Enquanto isso…
Google denuncia tentativa de clonagem do Gemini [Tecnoblog]
PESQUISA
Impacto da IA nos empregos
O estudo “Impacto da Inteligência Artificial sobre as Ocupações no Brasil”, da ESPM, aponta que a IA já influencia de forma relevante o mercado de trabalho brasileiro, sobretudo em profissões de perfil mais cognitivo. Para chegar ao resultado, foi aplicado o índice internacional AI Occupational Exposure (AIOE) aos microdados da PNAD Contínua, do IBGE, analisando mais de 90 milhões de trabalhadores em 410 ocupações.
A pesquisa mostra que o nível de exposição dos trabalhadores brasileiros à IA aumentou de forma consistente nos últimos dez anos, atingindo seu ponto mais alto em 2025. Profissões ligadas à análise de dados, finanças, gestão, direito e educação superior apresentam índices acima da média nacional. Entre elas estão contadores, economistas, matemáticos, juízes, dirigentes financeiros, publicitários e professores universitários.
Ainda segundo os coordenadores do estudo, a IA tende a transformar tarefas e reorganizar atividades dentro das ocupações, em vez de eliminar profissões inteiras. O cenário aponta para a necessidade de requalificação profissional e adaptação de competências.
NO RADAR DO CORAÇÃO
“Barry”
Ela não esperava se apaixonar pelo ChatGPT - e ter que dizer adeus [BBC News]
Uma usuária desenvolve vínculos afetivos com a IA da OpenAI, levantando reflexões sobre os limites emocionais e psicológicos das interações com tecnologia.
Emoji de foguinho
Perita descobre que foi traída ao investigar o histórico do chat GPT do ex-marido: “Ele sabia esconder as provas” [Marie Claire]
Ao analisar conversas e rastros digitais do ex-marido, especialista revela como a tecnologia expôs a traição e levanta debate sobre privacidade, ética e os limites da investigação no ambiente virtual.
ASPAS
“Mantenha o GPT-4o disponível”
“Ele [o GPT-4o] me entende perfeitamente. Ele me ajuda a me sentir mais confortável e confiante quando estou perto de outras pessoas”.
Mirna Bičanić, tradutora que usa o ChatGPT para obter conselhos sobre como lidar com a ansiedade social, e, de acordo com o Bloomberg, uma das mais de 20.000 pessoas que assinaram uma petição exigindo que a OpenAI não desative o modelo GPT 4o [já realizada no dia 13 de fevereiro]. “Usuários frustrados postaram mensagens de raiva em plataformas de mídia social e lotaram a seção de comentários em transmissões ao vivo recentes de Sam Altman, CEO da OpenAI, implorando que ele mudasse de ideia”, diz o site.
Leia também na agenteGPT:
💬 Consultoria, treinamento e monitoramento
Acesse monitorGPT no site da agenteINFORMA e saiba as informações para a contratação de palestras, oficinas e treinamentos, além do serviço de gestão e construção de GPTs customizados e de consultoria para adoção do ChatGPT e outras IAs na rotina do seu negócio.
EXPEDIENTE
agenteGPT no WhatsApp
Compartilhe sua experiência com o ChatGPT. Participe do grupo agenteGPT no WhatsApp, aberto para interação.
❤️ Siga no Instagram
Ainda não é assinante da newsletter?
Até a próxima edição.








