Em 2023, a OpenAI — criadora do ChatGPT — tentou lançar um detector de textos feitos por inteligência artificial. A ferramenta durou poucos meses. O motivo? Errava demais. Textos legítimos, escritos por humanos, eram frequentemente classificados como gerados por IA. O inverso também acontecia. E isso não é exceção: é a regra.
A verdade é que detectar com precisão se um texto foi escrito por uma pessoa ou por um modelo de linguagem é um desafio que beira o impossível. E há uma razão para isso: esses detectores funcionam com base no mesmo princípio que os geradores. É quase como se um espelho tentasse reconhecer outro espelho.
Eles não entendem contexto, autoria ou intenção. Apenas analisam padrões de linguagem. O que parece previsível demais, limpo demais, estruturado demais, é rotulado como suspeito. Mas esse é justamente o estilo de muitos textos jornalísticos, acadêmicos e históricos — o que explica por que ferramentas de detecção já apontaram, por engano, que Tom Jobim e Getúlio Vargas eram bots.
Esse paradoxo deixa um alerta: quanto melhores os modelos de geração, piores ficam os detectores. Porque quanto mais humano o texto gerado, menos sinais ele deixa para trás. Em uma corrida entre criador e fiscal, é o criador quem está ganhando — de longe.
No campo da educação, isso nos obriga a olhar para além do plágio. O risco maior é o que vem depois dele: alunos que já não escrevem com autonomia, que não sabem argumentar, estruturar ideias, ou sequer perceber a diferença entre uma resposta rasa e uma boa pergunta. Se a inteligência artificial faz tudo por eles, que tipo de pensamento estaremos formando?
A saída talvez não seja banir o uso da IA — mas repensar profundamente os métodos de avaliação. Avaliar não só o que se escreve, mas como se chegou àquele resultado. Redações em sala, revisões por etapas, conversas sobre o raciocínio por trás do texto. Ou até mesmo ensinar o uso consciente da IA como parte do processo pedagógico.
No jornalismo, o risco vai além da desinformação. Está na superficialidade. A IA ainda não sente. Ainda não investiga. Ainda não entende o silêncio de uma fonte ou a ironia de uma declaração. Se começarmos a nos contentar com textos que apenas “parecem” certos, sem apurar, sem interpretar, estaremos abrindo mão da principal virtude da boa imprensa: a escuta crítica.
Nesse cenário, ferramentas de detecção devem ser vistas como o que de fato são: alertas, não provas. Podem levantar suspeitas, indicar inconsistências, mas não podem — e não devem — ser usadas isoladamente para punir, julgar ou tomar decisões definitivas.
Há tentativas de criar um “carimbo digital” nos textos gerados por IA, as chamadas watermarks, que deixariam um rastro invisível para quem sabe onde procurar. Mas, por enquanto, essas marcas podem ser facilmente apagadas com pequenas edições. Ainda não temos uma solução técnica definitiva.
Estamos entrando em uma era em que a dúvida sobre a autoria de um texto será cada vez mais comum — e legítima. Mais do que tentar voltar atrás, o desafio agora é aprender a conviver com essa nova realidade. Desenvolver critérios, combinar inteligência artificial com inteligência humana e, acima de tudo, revalorizar o que nos faz únicos: a intenção, a ética, o contexto, o pensamento original.
E diante desse novo mundo em que até a autoria está em xeque, fica uma pergunta desconfortável — mas necessária:
Você tem certeza que esse texto foi escrito por um humano?
Diogo França é Diretor da XP Educação, onde lidera as áreas de Estratégia, Tecnologia e Growth. Com trajetória marcada pela construção de produtos e por transformações de grandes empresas, combina visão de negócios com domínio técnico. Economista de formação, tem se dedicado à integração da IA na educação, criando soluções que preparam profissionais para os desafios do futuro. Sua liderança está focada em posicionar a XP Educação como referência em transformação digital no setor educacional. https://www.linkedin.com/in/francadiogo - https://www.xpeducacao.com.br/podcast-acelerai