ChatGPT usa Grokipedia de Musk e gera debate sobre viés em IA

Testes do The Guardian revelam que o modelo GPT-5.2 citou a enciclopédia gerada por IA em temas delicados, reacendendo preocupações com desinformação.

ChatGPT usa Grokipedia de Musk e gera debate sobre viés em IA
Imagem: Epocanegocios

O mais recente modelo GPT-5.2 do ChatGPT, o popular chatbot da OpenAI, foi flagrado citando a Grokipedia, enciclopédia online gerada por inteligência artificial e criada pela xAI, empresa de Elon Musk. A constatação, revelada em testes recentes do jornal britânico The Guardian, em janeiro de 2026, reacendeu o debate sobre o viés e a propagação de conteúdos de baixa credibilidade em grandes modelos de linguagem. A Grokipedia, lançada em outubro do ano anterior, tem sido criticada por seu viés político e por não permitir edição humana direta, confiando na IA para criar e modificar seu conteúdo.

Os testes conduzidos pelo The Guardian mostraram que o ChatGPT recorreu à Grokipedia em nove ocasiões, em respostas a perguntas que abordavam desde a estrutura política iraniana, como salários da força paramilitar Basij e a propriedade da Fundação Mostazafan, até detalhes biográficos do historiador britânico Sir Richard Evans, conhecido por sua atuação contra o negacionista do Holocausto David Irving. Em alguns desses casos, as informações fornecidas pelo ChatGPT, baseadas na Grokipedia, apresentavam afirmações mais contundentes do que aquelas disponíveis na Wikipédia, aprofundando as preocupações sobre a origem e a veracidade dos dados.

Um ponto que chamou a atenção dos especialistas foi o comportamento seletivo do modelo de IA. O ChatGPT não citou a Grokipedia quando questionado diretamente sobre temas altamente debatidos nos quais a enciclopédia de Musk é conhecida por promover falsidades, como a invasão ao Capitólio dos EUA em 6 de janeiro ou alegações de viés da mídia contra Donald Trump. As referências à Grokipedia surgiram, na verdade, em tópicos mais obscuros, sugerindo que a desinformação pode se infiltrar de maneiras mais sutis nas respostas dos LLMs. A OpenAI, por sua vez, declarou que seu sistema de busca visa uma ampla gama de fontes, aplica filtros de segurança e mantém programas contínuos para coibir informações de baixa credibilidade.

A pesquisadora de desinformação Nina Jankowicz alertou sobre os riscos, afirmando que a citação de fontes como a Grokipedia por modelos de IA pode, inadvertidamente, elevar a credibilidade percebida desses sites aos olhos do público. A dificuldade de remover informações falsas de modelos de IA, mesmo após correção em suas fontes originais, é outro desafio destacado por Jankowicz. O episódio também reforça discussões sobre práticas como "LLM grooming", onde redes de propaganda manipulam modelos de IA com desinformação. Vale notar que o modelo Claude da Anthropic também foi observado citando a Grokipedia. Questionada sobre o assunto, a xAI, proprietária da Grokipedia, limitou-se a declarar: "A mídia tradicional mente."

Este cenário complexo evidencia um desafio fundamental para a inteligência artificial contemporânea: a necessidade de equilibrar a diversidade de fontes com a precisão factual e a responsabilidade social em uma escala global. A curadoria rigorosa e a vigilância constante sobre as fontes de dados que alimentam os algoritmos se tornam cruciais para garantir que a IA seja uma ferramenta de informação confiável e não um vetor para a propagação de desinformação.

Fontes

https://epocanegocios.globo.com/inteligencia-artificial/noticia/2026/01/ultimo-modelo-do-chatgpt-usa-a-grokipedia-de-elon-musk-como-fonte-mostram-testes.ghtml
https://eurisko.com.br/chatgpt-e-flagrado-citando-grokipedia-de-elon-musk-e-reacende-debate-sobre-vies-em-ia/
https://olhardigital.com.br/2026/01/24/inteligencia-artificial/chatgpt-cita-grokipedia-como-fonte-em-respostas-diz-jornal/