Grokipedia: a enciclopédia de Elon Musk que desafia a hegemonia da Wikipedia
Enciclopédia baseada na inteligência artificial Grok surge como desafio à “Wokepedia” após acusações de viés ideológico
Read this piece in English here.
A Wikipedia nasceu há 25 anos com a ambição de permitir que qualquer pessoa pudesse colaborar na construção de uma enciclopédia aberta, baseada em fatos verificáveis e comprometida com a neutralidade. No início, a plataforma foi tratada com desconfiança pela classe acadêmica, sobretudo pela ausência de revisão especializada e pela edição anônima. Ainda assim, venceu por outro caminho, passando a ocupar o topo dos resultados do Google e a servir de base para respostas automáticas de assistentes virtuais e modelos de inteligência artificial. Tornou-se assim a principal autoridade prática do conhecimento online.
Entretanto, enquanto se transformava em referência global, a Wikipedia começou a se afastar do ideal de neutralidade que a legitimou. Disputas editoriais deixaram de ser majoritariamente técnicas e passaram a refletir embates ideológicos, especialmente em temas políticos, identitários e em biografias contemporâneas. Grupos de editores jovens, altamente engajados politicamente e majoritariamente alinhados à esquerda, passaram a dominar. O consenso passou então a funcionar como instrumento de poder.
Nos últimos anos, as críticas cresceram exponencialmente e passaram a vir até de setores que antes defendiam a enciclopédia. Larry Sanger, um dos fundadores da Wikipedia, passou a acusar o projeto de ter abandonado o pluralismo e ter sido capturado por militantes organizados. Segundo ele, a enciclopédia já não busca equilíbrio, mas neutraliza o dissenso.
Em setembro de 2025, Sanger publicou o que chamou de suas “Nove Teses”, um manifesto de reforma profunda da Wikipedia. No texto, defendia mudanças estruturais no modelo de consenso, maior transparência editorial, abertura real ao dissenso e o fim da concentração de poder em pequenos grupos de editores.
“Estou pregando Nove Teses na porta da Wikipedia”, escreveu no X, após nove meses de trabalho. Segundo ele, tratava-se da primeira proposta abrangente de reforma do projeto desde sua fundação. Se falhasse, dizia, restaria apenas uma alternativa: criar algo novo.
Dois meses depois, essa alternativa ganhou nome. O bilionário Elon Musk, que já vinha se tornando um dos críticos mais vocais da Wikipedia — chegando a conclamar um boicote a doações à enciclopédia até que o equilíbrio fosse restaurado — anunciou o lançamento da Grokipedia.
Ao contrário da Wikipedia, sustentada por disputas humanas prolongadas e consensos impostos por persistência editorial, a Grokipedia utiliza o Grok, modelo de inteligência artificial desenvolvido pela xAI, para gerar, revisar e atualizar verbetes de forma contínua. O sistema substitui guerras editoriais por verificação automatizada, rastreável e baseada em evidências documentais. Esse modelo ajuda a explicar o ritmo de crescimento acelerado da plataforma. Em menos de três meses, a Grokipedia já acumula mais de seis milhões de verbetes em inglês — cerca de um milhão a menos que a Wikipedia nessa língua.
A Investigação testou a Grokipedia, e o contraste é gritante. A criação de verbetes é mais simples e rápida, sem a necessidade de atravessar conflitos editoriais prolongados. O sistema demonstra alto grau de neutralidade na geração dos textos, com capacidade de vetar abusos, vandalismo e tentativas explícitas de manipulação. Alterações são avaliadas com base em evidência documental, e não na persistência de editores. O algoritmo prioriza fontes consistentes e registradas, reduzindo o espaço para enquadramentos militantes e guerras editoriais.
Até o momento, os verbetes da Grokipedia não são indexados pelo Google nem por outros grandes buscadores, o que limita seu alcance. Ainda assim, a disputa pela curadoria do conhecimento já está em curso e, pela primeira vez em mais de duas décadas, a hegemonia da Wikipedia encontra um concorrente plausível.
Quando a Wikipedia deixou de ser neutra
Em uma série de reportagens publicadas entre 2024 e 2025, o jornalista investigativo britânico Ashley Rindsberg, fundador do site NeutralPOV, expôs a existência de uma rede informal de cerca de 40 editores da Wikipedia que, ao longo de anos, intervieram de maneira sistemática em quase 10 mil artigos relacionados ao conflito israelense-palestino.
Estes editores, conhecidos como a “Gangue dos 40”, realizaram entre 850 mil e 1 milhão de edições, muitas delas coordenadas fora da própria Wikipedia, em servidores privados no Discord, como o grupo “Tech for Palestine”. Ali, dividiam tarefas, combinavam estratégias e operavam em “revezamento” para vencer disputas editoriais por exaustão.
Entre os exemplos estão a remoção do estatuto de fundação do Hamas, de 1988, que defendia a destruição de Israel e o assassinato de judeus; a exclusão de dezenas de milhares de caracteres críticos a relatórios da Anistia Internacional; o branqueamento de grupos como Hezbollah e Jihad Islâmica Palestina; e a minimização sistemática de denúncias de estupro durante os ataques de 7 de outubro de 2023. Em paralelo, referências históricas à presença judaica na região foram diluídas ou suprimidas em centenas de verbetes.
Um dos editores centrais identificados por Rindsberg, conhecido como Iskandar323, acumulou mais de 12 mil edições apenas nessa área temática. Após a publicação das reportagens, ele foi inicialmente afastado de tópicos sensíveis e, em janeiro de 2026, acabou banido da plataforma por reincidência em violações graves.
O conflito israelense-palestino não foi o único caso. Rindsberg identificou padrões semelhantes em verbetes sobre líderes políticos, religião e liberdade de expressão. Figuras autoritárias alinhadas à esquerda recebiam descrições suavizadas, enquanto personagens conservadores eram enquadrados com linguagem moralizante já na abertura dos textos. Em temas religiosos, especulações controversas apareciam em artigos cristãos sem qualquer equivalência em outras tradições.
Essas constatações encontraram eco em outras investigações. Em 2024, um estudo quantitativo do think tank Manhattan Institute analisou o tom associado a mais de 1.600 termos políticos na Wikipedia em inglês, abrangendo presidentes, parlamentares, ministros de cortes supremas, governadores, primeiros-ministros de países ocidentais, jornalistas e organizações de mídia. O estudo identificou uma tendência consistente de associação negativa a figuras conservadoras, enquanto personagens progressistas apareciam ligados a termos positivos.
O estudo também aponta que esse viés pode se propagar para sistemas de inteligência artificial. Ao analisar modelos da OpenAI, os autores encontraram correlação com os padrões semânticos presentes na Wikipedia, sugerindo que distorções editoriais da enciclopédia acabam sendo reproduzidas por IAs treinadas com esse material.
Até mesmo grupos alinhados ao campo progressista chegaram a conclusões semelhantes às de Rindsberg. Em março de 2025, a Anti-Defamation League publicou um relatório que encontrou campanhas coordenadas na Wikipedia para remover referências a terrorismo palestino, minimizar o caráter genocida do Hamas e enfatizar acusações contra Israel, especialmente após outubro de 2023. Meses depois, o Institute for National Security Studies, de Israel, apontou o mesmo padrão, descrevendo a Wikipedia como um espaço ativo de disputa política, não como um repositório neutro de informação.
Outro crítico recorrente do viés editorial da Wikipedia é o jornalista investigativo britânico Andrew Orlowski, que tem batido na tecla de que o problema não está apenas nas guerras de edição, mas na própria estrutura institucional que sustenta a enciclopédia. Em abril de 2024, Orlowski publicou o texto “How Wikipedia became Wokepedia”, no qual argumenta que o projeto deixou de ser apenas um repositório neutro e passou a funcionar como um veículo de promoção de determinadas agendas de “justiça social”.
No artigo, ele examina declarações de dirigentes da Wikimedia Foundation que relativizam a noção de neutralidade em favor de consensos moldados por visões identitárias e critica o papel da própria fundação no financiamento de iniciativas alinhadas a esses temas — sinal, segundo ele, de uma burocracia institucionalizada com prioridades políticas bem definidas.
Orlowski observa ainda uma profunda discrepância entre o discurso público e os números da fundação. Enquanto financia projetos alinhados à agenda woke e acumula centenas de milhões de dólares em ativos, a Wikimedia segue recorrendo a campanhas de doação com linguagem alarmista, como se a enciclopédia estivesse sempre à beira do colapso. Para ele, isso não passa de “ganância insaciável” da Wikipedia.
O volume dessas revelações, somado a relatórios independentes, acabou levando o tema ao centro do debate político em Washington. Em agosto de 2025, o Comitê de Supervisão da Câmara dos Deputados dos Estados Unidos abriu um inquérito para investigar manipulações editoriais na Wikipedia, exigindo da Wikimedia Foundation dados sobre editores banidos, padrões de coordenação e possíveis influências estrangeiras em temas sensíveis. O comitê citou explicitamente indícios da atuação de redes organizadas sobre verbetes de alto impacto, muitos deles amplificados por mecanismos de busca e por sistemas de inteligência artificial.
Em resposta às acusações de viés ideológico e manipulação editorial, a Wikimedia Foundation negou qualquer captura institucional da Wikipedia e reafirmou que a enciclopédia segue baseada em princípios públicos de neutralidade, verificabilidade e consenso comunitário. Segundo a fundação, o conteúdo é produzido e disputado por editores voluntários, com histórico transparente de decisões, e não dirigido por uma agenda centralizada. O cofundador Jimmy Wales também rejeitou a caracterização da Wikipedia como “Wokepedia”, reconhecendo falhas pontuais em artigos sensíveis, mas sustentando que se tratam de desvios individuais a serem corrigidos dentro das próprias regras do projeto, e não de um viés sistêmico imposto pela estrutura da plataforma.
A Grokipedia em funcionamento
Com uma estrutura minimalista, bem ao estilo de Elon Musk, a Grokipedia não impressiona à primeira vista. A página inicial se resume a uma tela com um campo de busca central. Os verbetes só podem ser visualizados após buscas – e elas nem sempre são bem-sucedidas. Abaixo na tela aparecem aleatoriamente, em tempo real, alguns verbetes recém-criados. No rodapé, um contador exibe o número total de artigos disponíveis: até o momento desta publicação, são 6.092.140.
Não há tutoriais, textos explicativos ou guias de uso. O sistema aposta na simplicidade, mas quem acessa entende rapidamente o funcionamento. Novos verbetes podem ser solicitados por usuários logados com conta da xAI. É possível sugerir edições selecionando trechos específicos do texto e acionando a função “suggest edit”. O sistema exige um breve resumo da alteração proposta e a indicação de fontes que sustentem a informação. Todas as sugestões — aprovadas ou rejeitadas — ficam registradas de forma transparente no histórico do verbete.
O processo de avaliação chama atenção pela velocidade. Após o envio, o verbete entra imediatamente em status de revisão. Em poucos minutos, a sugestão é aprovada ou recusada. E os motivos da decisão também são apresentados aos usuários. Cada contribuição impacta o perfil do usuário. A plataforma calcula a taxa de aprovação das edições e atribui uma posição em um ranking interno. Não está claro se esse ranking é global ou segmentado, nem quais critérios adicionais influenciam essa pontuação. Ainda assim, o sistema cria incentivos mensuráveis para contribuições bem fundamentadas.
A área privada de atividades reúne todas as solicitações feitas pelo usuário, com status, data, tipo de intervenção e resultado. Diferentemente da Wikipedia, não há apagamento silencioso de histórico nem decisões opacas tomadas em fóruns paralelos.
Há, no entanto, limitações evidentes. A ausência de outros idiomas ainda restringe o alcance global da Grokipedia, embora seja uma barreira facilmente superável em um projeto baseado em inteligência artificial. Em testes realizados por A Investigação, a criação de um verbete falhou na etapa de geração do link por causa de um acento agudo no título, sinalizando limitações técnicas típicas de uma plataforma ainda em fase inicial e orientada ao inglês.
Ainda assim, nos testes realizados por A Investigação, o sistema demonstrou capacidade consistente de barrar vandalismo, rejeitar enquadramentos opinativos e priorizar fontes documentais. As correções foram tratadas como questões de evidência, não como disputas políticas. Criamos verbetes sobre mim, David Ágape, sobre A Investigação e sobre Eli Vieira, nosso parceiro de Twitter Files e Vaza Toga — algo que havia sido rejeitado de forma sistemática pela Wikipedia ao longo dos anos, sob a alegação de falta de notoriedade enciclopédica. Na prática, essa negativa não impediu que nossos nomes aparecessem de forma dispersa em outros verbetes, muitas vezes de maneira distorcida e depreciativa.
Os verbetes criados pela Grokipedia, por outro lado, são acurados, contextualizados e detalhados. Mesmo quando registram críticas ou controvérsias, o fazem de forma proporcional, sustentada por fontes e sem enquadramentos militantes.
E essa foi a mesma constatação feita pelo criador do canal Nas Daily, um dos mais populares do YouTube, com mais de 14 milhões de inscritos. Em 11 de janeiro, em uma série de postagens no X, Nuseir Yassin manifestou publicamente sua frustração com a Wikipedia ao afirmar que seu perfil havia sido “sequestrado”. Segundo ele, cerca de dez editores anônimos atuaram de forma coordenada para construir uma narrativa de que ele é um “agente israelense”, distorcendo sua trajetória pública. Para Yassin, não se tratava de um erro pontual, mas de um padrão editorial deliberado.
“Desisti da Wokepedia. Minha única esperança é Elon Musk e a Grokipedia”, escreveu na ocasião.
No mesmo dia, ele comparou essa experiência com o verbete sobre sua carreira criado pela Grokipedia. Relatou que a plataforma gerou um artigo com mais de 10 mil palavras, com precisão estimada em 95%, e que um erro factual foi corrigido quase instantaneamente após a apresentação de evidências — sem a necessidade de negociar ou implorar por revisão junto a editores anônimos.
Em outra postagem, Yassin destacou um episódio ainda mais ilustrativo: uma tentativa explícita de inserir acusações políticas em sua página — incluindo alegações de atuação como “porta-voz pago” de governos e ataques a jornalistas — foi analisada e rejeitada automaticamente pelo sistema por falta de sustentação documental.
“Agora eu entendo plenamente o que Elon Musk chama de ‘verdade’. Não é uma palavra de marketing. Ela está literalmente incorporada ao design do sistema. O Google precisa parar de priorizar a Wikipedia na primeira página e substituí-la pela Grokipedia o quanto antes”, escreveu.
O teste decisivo da Grokipedia
Ainda é cedo, porém, para decretar o vencedor dessa guerra. Apesar dos avanços observados nos testes iniciais, permanece a incerteza sobre como a Grokipedia lidará, no longo prazo, com dilemas que não se resolvem apenas por volume de fontes ou velocidade de processamento. A própria lógica algorítmica traz riscos conhecidos: sistemas treinados a partir de grandes fluxos de informação tendem a reproduzir padrões dominantes de circulação de conteúdo, o que pode favorecer versões mais populares — ainda que não necessariamente mais verdadeiras.
Especialistas críticos das big techs alertam para o perigo de uma fé tecnocrática em soluções universais, nas quais decisões automatizadas passam a substituir processos democráticos de deliberação. Herdeira de tradições que exaltavam o governo de especialistas e a engenharia social, essa visão sustenta que a tecnologia poderia organizar a sociedade de modo mais eficiente que arranjos pluralistas. Pensadores contemporâneos chamam isso de “tecnognose”: a crença de que a verdade ou a ordem ideal emergem de sistemas técnicos, ainda que à custa da participação cidadã.
Soma-se a isso a falta de transparência atual sobre os critérios editoriais do algoritmo, a hierarquização de fontes conflitantes e os mecanismos internos de correção de vieses. São pontos centrais que ainda aguardam respostas. Se, por um lado, a Grokipedia surge como reação direta às disfunções do modelo humano de consenso que passou a marcar a Wikipedia, por outro, seu sucesso dependerá de demonstrar que consegue evitar a cristalização de novos vieses — agora codificados, automatizados e menos visíveis.
Ainda assim, considerando precedentes como a abertura do algoritmo do X por Elon Musk, é plausível que esse nível de transparência seja ampliado em versões futuras. O próprio site indica que a plataforma ainda opera em caráter experimental, na versão 0.2, o que reforça tanto seu potencial de evolução quanto a necessidade de cautela na avaliação de seus limites.










Mais um artigo excelente! Sempre curti as inovações do gênio Elon Musk e já conhecia a Grokipedia desde o lançamento. Seu texto trouxe vários detalhes técnicos que eu não conhecia, além de uma pesquisa bem completa e comparativa sobre o setor. Fica a sensação de que a Grokipedia está totalmente alinhada com esse novo jeito de fazer as coisas, onde a IA entra pra assumir o trabalho pesado. Nesse cenário, a Wikipedia acabou ficando para trás tecnologicamente e se tornou obsoleta ao permitir esse controle editorial. Acredito que, assim como fez com o X, o Elon vai continuar libertando aquilo que move a sociedade hoje: a informação.
Parabéns e gratidão por tudo o que tens feito pela verdade.