R.I.P. Wikipedia?
- Nik Thomi
- vor 5 Tagen
- 2 Min. Lesezeit

Bild: ChatGPT
Darum geht es
Elon Musk sorgt wieder einmal für Schlagzeilen: Mit seiner KI-Firma xAI hat er die Plattform Grokipedia lanciert – eine Art künstlich-intelligentes Wikipedia, das vollständig von Musks ChatGPT-Alternative Grok generiert und betrieben wird. Laut Musk soll Grokipedia «the truth, the whole truth and nothing but the truth» liefern, wie er auf X (vormals Twitter) schrieb.

Die buggy Beta-Version 0.1 wurde Ende Oktober 2025 veröffentlicht. Musk selbst bezeichnete sie zwar als fehlerhaft, behauptete aber gleichzeitig: «Even this very early release is better on average than Wikipedia imo.» Grokipedia steht damit in direkter Konkurrenz zum klassischen Wikipedia. Der Unterschied: Während Wikipedia von einer weltweiten Community gepflegt wird, entsteht der Inhalt bei Grokipedia durch künstliche Intelligenz – Nutzerinnen und Nutzer können Fehler nur melden, aber nicht selbst korrigieren. Musk positioniert sein Projekt als Antwort auf das, was er als «linkslastigen Bias» von Wikipedia bezeichnet.

Unsere Meinung
Der Anspruch, «nur die Wahrheit» zu liefern, klingt verführerisch – ist aber gefährlich. Wahrheit entsteht nicht durch einen Algorithmus oder eine einzelne Ideologie, sondern im Spannungsfeld vieler Perspektiven. Genau das ist die Stärke von Wikipedia: Natürlich gibt es dort subjektive Einflüsse, aber weil unzählige Menschen mit unterschiedlichen Hintergründen, Meinungen und Kulturen mitarbeiten, entsteht eine gewisse Selbstkorrektur. Wenn hingegen eine KI-Enzyklopädie wie Grokipedia auf einem System basiert, das von einer klaren Geisteshaltung geprägt ist – in diesem Fall einer libertär-konservativen Weltanschauung –, dann ist jeder Eintrag potenziell gefärbt.
Hinzu kommt ein weiteres Risiko: Grosse Sprachmodelle halluzinieren. Sie erfinden mitunter Fakten, Namen oder Zusammenhänge, die überzeugend klingen, aber schlicht falsch sind. Wenn ein solches System als Wahrheitsquelle auftritt, kann aus Desinformation schnell Überzeugung werden. Das Resultat ist nicht weniger Bias*, sondern ein Bias aus einer Hand – mit dem Anschein objektiver Wahrheit.
Lieber also ein Wikipedia mit Ecken und Kanten als ein KI-System, das vorgibt, die Wahrheit zu kennen – und dabei am Ende vielleicht nur eine Meinung algorithmisch perfektioniert.
*Bias bedeutet Verzerrung oder Voreingenommenheit und beschreibt eine Tendenz, unbewusst oder bewusst Informationen, Personen oder Gruppen in einer voreingenommenen Weise zu interpretieren oder zu bewerten.




Kommentare