Künstliche Intelligenz Das Modell von Wikipedia ist bedroht
Wikipedia ist das stille Fundament der digitalen Wissensordnung. KI-Dienste leben von diesem Fundament – drohen es aber zu unterspülen.
Ohne Wikipedia sähen viele Antworten von KI-Assistenten deutlich dünner aus. Die Online-Enzyklopädie ist seit Jahren einer der wichtigsten offenen Wissensspeicher der Welt: kostenlos, werbefrei, von Freiwilligen gepflegt, mit Quellenangaben und Versionsverlauf. Genau diese Stärken machen Wikipedia so wertvoll für das Training großer Sprachmodelle. Paradox ist: Ausgerechnet die neuen KI-Dienste, die von Wikipedia zehren, könnten ihr Geschäftsmodell schwächen. Wie kommt es dazu – und was lässt sich dagegen tun?
Wie Wikipedia finanziert und gepflegt wird
Wikipedia lebt von zwei Dingen: Ehrenamt und Spenden. Freiwillige schreiben, korrigieren und belegen Artikel. Die Wikimedia-Stiftung finanziert Technik, Moderation und Projekte vor allem über Spendenaufrufe. Das Modell funktioniert, solange genügend Menschen Zeit (für Beiträge) und Geld (für Server und Betreuung) geben. Der „Deal“ mit den Nutzerinnen und Nutzern ist einfach: Wer Wikipedia nutzt, kommt vorbei, liest, klickt auf Quellen, spendet vielleicht – und manche bleiben, um mitzuschreiben.
Was KI daran verändert
box
KI-Assistenten beantworten Fragen direkt in der Suchleiste oder im Chatfenster.
Sie zitieren gelegentlich, aber die Nutzerinnen und Nutzer verlassen die Oberfläche von Google, Chatbots oder Apps immer seltener.
Das verschiebt die Aufmerksamkeit:
- Weniger Besuche auf Wikipedia-Seiten bedeuten weniger Spendenkontakte und weniger potenzielle neue Autorinnen und Autoren.
- Weniger sichtbare Quellen senken die Motivation, akribisch zu belegen – wenn der Leser die Belege ohnehin nicht zu Gesicht bekommt.
- Mehr Training ohne Gegenleistung: KI-Modelle profitieren von der Arbeit der Community, zahlen aber bislang kaum etwas zurück.
Kurz gesagt:
Das offene Wissen wird in bequeme Antworten verwandelt, ohne dass die Infrastruktur des offenen Wissens ausreichend gestützt wird.
Lizenzen helfen – aber nur, wenn sie ernst genommen werden
Wikipedia steht unter CC BY-SA: Inhalte dürfen genutzt werden, wenn die Quelle genannt und Weitergaben unter den gleichen Bedingungen ermöglicht werden. In der Praxis ist das bei langen Chatgesprächen oder Such-Antworten schwer umzusetzen. Nötig wären klare, maschinenlesbare Hinweise auf die Herkunft jeder Aussage – und sichtbare Verweise dorthin, wo die Information gepflegt wird. Sonst droht eine Entkopplung von Inhalt und Ursprung: Das Wissen bleibt, die Pflegebasis erodiert.
Warum das auch für KI ein Problem ist
Wer die „Quelle der Quellen“ schwächt, sägt am eigenen Ast. KI-Modelle müssen regelmäßig aktualisiert werden. Sie brauchen frische, geprüfte Inhalte und eine lebendige Debattenkultur, die Fehler korrigiert. Wikipedia liefert genau das: Transparenz der Änderungen, Diskussionsseiten, Quellenpflicht. Wenn diese Strukturen austrocknen, verschlechtert sich langfristig auch die Qualität der Antworten von KI-Systemen. Die Folge wären mehr Halluzinationen, weniger Nachvollziehbarkeit – und sinkendes Vertrauen.
Die ökonomische Schieflage
Bisher gilt: Die mühsame, unbezahlte Arbeit passiert in der Community, die Wertschöpfung (Nutzerbindung, Werbeerlöse, Abogebühren) entsteht bei den Plattformen, die Antworten „ausspielen“. Das ist keine böse Absicht, sondern das Ergebnis von Bequemlichkeit: Wer eine fertige Antwort bekommt, klickt seltener weiter. Aber für ein öffentliches Gut wie Wikipedia ist das gefährlich. Ein stabiler Wissensraum braucht Rückfluss – finanziell, technisch, in Form von Nutzerströmen oder Mitarbeit.
Was jetzt geschehen müsste – in klaren Schritten
Wikipedia ist das stille Fundament der digitalen Wissensordnung. KI-Dienste leben von diesem Fundament – drohen es aber zu unterspülen, wenn sie Antworten ohne klare Herkunft ausspielen und kaum etwas zurückfließt. Damit schadet sich KI am Ende selbst: Ohne gepflegte, nachvollziehbare Quellen sinkt die Qualität der Modelle. Die Lösung liegt nicht in Mauern, sondern in sichtbarer Attribution, fairen Vereinbarungen und besserer Verzahnung."
- Sichtbare Quellenverweise: Antworten von KI und Suchmaschinen sollten prominent anzeigen, woher die Kernaussagen stammen – inklusive direkter Sprungmarken zu den betreffenden Abschnitten bei Wikipedia.
- Fairer Beitrag zur Infrastruktur: Lizenzkonforme Daten- und API-Vereinbarungen mit finanzieller Beteiligung würden die laufende Pflege refinanzieren, ohne die Offenheit aufzugeben.
- Nachvollziehbarkeit im Produkt: Nutzer sollten per Klick sehen können, welche Sätze aus welchen Artikeln/Versionen stammen. Das stärkt Vertrauen – und lenkt wieder Menschen in die Pflege-Community.
- Technische Unterstützung für Ehrenamtliche: KI kann beim Vandalismusschutz, bei Quellenchecks und beim Vorschlagen von Lücken helfen – aber stets als Werkzeug, nicht als Autor.
- Stärkung von Wikidata: Strukturierte Daten erleichtern maschinenlesbare Zitationen. Wer Wikidata stärkt, macht Attribution für KI einfacher und zuverlässiger.
Was Sie als Nutzer tun können
Auch Leserinnen und Leser haben Hebel – ohne Programmierkenntnisse:
- Spenden, wenn Wikipedia im Alltag hilft; kleine Beträge machen die Masse.
- Korrekturen melden oder selbst eintragen, gerade bei lokalen Themen.
- Quellen prüfen: Ein fehlender Beleg? Nachtragen oder anregen.
- Weiterklicken: Wenn KI eine Antwort liefert, ruhig einmal zur Quelle gehen – für Kontext, Richtigkeit und als Signal.
Die Rolle der Politik
Politik muss offene Wissensinfrastruktur als öffentliches Gut anerkennen. Das heißt nicht, Wikipedia zu verstaatlichen, sondern die Rahmenbedingungen zu setzen: verlässliche Urheberrechtsausnahmen mit Attribution, Förderung offener Datenprojekte, Forschung zu Quellen-Nachweisen für KI, und Anreize für kooperative Modelle zwischen Plattformen und Gemeingütern. Wichtig ist Pragmatismus: Regeln sollen Innovation ermöglichen und Offenheit schützen, nicht eines gegen das andere ausspielen.
Fazit
Wikipedia ist das stille Fundament der digitalen Wissensordnung. KI-Dienste leben von diesem Fundament – drohen es aber zu unterspülen, wenn sie Antworten ohne klare Herkunft ausspielen und kaum etwas zurückfließt. Damit schadet sich KI am Ende selbst: Ohne gepflegte, nachvollziehbare Quellen sinkt die Qualität der Modelle. Die Lösung liegt nicht in Mauern, sondern in sichtbarer Attribution, fairen Vereinbarungen und besserer Verzahnung. Wer möchte, dass KI zuverlässig bleibt, sollte auch wollen, dass Wikipedia stark bleibt: als Ort der Quellen, der Diskussion – und der offenen Korrektur.
Ich glaube, dass Menschen, die sich ihrer Ziele und Werte bewusst werden, sorgenfreier leben.












