Wer nicht surft bleibt dumm? Über das Für und Wider der Online-Enzyklopädie Wikipedia

WikipediaMit dem zunehmenden Erfolg wächst auch die Kritik an der freien Online-Enzyklopädie Wikipedia, vor allem hinsichtlich der Zuverlässigkeit ihrer Inhalte. Weil auch sciencegarden seit kurzem den Wikicheck zum schnellen Nachschlagen von Begriffen in der Wikipedia anbietet, haben wir einen sachkundigen Autoren um eine ausgewogene Darstellung der Potentiale und Grenzen des Lexikons gebeten.

Psychologen der Universität Würzburg haben jüngst eine erst seit kurzem bekannte Unterart des Homo sapiens näher untersucht. Der typische Vertreter dieser Gattung ist ein 33-jähriger männlicher Single, der neben seinem Vollzeiterwerb täglich etwa zwei Stunden unentgeltlicher Arbeit einem bemerkenswerten Projekt widmet: Er liest, recherchiert, redigiert und schreibt für ein Lexikon. Wikipedianer heißen die Vertreter dieser Spezies, und sie haben ihren Namen von dem Online-Lexikon Wikipedia, was wiederum ein Kunstwort ist aus dem hawaiianischen Wort für „schnell“ („wikiwiki“) und dem englischen „encyclopedia“.

Die Kernidee hinter dem schwindelerregend schnell wachsenden Lexikon ist einfach: Einen Computer mit Internetzugang vorausgesetzt, kann, darf und soll jedermann zu jeder Zeit von jedem Ort einen Beitrag zu der Wissenssammlung leisten, direkt im Browser und ohne irgendwelche HTML- oder sonstige Programmierkenntnisse. Möglich wird dies durch eine von Ward Cunningham Mitte der 90er-Jahre entwickelte Datenbank-Software, der er in Anlehnung an das World Wide Web den Namen „WikiWikiWeb“ gab, heute meist nur noch „Wiki“ genannt. Damit wurde wenige Jahre nach der Geburt des WWW die Vision von Tim Berners-Lee, dem Vater des weltweiten Netzes, Wirklichkeit: Das Netz sollte möglichst interaktiv und offen sein, keine nur für Fachleute verständliche und nutzbare Einbahnstraße vom Rechner zum User. Nachdem sie einige Jahre ein weitgehend unbeachtetes Nischendasein im vorwiegend englischsprachigen Web fristeten, gibt es mittlerweile webweit unzählige, thematisch höchst vielfältige Wikis. Mit den übersichtlich verlinkten „Linien“ des so genannten Tourbusses kann man eine virtuelle Fahrt durch die Welt der Wikis unternehmen. Mit Linie 101 etwa gelangt man vom LinuxWiki zum JuraWiki und weiter zum Wiki für die Computersprache Python, wo man in den 03er-Bus umsteigen kann, der direkt zum BücherWiki fährt. Dort nimmt man die 103 zum englischsprachigen TolkienWiki. Eher früher als später wird der Wikiweltreisende an der Haltestelle „Allee der Enzyklopädisten“ vorbeikommen, womit er bei der deutschen Dependance des mit Abstand größten aller Wikis gelandet wäre – der Wikipedia. Im Januar 2001 wurde sie von dem US-Amerikaner Jimmy Wales nach dem gescheiterten Vorläuferprojekt Nupedia ins Leben gerufen. Wales ist inzwischen Vorsitzender der im Juni 2003 gegründeten Wikimedia-Stiftung, unter deren Dach die Wikipedia und zahlreiche Schwesterprojekte zusammengefasst sind.

klassische EnzyklopaedieWie die französischen Enzyklopädisten des 18. Jahrhunderts um Diderot und d’Alembert, haben sich die Wikipedianer das Ziel gesetzt, das gesamte verfügbare Wissen ihrer Zeit zu sammeln und zugänglich zu machen. Wie ernst es den durchweg ehrenamtlich arbeitenden Wikipedianern damit ist, zeigt die Statistik: Ihr Lexikon gibt es bereits in mehr als 180 Sprachen; die Artikelzahl liegt bei mehr als 70 davon im vierstelligen Bereich, 30 haben mehr als 10.000 Artikel, und die Vertreter der Spitzengruppe (Englisch, Deutsch, Französisch, Japanisch, Schwedisch) haben zwischen 100.000 und über 700.000 Artikel im Angebot. Diese Zahlen von Mitte September 2005 dürften angesichts des explosionsartigen Wachstums der letzten Monate bereits wieder überholt sein. Der Umfang der meisten Ausgaben des ausschließlich über Spenden finanzierten Lexikons nimmt so schnell zu, dass die Server häufig an der Belastungsgrenze arbeiten. Der Wissbegierige bekommt das durch langsamere Datenübertragung und die zur Entlastung immer wieder abgeschaltete Volltextsuche zu spüren.

Dieses Problem wurde bisher meist zügig durch Erweiterungen der Serverkapazitäten behoben. Die auch zu diesem Zweck durchgeführten weltweiten Spendenaufrufe der Wikimedia-Stiftung sind regelmäßig erfolgreich. Bei der letzten Sammelaktion im vergangenen Sommer kamen deutlich mehr als die benötigten 200.000 Dollar in weniger als den geplanten drei Wochen zusammen. Problematischer ist der Umgang mit der Frage, mit der sich die Wikipedia von Anfang an und mit zunehmender Popularität immer häufiger konfrontiert sieht: Nun sag, wie hast du's mit der Qualität? Wenn jede zu allem etwas schreiben und veröffentlichen und jeder alles in Sekunden online ändern kann, wie steht es dann um die Zuverlässigkeit und Korrektheit der Informationen? Wie kann bei diesem Prinzip verhindert werden, dass politische Propaganda, Geschichtsklitterei, menschenverachtende Ideologien, Verschwörungstheorien oder eben schlicht sachlich falsche Angaben, gleich ob mangels besseren Wissens oder aufgrund mutwilliger Manipulation, Eingang in das Lexikon finden? Wie kann unter diesen Bedingungen zwischen gegensätzlichen wissenschaftlichen Positionen oder bei brisanten Themen wie Abtreibung, religiösem Fundamentalismus oder Gentechnologie ein Ausgleich gefunden beziehungsweise eine angemessene Darstellung aller Standpunkte sichergestellt werden? Und, ein häufig vergessener, aber nicht zu unterschätzender Einwand, wie erreicht man ein passables und möglichst einheitliches sprachliches und stilistisches Niveau? Auf alle diese Fragen kann es ehrlicherweise nur eine Antwort geben: Es liegt in der Natur der Wikipedia, dass es eine vollständig befriedigende Lösung dieser Probleme prinzipiell nicht geben kann. Das ist gewissermaßen der Preis, der für die Wikipedia-Idee eines gemeinschaftlich erstellten freien und unabhängigen Informationszugangs zu zahlen ist.

Dass ein mit Fehlinformationen behafteter oder durch so genannten Vandalismus mutwillig entstellter Artikel im Durchschnitt innerhalb von zwei Minuten korrigiert wird, wie es in letzter Zeit hier und da zu lesen war, scheint ein allzu optimistischer Wert zu sein. Das Ergebnis eines – natürlich nicht repräsentativen – Selbstversuchs ergab Zeitspannen von zwei Minuten bis zu mehreren Stunden. Diese vor allem durch individuelle Artikel-Beobachtungslisten ermöglichten Werte sind allerdings beachtlich für ein Projekt ohne gut bezahlte Redaktion oder hauptberufliche Lektoren. Es bleibt aber die Frage nach der Vertrauenswürdigkeit, denn selbst in den erwähnten zwei Minuten kann ein Leser bereits einer Fehlinformation aufgesessen sein. Die Wikipedianer reagieren dem eigenen Anspruch entsprechend offen auf die Vorwürfe, etwa durch Seiten wie „Unsere Antworten auf Kritik“ oder „Die Grenzen der Wikipedia“ und versuchen, den prinzipbedingten Nachteilen der Online-Enzyklopädie durch zahlreiche konkrete Maßnahmen entgegenzuwirken. Dazu gehören etwa die Auszeichnung von „lesenswerten“ und „exzellenten Artikeln“ (gegenwärtig jeweils gut 500), der „Fokus“, in dem auf fehlerhafte oder unvollständige Artikel hingewiesen wird, die Löschkandidatenliste, auf der über die „Lexikonwürdigkeit“ umstrittener Artikel diskutiert wird. Die von den Wikipedianern gewählten Administratoren spielen in der Qualitätssicherung eine Sonderrolle: Nur sie können Artikel löschen oder so genannte „edit wars“, in denen ein Artikel ohne Aussicht auf einen Kompromiss ständig auf die Sichtweise der jeweils beteiligten Parteien hin geändert wird, beenden, indem sie die entsprechende Seite sperren. Darüber hinaus besteht jeder Artikel streng genommen aus vier verschiedenen Seiten: dem eigentlichen Artikel, der Seite zum Bearbeiten und – als zentrale Bestandteile der Wikipedia-Philosophie – einer Diskussionsseite und einer Seite zum Vergleich sämtlicher bisheriger Versionen des Artikels mit allen Änderungen und deren Urhebern. Wer zumindest in Zweifelsfällen diese Seiten in seine Informationssuche einbezieht, kann sich ein genaueres Bild machen. Dass es dort ziemlich hoch hergehen kann, zeigten etwa die Artikel zu Angela Merkel und Gerhard Schröder während des vergangenen Bundestagswahlkampfs.

Das umfassende Projekt zur „Qualitätsoffensive“ ruht zwar gerade wegen Überarbeitung, und die „Strukturoffensive“ arbeitet auch erst seit kurzem wieder, dass die entsprechenden Anstrengungen der Vergangenheit aber bereits Früchte tragen, zeigt das Abschneiden der Wikipedia in aufwendigen Vergleichstest der Computerzeitschrift c’t und der Wochenzeitung DIE ZEIT mit den digitalen Versionen von Brockhaus und Microsoft Encarta. Die Wikipedia war den beiden Platzhirschen in fast allen Belangen ebenbürtig, in einigen Punkten war sie ihnen sogar mehr oder weniger deutlich überlegen. Altbekannte Schwachpunkte der Wikipedia bestehen dagegen teilweise bis heute: Zwar wächst inzwischen auch der Fundus an Bildern, Grafiken und Tabellen, mit der luxuriösen Multimedia-Ausstattung der beiden anderen Lexika kann die textlastige Online-Enzyklopädie aber nicht ansatzweise mithalten. Auch könnten die schlichten Linkverweise auf verwandte Artikel nutzerfreundlicher und anregender als kontextuelle Wissensnetze gestaltet sein. Für professionelle Rechercheure fehlen zudem umfangreichere und komfortablere Suchfunktionen, und manche Themenfelder, allen voran Geistes- und Sozialwissenschaften, sind im Verhältnis zu anderen, etwa IT und EDV, immer noch unterbelichtet. Dafür erhält man reichlich Auskunft zu vielen Themen, die man in einer klassischen Enzyklopädie vergeblich sucht: Mark Streit, der amtierende Kapitän der Schweizer Eishockey-Nationalmannschaft, ist genauso mit einem eigenen Artikel vertreten wie der filmische Fachbegriff des Jump Cut, das Antibiotikum Vancomycin oder die Wiehre, der Prenzlauer Berg von Freiburg im Breisgau. In punkto Aktualität ist die Wikipedia ohnehin nicht zu schlagen.

Die GNU Free Documentation License (GNU FDL oder GFDL) ist eine Lizenz zur Lizenzierung freier Inhalte. Sie wird von der gemeinnützigen Free Software Foundation herausgegeben.
» ganzer Text

Welches Ansehen das Freiwilligenprojekt inzwischen auch außerhalb der IT-Szene genießt, zeigt sowohl die diesjährige Verleihung von gleich zwei Grimme Online Awards – die deutsche Wikipedia erhielt den Preis in der Kategorie „Wissen und Bildung“ und den Publikumspreis – als auch die noch junge Kooperation mit der Deutschen Bibliothek in Frankfurt am Main. Die Wikipedia verlinkt bereits von allen relevanten Artikeln auf den Katalog der deutschen Nationalbibliothek, und demnächst soll dies auch umgekehrt erfolgen, was sicher nicht zuletzt dem Umstand zu verdanken ist, dass sämtliche Wikipedia-Artikel unter der GNU-Lizenz für freie Dokumentation veröffentlicht werden, womit eine Weiterverwendung ohne Zustimmung der Urheber erlaubt ist, solange die entsprechenden Lizenzbedingungen beachtet werden.

Die Wikipedia ist also einerseits durchaus so etwas wie das Renommierprojekt der immer stärker werdenden interaktiven und partizipativen Seite des Web, manchmal auch „social web“ oder „Web 2.0“ genannt, die auf freien Datenaustausch, kostenlosen und trotzdem werbefreien Zugang zu Informationen und freiwilliges Engagement der Nutzer setzt. Andererseits verlangt aber gerade die Wikipedia ein besonders hohes Maß dessen, was für Bürger in mediendominierten Wissensgesellschaften ohnehin immer wichtiger wird: Medien- und Informationskompetenz. Die zunehmend um sich greifende Einstellung etwa, dass nicht existiert, was Google nicht findet, geht genau in die falsche Richtung. Im Falle der Wikipedia würde es der Intention des Projekts geradezu zuwiderlaufen, die Inhalte des Online-Lexikons in jedem Fall und ungeprüft für der Weisheit letzten Schluss zu halten.

Beitrag von Martin Schöb

Links zum Thema

  • „Allee der Enzyklopädisten“ – Haltestelle des Wiki-Tourbusses an der deutschen Wikipedia
  • Startseite der internationalen Wikimedia-Stiftung
  • Enzyklopädienvergleich in der ZEIT
  • Enzyklopädienvergleich in der c’t (kostenpflichtig)
  • Wikipedia-Befragung und Studienergebnisse des Psychologischen Instituts der Universität Würzburg

Zur Person

Martin Schöb hat in Bamberg, Münster, Freiburg und Bath (UK) Soziologie, Philosophie und Anglistik studiert. Anschließend absolvierte er den Aufbaustudiengang „Buch- und Medienpraxis“ und eine Fortbildung im Bereich Information und Dokumentation in Frankfurt am Main. Dort lebt und arbeitet er als freier Journalist, Lektor und Übersetzer. Die verbleibende Zeit widmet er vor allem der Gründung von MORPHEM. Text + Wissen, einem Büro für Sprach- und Recherchedienstleistungen, das Anfang 2006 an den Start gehen wird. E-Mail: .

Literatur

  • Erik Möller (2005): Die heimliche Medienrevolution. Wie Weblogs, Wikis und freie Software die Welt verändern. Hannover.

Kategorien

Themen: Internet | Web 2.0 | Wissensgesellschaft
backprinttop

Newsfeeds

Online-Recherche

Suchmaschinen, Infos, Datenbanken » mehr

Rezensionen

Buchrezensionen der sg-Redaktion » mehr

Wettbewerbe

Forschungswettbewerbe in der Übersicht » mehr

Podcasts

Übersicht wissenschaftlicher Podcast-Angebote » mehr

Mitmachen

/e-politik.de/

Aktuelle Beiträge:

Raumfahrer.net

Aktuelle Beiträge:

Anzeige