Universität des SaarlandesFachrichtung 5.6
Informationswissenschaft
suche
kontakt

Navigation


Startseite

Info

Studium
    Vorlesungsverzeichnis
    Studienführer
    Virtuelles Handbuch
      Inhalt
      Index
    Kunz/Rittel
    Berufsperspektiven

ViLI

Kontakt

Fachschaft

Bibliothek

Projekte

Diskussion

Quellen

Partner

Suche

 
 

 

Virtuelles Handbuch Informationswissenschaft


Heinz-Dirk Luckhardt

Das Worldwide Web als Informationsmedium


Was Sie schon immer gar nicht wissen wollten - im Worldwide Web (WWW) finden Sie es garantiert. Und was Sie brauchen, suchen Sie oft vergebens. Ist das überspitzt formuliert? Hat mancher vielleicht bisher einfach zuviel an Information erwartet, wo andere nur das Gefühl der Leichtigkeit oder des Abgehobenwerdens erleben wollen, wie es den Surfer überkommt? Wie wertvoll ist das WWW wirklich für denjenigen, der "harte" Informationen sucht? Im folgenden eine eher nüchterne Sicht auf den derzeitigen Stand des WWW.

Lassen Sie uns mit dem Begriff "Surfen" beginnen. Er drückt eine der Möglichkeiten aus, mit dem WWW umzugehen, nämlich sich "im Meer des Wissens" treiben zu lassen. Eine andere Sicht ist mit der Assoziation des "Island Hopping" verbunden: das Springen von einer "(Informations-)Insel" zur nächsten, oder wieder zurück. Jeder Tastendruck läßt den WWW-Reisenden einen neuen Hafen ansteuern. Wie gut er sich zurechtfindet, hängt von der Touristeninformation am Hafen ab, und davon, ob er im Haupthafen ankommt oder nur an einem Anlegesteg an einem einsamen Strand, von dem kein Pfad irgendwohin zu führen scheint.

Aber zunächst einmal genug der Bilder. Um ein tieferes Verständnis des Phänomens WWW zu entwickeln, werfen wir einen Blick zurück.

Die Idee ist bestechend, die Vannevar Bush schon in den 40er Jahren ('As we may think', Atlantic Monthly 176, Juli 1945) in seiner Utopie MEMEX formulierte: alles Wissen der Welt miteinander verknüpft und für jedermann bequem zugänglich. Theodore Nelson gab dem Konzept in den 60er Jahren einen Namen: Hypertext - auf einem elektronischen Medium verfügbare Texte (Artikel, Bücher, Vorträge, ...) mit Verweisen (Hyperlinks) zwischen diesen, die dem "Leser" jeden Text unmittelbar verfügbar machen. Dieses Konzept hat sich in Richtung "Hypermedia" entwickelt, da es längst nicht mehr nur um Texte, sondern auch um Bilder, Töne, Filme geht, die per Tastendruck abgespult werden können.

Diese unmittelbare Verfügbarkeit ist das eigentlich Neue, denn "Verweise" gab es schon immer. 1. Fallbeispiel: Enzyklopädien. Fast jeder hat sich schon einmal in einer solchen "verirrt", indem er den "siehe auch"-Verweisen folgte und sich plötzlich bei Maria Theresia wiederfand, obwohl er doch zunächst nur etwas über das Auspflanzen von Tomatensetzlingen wissen wollte. Bisher nannte man so etwas (zumindest auf Westfälisch) "vom Hölzken auf's Stöcksken kommen", heute heißt es "lost in hyperspace", wobei es sich in unserem Beispiel natürlich nur um den Mikrokosmos der 1- oder mehr-bändigen Enzyklopädie handelt.

2. Fallbeispiel: In allen Arten von (wissenschaftlichen) Büchern wimmelt es nur so von "Verweisen", die den Leser vom linearen Lesepfad vom Buchanfang zum Buchende abbringen, die ihm aber helfen sollen, sich in dem jeweiligen Werk zurechtzufinden, das Werk in einen größeren Zusammenhang einzuordnen, bestimmte Aussagen zu verstehen etc.. Zu diesen Verweisen gehören: Fußnoten, Anmerkungen, Indizes, Inhaltsverzeichnisse. Einziger Unterschied zu Hyperlinks: die Papierform bringt es mit sich, daß man blättern oder ein anderes Buch aus dem Regal oder der Bibliothek holen muß.

Das ist natürlich schon ein Unterschied zum Prinzip "Hypertext" bzw. "Worldwide Web" - mit der Betonung auf "Prinzip", denn von der virtuellen Bibliothek, in der man per Tastendruck jedes beliebige Buch bekommt, ist man noch weit entfernt. Warum das so ist, wird jedem klar, der im WWW nach (größeren) Texten sucht: was man findet, ist copyrightfrei und wurde von WWW-Enthusiasten ins WWW gebracht. Die Aufbereitung von Texten für das WWW ist nämlich immer noch viel Arbeit, Arbeit, für die man in der Regel nicht bezahlt wird, denn es gibt nach wie vor wenige hauptamtliche WWW-Schreiber, und wahrscheinlich kaum jemanden, der ganze Bücher ins Netz bringt, abgesehen vom Gutenberg-Projekt in den USA, das bis ins Jahr 2001 10.000 copyrightfreie Bücher elektronisch verfügbar machen will. Dies aber ist eine Ausnahme ohne kommerzielle Basis und sie führt zu der Frage, wie die Ausnahme zur Regel werden, d.h. wie das elektronische Angebot von Texten finanziert werden kann, wenn das Produkt kostenlos im WWW verfügbar ist? Und daß sich Verlage in großem Stil bereiterklären, das Copyright an der verlegten Literatur aufzugeben zugunsten einer kostenlosen Veröffentlichung im WWW, ist nicht zu erwarten. Mit Büchern, also verkaufbaren Objekten, läßt sich Geld verdienen, im WWW werfen allenfalls einige Nischenprodukte bzw. -anwendungen Geld ab. Aber selbst erfolgreiche Unternehmen dieser Branche schreiben noch rote Zahlen.

Was man also an Texten bisher im WWW findet, gab es schon immer (fast) umsonst (evtl. gegen Erstattung der Druck- und Portokosten): graue Literatur, Test-, Arbeits-, Projekt-, Geschäftsberichte etc. Und hier tut sich ein weites Feld auf, denn wer bisher bereit und in der Lage war, Literatur kostenlos zu verteilen, wird dies mithilfe des WWW umso lieber tun, denn er kann so eine ungleich größere Leserschaft erreichen - mit weniger Aufwand, denn er stellt seinen Text ja nur öffentlich zur Verfügung und überläßt es den Lesern, wie sie ihn lesen, am Bildschirm oder - ausgedruckt - auf Papier.

Was bei all dem fehlt, und was wissenschaftlichen Veröffentlichungen bisher zu ihrem wissenschaftlichen Wertsiegel verholfen hat, ist der Begutachtungsprozeß durch ein Gutachtergremium oder ein Verlagslektorat, den eine Veröffentlichung durchlaufen muß, um der (Fach)Öffentlichkeit als wissenschaftlich fundiertes Buch bzw. als Zeitschriftenartikel oder Vortrag präsentiert werden zu können. Dieses Verfahren hat bisher in der Regel bei wissenschaftlicher Literatur einen gewissen Qualitätsstandard garantiert, der den Veröffentlichungen im WWW vollkommen fehlt. Hier kann meist nur der Experte beurteilen, ob ein im Netz angebotener Artikel etwas taugt. Immerhin gibt es erste Beispiele für wissenschaftliche elektronische Zeitschriften nach tradionellem Vorbild, also z.B. mit Gutachtergremium. Hier ist etwa RIS (Review of Information Science) zu nennen: http://www.inf-wiss.uni-konstanz.de/RIS

Es wird vieles angeboten, und wer sucht, der findet. Zahlreiche sogenannte Suchmaschinen (LYCOS, MAGELLAN, ALTA VISTA etc.) überfliegen (scannen) das auf Millionen von Computern bereitgehaltene Wissen, merken sich jedes vorkommende Wort (außer den sinnleeren Wörtern wie: der, die, das etc.) und die Adresse des Textes, in dem es vorkommt, und bieten das Ganze in einer Datenbank zur Suche an. Wer also etwas zu "nouvelle cuisine" sucht, gibt diese beiden Wörter bei Altavista ein - und wird mit 42.983 Adressen von Computern überschüttet, auf denen sich diese beiden Wörter gemeinsam befinden (Stand vom 22.4.2002). Ob die Information, die man sucht, sich darunter befindet, oder zumindest eine, die man verwerten kann, ist ungewiß. Sicher weiß es erst derjenige, der alle Adressen besucht hat.

Das Problem, daß man in großen Daten- bzw. Textsammlungen eine Information meist wie die Nadel im Heuhaufen sucht, ist seit langem bekannt. Lange, bevor es das WWW gab, konnte man auf weltweit verteilten Computern Informationen suchen. Ein ganzer Industriezweig beschäftigt sich damit: die Informationsindustrie. Darunter versteht man ein weltweites Geflecht von Unternehmen, die in sog. Online-Datenbanken Wissen kostenpflichtig anbieten. In diesen in der Regel sachgebietbezogenen Datenbanken läßt sich sehr viel zielgerichteter nach einer Information suchen als im WWW. Die Erfolgswahrscheinlichkeit ist dementsprechend höher. Dafür gibt es verschiedene Gründe. Zum einen werden die jeweiligen Wissensgebiete systematisch erfaßt, indem z.B. die relevanten Fachzeitschriften ausgewertet werden. Eine Datenbank deckt also den Sachstand ihres Fachgebiets zu einem hohen Prozentsatz ab. Zum anderen haben sich im Laufe der Zeit Verfahren herausgebildet, mit denen man auch in großen Datensammlungen mit spezifischen Suchanfragen Erfolg hat.

Das alles hat aber seinen Preis, denn es ist ein hoher Aufwand erforderlich, beim Aufbau der Datenbank und bei der Suche selbst, so daß eine Informationssuche einerseits kompliziert und andererseits teuer ist. Einen hohen Preis für eine Information zahlen wird aber nur derjenige, der diese Information wirtschaftlich nutzt (Produktionsfaktor "Information"!), und so ist es in der Regel Fachwissen für Industrie und Handel, z.B. chemische Formeln und Verfahren, Wirtschaftsdaten, erteilte Patente etc. Manko dieser Online-Datenbanken ist neben den hohen Kosten das komplizierte Zugangsverfahren - ein Relikt aus der Zeit, als es nur Großcomputer gab, in der Tat ein großes Manko in anbetracht der bequemen Informationssuche im WWW.

Am Ende steht die Frage, wie man die Vorteile beider Welten - WWW und Online-Datenbanken - miteinander vereinigen könnte: den kostengünstigen, bequemen Zugang zum Wissen der Welt mit der Gewißheit, daß man die gewünschte Information auch wirklich bekommt, weil das Wissen umfassend ist und man detailliert formulieren kann, was man eigentlich sucht.

Für das WWW würde dies bedeuten, daß Wissen nicht nur sporadisch und unvollständig, sondern regelmäßig und umfassend eingespeist wird. Und dazu gehört mehr als nur die (vielleicht vorübergehende) Begeisterung Einzelner an dem neuen Medium. Dazu gehört der Aufbau fester Strukturen, wie sie bei den Online-Datenbanken vorliegen. Dazu gehört ein Kostenkonzept, das die Bezahlung der erforderlichen Arbeiten garantiert. Und dazu gehört, daß bei all dem die "freie Fahrt" auf der Datenautobahn erhalten bleibt, die dem WWW zu seiner großen Popularität verholfen hat.

zum Seitenanfang

Fußnote


Wissen ist nicht gleich Information. Erst dann, wenn mir etwas, das ich erfahre, nützt, wenn es mir bei der Lösung eines Problems hilft, wird daraus Information. So gesehen ist der Begriff "Information Superhighway" falsch, denn was da transportiert wird, sind schlicht "Daten". Ob darunter eine Information ist, entscheidet jeweils der Empfänger für sich allein. So wird die Metapher "Datenautobahn" dem WWW eher gerecht (oder dem Internet insgesamt, aber das ist eine andere Geschichte).

zum Seitenanfang

Entstehung dieses Artikels: März 1995; letzte Überarbeitung: April 2002


zum Inhaltsverzeichnis

   
© 2001 Universität des Saarlandes - Fachrichtung 5.6 Informationswissenschaft - Disclaimer
URL dieser Seite: http://www.is.uni-sb.de/studium/handbuch/www.infomedium.php
Webmaster: Sascha Beck [s.beck@mx.uni-saarland.de] - Layout: narrow big fonts default
letzte Änderung: Montag 17 Juni 2002 13:42 durch Rouven Diener r.diener@mx.uni-saarland.de