Das „ultimative“

Informationsbeschaffungssystem

World Wide Web

Petra Oberthür

Abstract

Das Internet, entstanden aus dem militärischen ARPANET, hat sich zu einem weltumspannenden Computernetz entwickelt. Von den traditionellen Internetdiensten wie EMail oder FTP gingen die Entwicklungen hin zu ansprechenderen Informationssystemen und interaktiven Diensten. Seit Einführung des WWW hat das Internet einen enormen Zuwachs an Anwendern erfahren. Dieser rasante Erfolg des WWW bereitet jedoch auch Probleme, da es nicht dafür ausgelegt war, solch große Datenmengen und komplexe Anwendungen zu beherrschen. Hier sind nun Weiterenwicklungen oder Neukonzeptionen gefragt, um den wachsenden Anforderungen zu entsprechen.

Inhaltsverzeichnis

1 Wie alles begann

2 Dienste im Internet

3 Das World Wide Web

4 Internetzugänge

5 Probleme mit dem WWW

6 Ausblick

7 Literatur

1 Wie alles begann

1957 wurde die kalifornische Firma RAND damit beauftragt ein Konzept für ein militärisches Netzwerk zu entwickeln, das auch nach einem nuklearen Angriff funktionsfähig bliebe. Die 1964 publizierte Lösung lieferte ein Netz ohne zentrale Leitungen. Einzelne Teile konnten unabhängig voneinander kommunizieren. Alle Knoten hatten den gleichen Status, um Nachrichten zu senden, weiterzuleiten oder zu empfangen. Die Nachrichten waren in einzelne Pakete gepackt, die unabhängig voneinander durch das Netz transportiert werden konnten.

Aufbauend auf diesem Konzept hat die Advanced Research Projects Agency (ARPA), eine Abteilung des US-Verteidigungsministeriums, die paketorientierte Datenübertragung weiterentwickelt. Das Ergebnis war der Kommunikations- standard NCS (Network Control Protocol), der später durch TCP/IP ersetzt wurde. Im Dezember 1969 bildeten vier Knoten das erste kleine Netz, ARPANET, welches auch als „Mutter des Internet“ bezeichnet wird [Kla 94].

Als sich Milnet (Military Network) anfang der achziger Jahre vom ARPANET abspaltete, blieben die Verbindungen zur Fortsetzung der Kommunikation bestehen. Dieses Netz bekam nun den Namen DARPA Internet, der sich später zu Internet verkürzte. Andere dezentralisierte, öffentliche Netzwerke (z.B. UUCP, USENET oder BITNET) kamen hinzu. Sie waren zwar nicht Bestandteile des Internet, aber spezielle Verbindungen ermöglichten den Informations- und Datenaustausch. Das Netz der Netze nahm Gestalt an, immer mehr Firmen und staatliche Einrichtungen betrieben Teilnetze. Mittlerweile sind fast alle Universitäten und Forschungseinrichtungen und auch schon viele Unternehmen angeschlossen.

Heute steht der allumfassende Begriff Internet für die Verbindung von internationalen Netzwerken. Die Teilnehmer sind über ein „backbone“ NSFNET (National Science Foundation) miteinander verbunden und bieten 20 Millionen Benutzern in über 80 Ländern (Anfang 1995) Zugang zum Internet. Die Zahl der Host-Rechner ist auf 6,6 Millonen gestiegen (Juli 1995) und nimmt dramatisch zu. Siehe hierzu auch http://www.nw.com/ und [Sav 95].

2 Dienste im Internet

Es folgt eine Auflistung der wichtigsten Internetdienste, die sowohl in verschiedenen Büchern über das Internet Erwähnung finden, siehe beispielsweise [Kla 94], zu denen jedoch auch spezielle Informationen unter dem jeweiligen Stichwort zu finden sind. Einen schnellen Überblick liefern auch [Gra 94] und [Hos 94].

EMail: Electronic Mail ist wohl der bekannteste Dienst des Internets. Eine Person verschickt elektronische Briefe an eine andere Person. Dafür hat jeder Teilnehmer eine eindeutige EMail-Adresse.

FTP: Das File Transfer Protocol ermöglicht die Übertragung von Dateien von einem Rechner auf einen anderen. Mit FTP kann auf Dateisysteme anderer FTP-Server zugegriffen werden, um dort mit bestimmten Kommandos zu navigieren, ähnlich dem eigenen Dateisystem, und von dort Dateien in das eigene Dateisystem zu kopieren und umgekehrt. FTP wird hauptsächlich dazu benutzt, allgemein und frei zugängliche Software im Internet anzubieten und abzurufen.

Telnet: Dieser Dienst bietet die Möglichkeit, über ein „Remote-Login“ auf anderen Rechnern im Internet zu arbeiten. So können z.B. Programme genutzt werden, die auf dem eigenen Rechner nicht lauffähig sind. Eine direkte Dateiübertragung ist jedoch nicht möglich.

Archie: Archie bietet Hilfe bei der Suche nach bestimmten Dateien auf FTP-Servern. Dazu ruft der Anwender Telnet mit der Adresse eines sogenannten Archie-Servers auf, in Deutschland z.B. telnet archie.th-darmstadt.de. Das Login lautet archie. Ein Archie-Server arbeitet mit einer Datenbank der Files, die weltweit über tausend FTP-Server anbietet. Archie zeigt die Resultate als Liste von IP-Adressen und Verzeichnispfaden der FTP-Server an.

Gopher: Ein Gopher-Client baut eine Verbindung zu einem der Gopher-Server auf, die untereinander mittels Querverweisen zu anderen Gophern verzweigen und somit ein Gopher-Netz bilden. Die Informationen werden in Form von verschachtelten Menüs präsentiert. Die Menüeinträge stellen Verweise auf lokal vorhandene oder auch auf anderen Gopher-Servern zugängliche Informationen dar. Der Aufbau ist streng hierarchisch, ähnlich einem einfachen Dateisystem. Querverweise auf Dokumente anderen Formats sind nicht möglich. Was Archie für FTP-Sites bedeutet, ist Veronica für Gopher.

WAIS: Gopher vereinfacht die Informationsbeschaffung im Internet mit Hilfe einer einheitlichen Präsentation. WAIS (Wide Area Information Servers) geht noch einen Schritt weiter in Richtung Bedienbarkeit. Jemand, der häufig verschiedene Datenbanken in Anspruch nimmt, muß sich zahlreiche Vorgehensweisen aneignen und merken. WAIS bewirkt, daß mit einem einzigen Client-Programm der Zugang zu den unterschiedlichen Servern weltweit in einer einheitlichen Form hergestellt wird. Eine Recherche kann zudem mehrere Datenbanken gleichzeitig untersuchen.

WWW: Das World Wide Web - auch als WWW oder W3 bezeichnet - bündelt die wichtigsten Internet-Dienste in einem Client-Programm und ist um Hypermedia-Fähigkeiten erweitert. Durch Einführung des WWW steigerte sich die Nutzung des Internets erheblich, oft wird WWW sogar synonym für das Internet gebraucht.

3 Das World Wide Web

3.1 Die Idee

Ein Grundproblem bei der Nutzung des Internets ist das Auffinden relevanter Informationen in einem riesigen Informationspool. Darüber hinaus gestaltet sich der Zugriff auf die Informationen je nach zugrundeliegendem Internetdienst unterschiedlich. Es wird ein Medium benötigt, das strukturierte Darstellungen von Informationen bietet und beliebige Dienste und Objekte integriert. Diesen Anforderungen entspricht der Gopher-Dienst, der diverse Objekte (unstrukturierte Texte, Dateien, Verzeichnisse) in einer menüartigen Struktur organisiert.

Die Struktur der Gepher-Menüs ist jedoch noch zu unflexibel. Zu wünschen ist die Darstellung von Informationen in Form gegliederter Dokumente, in denen eingebettete Hypertext-Links auf beliebige andere Dokumente, Objekte und Dienste verweisen können. Aus diesen Anforderungen heraus wurde 1989 das World Wide Web am CERN (Centre Européen de Recherces Nucléaires, Genf) als Informationssystem für Teilchenphysiker entworfen (ausführliche Informationen hierzu siehe [Ber 94]).

Auch das Problem der Austauschbarkeit von Dokumenten sollte berücksichtigt werden. Dies geschah bisher unter Verwendung eines beschränkten Zeichensatzes (vergleiche EMail) auf unformatierte, unstrukturierte Textdateien. Da die Fähigkeiten der die Dokumente verarbeitenden Soft- und Hardware sehr unterschiedlich waren, mußte von minimalen Fähigkeiten ausgegangen werden.

Statt die Anforderungen an Soft- und Hardware für die Inanspruchnahme eines neuen Dienstes zu definieren, standardisierte man die Dokumente. Man legte dabei keine Formatierung fest, sondern beschrieb die Daten inhaltlich-strukturell und überließ es der jeweiligen Software-/ Hardware-Umgebung, die Daten so gut wie möglich darzustellen. Der Standardisierung dieser Dokumente legte man eine SGML-DTD zugrunde [Rie 95] und bezeichnete die neue Beschreibungssprache als HTML (Hypertext Markup Language).

3.1.1 HTML

WWW-Dokumente unterliegen einer eigenen Spezifikation, dem HTML-Format. Dieses Textformat ist mit SGML (Standard Generalized Markup Language) definiert, einer Metasprache zur Definition strukturierter Dokumenttypen. Das dahinterliegende Prinzip beschreiben [DaH 95, S. 88] wie folgt: „Nur die Funktion von Textstücken angeben aber nicht deren Darstellung.“ HTML-Files sind als SGML-Derivate beinahe normale Textdateien und so mit jedem beliebigen Texteditor zu erstellen und zu warten. Außerdem wird die zu übertragende Datenmenge gering gehalten, da das Mitliefern umfangreicher Formatierungsinformationen entfällt. Bestandteil des WWW werden solche Dokumente aber erst, wenn sie auf einem WWW-Server mit Internet-Zugang eingebettet sind. Dazu ist eine spezielle Server-Software notwendig, die vorliegende HTML-Dokumente über das HTTP-Protokoll an von außerhalb anfragende WWW-Clients übermittelt.

Neben verschiedenen Möglichkeiten, den Text mit sogenannten tags für Überschriften oder Absätze zu strukturieren und beispielsweise Bilder direkt zu integrieren, sind die sogenannten Anker die wesentlichen Konstrukte. Die Anker bilden den Hyperlink. Einen kurzen Überblick geben [BüB 95], sehr ausführlich wird HTML in [Sav 95] behandelt.

3.2 Zur Funktionsweise des WWW

3.2.1 Das Client/Server Prinzip

Das WWW funktioniert nach dem Client/Server Prinzip. Der Client hat im wesentlichen die Fähigkeit, HTML-Dokumente zu interpretieren und darzustellen. Da die Darstellung durch den Client erfolgt, können HTML-Dokumente auf verschiedenen Clients auch unterschiedlich aussehen. Man bezeichnet einen solchen Client auch als WWW-Browser, da er dem Benutzer zur Darstellung von und zur Navigation in Hypertextdokumenten dient.

Der Client baut über die sogenannten Gateways, die in einer von CERN zur Verfügung gestellten Bibliothek zusammengefaßt sind, eine Verbindung zu den Informationsservern auf. In der Regel ist das ein WWW-Server. Die Kommunikation erfolgt in diesem Fall über das WWW-eigene HTTP-Protokoll (Hypertext-Transfer-Protocol). HTTP folgt dem Request/Response Paradigma, d.h. eine HTTP-Transaktion besteht aus folgenden vier Phasen:

Connect - Verbindungsaufbau durch den Client
Request - Anfrage vom Client an den Server
Response - Antwort des Servers
Close - Verbindungsabbau durch den Server

Damit ist HTTP ein verbindungsloses Protokoll. Für jede neue Anfrage muß eine neue Verbindung aufgebaut werden. Wird ein anderes Gateway (Gopher, FTP) ausgewählt, so kommuniziert der WWW-Client direkt mit dessen Protokoll mit dem jeweiligen Server - ohne daß ein WWW-Server vermitteln müßte.

Über welches Gateway die Kommunikation mit dem jeweiligen Server läuft, bestimmt das Präfix einer sogenannten URL-Adresse (Universal Resource Locator). Eine URL ist eine Art erweiterter Dateipfad mit folgendem Format:

Gateway://Server-Adresse/Dokumentpfad/

Als Gateway kann man z.B. http eingeben, für die Server-Adresse trägt man den Domain-Namen des Rechners ein (z.B. www.uni-dortmund.de). Der Dokumentpfad wird vom jeweiligen Server umgesetzt.

Um nun ein neues Dokument zu öffnen, bieten WWW-Browser zwei Möglichkeiten. Zum einen kann der Benutzer die URL einer gewünschten Seite eingeben. Die zweite Möglichkeit eröffnet die eigentliche Stärke des WWW: die Hypertext-Fähigkeit. Durch Anklicken eines Hypertext-Links kann eine weitere Quelle im Internet geöffnet werden.

Die Interpretation von Hypertext-Links ist Sache des Servers. Der Client stellt Hypertext-Links durch eine bestimmte Form der Hervorhebung dar. Aktiviert der Benutzer einen Link, so ermittelt der Client den für den Link zuständigen Server und schickt den Inhalt des Links an diesen Server. Der Server reagiert, indem er das betreffende Dokument ermittelt und dieses an den Client zurückschickt, der es zur Darstellung bringt.

3.2.2 Hypertext

Das WWW verbindet die Technik des Information-Retrieval mit Hypertext zu einem leicht zu handhabenden, mächtigen und globalen Informationssystem. Hypertextdokumente sind durch eine Anzahl ausgewählter Worte miteinander verbunden. Jedes dieser ausgewählten Worte zeigt also auf ein anderes Dokument, das weitere Details zu diesem Wort enthält. Der Benutzer kann dieses Dokument durch Auswahl des Wortes öffnen. Das zweite Dokument kann weitere Verbindungen (Links) zu anderen Dokumenten enthalten. Der Benutzer muß nicht wissen, wo dieses Dokument zu finden ist und keine Befehle eingeben, um es anzeigen zu lassen.

3.2.3 Web Browser

Hotlists, Historie, vor/zurück, abschaltbare Grafikanzeige, Viewer-Einbindung für Sound, Grafik und Video, konfigurierbare Cache-Speicher und Proxy-Unterstützung für mehrere Dienste sind mittlerweile bei den meisten Produkten Standard. Von Details in der Bedienung und der grafischen Benutzeroberfläche abgesehen sind sich die Produkte sehr ähnlich. Die Unterschiede liegen in den Zukunftsplänen der Hersteller. NetScape beispielsweise kündigt die Unterstützung der Programmiersprache Java an. Vorteil: bisher müssen Web-Browser, um bestimmte Grafikformate anzeigen zu können, über bestimmte Viewer verfügen. Bei Java-kompatiblen Browsern liefert ein entsprechend ausgestatteter Java-Server die fehlenden Viewer einfach nach.

In [Ku2 95] werden verschiedene Web-Browser beschrieben und verglichen, hier werden nur einige Beispiele aufgeführt. NetScape ist wohl der verbreitetste Browser, Mosaic ist unter Unix sehr verbreitet.

NetScape: Filetransfer via ftp, Email, Gopher und WWW ist möglich. Netscape arbeitet außerdem mit der Image-Overlay-Technik, was beim Laden von Dokumenten heißt: Text vor Grafik, von Grafiken bekommt der Benutzer recht schnell eine Rohfassung zu sehen. Eine Verfeinerung der Grafik erfolgt in kleinen Schritten später. Die URL-Verwaltung hätte jedoch komfortabler ausfallen können.

NCSA Mosaic: Mosaic 2.0 hat einen Präsentationsmodus für menü- oder statuszeilenlose Vollbildbetrachtung von Web-Seiten und eine Annotate-Funktion für persönliche Notizen.

Quarterdeck Mosaic: Dieser Browser ist besonders für Einsteiger geeignet. Ein Tutorial führt den Anwender in alle wichtigen Aspekte des Internets/WWW ein. Zur Orientierung im „Cyberspace“ wird eine vorbildliche Adreßverwaltung angeboten. Außerdem ist dieser Browser in der Lage, mehrere Seiten gleichzeitig anzuzeigen. Das Programm unterstützt ftp, EMail, Telnet und Newsgroups.

4 Internetzugänge

Name Zugänge Anschlußgebühr laufende Gebühren Zugangszeit
EUnet ISDN und bis zu 38 400 Bit/s keine monatl.: 21,85 DM; pro Minute: 0,22 DM (analog), 0,33 DM (ISDN) 24 Stunden
XLink analog, 14 400 Bit/s, ISDN, V34 meist keine, sonst 50 DM bis 100 DM oft Unterschiede nach Diensten, übertragene Datenmenge wird abgerechnet meist 24 Stunden
MAZ Hamburg nur analog 40 DM monaltl. 35 DM 24 Stunden
GTN/CN contrib.net ISDN und 14 400 Bit/s oder V34 bis zu 57.50 DM analog und 115 DM ISDN ISDN 115 DM, analog 57.50 DM 16.00 - 9.00, Wochenende 24 Stunden
NACAMAR ISDN und 14 400Bit/s 30 DM 15 DM, 5 DM/MB, News gratis 24 Stunden
AOL --- --- ca 15 DM für die ersten 5 Stunden für alle Dienste 24 Stunden
eWorld --- --- monatl. ca 15 DM plus 1 Stunde Online-Zeit, jede weitere 15 DM 24 Stunden
Compu-Serve --- --- monatl. ca 15 DM plus 5 Stunden Online-Zeit, jede weitere 4,50 DM 24 Stunden

Tabelle 4.1: Online-Provider zusammengestellt aus [BrK 95)

Tabelle 4.1 listet Zugangsmöglichkeiten und Preise einiger Online-Anbieter auf. Darunter ist CompuServe die Nr. 1 der kommerziellen Online-Anbieter mit insgesamt 2,6 Millionen Teilnehmern, davon 90000 in Deutschland. Die bei CompuServe aufgeführten Daten stammen vom September 1995, alle anderen Daten sind von Juli 1995. Es ist zu berücksichtigen, daß sich die Preise unter wachsendem Konkurrenzdruck laufend verändern. Immer neue Anbieter drängen auf den Markt, darunter auch Bertelsmann und AT&T. Neben den hier aufgeführten werden in [BrK 95] eine Vielzahl weiterer Provider aufgeführt und in [FeK 95] und [Kur 95] näher beschrieben.

5 Probleme mit dem WWW

Durch die enorm wachsende Anzahl von Anwendungen und Benutzern des Internets und speziell des WWW entstehen auch Probleme im Zusammenhang mit dessen Nutzung, zumal das WWW zunächst nur als Informationssystem mit geringem Umfang geplant war.

Aus Sicht des Benutzers ergibt sich das Problem, daß nur Hyperlinks zur Navigation im Informationsangebot zur Verfügung stehen. Eine Übersicht über das Gesamtangebot an Informationen auf einem Server ist nicht automatisch vorhanden. Da es keine Visualisierung der Lage des aktuellen Dokumentes in seiner Umgebung gibt, kommt es bei umfangreichen Informationsangeboten schnell zur Desorientierung des Benutzers. Dieses Phänomen bezeichnet man auch als „lost in hyperspace“. Der Benutzer weiß nicht, an welcher Stelle er sich befindet, ob er schon alle für ihn relevanten Informationen gefunden hat, oder ob er mehrmals auf ein Dokument zugreift.

Ein weiterer Nachteil besonders für Autoren und Systembetreuer ist, daß Links nur unidirektional sind. Es gibt keine Informationen zu Links, die auf ein bestimmtes Dokument zeigen. Bei einer umfangreichen Datenmenge kann es nach Modifizieren oder Löschen von Dokumenten zu ungültigen Querverweisen kommen.

Ebenfalls als nachteilig erweist sich die Adressierung mittels URLs, da sie die physikalische Position eines Dokumentes angeben und nicht auf einen logischen Namen zugreifen. Bei nachträglichem Ändern der URL kann es so zu Konsistenzproblemen kommen.

Weiter bietet das WWW selbst keine Suchmöglichkeiten, es muß auf externe Suchmechanismen wie WAIS zurückgegriffen werden.

5.1 Verbesserungen und Alternativen

Um ein effektives Benutzen von Hypermediasystemen zu ermöglichen, müssen insbesondere Strukturierungsmöglichkeiten und Suchmechanismen vorhanden sein. Ein hypermediales Informationssystem im Internet mit diesen Eigenschaften ist Hyper-G [Mau 95] und [DaH 95]. Das System ist am Institut für Informationsverarbeitung und Computergestützte Medien (IICM) der Technischen Universität Graz unter Leitung von H. Maurer seit Anfang der 90er Jahre entwickelt worden. Neben vielen Ideen von den Informationssystemen Gopher, WAIS und WWW sind auch Konzepte zur Lösung der oben genannten Probleme in Hyper-G eingeflossen.

Hyper-G ist ein Client/Server-basiertes System, welches für den Mehrbenutzer-betrieb ausgelegt ist. Ähnlich zu Unix ist hier die Einrichtung von Benutzergruppen und die Verwaltung von Benutzerrechten möglich. Anders als das WWW ist Hyper-G dazu ausgelegt, eine große Anzahl von verteilt vorliegenden hypermedialen Informationen in strukturierter Form anzubieten und zu verwalten. Der Zugriff von und zu bereits bestehenden Informationssystemen wie Gopher und WWW ist erlaubt.

Weiter werden in Hyper-G durchgängig Hilfen zur Orientierung und zur Navigation durch das Informationsangebot bereitgestellt. Die Informationen werden strukturiert in Collections angezeigt, ähnlich den Dateiordnern. Schon besuchte Seiten werden markiert und in einer Historie mit Datum und Uhrzeit geführt. Dokumente werden in einer Datembank erfaßt und Textdokumente werden zusätzlich volltextindexiert. Neben Titel, Autor oder Schlüsselwörtern kann so der gesamte Text durchsucht werden.

Ein weiterer wichtiger Punkt ist das Ablegen von Links als eigenständige Objekte in einer Datenbank. Zudem sind die Links bidirektional, so daß auch rückwärtiges Verfolgen möglich ist und eine graphische Darstellung der Abhängigkeiten erfolgen kann. Die Konsistenz der Linkstruktur wird automatisch gewährleistet, da beim Löschen eines Dokumentes auch alle Verweise gelöscht werden. Für Autoren kommt hinzu, daß das Einfügen von Links mit den Hyper-G-Clients interaktiv möglich ist.

6 Ausblick

Hyper-G ist seit Juli 1994 im Einsatz und für Universitäten und Institute frei verfügbar. Das bestehende System soll so unter verschiedenen Rahmenbedingungen getestet und auf Anregungen hin erweitert, angepaßt und verbessert werden.

Für das WWW sind einige Modifizierungen angedacht. Besonders wichtig ist die Vergabe von logischen Namen für Dokumente, so daß sie unabhängig von ihrer physikalischen Adresse angesprochen werden können. Weiter soll das Einbinden von Real-Time Anwendungen ermöglicht werden, wie z.B. Teleconferencing oder Virtual Reality.

HTML soll ebenfalls weiterentwickelt werden, dazu gehört aber auch eine Anpassung der Browser. Es reicht nicht aus HTML 3.0 anwenden zu können, wenn die besonderen Eigenschaften wie Zentrieren oder Tabellen nicht visualisiert werden können.

Ein weiterer Punkt ist das Einbeziehen der Teilnehmer. Beispiele hierfür sind der New Yorker Online-Service „Echo“ (East-Coast Hangout), der wöchentlich im New Yorker Kabel TV ausgestrahlt wird, oder das Ping-Projekt, in dem Internet Benutzer aufgefordert sind, per EMail eigene 3D-Installationen, Grafiken, etc. in einen virtuellen Medien-Raum einzubringen. Hier entsteht eine virtuelle Hyperwelt, in der sich der Benutzer frei bewegen und die er interaktiv mitgestalten kann.

7 Literatur

[Ber 94]
Berners-Lee et al.: The World Wide Web, in: Communications of the ACM, Vol. 37, No. 8, p. 76, 1994
[BrK 95]
Brauer, K.; Kossel, A.: Sonderangebot Internet - Preiswerte Zugänge für Privatleute, c‘t 5/95, S. 236
[BüB 95]
Büker, T.; Brauer, K.: Kreativer gestalten - Erweiterte Darstellungsmöglichkeiten mit HTML 3.0, c‘t 7/95, S. 250
[DaH 95]
Dalitz, W.; Heyer, G.: Hyper-G: das Internet-Informationssystem der 2. Generation, dpunkt, Heidelberg, 1995
[FeK 95]
Fey, J.; Kunze, M.: Schwimmen im Infopool - Auf dem Weg zur globalenInformationsgesellschaft, c‘t 4/95, S. 168
[Gra 94]
Grau, O.: Alles integriert - Informationssurfen im World Wide Web, c‘t 6/94, S. 76
[Hos 94]
Hosenfeld, F.: Keimzelle - Von EMail bis WWW - die wichtigsten Dienste im Internet, c‘t 10/94, S 112
[Kla 94]
Klau, P.: Das Internet - weltweit vernetzt, IWT-Verlag, 1994
[Kur 95]
Kurzidim, M.: Online-Führer - CompuServe, Datex-J oder Internet - welcher Dienst taugt für was?, c‘t 6/95, S. 168
[Ku2 95]
Kurzidim, M.: Spurensucher - Browser und nützliche Utilities fürs World Wide Web, c‘t 9/95, S. 152
[Mau 95]
Maurer, H.: Power to the Web - The Official Guide to Hyper-G, Addison-Wesley, 1995, unveröffentlicht
[Rie 95]
Rieger, W.: SGML für die Praxis, Springer-Verlag Berlin, 1995
[Sav 95]
Savola, T.: Special Edition Using HTML, Que Corporation1995