Buchcover: Mensch-Computer-Interface Vom Persönlichen Computer zum Sozialen Medium.
Paradigmenwechsel der Mensch-Computer-Interaktion

In Hans Dieter Hellige (Hg.): Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung

Matthias Müller-Prove

  1. Blick zurück nach vorn – Memex – Hypertext – Augmenting Human Intellect – Personal Computing – World Wide Web
  2. Der Persönliche Schreibtisch – Interaktionskonventionen bei Desktop-Systemen
  3. Das weltweite Netz – Interaktionskonventionen im Web
  4. Das »soziale« Netz – Wikis – Blogs – Social Bookmarking
  5. Von der Gleichzeitigkeit des Unvereinbaren – Objekte und Informationen
  6. Ausblick
  7. Literatur

Die Art und Weise, in der wir mit Computern umgehen, unterzieht sich einem ständigen Wandel. Der technische Fortschritt sorgt für immer neue Rechnergenerationen, die mehr können als die Vorgängermodelle. Zusammen mit der massenhaften Verbreitung des Internet in Form von E-Mail, Instant Messaging und World Wide Web für Informationsbeschaffung, Unterhaltung und Online-Handel, hat sich dadurch der Charakter der Anwendungen von Forschung und Wirtschaft hin zu Kommunikation und Freizeit verschoben. Die Computer sind auch in Form von Notebooks so leicht geworden, dass man sich in seiner Mobilität kaum noch eingeschränkt fühlt.

Die Bedienung ist hingegen nicht ganz so leicht, obwohl der Einführung des Personal Computers umfangreiche Forschungen voraus gegangen sind, die zu den bekannten grafischen Benutzungsschnittstellen mit überlappenden Fenstern, Menüs und der Schreibtischmetapher geführt haben.

Seither sind die Interaktionsmodelle in ihrem Kern nicht mehr hinterfragt worden, was insbesondere seit dem Erfolg des World Wide Web zu einem Konglomerat aus Desktop- und Browser-Metapher geführt hat.

Es ist daher dringend geboten, die jeweils zu Grunde liegenden Paradigmen zu untersuchen und unter dem Gesichtspunkt ihres Zusammenwirkens neu zu positionieren.

Blick zurück nach vorn

Eine Betrachtung der Entwicklungsgeschichte der modernen grafischen Benutzungsschnittstellen und Webanwendungen ist nicht nur aus historisch-nostalgischen Gründen sinnvoll. Der Blick auf die Frühphase der interaktiven Computersysteme liefert ein unverstelltes Bild der ursprünglichen Ideen und Konzepte. Damit wird es möglich, den Status Quo mit den ihm zugrunde liegenden Visionen zu vergleichen und eventuell Korrekturen für die immer komplexer werdende Schnittstelle zwischen Mensch und Computer vorzuschlagen.

Im Rahmen des folgenden Abschnitts werden stellvertretend für die zahlreichen Pioniertaten der Computerrevolution die Ideen und Konzepte von Vannevar Bush, Theodor Holm Nelson, Douglas Engelbart, Alan Kay und Tim Berners-Lee vorgestellt.

Memex

Vannevar Bush beschreibt in dem Artikel »As We May Think«, dass es Wissenschaftlern kaum noch möglich wäre, effektiv und effizient zu arbeiten, da sie ob der schieren Masse an publizierten Fachartikeln die vielfältigen Bezüge und Querverweise unmöglich noch selbst erkennen und nachverfolgen könnten. Der Artikel erschien vor über sechzig Jahren in der Zeitschrift »The Atlantic Monthly« (Bush 1945).

Im zweiten Weltkrieg war Vannevar Bush (*1890 †1974) Direktor des Office of Scientific Research and Development und koordinierte in dieser Funktion die Forschungsaktivitäten von etwa 6.000 Wissenschaftlern, die unter anderem im Manhattan-Projekt die amerikanische Atombombe entwickelten. Zur Lösung des oben angeführten Informationsproblems schlug er die fiktive Maschine »Memex« (hergeleitet aus »memory extender«) vor, die dem Knowledge-Worker1 1 Der Begriff »Knowledge-Worker« wurde von Peter Drucker in »Landmarks of Tomorrow«, 1959 eingeführt. (Stephan 2006) seiner Zeit einen performanten Zugriff auf Dokumente geben sollte. Memex basierte auf dem Einsatz von Mikrofilmen. Ähnlich einem Zeitschriftenabo sollten Filmspulen mit den neuesten Veröffentlichungen den Dokumentenschatz des Memex kontinuierlich ergänzen. Im Inneren eines Schreibtisches waren Apparaturen untergebracht, die die Seiten auf mehreren Projektionsschirmen darstellten konnten.

Hatte der Wissenschaftler eine interessante Querverbindung gefunden, wählte er einen kurzen alphanumerischen Code, um die beiden Dokumente dauerhaft miteinander zu verbinden. Durch das Anhängen weiterer Dokumente zu dem jeweiligen Thema entstanden auf diese Art lange Ketten. Die sogenannten Trails entsprechen damit den Gedankengängen und Überlegungen des Forschers bei der Lektüre des Stoffs. Neben der Erstellung von themenbezogenen Trails sollten die Seiten auch mit Anmerkungen versehen werden dürfen, die dann vom Memex abfotografiert, und wie alle anderen Dokumente zur Lektüre und Verknüpfung zur Verfügung standen.

Die Relation zwischen Trails und Dokumenten muss nicht eindeutig sein; unter verschiedenen Gesichtspunkten kann ein Dokument durchaus unterschiedlichen Trails angehören. Die sich daraus ergebende Struktur ähnelt verblüffend den Hypertext-Systemen, die ab Mitte der sechziger Jahre unter anderem von Ted Nelson konzipiert und entwickelt wurden.

Hypertext

Im Gegensatz zu Vannevar Bush rückt Ted Nelson (*1937) den Autor anstelle des Lesers in den Mittelpunkt. Er erklärt die Vorstellung für überholt, dass Texte genau so geschrieben werden müssen, wie sie im Allgemeinen auch gelesen werden: nämlich vom Anfang zum Ende. Die Erstellung eines Textes gleicht vielmehr der Erschaffung eines großen Geflechts aus einzelnen Gedanken, die in nahezu beliebiger Reihenfolge geschrieben werden können. Eine streng lineare oder hierarchische Anordnung dieser Gedankenteile sei der Komplexität des Beschriebenen nicht immer angemessen, so dass eine vernetzte Struktur die adäquate Repräsentation darstelle. Damit gibt es auch keine vom Autor vorgegebene eindeutige Reihenfolge mehr. Der Leser darf zwischen verschiedenen Pfaden auswählen und sich so den Korpus des Textes erschließen. Für diese nicht-sequentielle Textgattung prägt Ted Nelson den Begriff »Hypertext« (Nelson 1965).

Augmenting Human Intellect

1962 formuliert Douglas Engelbart (*1925) die Grundzüge seines Lebenswerks über den Einsatz des Computers zur Vergrößerung des menschlichen Intellekts (Engelbart 1962). Während seiner Armeezeit hatte er zuvor als Radar-Offizier erkannt, dass man auf Kathodenstrahlröhren im Prinzip auch Text projizieren konnte. Zusammen mit der formalen Logik eines Computers ergab dies ein neues symbiotisches System aus Mensch und Maschine, das sich über die kommenden Jahrzehnte in einer Co-Evolution weiterentwickeln sollte, um die wichtigen und drängenden Probleme der Welt zu lösen.

Diesen vollmundigen Zielen ließ Engelbart beeindruckende Taten folgen. Am Stanford Research Institute leitete er in den 1960er Jahren das Augmentation Research Center (SRI-ARC), dessen Resultate er im Dezember 1968 der Fachöffentlichkeit vorstellte. NLS/Augment2 2 NLS leitet sich von oNLine System her. Im Gegensatz zum damals üblichen Offline/Batch-Betrieb, bei dem der Anwender einen Stapel Lochkarten beim Operator abgab, um nach einem Tag das Ergebnis des Programms zu erhalten, war der Anwender in direktem interaktiven Kontakt mit Engelbarts Computersystem. Die Bedeutungsverschiebung des Begriffs »online« hin zum Verbindungsstatus mit dem Internet hat mehr als eine Dekade später stattgefunden. war Textverarbeitung, Outliner, Hypertext und E-Mail-System in einem. Darüber hinaus stand Anwendern, die zusammen am selben Dokument arbeiteten, eine parallele Videokonferenzschaltung zur Verfügung. Auch die Computer-Maus und ein spezielles 5 Tasten-Keyboard für Kommandos und kurze Texteingaben waren bahnbrechende Konzepte, die der Präsentation insgesamt den Titel »Mother of all demos« einbrachten. Douglas Engelbart hat es mit seinem Team geschafft, in weniger als 10 Jahren ein Computersystem zu entwickeln, das die wichtigsten Konzepte der modernen Systeme enthielt und in einigen Aspekten den heutigen Systemen immer noch überlegen ist.

Unter Douglas Engelbarts Ägide ist im September 2006 HyperScope 1.0 als aktuelle Nachfolgeversion von NLS/Augment fertiggestellt worden. Es ist der ambitionierte Versuch, die (Hyper-)Textfunktionen von NLS/Augment in einem Web-Browser zur Verfügung zu stellen.3/ 3 hyperscope.org/, März 2007

Personal Computing

Die Kopiererfirma Xerox gründete 1970 das Palo Alto Research Center (Xerox PARC), um für den Einzug der Computers in die Bürowelt gewappnet zu sein. Als ein Jahr später Alan Curtis Kay (*1940) zum Xerox PARC kam, prägte er mit seiner Vision des »Dynabook« auf unvergleichliche Weise die Forschungsagenda des Instituts (Kay 1972). Computer sollten persönlich werden, was bedeutete, dass jeder Anwender einen eigenen tragbaren Computer besitzen sollte. Eine Utopie zu einer Zeit, in der Großrechner im Timesharing-Betrieb genutzt wurden. Und sie sollen auch von Kindern zu benutzen sein, um ihnen damit die Welt der Mathematik und Programmierung spielerisch nahe zu bringen.4 4 So luden Alan Kay und Adele Goldberg Schulkinder ans Xerox PARC ein, mit denen sie gemeinsam Smalltalk-Programme erstellten. Ein Teilnehmer in dem Projekt war Steve Case, der spätere Gründer von AOL.

Das Konzept des Dynabook ist mit den heutigen Laptop-Computern in Bezug auf Rechenleistung und Mobilität Realität geworden. In den 1970er Jahren mussten dazu aber erst noch die technischen Grundlagen geschaffen werden.

Der neu entwickelte Arbeitsplatz-Computer Xerox Alto von Butler Lampson und Chuck Thacker konnte dank der neuen Rastergrafik von Ron Rider verschiedene Zeichensätze auf dem Bildschirm darstellen – eine Voraussetzung für die Gestaltung ansprechender Dokumente am Computer. Diese Bildschirmdaten vermochte Gary Starkweather mit seiner innovativen Laser-Technik in hoher Qualität zu Papier zu bringen. Damit kam zum »What-You-See« das »What-You-Get«, die beiden Aspekte des WYSIWYG-Prinzips. Für die Datenverbindung zwischen den Alto Computern und dem Laserdrucker sorgte schließlich Bob Metcalfs Ethernet.

Aus all diesen Komponenten entwickelte Xerox ein kommerzielles System, das 1981 als Xerox 8010 Information System der Öffentlichkeit vorgestellt wurde. Der anfängliche Preis in Höhe von $16.596 trug nicht gerade zur Verbreitung des auch Xerox Star genannten Systems bei, zumal wesentliche Funktionen ja erst im Netzwerkbetrieb genutzt werden konnten und man somit mehr als einen Computer kaufen musste.

Zwei Jahre danach kam Apple Lisa für $9.995 auf den Markt. Der Computer passte zusammen mit einem 12" Monitor in ein Gehäuse. Er stellte sich aber bald als zu langsam für die ausgefeilte Interaktion mit den Programmen heraus, so dass die Nutzung dem Anwender leider einiges an Geduld abverlangte.

Der Apple Macintosh löste dann 1984 endgültig die Desktop-Publishing-Revolution der achtziger Jahre aus. Er war bereits für $2.500 zu haben, da er viel einfacher ausgestattet war, als das Apple Lisa System. Eine Festplatte war in der Basisausstattung nicht vorgesehen – statt dessen gab es nur ein 400 KB Diskettenlaufwerk. Innerhalb der ersten zwei Jahre wurden eine halbe Million Macintosh Computer verkauft. Der Mac wurde damit zum ersten kommerziell erfolgreichen Personal Computer mit einer grafischen Benutzungsschnittstelle.

Zu der mitgelieferten Software gehörte ab 1987 HyperCard, ein Hypertext-System von Bill Atkinson. Texte und Schwarzweißbilder wurden auf Karten gleicher Größe verteilt, die den 9" Monitor des Macintosh ausfüllten, und zwischen denen sich mit einfachen Befehlen Sprünge definieren ließen. Die Macintosh-Nutzer erstellten zu den verschiedensten Themen HyperCard-Stacks, die sie über Disketten und Online-Foren verbreiteten. Für Robert Cailliau sollte HyperCard zur Inspiration werden, zusammen mit Tim Berners-Lee das World Wide Web zu entwickeln.

World Wide Web

Fast alle bis 1985 entwickelten Hypertext-Systeme waren nicht netzwerkfähig.5 5 Die einzige nennenswerte Ausnahme ist NLS/Augment, das 1969 der zweite Knoten des ARPAnet wurde. Danach gab es einige Systeme für LAN-Architekturen; aber erst 1989 stellte Tim Berners-Lee (*1955) am Kernforschungszentrum CERN in Genf den Projektantrag zum World Wide Web (Berners-Lee 1989), das die Infrastruktur des Internet nutzbar machte, um eine Hypertextseite auf einem Web-Server mit einer anderen Seite auf einem anderen Server über das Hypertext Transfer Protocol (HTTP) zu verbinden. Die Seiten mussten nur einer einfachen ASCII-basierten Syntax folgen, die von den Wissenschaftlern auf jedem Betriebssystem erstellt werden konnten. Mit der Öffnung und Standardisierung der HTML-Syntax umging Berners-Lee die proprietären Einschränkungen, die die heterogene Hardware-Situation am CERN mit sich brachte. Später sollte sich genau dieser Umstand als einer der Erfolgsfaktoren des Webs herausstellen, da jedes kommerzielle und nichtkommerzielle Entwicklungsteam einen eigenen Web-Server oder Browser entwickeln durfte, ohne Lizenzgebühren fürchten zu müssen.

Der Web-Client ist zunächst einmal ein normales Programm, das Webseiten, die mit einer eindeutigen URL6 identifiziert werden, in einem Fenster darstellen kann. 6 Das ursprüngliche Adressschema des World Wide Web spricht im Gegensatz zu Uniform Resource Locator (URL) noch vom Universal Resource Identifier (URI). Gemeint ist in beiden Fällen eine Zeichenkette, die ein Protokoll, einen Server-Namen und Parameter zur Identifizierung eines Objektes enthält. Ein Beispiel wäre »http://www.w3.org/History/1989/proposal.html«.
7 NeXT war die zweite Computerfirma des Apple-Gründers Steve Jobs.
8 Die Geschichte des World Wide Web wird ausführlich in (Gillies/Cailliau 2000) beschrieben.
Bei dem von Tim Berners-Lee und Robert Cailliau entwickelten Programm WorldWideWeb (später umbenannt in Nexus, um Verwechslungen mit dem World Wide Web an sich auszuschließen) handelte es sich noch um eine Kombination aus Web-Browser und Web-Editor. Dabei machte die Klassenbibliothek des NeXT-Computers7 es den beiden verhältnismäßig einfach, eine Ableitung der Klasse NSTextEdit mit Hypertext-Funktionalität auszustatten. Das Ergebnis war im Dezember 1990 ein funktionstüchtiger Prototyp, der HTML-Seiten nicht nur anzeigen, sondern auch im Layout-Modus editieren konnte.

Als in den folgenden Jahren Marc Andreessen Implementationen unter der Windows- und Mac-Plattform in Arbeit hatte, hielt er die Bearbeitungsfunktionen des Nexus nicht für primär wichtig, so dass NCSA Mosaic ein reiner Browser wurde. Bis heute hat sich dieses Manko in der Browser-Technologie gehalten, da keine Nachfolgeversion von Mosaic und Netscape Navigator Webseiten bearbeiten kann. Auch Programme anderer Hersteller blieben reine Browser zum Betrachten der Webseiten.8

Die kurzen Einblicke können nur Schlaglichter in die Entwicklungsgeschichte der modernen grafischen Benutzungsoberflächen sein. Bushs Memex steht dabei für die Unterstützung des Wissensarbeiters, der versucht die Informationsflut zu beherrschen, indem er neue Verknüpfungen zwischen den Dokumenten anlegen darf. Das Hypertextkonzept von Ted Nelson befreit zunächst den Autor von der Linearität des Werkes und damit auch den Leser von der Erwartung das Geschriebene in vorgegebener Reihenfolge zu lesen. Douglas Engelbart hat sich mit NLS/Augment insbesondere der Unterstützung von Arbeitsgruppen gewidmet, während Alan Kay den Fokus etwas mehr auf das Verhältnis Anwender-Computer legt. Mit dem World Wide Web von Berners-Lee kommen dann vermeintlich alle Aspekte zusammen. Sein Ansatz war pragmatisch und daher erfolgreich. Auf der anderen Seite ist aber versäumt worden, die damals dominierenden Interface-Paradigmen für das Web zu erweitern.

Für eine ausführliche historische Betrachtung sei auf Michael Fiedewalds »Der Computer als Werkzeug und Medium« (Friedewald 1999) und auf »Vision and Reality of Hypertext and Graphical User Interfaces« (Müller-Prove 2002) verwiesen.

Der Persönliche Schreibtisch

Konstituierend für moderne grafische Benutzungsschnittstellen à la Mac OS X, Microsoft Windows XP und dem Nachfolgesystem Windows Vista oder KDE und GNOME auf dem Linux oder Solaris Betriebssystem sind die vier Komponenten Fenster, Icons, Menüs und Zeigegerät, sowie fünftens die Schreibtisch-Metapher. Diese Schnittstellen seien hier unter dem Begriff Desktop-Systeme zusammengefasst.

Die Entwicklung der Desktop-Systeme reicht bis in die fünfziger Jahre zurück. Zuerst fand im militärischen Bereich die Lightgun, ein Vorläufer des Lichtgriffel, als Zeigegerät Verwendung (Nake 2007 im vorigen Kapitel). Douglas Engelbart und William (Bill) English haben dann 1963 am SRI-ARC die Maus entwickelt. Geteilte Fenster zur Darstellung von grafischen Informationen auf einer Kathodenstrahlröhre wurden im gleichen Jahr von Ivan Sutherland für sein System Sketchpad benutzt (Sutherland 1963). Die ersten überlappenden Fenster und Popup-Menüs wurden von Alan Kay am Xerox PARC für das Smalltalk Entwicklungssystem eingeführt. Mit der Anlehnung an überlappende Papierseiten für die Fensterverwaltung kann nun mehr Inhalt auf begrenztem Bildschirmplatz dargestellt, sowie auf einfache Art zwischen Programmen hin und her gewechselt werden. Schließlich komplettierte David Canfield Smith Mitte der siebziger Jahre mit seiner Forschung über Icons das WIMP-Quartett.9 9 »WIMP« steht für die vier Aspekte Windows, Icons, Menus und Pointing Device. Die Abkürzung könnte gut von den Anhängern des Unix-Betriebssystems stammen, die als Benutzer eines Kommandozeilen-Interfaces auf die Konnotation zum Englischen Begriff »wimp« für Mausbenutzer ziehlten.

Mit Icons, die sich aus der Bürowelt herleiten, kommt man dann zur »Schreibtisch-Metapher«, die ursprünglich als »Physical-Office-Metapher« eingeführt wurde. Man versteht darunter ein Paradigma der grafischen Benutzungsschnittstellen, über das die Dinge und Tätigkeiten des realen Büroalltags im Computer-Interface eine Entsprechung finden (Smith 1982). Dadurch sollte Benutzern, die im Umgang mit Computern noch unerfahren sind, die Scheu genommen und gleichzeitig auf ihr Alltagswissen rekurriert werden, um die Vorgänge im Computer gleichsam zu verbergen und vorstellbar zu machen. So wird die Systemsicht, die für die Entwickler eine wichtige Rolle spielt, durch ein anderes mentales Modell beim Anwender ersetzt. Die Bürowelt mit Dokumenten, Ordnern, Aktenschränken, Post-Ein- und Ausgangkörben, einem Papierkorb und sonstigen (Schreib-)Werkzeugen bot sich an, da hier auch die Kunden für die ersten kommerziellen Systeme Xerox Star und Apple Lisa gesucht wurden.

Interaktionskonventionen bei Desktop-Systemen

Alle Anwendungen auf Desktop-Systemen folgen den gleichen Grundprinzipien. Dabei sind die Darstellung von Objekten auf dem Bildschirm mittels Icons und Fenstern und deren Manipulation per Menübefehl oder direkt per Maus wesentlich. Aus Sicht des Nutzers ist die daraus folgende Konsistenz begrüßenswert, da er zügig mit unbekannten Programmen umgehen und sogar mit geringer Einarbeitungszeit zu einem anderen Betriebssystem wechseln kann. Die Konventionen aus den Bereichen Mausinteraktion, Menüstruktur, Applikationsmodell und Dateistruktur werden im folgenden besprochen, um sie später mit dem Interaktionsmodell des Webs zu vergleichen.

Für die Maus sind drei Interaktionsformen besonders hervorzuheben. Erstens selektiert ein einfacher Mausklick ein Icon für nachfolgende Befehle in der Objekt-Verb-Kommandosyntax. Zweitens lassen sich per Drag'n'Drop Icons an beliebige Orte verschieben, oder es werden spezielle Aktionen ausgelöst, indem man ein Icon auf ein anderes zieht. Drittens löst der Doppelklick die Öffnen-Funktion eines Icons aus.

Einen Ordner zu öffnen bedeutet, dass sein Inhalt in einem neuen Fenster angezeigt wird, während ein Dokument mit einem speziellen Werkzeug bearbeitet wird. Werkzeuge sind auf den Dokumenttyp spezialisierte Programme, die die Daten der Dateien interpretieren können und sie als Fensterinhalt darstellen. Wird das Dokument gespeichert, überschreibt das Programm die Datei mit den aktuellen Daten gemäß dem jeweiligen Dateiformat.

In der Menüstruktur bietet ein Programm dem Anwender einige standardisierte Aktionen an: Im Datei-Menü gibt es Kommandos zum Erzeugen neuer Dokumente, zum Sichern, zum Drucken und zum Beenden des Programms. Im Bearbeiten-Menü sind die Befehle zum Rückgängigmachen einer Aktion sowie die der Zwischenablage zu finden: Ausschneiden, Kopieren, Einfügen. Der weitaus größte Teil der Menüstruktur ist allerdings speziell auf den Dokumenttyp zugeschnitten. Hier drückt sich die Funktionsvielfalt des Programms aus.

Diese vorherrschende Systemarchitektur ist applikationszentriert; d.h. dass zunächst ein Programm gestartet werden muss, bevor darin das Dokument geöffnet und bearbeitet werden kann. Darum ist auch die Werkzeugmetapher nicht ganz zutreffend, da ein Werkzeug zwar für einen primären Zweck optimiert ist, aber dennoch flexibel für anderes benutzt werden kann. Mit einem Stift kann man zum Beispiel auf verschiedenen Materialien schreiben und ist auf kein spezielles Papier angewiesen.

Im Gegensatz zum applikationszentrierten Modell ist das dokumentenzentrierte Modell des Xerox Star für den Anwender leichter zu begreifen. Beginnend mit einem leeren Dokument entscheidet man erst im zweiten Schritt welche Elemente auf der Seite benötigt werden. Es ist damit möglich, Texte, Grafiken und Tabellenkalkulation auf einer Seite gemischt anzuordnen und die Inhalte an Ort und Stelle zu bearbeiten. Der Anwender muss sich auch nicht zu Beginn seiner Arbeit auf den späteren Verwendungszweck festlegen. Das Drucken eines gestalteten Dokuments oder das direkte Versenden per E-Mail10 10 Im applikationszentrierten Modell erstellt man mit einem Textprogramm sein Dokument. Dann öffnet man das E-Mail Programm, erzeugt eine neue E-Mail und hängt das Dokument an. Im einfacheren dokumentenzentrierten Modell erzeugt man ein Dokument, schreibt seinen Text und schickt es an einen Empfänger, indem man das Dokument-Icon auf das Postausgangs-Icon des Schreibtisches zieht. ist mit jedem Dokument möglich.

Das Dateisystem bei heutigen PCs ist hierarchisch strukturiert. Diese Sicht wurde für die Ablagestruktur der Dokumente übernommen, so dass Dateien und Ordner beliebig tief verschachtelt in Ordnern liegen dürfen. Für die Ordnung ist der Anwender selbst verantwortlich, da er jedes Icon an den Ort seiner Wahl bewegen kann. Bei wenigen hundert Dokumenten, die vor 20 Jahren pro Anwender üblich waren, hat dieser Ansatz gut funktioniert – bei Festplattenkapazitäten im Gigabytebereich ist es für den Anwender nicht mehr möglich, den Überblick über mehrere hunderttausend Dateien zu behalten und gezielt Dokumente wieder zu finden.

Seit der Markteinführung des Apple Macintosh hat es kein Hersteller geschafft, qualitative Neuerungen im Bereich der Desktop-Systeme zu etablieren. Zwei größere Anstrengungen von Apple und Microsoft, die ein radikales Umdenken bedeuten würden, seien hier erwähnt. Mit OpenDoc hatte Apple Mitte der 1990er Jahren versucht, sich vom applikationszentrierten Modell zu lösen. Kleine und leicht zu programmierende Module sollten die unterschiedlichsten Informationscontainer eines OpenDoc-Dokuments darstellen und bearbeiten können.11 11 Unter Microsoft Windows gibt es die Funktion Object Linking and Embedding (OLE), die den Versuch darstellt, die positiven Eigenschaften des dokumentenzentrierten Modells mit dem vorherrschenden applikationszentrierten Modell zu verbinden. In der Praxis stellt sich diese Technik allerdings als sehr fehleranfällig und verwirrend für den Anwender dar, da die Benutzungsoberfläche unvermittelt auf den neuen Datentyp umgeschaltet wird. Das Projekt scheiterte, da es sich als zu ambitioniert herausstellte und nicht angemessen zu implementieren war. Zehn Jahre später arbeitet Microsoft an der Fertigstellung des neuen Betriebssystems Windows Vista. Es war eigentlich vorgesehen, das hierarchische Dateisystem durch eine relationale Datenbank zu ersetzen, mit der aus Sicht der Anwender viel flexibler auf die Dateien zugegriffen werden kann. Dokumente haben nicht mehr nur einen Ort in der Baumstruktur der Ordner, sondern sie können unter verschiedenen Gesichtspunkten allen Projekten zugeordnet werden, für die sie relevant sind. Die Pläne dazu wurden vorerst verschoben, um die Auslieferung des Produkts nicht weiter zu verzögern.

Neben diesen beiden größeren Projekten gab es in den vergangenen zwanzig Jahren nur marginale Weiterentwicklungen: Hierarchische Untermenüs, Kontextmenüs, hierarchische Ordnerstrukturen in der Ordneransicht, Windows-Taskbar und Apple-Dock, Farbe und die Unterstützung eines Mausrades sind alles Erweiterungen, die das grundsätzliche Modell nicht in Frage stellen, sondern in einzelnen Aspekten versuchen, mit der gewachsenen Komplexität und den Ansprüchen der Nutzer Schritt zu halten.

Im Bereich der Schreibtisch-Metapher ist sogar zu beobachten, dass die ursprünglichen Konzepte erodieren. Dazu drei Beispiele. Beim Xerox Star, der Apple Lisa und lange Jahre auch beim Macintosh galt der Grundsatz, dass Dokument-Icon und Dokument-Fenster nur zwei unterschiedliche Darstellungsformen desselben Objektes sind und folglich das Icon sein Aussehen änderte, sobald das Dokument geöffnet war. Heute kann man einem Dokument-Icon im Allgemeinen nicht mehr ansehen, ob das Dokument gerade in einem Programm geöffnet ist, da es immer gleich aussieht. Noch konsequenter war die Umsetzung dieser Identität zwischen Dokument-Fenster und -Icon bei der Apple Lisa. Die Verwaltung von Fenster, Datei und Dokument wurde vollständig vom Betriebssystem übernommen, so dass der Anwender sich nicht über den Zustand der Datei im Verhältnis zum geöffneten Dokument kümmern musste. Ein manisches Sichern des Dokumentes war überflüssig, da Fenster und Dokument-Icon aus Nutzersicht stets ein und dasselbe waren.12 12 Der Lisa Desktop Manager verwaltete – transparent für den Anwender – für jedes Dokument zwei Dateien. Die zweite Datei diente als persistente Sicherungskopie, die sogar dafür genutzt wurde, das Dokument nach einem System-Neustart wieder im ungesicherten Zustand zu öffnen.

Eine weiteres Konzept, das zunächst aus der realen in die virtuelle Welt übernommen wurde, ist die Eindeutigkeit des Ortes. Objekte befinden sich zu jeder Zeit an genau einer Position. Diesem Grundsatz folgend verschwand ein Dokument vom Schreibtisch der Apple Lisa, nachdem man es auf ein Disketten-Icon gezogen hatte.13 Auch bei der Darstellung von Ordnern ist dieser Effekt zu beachten. Ein Ordner der realen Welt kann nur an einer Stelle geöffnet sein. Heute ist es auf dem Computer-Schreibtisch allerdings möglich, dass zwei verschiedene Fenster denselben Ordner darstellen. Ein eklatanter Verstoß gegen die Alltagserfahrung, die den Computer-Anwender verwirren kann. 13 Heutige Systeme legen bei dieser Aktion eine Kopie auf dem Zielmedium an; diese Designentscheidung ist sinnvoll, da das die weniger fehlerträchtige Operation ist. Wichtig ist in jedem Fall, dass der Anwender vom System visuelles Feedback erhält.

Selbst die Persistenz des Ortes wird weniger penibel im Computer nachgebildet als bei den Desktop-Systemen der ersten Generation. Reale Gegenstände haben die Eigenschaft, an der Stelle zu verharren, an die sie gelegt wurden. Bei der Platzierung von Icons und Fenstern ist es inzwischen auf allen Plattformen aber reiner Zufall, ob man sie nach einigen Tagen oder Wochen noch in derselben Anordnung an der ursprünglichen Stelle vorfindet. Da solche Formationen für den Nutzer durchaus von Bedeutung sein können, ist diese Nachlässigkeit seitens der Entwickler der Systeme kaum zu entschuldigen.

Das weltweite Netz

Das World Wide Web besteht aus zahlreichen weltweit verteilten Web-Servern, von denen Web-Clients mittels HTTP Webseiten anfordern, um sie in einem Browser-Fenster darzustellen.

Obwohl das Web-Consortium W3C seit 1995 damit beschäftigt ist, einen Konsens über die verwendete Markup-Sprache herzustellen und Erweiterungen wie Cascading Style Sheets (CSS) und stärkere Strukturen mittels der Extended Markup Language (XML) zu definieren, ist das Web in seinen Grundprinzipien unverändert. Sein Charakter hat sich allerdings durch die Kommerzialisierung und neue Inhaltsangebote seit Mitte der 1990er Jahre sehr gewandelt. Stellvertretend für die ökonomische Seite sei hier auf Amazon und eBay hingewiesen.

Interaktionskonventionen im Web

Die Interaktionsmetapher des Web ist das Browsen – sinngemäß das Durchstöbern von Seiten nach interessanten Inhalten. Die wichtigsten Interaktionsformen sind dabei der Klick auf einen Hyperlink, der die Zielseite des Links im Browser anzeigt und dabei die aktuelle Seite ersetzt, und die reziproke Aktion, der Klick auf den Back-Button, der den letzten Schritt rückgängig macht.

Ein paar kleinere Innovationen sind im Bereich des Browsers hinzugekommen. So sind zum Beispiel in den letzten Jahren Tabbed-Windows sehr populär geworden, ein Interface-Element, bei dem mehrere Sessions wie Karteikarten in einem Fenster Platz finden. Der Vorteil ist eine bessere Ausnutzung des verfügbaren Platzes auf dem Bildschirm bei gleichzeitiger Minimierung des Aufwands die Fenster ständig hin und her schieben zu müssen, um die jeweils verdeckten Fenster sichtbar zu machen.

Für einige Browser gibt es auch Erweiterungen zur Gestenerkennung. Mit relativ einfachen Mausbewegungen, wie beispielsweise einer raschen Bewegung nach links oder oben, kann der Benutzer bestimmte Kommandos im Browser auslösen. Da die Aktionen frei definierbar sind, gibt es keinerlei Konventionen, welche Geste die vorige Seite anzeigt, einen neuen Tab anlegt oder die Schrift vergrößert.

Die größeren Veränderungen sind nicht bei der Browser-Applikation, sondern bei den Inhalten und Services im Browser-Fenster zu beobachten. Seit kurzem bekommen nämlich einige Sites immer mehr die Anmutung von Desktop-Anwendungen. Ein Klick auf einen Hyperlink oder ein grafisches UI-Element führt nicht mehr zum Neuaufbau der ganzen Webseite; statt dessen ist es möglich einzelne Bereiche nach Bedarf auszutauschen, ohne die gesamte Seite neu laden zu müssen. Das ausgefeilte Interaktionsmodell wird durch das Zusammenwirken mehrerer Techniken erreicht, die mit dem Schlagwort »Ajax« bezeichnet werden.14 14 Jesse James Garrett prägte »AJAX« als Abkürzung für Asynchronous JavaScript and XML. Da Garrett inzwischen selbst einräumt, dass auch Cascading Style-Sheets eine ebenso wichtige Rolle spielt, ist Ajax heute mehr als Begriff denn als Akronym zu verstehen. (Garrett anlässlich der reboot8 im Juni 2006 in Kopenhagen).

Im Folgenden soll nun die Anwendungsperspektive betrachtet werden und damit die Bedeutung, die das neue Medium für den Nutzer erlangen kann. Zunächst stellt sich die Frage nach dem Umgang mit Informationen im Web. Suchmaschinen haben eine Bedeutung gewonnen, ohne die der Nutzer der Datenflut hoffnungslos ausgeliefert wäre. Erst die Indexierung von Yahoo!, Google und weiteren Firmen macht die Informationen im Netz auffindbar – in gewissem Sinne kann man daher die Suchdienste als Äquivalent zum Dateisystem des Desktops sehen.

Neben dem weltweiten Stöbern nach interessanten Webseiten, erweist sich die mittelbare Interaktion mit anderen Nutzern und somit das Web als Kommunikationsmedium zwischen Menschen als bedeutender neuer Aspekt.

Das »soziale« Netz

Texte werden von Menschen geschrieben, damit sie von anderen Menschen gelesen werden. Geschieht dies bidirektional, erhält man eine Korrespondenz, bzw. einen schriftlichen Dialog zwischen den beiden Personen. Geschieht es öffentlich, haben weitere Leser die Möglichkeit, die Diskussion zu verfolgen und mit ihren eignen Beiträgen zu bereichern.

Das Web ist nun insbesondere dazu konzipiert worden, Textseiten plattform- und programmunabhängig über das Internet zu verbreiten. Jeder, der Webseiten erstellen kann, ist potentiell aktiver Teilnehmer am weltweiten Diskurs. Das Problem bestand über viele Jahre allerdings darin, dass die Einstiegshürden für viele zu hoch waren. Erst als sich dank einiger Tricks Browser auch zum Erstellen von Inhalten benutzen ließen, konnte sich der soziale Raum im Web entfalten.

Die folgenden drei Abschnitte beschreiben diese Entwicklung anhand von Wikis, Blogs und Tagging von Bookmarks.

Wikis

Mitte der 1990er Jahre entwickelte Ward Cunningham eine Methodik, die es ermöglicht, eine Webseite direkt im Browser zu bearbeiten, obwohl der Browser Webseiten eigentlich nur anzeigen kann. Indem Cunningham aber die Formular-Funktion des Browsers zum Bearbeiten des Inhalts der Seite zweckentfremdete, wurde es möglich, Webseiten mit jedem Browser direkt und schnell zu erstellen und zu verändern. »Schnell« ist auch die Bedeutung des hawaiianischen Wortes »wikiwiki«, dem die Technik ihren Namen verdankt.

Ein Wiki-Server versteht also eine spezielle Syntax, um mittels eines HTTP-Post-Kommandos Webseiten auf dem Wiki-Web-Server selbst zu modifizieren. Der Vorteil der Wiki-Technik besteht darin, dass die Anwender keine speziellen Web-Editoren benötigen, um die Seiten zu bearbeiten und keine speziellen Protokolle benutzen müssen – FTP oder WebDAV – um die Seiten von ihren lokalen Computern zum Web-Server zu übertragen. Buchstäblich jeder, der einen Internet-Zugang besitzt, kann auf einem Wiki-Server schreiben und muss sich damit nicht mehr mit der Rolle des Lesers begnügen.

Durch die Aufhebung der Grenze zwischen Autor und Leser ist ein Wiki sehr gut zur Unterstützung verteilter kooperativer Gruppen geeignet. Da alle Mitwirkenden in dieser Hinsicht gleichberechtigt sind, kommen Wikis insbesondere bei Open-Source-Projekten zum Einsatz. Beispielsweise wird die Kommunikation rund um die Planung der Software-Entwicklung bei OpenOffice.org durch ein Wiki unterstützt.15 15 wiki.services.openoffice.org/wiki/, März 2007

Das prominenteste Beispiel eines Wiki-Projekts ist aber sicherlich die 2001 gegründete Wikipedia. Diese weltweite Initiative widmet sich der Aufgabe, eine freie Enzyklopädie zu erstellen, ein Online-Lexikon auf jeweils neuestem Stand zugänglich für alle Menschen. Die so genannten Wikipedianer verfassen in ihrer Freizeit Artikel für Wikipedia und redigieren und diskutieren die Artikel anderer. Der englischsprachige Teil verzeichnet über 500.000 Begriffe; für Deutsch, Französisch und Japanisch gibt es immerhin jeweils mehr als 100.000 Einträge. Zum Vergleich: die Encyclopædia Britannica besitzt in ihrer gedruckten letzten Fassung 73.645 Artikel.16 16 en.wikipedia.org/wiki/ Encyclopædia_Britannica, März 2007

Die Dynamik, die sich hier entfaltet, war sicherlich bereits in der ersten Dekade des Web angelegt. Aber erst durch die Wiki-Server wurde die technische Einstiegsschwelle so weit herabgesenkt, dass dieser Aspekt von der Öffentlichkeit wahrgenommen wird.

Blogs

Der Begriff »Blog« ist ein Kurzform von Weblog, das sich aus den Bestandteilen Web und Log (im Sinne von Logbuch oder Tagebuch) zusammensetzt.

Im Vergleich zu klassischen Web-Sites und Wikis ist das Publizieren von Texten für das Web noch einmal vereinfacht worden, da die Struktur der Site von der Blogging-Software vorgegeben ist. Es ist eine Web-Site mit einer primär chronologischen Struktur. Das heißt, wenn der Autor in einem Online-Formular einen kurzen Text schreibt und ihn per Klick auf einen Button veröffentlicht, erscheint der neue Eintrag mit aktuellem Datum versehen am Anfang des Weblogs. Ältere Beiträge werden gleichzeitig auf der Seite nach unten verschoben.

Im Gegensatz zu Wikis hat jeder Blog meistens nur einen Autor. Die soziale Komponente ergibt sich, indem Blog-Autoren gerne und häufig aufeinander verweisen. Da einem Blog-Inhaber durch spezielle Mechanismen zeitnah anzeigt wird, dass sich jemand in einem Blog-Beitrag auf ihn bezieht, kann er seinerseits darauf reagieren. Es entspinnt sich ein Dialog und bei mehreren Beteiligten eine Diskussion über ein Thema.

Auf der Ebene der Anwender entsteht auf diese Art ein Geflecht sozialer Beziehungen, das sich auf der Hypertext-Ebene in einer hochgradig vernetzten Struktur zwischen den Blogs niederschlägt. Beides zusammen nennt man die Blogosphäre.

Die Blogosphäre ist eine neue Dimension im Cyberspace, die sich durch neue Techniken und Konventionen definiert. Für den Außenstehenden ist diese Szene – bedingt durch den technischen Slang – schwer zugänglich. Begriffe wie Aggregator, Atom, Blogroll, Pings, Permalinks, Syndicatable RSS Feeds (in verschiedenen Versionen), Tags und Trackbacks tragen nicht zum anfänglichen Verständnis bei. Nichtsdestotrotz ist es im Vergleich zu einer eignen Web-Site viel einfacher und schneller, einen Blog bei einem Blog-Server einzurichten. Was bei einer Domain Tage bis Wochen dauert, ist bei Blogs in Minuten bis Stunden erledigt, da der Neublogger oft aus einer großen Palette von Designvorschlägen einen zu ihm passenden Stil auswählen kann.

Die Frequenz, mit der neue Blog-Beiträge erscheinen, ist im Allgemeinen sehr viel höher, als bei klassischen Webseiten. Das überfordert allerdings die Algorithmen, mit denen die Suchdienste ihren Index berechnen. Google braucht in etwa eine Woche, bevor eine neue Seite gefunden werden kann, da das PageRank-Verfahren für die Bewertung der Relevanz einer Seite alle eingehenden Hyperlinks betrachtet und relativ zum PageRank der Seite, von der der Link kommt, bewertet. Diese Methode liefert sehr gute Ergebnisse, ist aber zugleich sehr aufwändig und damit langwierig in der Berechnung. Neue Anbieter haben sich dieses Problems angenommen und schaffen es inzwischen, Blog-Beiträge bereits wenige Minuten nach Veröffentlichung auffindbar zu machen. Zu nennen sind hier exemplarisch Technorati, WebLogs.com und Bloglines. Diese Dienste bieten ebenfalls auf die verschiedensten Themen spezialisierte Nachrichtenkanäle an, die einen unterstützen, die interessanten Artikel aus dem Meer von Informationen heraus zu fischen. Aus Anwendersicht stellt sich aber die Frage nach dem Sinn zweier Kategorien von Suchdiensten. Schließlich handelt es sich bei klassischen Websites und bei Artikeln der Blogosphäre um einfache Webseiten.

Social Bookmarking

Ein anderer Aspekt, der von Browser-Applikationen unzureichend abgedeckt wird, ist das Verwalten von Bookmarks bzw. von Favoriten im Internet Explorer von Microsoft. Browser bieten die Funktion, für eine Webseite die zugehörige URL zu merken und sie in der Menüstruktur für späteren direkten Zugriff anzubieten. Die Listen dieser Lesezeichen werden schnell unübersichtlich und veralten teils, da die Webseiten nach einiger Zeit nicht mehr existieren oder ihr Inhalt stark verändert wurde. Außerdem kommt es zu Synchronisationsproblemen, wenn man den Browser wechselt oder gar mehrere Browser oder verschiedene Computer nutzt.

Für eine bessere Ordnung und für die Unabhängigkeit von einem konkreten Browser bieten Web-basierte Dienste eine Alternative. Dabei werden die Bookmarks an ein persönliches Konto – beispielsweise bei del.icio.us17 17 Als der Webdienst del.icio.us (del.icio.us, März 2007) 2005 von Yahoo! übernommen wurde, war die Zahl der Benutzer in den zwei Jahren seit Gründung auf 300.000 angewachsen. – geschickt und zusätzlich mit einem oder mehreren Schlagworten versehen.

Die Schlagworte nennen sich »Tags« (engl. für Etikett) und haben mehrere Funktionen. Wenn man einen der Tags auswählt, werden alle unter ihm klassifizierten Bookmarks aufgelistet. Damit entsprechen die Tags in Vannevar Bushs Sinne viel genauer den Trails des Memex als die Hyperlinks. Schon dort sollten nämlich – wie eingangs beschrieben – Artikel, die in thematischem Bezug zueinander standen, vom Benutzer durch die Eingabe eines kurzen Codes miteinander verbunden werden können.18 18 Typisierte Hyperlinks, die vom Anwender frei gesetzt werden können, hätten einen ähnlichen Effekt. Dieser Mechanismus ist im Web mit seiner beschränkten Browser-Technik aber nicht entwickelt.

Zweitens bestimmt man durch die Vergabe von Tags für Einträge nicht einen eindeutigen Ort in einer Ordnerstruktur. Statt dessen bilden Tags eine nicht-hierarchische Ordnung über den Dingen, da eine Website ohne weiteres mehreren Tags zugeordnet sein kann. Damit entfällt der rigide Zwang zur eindeutigen Ablage. Hierin verbirgt sich ein Potential für den Umgang mit Informationen im Computer an sich, da Tagging als recht junges Element in der Mensch-Computer-Interaktion noch nicht voll zur Entfaltung gekommen ist (Müller-Prove 2007).

Wenn die Tagging-Daten, wie im Falle von del.icio.us öffentlich sind, ergeben sich weitere Vorteile. Es lassen sich Leute finden, die die gleichen Webseiten besuchen wie man selbst und mit denen man möglicherweise gemeinsame Interessen hat. Anders herum kann man auch die Masse für sich instrumentalisieren, indem man beobachtet, welche Webseiten sich hinter speziellen Tags ansammeln. Die eigene Recherchearbeit zu einem Thema wird so durch die Aktivität der anderen unterstützt.

Bei solcher Art von Informationsaufbereitung ist aber zu bedenken, dass die »Link-Empfehlungen« rein subjektiv sind. Es gibt keinerlei Autorität oder Redaktion, die für die Güte und Vollständigkeit der Quellen bürgt. Der Umgang mit kollektivem Filtern der Webseiten erfordert ein hohes Maß an Medienkompetenz, um nicht der Versuchung zu erliegen, Informationsquellen außer Acht zu lassen, nur weil sie nicht über del.icio.us oder eine elektronische Suchmaschine erschlossen sind.

Von der Gleichzeitigkeit des Unvereinbaren

Aus Sicht des Desktop-Paradigmas ist der Web-Browser lediglich ein Schreibtischwerkzeug unter vielen. Neben Textverarbeitung, Tabellenkalkulation und E-Mail gibt es eben auch noch ein Programm für das Browsen im Netz. Das Web hat nun aber eine Größe und Bedeutung angenommen, die bezüglich der Benutzungsschnittstelle insgesamt nicht mehr ignoriert werden darf. Die Interaktionsformen des Computer-Schreibtisches auf der einen Seite und des Web auf der anderen stehen nämlich konträr gegeneinander. Der wichtige Grundsatz der Erwartungskonformität der Schnittstelle ist schwer verletzt. Dazu vier Beispiele:

  1. In einem Fenster genügt ein Einfachklick auf einen Hyperlink, wohingegen in dem anderen Fenster ein Doppelklick auf ein Dokument- oder Ordner-Icon für eine äquivalente Funktion notwendig ist. Anwender bringen das gerne durcheinander und erwarten eine Funktion mit einem Doppelklick auszulösen, obwohl ein Einfachklick genügt. Die Gestalter von Webseiten und Software-Applikationen müssen diese Unsicherheit einkalkulieren, damit der zweite Klick des Doppelklicks nicht gleich die nächste Funktion auslöst.
  2. Der Browser merkt sich die Folge der aufgerufenen Webseiten in der History. Wenn man nun den Schritt zu einer uninteressanten Seite rückgängig machen möchte, hilft einem die Back-Funktion. Nicht so in Dokumenten der Desktop-Welt. Wenn man da eine Folge von Bearbeitungsschritten rückgängig machen möchte, steht einem (hoffentlich) die Undo-Funktion zur Verfügung. Undo und History sind also zwei Konzepte, die wegen ihrer semantischen Ähnlichkeit zu einer einzigen zusammengefasst werden sollten.
  3. Immer mehr Web-Services haben die Anmutung von Applikationen. Beispiele dafür sind Web-Mail, Web-Kalender bis hin zu Anwendungen, die auf Google Maps basieren.19 19 Ein »Mashup« (engl. für Vermischung) ist eine Webanwendung, die aus den Angeboten mehrerer Websites einen neuen Service erstellt. So gibt es inzwischen zahllose Seiten, die auf den Landkarten und Satellitenbildern von Google eigene Daten, wie beispielsweise Restaurants oder Staumeldungen, einzeichnen. (vgl. auch de.wikipedia.org/wiki/Mashup, März 2007) Man verlässt die Webseite nicht mehr, sondern ändert lediglich direkt die Parameter auf der Webseite. Konventionen aus der Desktop-Welt gelten hier unvermittelt nicht mehr. Ein Command-S zum Sichern einer E-Mail löst in einer Web-Mail-Anwendung die unsinnige Funktion aus, die Webformularseite als HTML abzuspeichern. Und bei Bedienfehlern hilft einem weder die Back-Funktion der History (die beendet ohne Warnung die Webanwendung!), noch die Undo-Funktion des Browsers (keine Wirkung für den Inhalt von Webseiten) und ein spezielles Undo für den Web-Service ist nicht vorgesehen.
  4. Auf Desktop-Systemen sind Icon und Fenster zwei verschiedene Darstellungsformen eines Dokuments. Das Dokumentenfenster hat dabei eine sehr starke Bindung an eine bestimmte Datei, da der Speicherungszustand von zentraler Bedeutung ist. Unter dem Webparadigma gleicht ein Browser-Fenster vielmehr einem Wechselrahmen, der nacheinander verschiedene Dokumente darstellt. Ein Anwender, der sich auf die Eigenschaften der Desktop-Welt verlässt, die ihn davor bewahren, eigene Daten zu verlieren („Wollen Sie das Dokument jetzt sichern?“), wird beim versehentlichen Schließen eines Browser-Fensters entsprechende Warnung schmerzlich vermissen. Es wäre denkbar, die History selbst als schützenswerten Inhalt zu begreifen und sie quasi als Trail im Sinne des Memex abzuspeichern. Das ist aber in heutigen Browsern nicht vorgesehen.

Die Beispiele zeigen, dass das Nebeneinander verschiedener Interaktionsformen ein effektives und elegantes Arbeiten mit dem Computer verhindert. Der Benutzer wird durch ständige Kontextwechsel und einem daraus resultierenden Benutzungsschnittstellenwirrwarr von seiner eigentlichen Tätigkeit abgelenkt. Das User Interface sollte aber vertraut und selbstverständlich sein und dadurch im besten Sinne des Wortes transparent werden können. Erst dann lässt sich das Potential des Mediums Computer voll ausschöpfen.

Objekte und Informationen

Auf grundlegender Ebene ist ein Desktop-System objektorientiert. Der Begriff bedarf einer Erklärung, da hier nicht die softwaretechnische Sicht im Sinne der Programmierung gemeint ist. Die Schreibtisch-Metapher induziert eine Menge realer Objekte – wie beispielsweise Ordner und Dokumente – in den Aktionsraum des Computeranwenders. Dort werden sie als Icons und Fenster repräsentiert. Der Anwender begreift diese Objekte als wären sie real. Er hantiert mit ihnen über das angeschlossene Zeigegerät, das den Mauszeiger über den Bildschirm bewegt. So entsteht die Interaktion des Anwenders mit den virtuellen Objekten des Computers.

Alan Kay drückte das in den siebziger Jahren mit dem Satz aus: »Doing with images makes symbolsDoing ist das buchstäbliche Manipulieren der Dinge. Images sind die Objekticons und Fenster. Und Symbols verweist auf die abstrakte symbolische Ebene, auf der die für den Anwender relevanten Operationen stattfinden. Beispiele für solche Operationen sind das Verschieben eines Dokumentes an einen anderen Ort in der Ordnerstruktur, das Öffnen und Bearbeiten eines Dokuments, aber auch das Versenden eines Dokuments per E-Mail an einen Kollegen. Ben Shneiderman prägte für diese Interaktionsform den Begriff »Direkte Manipulation« (Shneiderman 1983).

Eine wichtiger Aspekt für alle Objekte des Desktops ist deren Verhältnis zum Anwender: die Objekte gehören ihm – es sind seine Ordner, in denen er seine Dokumente verwaltet. Der Zugriff anderer ist per se ausgeschlossen.20 20 Wenn diese persönliche Grenze überschritten wird, spricht man folglich von Computerkriminalität. Und das Gestaltungsprinzip der Ortspersistenz hat einen hohen Wert. Dinge bleiben an dem Ort, an die der Anwender sie gelegt hat. Damit ist die Entsprechung zur realen Bürowelt gewahrt, da man dort auch für Ordnung oder Unordnung selbst verantwortlich ist.

Anders im Web. Der Web-Surfer verlässt seinen Schreibtisch und reist durch fremde Datenräume. Dabei ist von den Entwicklern vergessen worden – oder es erschien nicht mehr notwendig – eine metaphorische Objektschicht einzuführen. Der Anwender agiert mit Informationen, die anderen gehören, bzw. die von anderen ins Internet gestellt wurden. Der Desktop-Metapher entspricht im Web noch am ehesten das Browsen, das Stöbern in Bibliotheken und Durchblättern von Büchern und Magazinen.21 21 Aus dem Oxford Dictionary: browse: […] 2 read (parts of a book or books) without any definite plan, for interest or enjoyment: browsing among books in the public library. (Hornby 1984)

Die Gestalter der Online-Welt bedienen sich gern und häufig aus der Begriffswelt der Städteplaner und Architekten: Home page, landing page, web site, site map, portal, chat room, online forum, online shop, community, domain, information highway, world wide web, cyberspace. Diese Begriffe werden implizit verwendet, aber nicht forciert, um etwa die Nutzung des Internets zu veranschaulichen. So entstehen zahlreiche Brüche und Ungereimtheiten. Eine Sammlung von Webseiten wird Web-Site (Platz) genannt. Dabei müssten mehrere Seiten doch ein Buch ergeben! Und die »Bookmarks« eines Browsers dienen zum Merken von Orten im Cyberspace – Sprachmetaphern der Nautik und Navigation wären hier wohl angebrachter.

Ausblick

Bei dem hier diskutierten Thema verbietet sich eine abschließende Zusammenfassung. Zu viel ist noch im Fluss – zu viel ist noch unfertig und provisorisch.

Der Vergleich der Grundprinzipien von Desktop- und Webparadigma hat gezeigt, dass keine der beiden Herangehensweisen eine angemessene Antwort auf das Informationsproblem darstellt. Beide Systeme haben ihre unbestreitbaren Vorteile – die nur leider zum Nachteil der Nutzer in diametral unterschiedlichen Interaktionsmodellen gegeneinander stehen.

Die metaphorische Umsetzung des Hantierens mit realen Objekten im Desktop-Paradigma hat maßgeblich zur Verbreitung des Computers in nicht-akademische Bereiche des Arbeitsalltags beigetragen. Durch die Abstraktion von den elektrotechnischen und algorithmischen Prozessen durch die Schreibtisch-Metapher wurden die Vorgänge für den Nichtfachmann vorstellbar – die Daten wurden im Wortsinne sogar »begreifbar« gemacht, denn Douglas Engelbarts Erfindung der Maus ist zur selbstverständlichen Erweiterung der menschlichen Hand im Interaktionsraum des Cyberspace geworden.22 22 In »The Architecture of Intelligence« benennt Derrick de Kerckhove den Cyberspace als die dritte Wahrnehmungsmodalität des menschlichen Geistes. Nach der Entwicklung der Sprache, mit der Menschen direkt miteinander Gedanken austauschten, und der Schriftkultur, in der das geschriebene und gedruckte Wort an nachfolgende Generation überliefert werden konnte, eröffnet sich hier eine globale, kognitive, immersive Dimension (De Kerckhove 2001, S. 33). Das nun direkte Manipulieren der virtuellen Objekte erzeugt ein Eigentumsverhältnis zwischen Anwender und Daten, das einen wesentlichen Beitrag zum persönlichen Charakter des PCs leistet.

Im Web sind wir lediglich zu Gast. Wir navigieren durch Datenräume, die von anderen für uns geschaffen wurden. Mittels Suchdiensten sind Informationen im Netz inzwischen oft schneller auffindbar als Dokumente auf der eigenen Festplatte. Ein Begreifen im obigen Sinne gibt es aber nicht mehr. Weder lassen sich im Allgemeinen die Webseiten verändern oder verschieben, noch können, wie in einem Buch, Textstellen markiert und Bemerkungen an den Rand geschrieben werden. Wie oben dargestellt wurde, entspricht das weder Ted Nelsons Ideal vom Hypertext, noch dem der Entwickler des World Wide Web, die am CERN schon die Grundlagen für ein flexibles Medium zum Erstellen und Verbreiten von Informationen geschaffen hatten.

Erst in den letzten Jahren gewinnt dieser Aspekt wieder an Bedeutung, indem die Websurfer auch selbst schreiben. Blogs und Wikis sind dabei zwei einfach nutzbare Möglichkeiten, die hier vorgestellt wurden. Damit wird der Webkonsument endlich zum aktiven Teilnehmer und – eingeschränkt auf bestimmte Domains – selbst zum Autor. Online-Profile bei Social-Networking Sites wie LinkedIn und Xing23 23 www.linkedin.com, März 2007. www.xing.com, März 2007 (der Webdienst der openBC AG)
24 MySpace.com wurde 2005 für 580 Millionen Dollar von Rupert Murdochs News Corp gekauft und verzeichnet heute mehr als 80 Millionen Nutzer in USA.
und eigene Seiten bei Diensten wie MySpace24 sind weitere Beispiele dafür, dass auch hier die Technik inzwischen soweit vereinfacht wurde, dass nicht nur Teilchenphysiker und teuer bezahlte Webdesigner Inhalte im Web veröffentlichen können.

Das Web ist zum Massenphänomen geworden, dessen Seiten immer mehr auch von den Menschen aktiv gestaltet werden. So ist das Web auf gutem Wege, auch ein persönliches Medium zu werden. Auf das persönliche Medium Desktop-PC wird bei der Entwicklung aber leider kaum Rücksicht genommen.

Für die Zukunft könnte sich daraus eine abnehmende Bedeutung des Desktops ergeben. Denn durch immer mehr Anwendungen, die im Webbrowser vergleichbaren Nutzen zu den klassischen Applikationen anbieten, entfällt der Anschaffungs- und Lernaufwand für eben diese Programme. Der primäre Interaktionsmodus würde sich dadurch vom Computerschreibtisch zum Webbrowser verlagern. Eine konsequente Weiterentwicklung wäre dann ein System, das gar keinen Schreibtisch mit persönlichen lokalen Dokumenten und Ordnern mehr anbietet, sondern alles nur noch über den Webbrowser darstellt.

Wenn man die Schreibtischmetapher nicht aufgeben will, muss man sich um ein Zusammenführen beider Welten bemühen. Eine zentrale Rolle nimmt dabei der Browser ein, der für viele der Interaktionsinkonsistenzen verantwortlich ist; dessen Weiterentwicklung stagniert aber seit Jahren. Dazu wurden einige Beispiele im vorigen Abschnitt genannt.

Auch ist es für den Anwender nicht einsichtig, warum im Netz und auf seinem persönlichen Computer unterschiedliche Such- und Ordnungsmechanismen zum Einsatz kommen. Viel besser wäre eine Suche, die je nach Anwendungsfall auf der Festplatte und/oder im Netz nach Treffern sucht und die sich für den Anwender in einer einheitlichen Schnittstellenkomponente darstellt.25 Da das Konzept des Taggings noch sehr jung ist, kann man hier auf eine website-übergreifende Lösung spekulieren und eine spezielle Einbeziehung der Folksonomy-Daten für die Suche erwarten.26 25 »Google Desktop Search« ist ein Ansatz in dieser Richtung. Lokale Suchergebnisse in Dokumenten, E-Mails, Fotos usw. werden in Form von üblichen Online-Suchergebnissen präsentiert. Die Frage nach dem Datenschutz ist dabei nur unzureichend geklärt, da Google im Prinzip Einblick in die persönlichen Daten des Anwenders erhält.
26 Der Neologismus »Folksonomy« leitet sich von Taxonomie ab und bezeichnet die von den Anwendern durch Tags kollektiv definierte Ordnung der Dinge. Der Begriff wurde erstmals 2004 auf einer Mailingliste des Information Architecture Institute von Thomas Vander Wal verwendet (Merholz 2006, Müller-Prove 2007).

Auf Seiten der Desktop-Systeme sind offene und standardisierte Dateiformate ein wichtiger Schritt zur Integration beider Welten. So sorgt zum Beispiel im Office-Bereich das ISO-Format OpenDocument für eine Unabhängigkeit von Programmherstellern und Betriebssystemen. Genau wie der offene Standard HTML Voraussetzung für den Erfolg des Web war, kann der Standard für formatierte Textdokumente, Präsentationen und Tabellenkalkulationen einen Innovationsschub auslösen, der die Kluft zwischen Desktop und Web zu überbrücken hilft. Für den Anwender ergäbe sich daraus ein System, bei dem es möglich ist, ein Dokument zunächst mit einem Office-Programm zu erzeugen und später mit einer Webanwendung weiter zu verarbeiten, die den ISO-Standard unterstützt. Damit könnte die Schwachstelle der Webs ausgeglichen werden, nämlich das Erstellen neuer Inhalte.

Vannevar Bushs Idee des Memex war ein einheitliches System zur wissenschaftlichen Lektüre und Forschung. Ted Nelson ging es um das Verfassen neuer (Hyper-)Texte und um deren weltweite Vernetzung. Douglas Engelbart ergänzte diese Vision um den kollaborativen Aspekt. Zusammen ergibt das ein integriertes Recherche- und Autorenwerkzeug für weltweit agierende Teilnehmer. Die einzelnen Komponenten dazu sind heute durchaus in einer Qualität verwirklicht, die damals undenkbar war. Die Entwicklungsgeschichte hin zum Personal Computer und dem World Wide Web hat aber ein komplexes System hervor gebracht, das weit hinter den einzelnen Visionen zurückbleibt. Desktop- und Webparadigma ergänzen sich leider nicht zu einem homogenen und konsistent bedienbaren Ganzen, sondern konkurrieren miteinander in wichtigen Aspekten der Metapher und Interaktion.

Nur wenige Utopisten und Visionäre hatten eine Ahnung, wie sehr die Computerrevolution das Zusammenleben auf unserer Erde tatsächlich verändern würde. Der Computer ist in ein paar Generationen zu einem weltumspannenden Kommunikationsmedium geworden, dessen Folgen für unsere Gesellschaften sich gerade erst abzuzeichnen beginnen. Wie die Diskussion gezeigt hat, bietet die Interaktion mit dem Computer und dem Web noch viel Potential für Weiterentwicklungen – und daher stehen wir in dieser Phase noch ganz am Anfang.

Literatur

Dieser Text ist erschienen in Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computerbedienung, transcript 2008

> Weitere Buchveröffentlichungen

Diskussion

comments powered by Disqus