Der Computer
Spielzeug - Werkzeug - Denkzeug - Fahrzeug


Vortrag TU Clausthal 5.12.2006
zur Eröffnung des Multifunktionalen Computerarbeitsraumes der Universitätsbibliothek

B. Eversberg

Wechseln zur neuen Rechtschreibung
[Was bewirkt dies?]

Ein Meilenstein [1] ist erreicht, wenn die Studienbedingungen an einer Hochschule so deutlich verbessert werden, wie dies hier und heute geschieht. Wenn man einen Meilenstein erreicht, erkennt man, wieviel des Weges man zurückgelegt hat, aber zugleich, welche Strecke noch vor einem liegt. Wir können in diesem Fall zwar ein wenig zurückblicken und dabei in mancher Hinsicht erkennen, wie weit wir es nun gebracht haben, aber was die Zukunft angeht, da ist die Sichtweite begrenzt. Sie werden aber heute keine ausführliche Vision von mir erwarten, sondern lieber selber eine entwickeln wollen...

Wie alles anfing
Eigentlich umgibt ja den PC und auch das Internet heute eine Aura der unaufgeregten Normalität. Studieren ohne PC? Die Frage stellt sich doch keiner. Wenn man aber nur ein Vierteljahrhundert zurückblickt [2], dann fragt man sich, wie man damals eigentlich gearbeitet hat. Man versteht dann, daß die von solchen Zuständen betroffenen Menschen alle Hebel in Bewegung gesetzt haben, um dahin zu gelangen, wo wir heute stehen, und das in nur 25 Jahren. Man spricht längst von einer neuen Kulturtechnik- "computer literacy" oder "Informationskompetenz" - von der man noch 1980 keinen Begriff hatte. Es hat seit dem Altertum keine neue Kulturtechnik in der geistigen Arbeit gegeben! Das ist die Dimension.
Kurz vor 1980 brachten Firmen wie Commodore [3], Apple, RadioShack die ersten Komplettgeräte mit Zentraleinheit, Monitor und Tastatur auf den Markt. Als Massenspeicher gab es zuerst nur Tonbandkassetten [4], dann wurden die schnelleren Floppies erfunden, schon 1981 kamen auch Drucker hinzu, das waren zuerst nur Matrix- und Typenraddrucker, Laser erst nach 1985. Die professionellen Datenverarbeiter belächelten zuerst diese Hobbycomputer und hielten sie für unnützen Kram - "richtige" Computer waren damals kaum für weniger als 100.000 DM zu haben. Diese Haltung ist ganz verschwunden. Wir haben jetzt in Forschung und Lehre ein global vernetztes Umfeld, die Infrastruktur der Wissenschaft hat sich radikal gewandelt - und der PC ist jetzt ein integrales Element in der Ökonomie der geistigen Arbeit. Das ist ja das zentrale Thema: Wie kann man heute die geistige Arbeit so effektiv wie möglich gestalten, und was ist dabei der Stellenwert der Informationstechnik - machen wir davon einen vernünftigen Gebrauch oder stümpern wir damit nur herum oder machen wir uns nur was vor, verschwenden wir damit zuviel Zeit? Oder macht uns die Industrie was vor?
Manche Prognosen [5] der frühen Jahre hatten allerdings der Chip-Revolution noch mehr zugetraut, als wir es heute erleben. Man erwartete die Ankunft superintelligenter Maschinen schon in den 90er Jahren, im Gefolge davon die 20-Stunden-Woche. Man hätte sich sogar über neue Religionen mit dem Computer in einer Hauptrolle nicht gewundert, aber man dachte sich auch profanere Dinge aus, wie daß niemand mehr einen Türschlüssel brauchen würde. Richtig wurde vermutet, daß bald ein riesiger Markt für Bürosysteme entstehen würde, aber falsch, daß das gute alte Buch das Jahr 2000 nur mit knapper Not vielleicht noch erleben könnte. Schon für die Mitte der 80er sagte man eine Verdrängung des Lehrbuches voraus durch "kolossal mächtige Lerncomputersysteme". Dreißig Jahre später sind diese Systeme noch immer eine Wunschvorstellung und unverdrossen werden neue Lehrbücher herausgebracht. Langsam werden e-Books zwar beliebter, sie sind meistens aber noch nicht sehr viel mehr als elektrifizierte Lehrbücher.


Prognosen sind immer schwierig ...
Warum weicht die Realität so stark ab von den Prognosen? 
Einer der Gründe ist wohl, daß manche Forschungsideen publikumswirksam formuliert wurden, einfach um an die nötigen Finanzmittel zu gelangen. Das wollen wir jetzt nicht weiter verfolgen. Eine wichtige Frage ist, ob wir denn das alles schon wirklich verstanden haben, was uns in den letzten 30 Jahren um die Ohren geflogen ist.
Und vielleicht ist nicht nur das Potential der Technik falsch eingeschätzt worden, sondern auch der Mensch, seine Erwartungen, Bedürfnisse und Fähigkeiten. Es gibt kaum Studien, die das Weltbild von Mehrheiten untersuchen und wie es sich wandelt, den Umgang mit neuen Technologien, deren Auswirkungen auf das Denken und Verhalten, die Auswirkungen auf die Lebensführung der Menschen, auf soziale Strukturen, die Entwicklung des Verständnisses und Fehlverständnisses von den neuen Dingen. Wie haben Menschen z.B. die Elektrizität, die Massenverkehrsmittel, das Telefon (und vieles andere) für sich entdeckt und eingesetzt, verstanden, ihr Leben damit arrangiert? Und nun eben der Computer: was machen sie damit, wofür schätzen, weswegen fürchten sie ihn, was erwarten sie von ihm und warum? Entstehen neue Gewohnheiten, Verhaltensmuster, Rechte, Ansprüche; werden andere Prioritäten gesetzt, gibt es Auswirkungen auf zwischenmenschliche Beziehungen? Gibt es in diesen Dingen Unterschiede zwischen den Schichten und Kulturen? Wie vor über 100 Jahren die Elektrizität so hat sich der Computer - obwohl weithin eigentlich unverstanden - an unübersehbar vielen Stellen in das Alltagsleben eingemischt, fast jeder trägt ständig einen oder zwei mit sich herum - das Handy, den iPod, die Digicam. Ein weites Feld - man denke nur allein an eins der ganz jungen Phänomene - an Google [6]: wie hat es das Verhalten, ja das Leben von Menschen verändert, indem es für viele zum Nachschlagewerk schlechthin geworden ist: Wörterbuch, Lexikon, Atlas, Ratgeber, Adreßbuch, Gelbe Seiten, Verkaufskatalog, Schnäppchen-Fundgrube, Kontaktbasar und noch mehr, alles in einem - eine vollkommen neue Erfahrung. Das Nachschlagen geht vom Lesen sogar direkt über ins Handeln, in das Nutzen der gefundenen Quellen, z.B. Schreiben einer Nachricht, Beteiligung an einem Forum oder Durchführen einer Buchung oder Bestellung. Man erkennt daraus: Computergeschichte, das ist nicht nur Technikgeschichte, das hat ungeahnte Dimensionen, das ist auch Kultur- und Geistesgeschichte. Grundsätzlich erkannt wurde das in den Medien schon lange vor dem Internet (dieser Name wurde erst 1987 bekannt), wohl zwischen 1980 und 1982, denn für das Jahr 1982 wurde überraschend von der Wochenzeitung Time kein "Mann des Jahres" gewählt, wie sonst immer, sondern eine "Maschine des Jahres" (Heft 1, 3.1.1983 [7]). Der Umbruch wurde damit weltöffentlich wahrgenommen. Für 2006 wird dann schließlich der Titel an den Internetnutzer schlechthin verliehen, als Teilnehmer an einer globalen "digitalen Demokratie" [7a].
Google, um dabei noch einen Moment zu bleiben, war 1998 plötzlich und überraschend einfach da und überflügelte sofort alle seine Vorläufer hinsichtlich Schnelligkeit und Qualität der Resultate, scheinbar so einfach und direkt wie ein Zigarettenautomat. Diese Metapher wird bewußt gewählt: Man hat einen Einwurfschlitz vor sich, in den man eine oder zwei Wortmünzen wirft, und auf Knopfdruck erscheint das Gewünschte. Was Bibliotheken schon sehr lange geleistet hatten, wirksam jedoch nur für eine recht dünne Schicht von Gebildeten, leistet jetzt die Kombination von Internet, Google und PC für Hunderte von Millionen: das Speichern von aufgezeichnetem Wissen, von Erkenntnissen, Erfahrungen, Erinnerungen, und deren Vermittlung an alle, die Zugang haben und die mit den Hilfsmitteln umzugehen verstehen - automatisch, scheinbar befreit aus der Abhängigkeit von Personen und Institutionen.
1994 war Yahoo entstanden, dann hatte
1996 AltaVista [8] seinen ersten Auftritt und wurde schnell zum Marktführer, dann nach wieder zwei Jahren ebenso schnell von Google verdrängt, das seine Position seitdem aber behauptet - also schon ganz unerwartet lange; man dachte zuerst, es werde so weitergehen, aber die nächste große Innovation ist noch immer nicht in Sicht. Nun ja, wer gegen Google antreten wollte, und gewollt haben das schon viele, der müßte erst eine noch mächtigere Infrastruktur aufbauen. Der Nutzer sieht das ja gar nicht, aber Google verfügt über das größte Servernetz auf diesem Planeten, knapp eine halbe Million Server!  Die nötige Schuhgröße hätte allenfalls Microsoft. An Versuchen hat es nicht gefehlt... Der neueste Versuch heißt searchmash [smash1 -- smash2] und kommt aber von - Google. [Schon im Nov. 2008 wurde dieser Versuch dann überraschend wieder aufgegeben!]
Über das Phänomen "Google" wurde schon viel geredet und mehr als ein Buch geschrieben, dabei wird die kulturgeschichtliche Dimension durchaus gesehen [9].
Interessanterweise hatte schon 1945 ein Mr. Vannevar Bush
mit dem "Memex" [10] eine erstaunliche Phantasie, allerdings noch ohne konkretes technisches Konzept und ohne die Idee der Vernetzung: er stellte sich ein schreibtischgroßes Gerät vor, in dem das relevante Wissen der Welt auf Mikrofilmen gespeichert und dann interaktiv nutzbar sein sollte. Was Bush damals über den Umgang mit dem Wissen dachte, paßt nahtlos zu dem, was jetzt im Zusammenhang mit Google zu lesen ist. An diese frühe Vision knüpfte später das Hypertext-Konzept von Ted Nelson [11] an, das dann mit dem WWW bisher nur unvollkommen umgesetzt wurde: Nelson wollte stabile Link-Verbindungen und diese auch graphisch deutlich sichtbar machen. Dazu würde man mehr und bessere Metadaten brauchen, mehr und strengere Standards und mehr zentrale Administration als wir sie tatsächlich haben.

Fehleinschätzungen
... entstehen nur zu leicht, sie sind der Normalfall, die gesamte Geschichte ist voll davon, denn neue Erkenntnis ist doch immer das Goldkörnchen inmitten Tonnen von Geröll. In den 50er Jahren kamen die ersten Computer. Sie konnten rechnen, sonst nichts. Das Wort "Computer" bedeutet ja Rechner, aber - sehr schnell wurde ein neuer Begriff erfunden: "Elektronengehirn"
[12]. Diese grobe Überschätzung ging wohl darauf zurück, daß das menschliche Gehirn und seine Fähigkeiten damals noch stark unterschätzt wurden. Diese Fähigkeiten waren noch längst nicht so im Detail erkannt und klassifiziert wie heute, man hatte recht nebulöse Vorstellungen davon. Das Rechnen gehört zu einer Klasse von Fähigkeiten, die man zuerst etwas vage "formal" nannte und erst später sah man viel genauer, daß und wie man diese Aufgaben mit Algorithmen beschreiben kann. Das Wesen des Algorithmus wurde erst in den 1930ern richtig entdeckt. Zwar hatte Leibniz davon auch schon eine Idee, aber er war seiner Zeit in vielem weit voraus. Seine Jahrtausenderkenntnis war die Analysis, das Rechnen mit reellen Zahlen, also im Kontinuum. Der Algorithmus, als Grundlage für das diskrete Rechnen, also den Umgang mit ganzen Zahlen, ist eine zweite mathematische Jahrtausendidee, und zwar auch keine sehr leicht verständliche. Deren ganze Kraft hat sich erst mit dem Computer entfaltet. Als "algorithmisch berechenbar" gilt alles, was man in endlich vielen elementaren Schritten ausführen kann, wobei diese Schritte ganz ohne Intelligenz - von einem Automaten - vollzogen werden können, von einem Gerät, das nur eine endliche Anzahl von inneren Zuständen haben kann, das sich aber beliebig umfangreiche Notizen machen kann. Das ist die sog. "Turing-Maschine" [13], erdacht von dem Mathematiker Alan Turing. Ihm ging es um die Fragen, was denn ein Algorithmus ganz genau sei und welche Arten von Problemen man grundsätzlich mit Algorithmen lösen könne und welche nicht. Das Ernüchternde ist nun:
Auch alle heutigen Computer sind im Kern solche Maschinen [14], das ergibt sich aus Turings berühmter These: Alles, was berechenbar ist, könnte im Prinzip auch eine Turing-Maschine berechnen. Endlich viele Schritte, das hört sich im ersten Moment nach einer starken Einschränkung an, doch auch eine Milliarde ist eine endliche Zahl, und heutige Computer können drei Milliarden und mehr elementare Schritte in jeder Sekunde vollführen - aber nicht unendlich viele! Das wichtigste Problem der Algorithmentheorie ist die Feststellung, ob ein gegebenes algorithmisches Verfahren in jedem Fall mit endlich vielen Schritten zum Ende kommt - das Verfahren wäre ja unbrauchbar, würde es unter Umständen nie fertig werden.  Heute nennt man eine maschinell ausführbare Beschreibung eines Algorithmus ein Programm, und die inneren Zustände bestehen aus dem Inhalt eines Arbeitsspeichers. Das Entwerfen von Algorithmen muß gelernt sein. Es verlangt Talent, wenn der Automat effizient arbeiten soll. Es ist an der Zeit, meine ich, den Begriff des Algorithmus und ein Verständnis für sein Potential, seine Probleme und Grenzen in die Allgemeinbildung einzubringen, d.h. die Schulen sind da letztlich gefragt. Gibt es irgendwo ein gutes E-Learning-Modul für einen elementaren, populärwissenschaftlichen Einstieg in die Algorithmentheorie? Das Thema ist heute wichtiger als die Differentialrechnung. Die ist zwar historischer Oberstufenstoff, aber nur sehr wenige brauchen sie doch jemals im Leben. Dagegen kann eine nüchterne, zutreffende Einschätzung des Computers jedem nützen, indem sie vor Fehlvorstellungen und übertriebenen Versprechungen bewahrt. Bei einigen jungen Menschen gibt es anscheinend eine natürliche Neigung zum algorithmischen Denken, das hat sich schon in der frühen Zeit der Hobbycomputer gezeigt: oft waren es Schüler, und zwar ganz überwiegend männliche, die seinerzeit erstaunliche Fähigkeiten entwickelten. Damals programmierten sie in Assembler und Basic, heute machen sie Web-Anwendungen und programmieren in den ungleich mächtigeren Skriptsprachen. Wenn sie es schaffen, der Faszination der Spielprogramme zu entkommen...
... Ein wichtiges, ein entscheidendes Detail unterscheidet aber immer noch den Computer von der abstrakten Turing-Maschine, nebenbei gesagt: deren Speicherband ist nach beiden Seiten unendlich lang, ein Computerspeicher aber stets endlich. ...

Sind Denkmaschinen möglich?
Die Prognosen laufen immer darauf hinaus, daß die "Künstliche Intelligenz" Fortschritte machen wird. Wie realistisch ist das? Die alte Metapher vom Elektronengehirn war zwar grotesk falsch, sie wirft aber die genauere Frage auf: Ist das Gehirn eine Turing-Maschine? Gleichwertig wäre die Frage: Ist das menschliche Denken als Ganzes als Programm, also als Algorithmus, beschreibbar und damit nachbildbar? Es scheint einiges dagegen zu sprechen (z.B. kann man keine Zentraleinheit lokalisieren, die Speicher- und Zugriffstechnik ist unbekannt, es läuft sehr vieles parallel ab), wir wissen es aber noch immer nicht. Die Antwort könnte nach Art von Radio Eriwan sein: Im Prinzip ja, aber das Programm wäre ungeheuer groß, so daß kein heutiges System einen genügend großen Speicher hätte, und seine Abarbeitung würde ungemein viel Zeit brauchen - die Erkenntnis wäre also zwar schön, aber nutzlos.
Doch Überraschungen sind nicht ausgeschlossen! So z.B. hätte ja in der Genetik vor 1953 niemand vermutet, daß die Erbinformation molekular codiert vorliegt und mit einem Alphabet von nur 4 Buchstaben auskommt. Und darin steckt ja auch der Bauplan für das Gehirn! Wie dieser Plan aber umgesetzt wird und wie das Produkt dann arbeitet, ob dies etwa ein Turing-Automat simulieren könnte, indem er die Genomsequenz abarbeitet, liegt noch im Dunkeln, z.B. ist auch ein Alphabet der Speicherung im Zentralnervensystem noch nicht gefunden. Ungeklärt ist nicht nur das Speichern, sondern ganz besonders das Ändern und Vergessen.
Während viele Fragen offen sind, kann man aber doch mit Bestimmtheit sagen, daß manche Tätigkeiten des Gehirns sehr viel komplexer sind als andere. Rechnen ist, im Gegensatz zum Volksempfinden, eine besonders einfache Tätigkeit, Programme dafür sind sehr kurz. Rechtschreibprüfung ist schon ein anderes Kaliber und nur unzureichend gelöst. Verstehendes Lesen und Übersetzen ist noch erheblich komplexer - dafür fehlen noch immer die überzeugenden Ansätze.  Die auffälligste Eigenheit der menschlichen Informationsverarbeitung ist, daß sie unpräzise ist, genauer gesagt, daß sie sehr gut mit Unschärfe zurechtkommt, und dazu gehören auch die Anspielungen und die Metaphorik in der Sprache. Dies könnte man als Hinweis deuten, daß das Denken im Kern wohl eher nicht algorithmisch ist und deshalb heutigen Computern doch auf Dauer unzugänglich. Wenn man das Modell "Turing-Maschine" ganz leicht erweitert, kann man bereits zu einem nicht mehr deterministischen Modell kommen [15], aber seine
mathematische Beherrschung und technische Realisierung wären ungleich schwieriger. Vielleicht muß man so weit ja doch nicht gehen, so glaubte Turing auch selber, es spricht aber doch manches dafür, daß das menschliche Gedächtnis sich nicht auf ein eindimensionales Band abbilden läßt, auf dem zu einem Zeitpunkt immer nur höchstens ein Zeichen verändert wird. Die sog. "KI-Forschung" hat eine zentrale Herausforderung, so kann man verkürzt sagen, und das ist die Nachbildung des menschlichen Alltagsverstandes, und ein kleiner Teil davon ist die Umgangssprache. Damit wird sie wohl noch lange zu tun haben, denn denkbar wäre dies nur, wenn ein System autonom (und nicht nur in einer vom Entwickler vorgegebenen Weise) mit seiner Umwelt interagieren könnte.
Der Irrtum mit der Denkmaschine entstand wohl nicht aus philosophischer Reflexion sondern durch simples anthropomorphes Denken: Computer können unglaublich schnell Dinge tun, die für uns mühsam sind - sollten sie also nicht erst recht die geistigen Aufgaben schaffen können, die wir als leicht empfinden, also z.B. Texte verstehen?
Ein Schlüsselerlebnis, wodurch ein Vorurteil wie "Elektronengehirn" sich festigen konnte, war die Software VisiCalc [16], die wie kaum etwas anderes den frühen Mikrocomputern ab 1979 zu enormer Popularität verhalf. Das war damals für viele Normalverbraucher eine Erscheinung wie von einem anderen Stern, eine Erlösung von lästiger und zeitraubender Routine! Das war die Art von Offenbarung, die nötig ist, um einer Innovation zum Durchbruch zu verhelfen. Was mochte in diesen Wundergeräten noch sonst alles drinstecken? Die Forscher und die Industrie haben bis heute nicht dazu beigetragen, überzogene Erwartungen zu dämpfen...

Nebenbemerkung
Interessant ist in diesem Zusammenhang, wenn man vom beginnenden Aufschwung des PC redet, daß man sehr viele Bilder von den frühen Rechnern findet, von der Hardware also, aber wenige von der Software, ohne die die Kisten doch wertlos gewesen wären. Wenn man das Thema Geistesgeschichte weiter vertiefen will, sollte man sich darum ein wenig kümmern, denn das sind die Bilder, die die Menschen bei der Arbeit jahrelang immer vor sich hatten. Die Software läuft ja nicht mehr auf den heutigen Rechnern, wie also soll man sich jetzt noch ein Bild davon machen? Mit einiger Mühe ist es immerhin gelungen, eine Handvoll Bilder von früher einmal sehr berühmten Programmen zu finden, darunter sogar ein VisiCalc-Progrämmchen [17 -- 18], das heute noch auf PCs zu gebrauchen ist und genauso aussieht wie damals.  [19 -- 20 -- 21 -- 22 -- 23 -- 24 -- 25]

Was für ein ...zeug ist der Computer?
Nach dieser langen Vorrede nun zu guter Letzt ein paar Bemerkungen zu der Frage, was denn mit der Überschrift dieses Vortrags nun gesagt sein soll. Sind damit die diversen Funktionen der multifunktionalen Maschine "Computer" angedeutet? 
Fangen wir von hinten an: Wir "fahren" Systeme herauf und herunter, wir "fahren" komplexe Prozesse, man redet von "Datenautobahnen", Daten reisen nicht selten mit einem Bus (USB heißt "Universal Serial Bus"). Wenn das nicht alles eine gänzlich irreführende Metaphorik sein soll, ist es legitim, im Computer eine neue Art von Fahrzeug zu erblicken. In der Tat transportiert man mit seiner Hilfe heute vieles immateriell, was früher nur physisch (zumeist auf Papier, Konststoffolie oder anderen Datenträgern) bewegt werden konnte. Wir müssen uns nicht mehr körperlich in Bewegung setzen, um auf anderen Erdteilen präsent zu sein, um uns dort etwas anzuschauen oder uns an Aktivitäten und Bewegungen, regionalen bis weltumspannenden, zu beteiligen. In wenigen Jahren ist uns das alles selbstverständlich geworden, obwohl es eine der größten Revolutionen der Kulturgeschichte ist, die
auch tief ins Alltagsleben hineinreicht.
Denken Sie dabei besonders an E-Mail [26]: erfunden 1972, hat es in den frühen 90er Jahren zuerst die wissenschaftliche und danach zunehmend die geschäftliche und zwischenmenschliche Kommunikation auf eine neue Grundlage gestellt, enorm beschleunigt und den menschlichen Aktionsradius dramatisch ausgeweitet.

Computer transportieren nicht nur Produkte unseres Denkens, sie helfen auch beim Denken: das Visualisieren, das graphische Aufbereiten großer Datenmengen, macht Ähnlichkeiten sichtbar oder Trends oder Zusammenhänge. Komplexe Entscheidungen lassen sich vorbereiten und unterstützen, wenn die dafür nötigen Daten rechtzeitig und korrekt zusammengeführt und verrechnet werden.
Das Denken wird am besten unterstützt durch interaktive Programme, die bei jeder Änderung sofort die Auswirkungen zeigen - "was wäre, wenn ..." - weil sie blitzschnell alles durchrechnen. Der Urtyp VisiCalc wurde auch deshalb zum Aha-Erlebnis, weil es genau das leistete. Das mochte so wirken, als ob "er" ständig mitdenken würde, und die sog. Rechtschreibprüfung wirkt in der gleichen trügerischen Weise.

Computer helfen beim Denken ähnlich wie Werkzeuge bei der körperlichen Arbeit, daher Denkzeug. Sie helfen, wohlgemerkt, sie tun nicht selber die Denkarbeit. Bei manchen Aufgaben werden schnell Grenzen sichtbar, die dem Computer als Denkzeug gesetzt sind: Ein Paradebeispiel ist das Übersetzen. Schon von den frühen "Elektronengehirnen" hoffte man, sie müßten sich zum automatischen Übersetzen eignen. Eine grobe Fehleinschätzung, wie wir heute wissen.
Gesehen und gesagt wurde dies schon 1961 [27], aber niemand wollte es hören. Man arbeitete unverdrossen weiter, bis heute, und noch immer sind die Resultate wenig überzeugend. Dabei ist es leicht zu sehen: Computer können nicht "zwischen den Zeilen lesen", sie können nicht mitdenken (um Zusammenhänge im Text zu erkennen) und es fehlt ihnen das Hintergrundwissen, ohne das jeder Text unverständlich ist, z.B. wegen der Anspielungen und der Metaphorik, die immer dabei ist - wie soll man solche Dinge mit einem Algorithmus erfassen? Die Verlockung potentiell enormer Gewinne ist aber einfach zu groß, sie verdunkelt die nüchterne Erkenntnis der grundsätzlichen Problematik.
Schon beim ganz normalen Schreiben macht sich aber eine Fehleinschätzung spürbar, etwa in der Verwunderung, daß "er" einen Rechtschreibfehler nicht moniert hat - da wird ihm unreflektiert viel mehr zugetraut als er leisten kann [28]. Das Denkzeug soll nicht das Denken erleichtern, so daß man mit weniger Mühe, mit geringerem Verbrauch von Gehirnschmalz, dasselbe erreichen kann wie ohne, sondern es soll dem Nutzer helfen, mit vollem Einsatz der eigenen Denkkapazität mehrzu erreichen als ohne das Denkzeug. Denn daß man allzu leicht nachläßt in der eigenen Anstrengung, das ist die Kehrseite der Sache. Schulkindern die Anstrengung eigenen Denkens ersparen zu wollen, das wäre eine ganz fatale Sichtweise. Ein Denkzeug sinnvoll und wirksam einsetzen, das kann nur, wer selber schon sehr gut denken gelernt hat und deshalb erkennt, was man "ihm" überlassen kann und will und was nicht. Fazit also: Unterstützung der natürlichen Intelligenz ist das Ziel, nicht ihre Pensionierung.

Als Werkzeuge für das routinemäßige, rein mechanische Manipulieren und algorithmische Verrechnen von Datenmaterial verschiedenster Art sind die Computer heute längst allgegenwärtig, oft aber kaum mehr sichtbar, obwohl vieles von ihnen abhängt: von der Supermarktkasse (gekoppelt mit der Lagerverwaltung) bis zum Electronic Banking, zur Flug- und Bahnfahrtbuchung, vom Navigationssystem im Auto bis zur Bild- und Videobearbeitung usw. usf. Zu einem Werkzeug wird allerdings der Computer nur zusammen mit einer funktionierenden Software, nicht für sich allein. Ganz analog ist nicht der Fernseher interessant, sondern das Programm. Wir sind ja inzwischen daran gewöhnt, von "software tools" zu reden und von der Hardware, solange sie intakt ist, fast gar nicht mehr. Deshalb ist es interessant, daß man von von der Software der frühen Jahre kaum Abbildungen findet im Gegensatz zu den Maschinen.
Mit hochentwickelten Werkzeugen ist es aber so, daß man einerseits sehr leicht ohne sie gar nicht mehr zurechtkommt, also abhängig wird davon, und daß man andererseits meint, man müsse sie nur handhaben können, ihre Konstruktion und Wirkprinzipien aber brauche man nicht zu verstehen. Diese Haltung ist in den besten Kreisen verbreitet [29]. Was das bekannteste Werkzeug unserer Tage angeht, Google, haben viele noch gar nicht gemerkt, wie stark sie davon schon abhängig sind, aber sie verstehen sein Wirkprinzip so gut wie gar nicht und machen sich die wunderlichsten Vorstellungen und die abenteuerlichsten Erwartungen. Die Abhängigkeit ist umso größer, dadurch daß Gerät und Infrastruktur reibungslos funktionieren müssen, Stromversorgung und Netzanbindung usw. Gelegentlich werden wir erinnert, wie wenig selbstverständlich das alles ist.

Nun aber zum Spielzeug! Man könnte den Aspekt leicht als oberflächlich abtun. Die ersten Mikrocomputer wurden ja als Spielzeuge betrachtet, aber jetzt wissen wir es besser. Heute sind Spielprogramme Big Business, werden aber verdächtigt, vom Übel zu sein. Das alles ist hier nicht gemeint. Aber es geht eigentlich um "Simulation" oder "Modellierung", damit kann ein Computer nicht nur zum Fahrzeug werden, sondern auch zum Flugzeug, und das ist schon 1980 mit den ganz frühen Hobbycomputern gelungen
[30]. Komplexe Vorgänge werden abstrakt betrachtet, auf die entscheidenden Faktoren reduziert, die man messen und zählen und deren Verhalten man mit Algorithmen beschreiben und folglich vorausberechnen kann. Das ist der Punkt.
Aber genau genommen ist auch alles Denken, auch ohne Denkzeug, immer ein Spiel: im Gehirn ist doch die Realität stets nur als "Denkmodell" abgebildet, in einem Neuronengeflecht, keiner weiß genau wie, und eine Vorstellungskraft manipuliert dieses Modell nach Regeln (aber sind das Algorithmen?), die man in dem Moment für korrekt hält, doch man kann auch weit daneben liegen, weil man z.B. wesentliche Faktoren nicht bemerkt oder falsch eingeschätzt hat. Das Gedankenspiel als Simulation der Realität im Kopf ist aber trotzdem, entwicklungsgeschichtlich betrachtet, die wohl bedeutendste Fähigkeit des Menschen: sie ermöglicht ihm das Voraussehen von Gefahr und sichert damit einen Überlebensvorteil. Kinder müssen spielen, das wird einem daraus klar, weil es lebenswichtig ist, und deshalb nehmen Kinder das Spielen ernster als alles andere! Die Kehrseite: Computerspiele liegen oft viel weiter außerhalb der erlebten Wirklichkeit, als dem Spieler bewußt ist. Das erhöht die Gefahr von Fehleinschätzungen. In der "richtigen" Wirklichkeit kann man ja z.B. nie mit einem Mausklick ein Problem lösen. Trotzdem hat, ganz kurz gesagt, das realitätsnahe Spiel eine zentrale, eine elementare Bedeutung für das Menschsein, insbesondere für die natürliche Intelligenz. Und so kann auch das Entwickeln von Simulationen und deren geschickter Einsatz als Denkzeug lebenswichtig sein für betroffene Menschen, für Firmen und für Staaten. Auch das aktuelle Thema E-Learning beruht auf der Vorstellung, daß der Mensch am besten durch eigenes Tun lernt, und das bedeutet durch interaktive Software, mit der man Vorgänge ablaufen läßt, in die man eingreifen kann. Simulationen ermöglichen das weitaus schneller, billiger und flexibler als reale Experimente. Spielprogramme können also zugleich Lernprogramme sein, sie können den Spieler aber auch unbrauchbares oder gefährliches Zeug lernen lassen. Wenn mit sinnvollen Lernprogrammen Geld zu machen wäre, hätten wir sicher schon die "kolossal mächtigen Lernsysteme"... Vielleicht kann der eine oder die andere von Ihnen auf diesem Felde etwas voranbringen.
Gutes Spielzeug ist also in vieler Hinsicht enorm wichtig, und das ist der Hauptgrund, die heutige Eröffnung als einen Meilenstein zu feiern.
Die Funktionen und die Nutzeffekte des Computers, so läßt sich das zusammenfassen, kann man nicht einfach in einer Liste aufzählen - die vier im Titel genannten Bezeichnungen sind Aspekte, nicht getrennt aktivierbare Funktionen. Richtig wäre wohl, den Computer als Maschine zweiter Ordnung zu sehen, die nutzlos ist, wenn man sie nur als Hardware betrachtet. Man arbeitet ja stets mit einer Software, und die macht aus dem Gerät eine jeweils ganz spezifische Maschine, in unbegrenzter Vielfalt. Deshalb sagen Bilder von alten Computern wenig aus, viel interessanter ist, was sich auf den Bildschirmen abspielte.
Für den Umgang mit dieser Vielfalt wünsche ich Ihnen die Phantasie, mit dem neuen Rüstzeug das Sinnvolle, Notwendige und Machbare zu tun, aber auch die Kraft, den Versuchungen des dummen Zeugs, des Überflüssigen und Aussichtslosen zu widerstehen, und den Scharfsinn, das eine vom anderen zu unterscheiden.  Glück auf [31]!


Literatur und Web-Adressen

Taube, Mortimer:
  Der Mythos der Denkmaschine : Kritische Betrachtungen zur Kybernetik :
     Reinbek bei Hamburg: Rowohlt, 1967. - 133 S.
  (Rowohlts deutsche Enzyklopädie ;  245)
  Originaltitel: Computers and common sense - the myth of thinking machines

Evans, Christopher:
   The mighty micro : the impact of the micro-chip revolution. -
   London : Coronet Books, 1979. - 255 S. - ISBN 0-340-25972-2
   Prognosen

HyperKult : Geschichte, Theorie und Kontext digitaler Medien / Hubertus von
   Amelunxen u.a. - Basel : Stroemfeld, 1997. - 520 S. - ISBN 3-86109-141-0
   Einige Beiträge zum Thema Kulturgeschichte des Computers.


Adressen zu ausgewählten Themen

Zu fast jedem dieser Themen findet man leicht Material in der deutschen oder englischen WikiPedia.
Einige der nachfolgend angegebenen Links führen inzwischen zu nichts mehr. Deshalb wurde in etlichen Fällen die Adresse der jüngsten Version aus dem Internet Archive ergänzt und die Verlinkung zur nicht mehr existenten Adresse entfernt (nicht die Adresse selbst). Dazu Dank für viele Hinweise an Burghard Grossmann.


Meilensteine der Computerentwicklung ab 1980
   http://www.allegro-c.de/chronik/a25.htm

A Condensed History of Personal Computing
   http://www.landiss.com/history.htm
   http://web.archive.org/web/20111013012000/http://www.landiss.com/history.htm

History of Computing (von den ältesten Zeiten bis heute)
  http://www.eingang.org/Lecture/

DigiBarn computer museum.
   http://www.digibarn.com
   Bunte Sammlung von Bildern, auch Screenshots bekannter Software

Meilenstein
  http://imperiumromanum.com/geografie/strassen/strassen_06.htm

The History and Culture of Interactive Simulations and Video Games
  http://shl.stanford.edu/research/how_they_got_game.html

VisiCalc, by Dan Bricklin
   http://www.bricklin.com
   Mit Originalprogramm zum Downloaden, lauffähig unter Windows
   1980 das Spitzenprogramm auf dem Weltmarkt. Der Apple wurde vielfach
   nur wegen VisiCalc gekauft - oder wegen des Flugsimulators.
   http://apple2history.org/history/ah18.html
   VisiCalc Bildschirmbild

dBASE : 1980 by Wayne Ratliff, Ashton-Tate
   http://en.wikipedia.org/wiki/DBASE

WordStar
   http://www.wordstar.org   [offizielle Adresse]
   http://www.glinx.com/~grifwood/WordStar.html
   http://web.archive.org/web/20111013012000/http://www.landiss.com/history.htm
   http://www.old-computers.com/history/detail.asp?n=41&t=4
   http://www.homecomputermuseum.de   Bilder der ersten PCs
   http://www.mipraso.de/enzyklopaedie/w/wordstar.html  [Befehle, dt.]
   http://web.archive.org/web/20070814090033/http://www.mipraso.de/enzyklopaedie/w/wordstar.html

Virtual Software Museum (noch im Aufbau, Nov. 2006 nur Windows)
   http://www.retrosoftware.net/museum/museumhome.htm
   http://web.archive.org/web/20110822003621/http://www.retrosoftware.net/museum/museumhome.htm
   älteste Version: Win 1.01 1985

Windows Oberflächen
  http://www.winhistory.de/    [ Viele Bilder zu DOS und Win ]
  http://internet.ls-la.net/     [ Win1.01 bis 3.1, etliche Bilder ]
  http://www.kbglob.com/gnulinux/evolucion-de-los-sistemas-operativos/
      Win + Mac etc

DOS-Grundkurs
  http://www.wintotal.de/Artikel/doskurs/doskurs.php
  Bilder:
  http://www.winhistory.de/

Lynx (Textbrowser)
  http://www.610tech.net/20050220.shtml
  http://web.archive.org/web/20071201180616/http://www.610tech.net/20050220.shtml

Mosaic
  http://seanm.ca/mosaic/
  http://web.archive.org/web/20120815135949/http://seanm.ca/mosaic/ 
      Mit Abbildungen
  http://www.ncsa.uiuc.edu/News/MosaicHistory/
      Geschichte, Versionen, keine Bilder

PMail  (Pegasus Mail)
  http://www.vandenbogaerde.net/han_lkfr.htm
      Umfangreiche, aktuelle Darstellung
  http://www2.biochemtech.uni-halle.de/poster/kollo_96/kollo2.html
      Abbildungen DOS-Version
 
Elektronengehirn
  Am 6. Oktober 1951 arbeitete zum ersten Mal ein elektronischer Computer auf
  deutschem Boden.
  http://www.heise.de/newsticker/meldung/21590
  Comic:
  http://www.savoy-truffle.com/zippo/donaldpics.html


Google:   [Anfangs  google.stanford.edu ]
  Versionen der Homepage ab '98 siehe: http://www.archive.org
  About the project:
  http://web.archive.org/web/19990428223732/google.stanford.edu/about.html


BOB - Microsofts größter Flop
  http://www.winhistory.de/more/bob/bob.htm  (viele Bilder)
  (Für Anfänger genial, aber man bleibt Anfänger...)


Flops: 25 worst tech products of all time (PCWorld)
  http://www.pcworld.com/article/id,125772-page,3/article.html


Automatische Übersetzung
  http://www.fortunecity.com/business/reception/19/akmelby.htm
  http://web.archive.org/web/20120307085657/http://www.fortunecity.com/business/reception/19/akmelby.htm
    "Why can't a computer translate more like a person?"
  http://www.fortunecity.com/business/reception/19/xparc.htm
  http://web.archive.org/web/20120307085658/http://www.fortunecity.com/business/reception/19/xparc.htm
    "machine translation has changed remarkably little since its earliest days in the fifties"

  http://www.fortunecity.com/business/reception/19/
    "the truth about the real (im)possibilities of Machine Translation"
  s.a. Computers and common sense / Mortimer Taube, 1966.

Natural language searching - Suche mit natürlicher Sprache
  http://blog.searchenginewatch.com/blog/061005-095006
  (kann das überhaupt gehen? Kritischer Kommentar)


Vannevar Bush: As we may think. - in Zeitschrift "Atlantic Monthly" 1945
  http://www.theatlantic.com/doc/194507/bush    [Artikel reprod]
  http://wwwcs.uni-paderborn.de/~winkler/bush_d.html  [deutsch]
  http://www.eecs.mit.edu/AY95-96/events/bush/photos.html  [Bilder]
  http://web.archive.org/web/20120220125706/http://www.eecs.mit.edu/AY95-96/events/bush/photos.html

Hypertext
Ted Nelson: Xanadu [Hypertext-Vision 1960]
  http://xanadu.com/
  http://www.xanadu.com.au/ted/
  http://www.livinginternet.com/w/wi_nelson.htm
  Nelson, Theodore Holm:
    Literary machines : The report on, and of, project Xanadu concerning word processing,
    electronic publishing, hypertext, thinkertoys, tomorrow's intellectual revolution,
    and certain other topics including knowledge, education and freedom
    South Bend, Ind., 1987
    ISBN 0-89347-055-4

Douglas Engelbart: [Erfinder der Maus]
  http://www.hyperkommunikation.ch/personen/engelbart.htm


Von der Ordnung des Wissens zur Wissenordnung digitaler Medien / Coy, W. 1999
  http://waste.informatik.hu-berlin.de/Forschung/Wissensordnung/default.html
  Multidisziplinäres Projekt, anscheinend versandet

Google sociology
  http://www.radioopensource.org/google-sociology/

To compete with Google (Kann jemand gegen Google antreten?)
  http://googlewatch.eweek.com/blogs/google_watch/archive/2006/10/03/13557.aspx

Turingmaschine
  http://hsg.region-kaiserslautern.de/faecher/inf/theorie/berechenbar/material/...
  Eine E-Learning-Lektion.
  http://www.infobitte.de/free/lex/wpdeLex0/online/t/tu/Turingmaschine.htm
  Lexikonartikel mit einigen Links
  http://wwwsys.informatik.fh-wiesbaden.de/weber1/turing/index.html
  http://web.archive.org/web/20070818225828/http://wwwsys.informatik.fh-wiesbaden.de/weber1/turing/index.html
  Mit interaktivem Simulator einer Turingmaschine!
  http://www.permutationcity.co.uk/projects/neural/history.html
  Geschichte der "neuronalen Netze" seit den Anfängen, Turings Modell in diesem
  Zusammenhang gesehen.

Flight Simulator Museum, Bilder ab 1980
  http://www.migman.com
Microsoft Flight Simulator History
  http://en.wikipedia.org/wiki/History_of_Microsoft_Flight_Simulator


       abcdef             
     

http://www.allegro-c.de/zeug/



Bernhard Eversberg, UB Braunschweig 2006-12-04 / 2013-03-05