Institut für Medienkultur und Theater

 

 

 


Prof. Dr. Lutz Ellrich

 

(eine stark gekürzte Fassung des Textes erscheint in: Mike Sandbothe/Ludwig Nagl (Hg.): Systematische Medienphilosophie, Berlin: Akademie-Verlag 2003)

Die Computertechnik als Gegenstand philosophischer Reflexion

 „Das philosophisch gesehen höchst spektakuläre und auch deswegen wichtigste Zauber-Gerät, das die Technik in der jüngsten Zeit in das Alltagsleben des modernen Menschen eingeführt hat, ist der Computer“

(Joseph Weizenbaum 1992, S. 142).

 

Wer sich einen Überblick über die aktuellen Beiträge zur Philosophie des Computers verschaffen möchte, stößt rasch auf ein merkwürdiges Phänomen: Die meisten der heute publizierten Gedanken zum Computer, soweit sie im Kontext der akademischen Philosophie entstehen, setzen sich affirmativ oder kritisch mit dem Verhältnis von menschlichem Gehirn und elektronischem Rechner (bzw. mit dem Verhältnis von Neurobiologie und Informatik) auseinander. Dieser Umstand verdeutlicht, in welchem Maße die von den Technikphilosophen Ernst Kapp (1877) und Arnold Gehlen (1953, 1957), aber auch dem Medientheoretiker und Literaturwissenschaftler Marshall McLuhan (1964) entwickelte These, Technik sei eine Art Organerweiterung oder gar Organersatz, den Diskurs prägt. Die pointierteste Darstellung der Technik als Einrichtung, die die natürlichen Defizite des Menschen kompensiert, hat zweifellos Gehlen vorgelegt und ihr die begriffliche Trias „Organersatz, Organverstärkung und Entlastung“ wie eine unüberhörbare Leitformel vorangestellt. McLuhan ergänzte dieses suggestive Bild nur um einige, wenn auch markante Nuancen. So wies er auf den Schock hin, den jede neue Technik zunächst auslöst, indem sie das erweiterte Organ gleichsam amputiert. Erträglich ist dieser traumatische Prozess der Verselbständigung – laut McLuhan – allein deshalb, weil die technische Innovation, sobald sie zum Einsatz kommt, ihre menschlichen Opfer, die zugleich Täter sind, betäubt und gegenüber den medialen Tiefenwirkungen blind macht.

Fügt man die Computertechnik in das hier nur grob skizzierte Modell ein, dann erscheint sie als eine Erfindung, die das bedeutsamste menschliche Organ, das Gehirn, verstärken und ggf. auch ersetzen kann. Dessen Größe und Leistungsfähigkeit zeichnen den Menschen vor allen anderen Lebewesen aus. Und die Überzeugung, dass es dem in natürlicher Evolution entstandenen Gehirn bald gelingen wird, sich selbst durch ein künstliches Gebilde nicht bloß zu verdoppeln, sondern zu überbieten, würde den Narzissmus der Gattung, der allzu leicht in prometheische Scham umschlägt, auf die Spitze treiben.

Zu den vordringlichsten Aufgaben einer ‚Medienphilosophie des Computers’ gehört es daher, die Prothesen- oder Kompensationstheorie der Technik zu demontieren. Diese Theorie hat bereits mit der Erfindung des Rades Probleme, weil dessen ungewöhnliche Bewegungsform sich nur mit viel Fantasie auf die menschlichen Gangarten beziehen lässt. Sie steht allerdings erst mit dem Aufkommen der Computertechnik ernsthaft auf dem Prüfstand; denn jetzt ist definitiv zu klären, ob es je angebracht war, bestimmte Rechenmaschinen als „Elektronengehirne“ zu bezeichnen. Das starke Wort ist inzwischen ungebräuchlich geworden, doch die Vorstellungen, die seinen Gebrauch begleitet haben, zirkulieren immer noch im aktuellen Diskurs, der in erster Linie darauf abzielt, technische Errungenschaften zu vermenschlichen.[1] Ernstlich gefordert ist medienphilosophische Reflexion, sobald wir Anlass zu der Vermutung haben, dass der Computer nicht nur, aber eben „auch etwas tut, für das es in unserem Verhalten und Denken schlichtweg kein Vorbild gibt und das an uns auch keinen Maßstab findet“ (Krämer 1997, S. 86).

Damit die Medienphilosophie ihr Ziel, den Computer als grundlegend Anderes und Neuartiges zu denken, erreichen kann, muss sie einen Perspektivenwechsel einleiten. Sie wird dieser Aufgabe aber nur gewachsen sein, wenn sie die Vorzüge und Nachteile der vorhandenen Sichtweisen analysiert und erst dann ihre eigene Version präsentiert. Zunächst wäre also die (bereits umrissene) technikphilosophische Perspektive zu sondieren. Hier erscheint der Computer als Schlussstein einer Geschichte der Artefakte, die von der Antike bis in die Gegenwart reicht und die menschliche Selbstverwirklichung als Prozess der Selbstentäußerung in Szene setzt. Sodann wäre diejenige Perspektive zu untersuchen, welche sich von den klassischen philosophischen Fragen leiten lässt und neue technische Errungenschaften nur zum Zweck theoretischer Explikation heranzieht. Hier erscheint der Computer als aufschlussreiches Modell für menschliche Vermögen, deren Bedingungen der Möglichkeit ebenso ungeklärt sind wie ihre Funktionsweisen. Von diesen beiden Perspektiven wäre schließlich die angestrebte medienphilosophische Sicht abzuheben, die den spezifisch medialen Charakter des Computers zum Ausgangspunkt der Reflexion macht. Eine solche Schrittfolge empfiehlt sich nicht nur als heuristische Strategie, sie berücksichtigt auch die historische Entwicklung. Es ist ja keineswegs selbstverständlich, dass man den Computer zum Medium erklärt. Die Exemplare der frühen Rechnergenerationen wurden als Automaten oder Werkzeuge verstanden und entsprechend eingesetzt. Erst bestimmte Fähigkeiten des Computers, die mit neuen Nutzungsweisen einhergingen, haben den Medienbegriff attraktiv gemacht[2]: Medialität wird dem Computer aus mehreren Gründen zugesprochen: 1. weil er „das Verarbeiten (Aufnehmen, Speichern und Reproduzieren) analoger optischer und akustischer Informationen“ (Walitsch 1998, S. 243) leistet; 2. weil er eine doppelte Integration vollbringt: er kann einerseits alle bisherigen Medien zu einem ‚Universalmedium’ zusammenfassen und andererseits als Software-Programm in alle bekannten Einzelmedien eingefügt werden; 3. weil er „Beziehungen zwischen Menschen“ stiftet und damit anstelle der Geräteeigenschaften und der subjektiven Eingriffsmöglichkeiten (welche der Rechner als Werkzeug bereitstellt) die „Vernetzung vermittelter Kooperation“ (Coy 1994, S. 5) ins Zentrum der Aufmerksamkeit rückt; 4. weil er nicht mehr primär als ein Objekt gilt, das Subjekten, die vor ihm sitzen, dienlich ist, sondern als ein Gebilde, mit dessen Hilfe Datenräume, virtuelle Realitäten geschaffen werden können, in denen sich die Akteure bewegen und regelrecht auf Reisen gehen.

Entscheidend für die Verwendung des Medienbegriffs sind also zum einen der Netzwerk- und Kommunikationsaspekt und zum anderen die Konstruktion virtueller Welten. Beides werde ich im Folgenden nur am Rande erwähnen.[3] Ich möchte mich vielmehr auf eine historische Darstellung konzentrieren, die zugleich auch systematischen Ansprüchen genügt. Im ersten Anschnitt diskutiere ich die Rolle der Kybernetik in der Nachkriegsphilosophie, die verständlicherweise durch anthropologische, existentialistische und gesellschaftspolitische Fragestellungen auch dort dominiert wird, wo sie Aussagen über das transhistorische Sein von Sprachzeichen trifft. In einem zweiten Schritt greife ich die philosophischen Debatten um die Künstliche Intelligenz auf und erläutere die erkenntnis- und sprachtheoretische Kritik an deren Kernideen. In einem dritten Schritt stelle ich die ethischen Implikationen dieser Einwände dar und nenne die Probleme, die ein vorschneller Rückgriff auf vermeintlich unantastbare normative Bindungen aufwirft. Zum Abschluss skizziere ich eine Reihe von Aufgaben, die eine Medienphilosophie des Computers in Zukunft zu bewältigen hat, und versuche – gestützt auf eigene empirische Studien – die neuen Denk- und Orientierungsweisen zu beschreiben, die der permanente Umgang mit der Computertechnik hervorbringt oder zumindest begünstigt.

 

 

I. Kybernetik und Philosophie

 

Nur wenige Jahre nachdem Konrad Zuse seine verschiedenen Rechenmaschinen (Z1 bis Z4) und die inzwischen legendäre Bletchley-Park-Gruppe, zu der auch Allan Turing zählte, das „logische Entschlüsselungsgerät“[4] Colossus gebaut hatten, setzte Norbert Wiener 1946 im Rahmen einer „Conference for Circular Casual and Feedback Mechanisms in Biological and Social Systems“ den Begriff Kybernetik in die Welt. Dieser aus dem Griechischen hergeleitete Ausdruck soll eine Wissenschaft bezeichnen, die sich dem Studium von Nachrichten, ihrer technischen Steuerung und insbesondere ihrer Rückkopplung widmet.[5] Kybernetik ist ein werbeträchtiges Label, unter dem Erkenntnisse und Methoden der Regelungs-, Informations-, Automaten- und Algorithmentheorie zusammengefasst werden. Seiner programmatischen Schrift Cybernetics or Control and Communication in the Animal and the Machine von 1948[6], die sich an ein Expertenpublikum wandte, ließ Wiener alsbald ein populärwissenschaftliches Buch The Human Use of Human Beings (Cybernetics and Society) folgen, in dem er die neuen Denkmodelle und ihre technischen Realisierungen auf eine auch „für den Laien“ (Wiener 1952, S. 11) verständliche Weise erläuterte. Dieser Text, der eine Vielzahl von sozialen Problemen anspricht und auch die Gefahr „eines neuen Faschismus“ (ebd., S. 195) nicht unerwähnt lässt, hat erhebliche öffentliche Resonanz gefunden und ist auch in geisteswissenschaftlichen Fächer wie Philosophie, Psychologie und Soziologie nicht unbeachtet geblieben. Wiener präsentiert die Kybernetik als ein interdisziplinäres Konzept der Problemerfassung und Problemlösung, dessen Vorteile und Möglichkeiten gerade vor dem Hintergrund des überstandenen 2. Weltkrieges an Profil gewinnen. Er versucht zu zeigen, dass hier Erkenntnisse gewonnen und praktisch umgesetzt werden können, die keine Wertfreiheit für sich reklamieren, sondern durchaus normative Implikationen enthalten, deren Berücksichtigung mit großer Wahrscheinlichkeit die Korrektur bestimmter (wenn nicht typischer, so doch häufiger) menschlicher Einstellungen und Verhaltensweisen zur Folge hat. Da die kybernetischen „Kommunikationsmaschinen“ wesentlich auf Prozessen der Rückkoppelung bzw. Rückmeldung beruhen, würde ihr Einsatz zum Abbau von Machtverhältnissen führen, für die eine Form der „Organisation“ kennzeichnend ist, „in der alle Information von oben kommt und keine zurückgeht“ (ebd., S. 27). Eine durch kybernetische Modelle geregelte und kontrollierte Gesellschaft wäre eine demokratische und gerade keine totalitäre Sozialordnung. Das neuartige Wissen ist deshalb weit davon entfernt, die Serie der anthropologischen Kränkungen fortzusetzen, die die Theorien von Keppler, Darwin, Marx und Freud der Gattung zugefügt haben.[7] Aus der Annahme, dass „die Arbeitsweisen des lebenden Individuums und die einiger neuerer Kommunikationsmaschinen völlig parallel verlaufen“ (ebd., S. 26), resultiert für Wiener kein grundsätzliches Problem. Diese Maschinen lassen zwar „die unheimliche Fähigkeit erkennen [...], menschliches Verhalten nachzuahmen“, aber sie bieten deswegen auch die Möglichkeit, „das Wesen des Menschen zu erhellen“ (ebd., S. 13). Es geht in der Kybernetik also nicht zuletzt um eine anthropologische Bestandsaufnahme, die verborgene Strukturen freilegt. Die hier praktizierte Wesenschau generiert eine Perspektive, die den Beobachter, der sich immer auch als technisch versierter Akteur versteht, dazu befähigt, die Frage nach der Substanz der Phänomene so umzuformulieren, dass man am Ende von der inneren Natur der anvisierten Gegenstände absehen kann und stattdessen auf die Form oder die Relationierung der Gegenstände blickt: „Von den verschiedenen Betrachtungsweisen der Welt ist eine der interessantesten die, sie sich aus Schemata zusammengesetzt zu denken. Eine Schema ist im wesentlichen eine Anordnung. Es ist charakterisiert durch die Ordnung der Elemente, aus denen es gebildet ist, und nicht durch die innere Natur dieser Elemente“ (ebd., S. 15). Diese Sicht hat weitreichende Konsequenzen und lässt sich auf beliebige Themen anwenden. Die Verwendung von Sprache gilt zum Beispiel nicht primär als Verständigungshandeln, sondern als ein lustvoller Vollzug von Transformationen, bei denen die Bedeutung der benutzten Zeichen mal verborgen und mal aufgedeckt wird: „Das Phänomen des menschlichen Sprechens (scheint) ein ureigener Trieb zum Verschlüsseln und Entschlüsseln zu sein“ (ebd., S. 87). Auch die „geistige Individualität“ des Menschen zeigt sich jetzt in anderem Licht: Sie besteht nämlich „in der Speicherung ihrer früheren Programmierungen und Gedächtnisinhalte und in der Fortsetzung ihrer Entwicklung in bereits angelegten Richtungen“ (ebd., S. 99). Nicht weniger lakonisch lautet Wieners Kommentar zu den sozialen Konfliktstoffen, die (nach gewöhnlicher Vorstellungen) durch Rechtsnormen bearbeitet werden: „Rechtsprobleme sind kommunikativ und kybernetisch, d.h. sie sind Probleme der geordneten und wiederholbaren Regelung gewisser kritischer Situationen“ (ebd., S. 107). Wiener offeriert seine Betrachtungsweise, die zu einer Serie ernüchternder Detail-Befunde führt, allerdings mit großem moralischem Pathos. Die Kybernetik steigert seiner Ansicht nach nicht die Gefahren technokratischer Systeme[8], die die Freiheit des Einzelnen ersticken, sondern bringt Rettung in höchster Not: „Die Stunde drängt, Gut und Böse pochen an unsere Tür; wir müssen uns entscheiden“ (ebd., S. 194).[9]

Während bei Wiener das philosophische Gewicht der Kybernetik darin liegt, die dramatische Situation, in der sich die Welt befindet, durch eine an den „Naturwissenschaften“ geschulte Sprache[10] zu beschreiben und so Wege zur Entschärfung dieser Situation zu finden, schließt Gotthard Günthers Arbeit über Das Bewusstsein der Maschinen, die 1957 (und in stark erweiterter Form 1963 erscheint) explizit an kanonische Denkfiguren und Fragestellungen der akademischen Philosophie an. Attraktiv ist für Günther die Kybernetik, weil sie jene Dualismen der klassischen Metaphysik (z.B. Subjekt/Objekt, Sein/Denken, Leben/Tod) unterläuft, die Hegels dialektische Logik nur durch spekulative Sätze, aber nicht etwa schon durch eine formalsprachliche Operationalisierung ‚aufzuheben’ vermochte.[11] Die Analysen von Wiener, Shannon und anderen zeigen, dass weder „das Faktum der Information“ noch „der Kommunikationsprozeß, durch den dieselbe übermittelt wird“ (1963, S. 21), sich auf jeweils einer der beiden Seiten der exemplarisch genannten Differenzen verorten lassen. Diese drastische Relativierung der klassischen Zweiwertigkeit wirkt laut Günther wie ein philosophischer Befreiungsschlag. Das kybernetische Denken erzeugt ein „neues Weltgefühl“ (ebd., S. 81). Freilich nicht primär, weil es die alte Idee eines ‚Dritten’ aufgreift und in einen Formalismus einzuschreiben sucht. Sondern weil es die gewöhnlich als quasi-transzendente Vermittlungsinstanz zwischen Geist und Körper verstandene „Seele“ nun im „Diesseits“ der technisch konstituierten Lebenswelt ansiedelt. Dergestalt sorgt es dafür, dass soziale Entfremdung und Verdinglichung durch Prozesse der Reflexion aufgelöst werden. Aber damit nicht genug; das universalwissenschaftliche Unternehmen mit dem Namen Kybernetik gibt endlich auch eine befriedigende Antwort auf die Frage nach dem Verhältnis von Reflexion und Selbstbewusstsein. „In der mit ‚Denken’ und ‚Bewußtsein’ begabten Maschine gestaltet der Mensch eine Analogie des eigenen Ichs“ (ebd., S. 87) und schafft so die operative Form für eben die subjektive Selbstbezüglichkeit, deren unverzichtbare Funktion Fichte und Hegel dargelegt haben, ohne eine angemessene Beschreibung ihrer Struktur liefern zu können.[12]

Andere Wege zur philosophischen Interpretation der Kybernetik hat Max Bense bereits in einem Aufsatz aus dem Jahre 1951 eingeschlagen. Er wählt nicht begriffliche Konstellationen des Deutschen Idealismus als Argumentationsfolie, sondern Heideggers Fundamentalontologie. Hier glaubt er Kategorien vorzufinden, mit deren Hilfe es gelingt, „das Seinsverhältnis der Maschine festzulegen“ (Bense 2002, S. 480). Die Orientierung an einer ontologischen Reflexion der Technik hält Bense für erforderlich, weil mit den „elektronischen Rechenmaschinen“ (ebd., S. 475), in denen sich das kybernetische Wissen förmlich materialisiert, eine ganz neue Art der Technik hervortritt, die eine entsprechend fundamentale Betrachtung verlangt: „Technik war bisher im wesentlichen ein Phänomen der Oberfläche der bewohnten und bewohnbaren Sphäre: was jetzt vor unseren Augen entsteht, ist Tiefentechnik, wir erleben ihr Eindringen in die Feinstrukturen der Welt, in die immateriellen Bestandteile, wo dementsprechend ihre pathologischen Züge verborgener und gefährlicher sind. Die kybernetische Erweiterung der neuzeitlichen Technik bedeutet ihre Erweiterung unter die Haut der Welt; Technik kann in keiner Weise mehr isoliert (objektiviert) betrachtet werden vom Weltprozeß und seinen soziologischen, ideologischen und vitalen Phasen. Sie bezieht alles ein, sie hat einen verstärkten konsumierenden Charakter angenommen“ (ebd., S. 467). Mit extremer Deutlichkeit zeigt sich jetzt, dass die „technische Welt durch und durch funktionales Sein“ ist (ebd., S. 480). Diese ‚Unverborgenheit’ des Funktionalen, welches das menschliche Leben in jeder Hinsicht zu erfassen scheint, ist laut Bense allerdings nicht unbedingt der Beweis für ein seingeschichtliches Verhängnis, dem die Gattung ausgeliefert ist, sondern weist auch auf neue Möglichkeiten des „Daseins“ hin. Bisher war die Gattungsgeschichte vom „Missverhältnis zwischen Natur und Mensch“ geprägt, jetzt ergibt sich „eine seinsmäßig zu rechtfertigende Chance“. Denn die kybernetischen Maschinen lassen sich als „Lösung jenes anthropologisch fixierbaren Missverhältnisses auffassen“. Sie schaffen Bedingungen, unter denen der Mensch sich „als technische Existenz“ (ebd., S. 483) entwerfen und vielleicht vollenden kann.

Heidegger selbst hat dieser exzentrischen Deutung nicht beigepflichtet. Er sieht in der Kybernetik, auf die er ausdrücklich (in der Version von Wiener) Bezug nimmt, den Höhepunkt der abendländischen Metaphysik, die das Sein zu etwas Vorstellbarem, Gegenständlichem und damit letztlich Berechenbarem[13] gemacht hat. Um die Metaphysik, die die großartigen Ansätze des vorsokratischen Seinsdenkens nicht weiterführen wollte, zu überwinden oder (wie Heidegger präzisierend sagt) zu ‚verwinden’, muss der Mensch zwar den Zirkel der ‚Seinsvergessenheit’ ausschreiten, aber gleichwohl liefert die Kybernetik kein Modell für eine nachmetaphysische Lebensform. Denn in der technischen Sprache, die die Informationstheorie propagiert, wird die „Sprache auf das bloße Zeichengeben, das Melden reduziert, d. h. verkümmert“ (1989, S. 26).[14] Eine solche Reduktion betrachtet Heidegger als „Bedrohung des eigensten Wesens des Menschen“ (ebd., S. 27). Obschon die Kybernetik nicht als Vorgriff auf die Kommunikationsverhältnisse, die in einem nachmetaphysischen Zeitalter walten, interpretiert werden darf, legt sie durch ihre rücksichtslose Offensive die eigene „Grenze“ frei und gibt damit zu verstehen, welche menschlichen Eigenschaften von den metaphysischen Verstellungen nicht angetastet werden können. Die Informationstheorie muss nämlich den Gebrauch der natürlichen Sprache voraussetzen. Sie hängt mithin von der „Umgangssprache“ ab, die Heidegger als Sprache der Überlieferung entziffert. Und „Überlieferung ist nicht bloß Weitergabe, sie ist Bewahrung des Anfänglichen, ist Verwahrung neuer Möglichkeiten“ (ebd., S. 27). Sprachliches Geschehen ereignet sich für Heidegger in einem transmetaphysischen Raum, weil die impliziten, nichtformalisierbaren Voraussetzungen, auf denen es ruht, immer auch Potenziale für menschliche Praxis-Entwürfe mit unkalkulierbaren Risiken und Chancen bereitstellen. Es ist dieses Verständnis von Sprache als Medium der Welterschließung, die später für die KI-Kritik von Dreyfus u.a. richtungsweisend wurde.

Auffällig an Heideggers Darstellung der Kybernetik[15] ist, dass sie mit dem Vorwurf des Reduktionismus arbeitet und selbst eine verborgene reduktionistische Pointe besitzt. An der Informationstheorie der Sprache, die Wiener u.a. ausbreiten, nimmt er nur den Zwang zur Formalisierung und Berechnung wahr. Derrida hat in seiner Grammatologie von 1967 hervorgehoben, dass die Kybernetik das Konzept einer neuen Schrift ins Werk setzt und allein deshalb schon aus dem Bann der Metaphysik heraustritt (1974, S. 23). Derrida teilt Heideggers Kritik an der abendländischen Metaphysik, speziell an deren Subjektbegriff, der den Menschen als das ‚Zugrundeliegende’ definiert und seinen enthemmten ‚Willen zur Macht’ speist. Kern der Metaphysik ist aber für Derrida nicht primär die begriffliche Vergegenständlichung der Welt, die ihre technische Zurichtung ermöglicht, sondern die geradezu fixe Idee, dass die Welt im menschlichen Zeichengebrauch vergegenwärtigt wird. Präsenz und nicht Funktionalität steht im Zentrum der metaphysischen Weltsicht. Daher gilt im philosophischen Diskurs des Abendlandes die Stimme als Träger des Sinns.[16] Und ihr Primat liefert die Deutungsfolie für die phonetische Schrift, der die Fähigkeit zugesprochen wird, jedes beliebige semantische Phänomen zu verzeichnen. Mit dem Auftreten der Kybernetik beginnt laut Derrida das „Ende des Buches“, gernauer: der Ideologie des Buches, derzufolge selbst in einer gedruckten Schrift immer nur die ihr vorausgehende Stimme re-präsentiert wird. Mehr als jede interne Kritik der Metaphysik markiert die Kybernetik den „Anfang“ einer anderen (mit Heidegger könnte man sagen: der eigentlichen) Schrift, die auch in jeden noch so kompakt wirkenden Formalismus eine räumliche und zeitliche Differenz einträgt. Die (stimmlich artikulierte) Präsenz ist damit als Leitvorstellung der Welterschließung verabschiedet. An ihre Stelle treten Differenzfiguren, die die phonetische Schrift in eine Schrift der Spuren verwandeln.

Derrida lässt sich von Heideggers Vorbehalten gegen die Kybernetik also nicht beeindrucken, weil die Kybernetik 1. nicht bloß die phonetische Grundierung der Schrift verabschiedet, sondern auch ihre Linearität aufbricht, und 2. die Dezentrierung des Subjekts fortführt, die Heidegger selbst mit seiner Daseinsanalyse einleitet hat. Es ist daher auch nicht verwunderlich, dass Derridas Differance-Theorie unter den Apologeten der Computertechnik viel Anklang gefunden hat. So wird etwa der sog. „Hypertext“ als rechner-basierter Vollzug der Dekonstruktion gefeiert[17] oder eine „polykontexturale Programmierung“ angepriesen, die sich als „Übertragung“ (AG-Text-Code 1992, S. 6) der derridaschen Thesen in die Welt der Computer versteht.

Die bisher diskutierten ‚Berührungen’ zwischen dem kybernetischen und dem philosophischen Diskurs lassen viele Fragen offen. Die vertretenen Positionen sind mit erheblichen Problemen und Unschärfen behaftet. Manches hat einen penetrant ‚weltanschaulichen’ Anstrich. Wieners Ausflüge auf das Gelände der sozial-philosophischen und anthropologischen Reflexion weisen erstaunlich manichäistische Züge auf und wirken politisch naiv[18]; die Thesen von Bense und Günther – beides Autoren, die über erhebliche mathematische und technische Kenntnisse verfügen – sind zwar aufregend, stehen aber argumentativ auf schwachen Beinen; und der ‚Kybernetik’-Begriff, den Heidegger und Derrida verwenden, bleibt äußerst vage und ist weit davon entfernt, den theoretischen Explikationsansprüchen zu genügen, die diese Philosophen ansonsten erheben und oft genug einlösen. Alle diese Schwierigkeiten sind nicht zufällig. Denn es geht den behandelten Autoren bei ihren Erörterungen immer auch um eine Gesamtdeutung der okzidentalen Moderne. Entwicklung und Einsatz der neuartigen Rechenmaschinen werden im Kontext eines epochalen Rationalisierungs- und Formalisierungsprozesses betrachtet, dessen umfassenden Charakter als erster Max Weber dargestellt und kritisch beurteilt hat.[19] Im Hintergrund der unterschiedlichen Stellungnahmen zur ‚kybernetischen Revolution’ steht daher die Frage, ob es sich hierbei um Manifestationen einer instrumentell verkürzten Vernunft oder um die technisch initiierte Befreiung aus den Zwängen traditioneller Herrschaftsformen handelt. Wer dies zu entscheiden hat, schert sich offenbar nicht sonderlich um Details, seien dies nun präzise Beschreibungen des Computers aus philosophischer Warte oder solide Explikationen erkenntnistheoretischer, ethischer, politischer und anthropologischer Probleme aus kybernetischer Sicht.

 

II. Berechnung – Bedeutung – Intelligenz

 

Prägnante Konturen erhält die Philosophie des Computers erst, als der ‚Gegenstand’, um den sich die Debatten drehen, begrifflich so zugeschnitten wird, dass sich die Aufmerksamkeit auf wenige entscheidende Fragen konzentriert. Die Ambitionen der Forschungsprojekte müssen deswegen, wie sich bald zeigt, nicht abnehmen. Der von John McCarthy 1955 kreierte Begriff Artificial Intelligence[20] leistet in dieser Hinsicht Beachtliches. Er stellt die kognitiven Fähigkeiten des Menschen ins Zentrum einer neuen Disziplin und weckt die Erwartung, dass die Bezugnahme auf Operationen des Computers Aufschluss über die Voraussetzungen und Abläufe des menschlichen Denkens liefern kann. Dabei lässt sich der Vergleich zwischen Menschen und Maschine beliebig weit treiben und mit genau den Erfolgsaussichten kombinieren, die für potenzielle Geldgeber (insbesondere aus dem militärisch-industriellen Komplex) ebenso interessant sind wie für gewisse Schwärmer, die mit interesselosem Wohlgefallen von der Mensch-Maschine-Symbiose fantasieren. Die Philosophie kann solche Extremfälle den Beurteilungskompetenzen der Soziologie und Psychologie überlassen, um sich primär mit zwei Bündeln von Fragen zu beschäftigen:

1. In welcher Hinsicht stimmen die Berechnungen[21] oder die symbolverarbeitenden Prozesse[22], die der Computer ausführt, mit Vorgängen im menschlichen Bewusstsein überein? Sind für Berechnungen und Erkenntnisakte basale Operationen charakteristisch, die als ähnlich oder gar identisch bezeichnet werden dürfen? Sind ggf. neben kognitiven Prozessen auch weitere psychische Phänomene (z.B. Wünsche oder Schmerzen) mit Zuständen des Computers vergleichbar?

2. Kann die Genese sprachlicher Bedeutung mit den Formalismen und Regeln in Zusammenhang gebracht werden, auf denen Computerprogramme beruhen? Oder schaffen biologische und/oder soziale (interaktive und historische) Abläufe derart einzigartige Gebilde, dass weder strukturelle noch funktionale Äquivalente denkbar sind?

Diese doppelte ‚Engführung’ der philosophischen Reflexion, die jetzt in erster Linie mit den Phänomenen Erkenntnis und Bedeutung befasst ist und alle anderen Aspekte zunächst einmal vernachlässigt, hat entscheidende Vorteile. Das Gemisch aus ontologischen, epistemologischen, sozialphilosophischen und anthropologischen Fragen, welches für die Kybernetik-Debatte kennzeichnend ist, wird nicht wieder angerührt. Das Auftauchen des Computers gilt als ein Ereignis, das die Philosophie dazu zwingt, ihre Begriffe zu schärfen und klarer als bisher zu sagen, was sie unter Wissen, Vernunft, Geist, Körper, Bewusstsein, Sprache, Sinn, Intention etc. versteht. Dazu gehört es sicher auch zu bestimmen, was mit Begriffen nicht klar ausgedrückt, sondern durch ästhetische Darstellungen oder rituelle Praktiken nur gezeigt bzw. vorgeführt werden kann. Die vollmundigen Ankündigungen von Herbert Simon und Allen Newell, die Prognosen von Marvin Minsky und Edward Feigenbaum, die Spekulationen von Hans Moravec sowie die zahlreichen Projekte und Kampagnen der AI-Zunft zwischen 1950 und 1970 sind von der Sache her keine echte Herausforderung für die Philosophie, aber sie liefern durch ihre Übertreibungen einen günstigen Anlass, den notorischen philosophischen Fragen und Einsichten eine zeitgemäße Fassung zu geben. Wenn die Disziplin ihren eigenen Ansprüchen genügen will, so muss sie sich den technischen Innovationen stellen, ohne ihren Faszinationskräften zu erliegen (wie es mitunter in medienwissenschaftlichen Erkundungen geschieht). Sie muss folglich in gewohnter Manier und aus hinreichender Distanz die relevanten Verständnisweisen, in deren Rahmen Individuen und Kollektive sich denkend und handelnd orientieren (und das schließt das jeweilige Verständnis von Denken und Handeln und deren interne Beziehung ein), nun auch für das sog. Computerzeitalter aufdecken und beurteilen. Dass sie im Zuge dieses Unternehmens zunächst bei Detailfragen ansetzt und (vielleicht) erst nach langen Vorarbeiten zu einer Gesamtschau gelangt, ist nicht unbedingt ein Nachteil.

Hilary Putnam, der sein großes Buch über das Zusammenspiel von Reason, Truth and History (1981) mit Überlegungen zum berühmt-berüchtigten Turing-Test[23] beginnt, hat zwischen 1960 und 1975 mehrere Aufsätze[24] geschriebenen, die das klassische Body-Mind-Problem mit Rücksicht auf die Grundlagenforschung im Bereich der Mathematik und der Computer-Theorie analysieren. Putnam bezieht sich hier nicht auf das weite Feld der Kybernetik und die spektakulären KI-Projekte der Gründerjahre, sondern verwendet in seinen Analysen nur die universelle Turing-Maschine.[25] Als ein für alle Computer gültiges Grundmodell soll sie Aufschlüsse über die Funktionsweise des Geistes liefern und Argumente stützen, mit denen u.a. materialistische und behavioristische Erklärungskonzepte zurückgewiesen werden können. Dieses Vorgehen allein lässt noch nicht den Schluss zu, dass geistige Tätigkeit und maschinelle Rechenleistung, dass Mensch und Apparat gleichzusetzen sind (vgl. Putnam 1975, S. 364). Dies ist letztlich eine empirische Frage und kann deshalb philosophisch nicht vorentschieden werden (ebd., S. 412).[26] Es soll zunächst nur gezeigt werden, inwiefern Theorien, deren Konzepte schon den besonderen Eigenschaften der Turing-Maschine nicht gerecht werden, auch zur Beschreibung menschlicher Kompetenzen ungeeignet sind. Faszinierend an Turings ‚Maschine’ ist, dass sie zum einen den Berechnungsbegriff klar definiert (also das Berechenbare vom Unberechenbaren unterscheidet) und zum anderen zeigt, dass es diverse Möglichkeiten gibt, das Programm der Maschine zu ‚realisieren’. Die logischen Zustände der Maschine legen demnach keineswegs fest, mit welchen strukturellen Zuständen sie konkret verknüpft werden müssen, damit sie überhaupt existieren können.[27] Schriftzeichen, Zahnräder, Vakuumröhren und Siliziumchips erfüllen, wenn sie entsprechend angeordnet sind, gleichermaßen diese Funktion. Nicht die stofflich-materiellen, sondern die operativen Eigenschaften sind für die Leistungen der Maschine ausschlaggebend. Setzt man nun den menschlichen Geist in Analogie zu den logischen, und den Körper zu den physikalischen Zuständen der Maschine, so erhält die sog. funktionalistische Theorie[28] des Body-Mind-Problems, die die Autonomie des Geistes unterstellt, wenn schon keine Plausibilität, so doch zumindest eine gewisse Plastizität: Heteronom ist der Geist, weil er sich auf irgendeine Weise verkörpern muss, frei hingegen, weil er an keine spezifische Verkörperung gebunden ist. Auf die nahe liegende Frage, wie es überhaupt zur Verbindung zwischen beiden Zustandsformen – den funktionellen und den strukturellen – kommen kann, lässt sich mit dem Hinweis auf faktische Computer eine erste, vorläufige Antwort geben. Insofern solche Geräte als mögliche Realisierung der Turing-Maschine gelten dürfen, liefern sie mit ihren Hardware- und Software-Zuständen ein handgreifliches Beispiel für die Verknüpfung von materiellen und semantischen Eigenschaften.[29] Diese Verknüpfung weist bei lauffähigen Computern Merkmale auf, die sie als kausale Relation kenntlich machen; trotzdem gibt sie dem Beobachter nicht den geringsten Anlass, eine der beiden Zustands- oder Eigenschaftsklassen auf die andere zurückzuführen. Der Funktionalismus präsentiert also eine merkwürdig dualistische Theorie über zwei kausal sich wechselseitig bedingende, aber zugleich unreduzierbare Sphären. Was ist damit gewonnen? Putnams umstrittene Vorschläge, die Mitte der siebziger Jahre durch Arbeiten von Ned Block, Jerry Fodor und anderen starken Flankenschutz erhalten, beruhen auf der Annahme, dass der Computer (qua universeller Turing-Maschine) eine transparente und verständliche Konstruktion ist, die sich eignet, ein Licht auf heikle und schwierige Probleme der Philosophie des Geistes zu werfen.[30] Diese Vorgehensweise ist legitim und nützlich, kann aber nur als ein Teilstück der angestrebten Philosophie des Computers betrachtet werden. Erforderlich wäre der Versuch, die eingenommene Perspektive umzudrehen: die Philosophie müsste durch transparente Begriffe und Analysestrategien das rätselhafte Phänomen Computer erhellen. Sie müsste m. a. W. nicht auf den schon vorverstandenen Computer zugreifen, um ihn im Kontext ihre Aussagen über klassische Probleme regelrecht zu ‚funktionalisieren’, sondern dieses Gebilde als etwas Undurchschautes auffassen und dementsprechend minutiös untersuchen. Es käme also darauf an, sich durch den Computer in jenes Erstaunen versetzen zu lassen, das Platon als Auslöser des Denkens beschreibt. Nur wenn ein solches Programm mit einem anspruchsvollen Theoriedesign durchgeführt wird, erübrigt es sich künftig, Arbeiten von Baudrillard, Virilio, Flusser, Kittler und Bolz als philosophische Texte über den Computer zu verbuchen.[31]

Ein erster Schritt könnte darin bestehen, das Bild des Computers, das philosophisches Interesse weckt, komplexer zu gestalten. Denn es geht nicht darum, den Theoretikern durch ein bestimmtes Computer-Konzept „das Leben“ bzw. den Umgang mit alten ungelösten philosophischen Fragen „einfacher zu machen“ (um noch einmal Dennetts saloppe Formulierung zu zitieren). Genau diese gebotene ‚Erschwerung’ des Forschungsgegenstandes ist aber ein Problem für sich; denn bislang erweisen sich ambitionierte Beschreibungen des Computers eher als philosophisch naiv, schwach oder fehlerhaft. Sieht man von den Arbeiten der oben genannten Medientheoretiker, denen man kaum ein hohes philosophisches Niveau zubilligen wird, einmal ab, so kommt man um das Urteil nicht herum, dass die gehaltvollsten und provokantesten Darstellungen des Computers aus dem Lager der KI-Anhänger und zwar sowohl aus dem Bereich der logischen Programmierung und der Expertensysteme, als auch aus dem Bereich der Konstruktion künstlich neuronaler Netze stammen.[32] Hier wird der Computer (und das ganze Spektrum der unterschiedlichen Modellierungsmöglichkeiten, die er bietet) als eine Technik betrachtet, die es erlaubt, aus einfachen Elementen hochkomplexe und in mancher Hinsicht nicht mehr nachvollziehbare oder durchschaubare Gebilde zu erschaffen. Eben diese Darstellung hat die philosophischen Experten jedoch nicht dazu bewogen, eine entsprechend vielschichtige philosophische Theorie über den Computer anzufertigen, sondern vielmehr angeregt, noch entschiedener der Frage nachzugehen, ob selbst der denkbar leistungsfähigste Computer in der Lage sein könnte, die Eigenarten des menschlichen Bewusstseins zu imitieren. Festzuhalten bleibt jedenfalls: Philosophische Reflexionen über die Grenzen einer Technologie, die auf Prozessen der Formalisierung beruhen, fallen wesentlich brillanter aus als all jene Versuche, die den Computer unmittelbar zum Gegenstand der Untersuchung machen. Offenbar können die Philosophen ihre Potenziale besser ausspielen, wenn sie durch einfallsreiche Gedankenexperimente oder lange Argumentationsketten aufzeigen, dass Geist und soziales Leben komplexer und eigensinniger sind als noch so smarte Computerprogramme. Auch Putnam schwenkt nach seinen frühen Koketterien mit dem Maschinenmodell auf diese Linie ein. Die Analogie von psychischen/körperlichen Zuständen des Menschen und funktionalen/strukturellen Zuständen der Maschine wird jetzt nicht mehr als erhellend, sondern als irreführend eingeschätzt. 1981 entwirft Putnam ein Szenario, das nicht nur mit dem Turing-Test (1950), sondern auch mit dem Plot des Films Matrix (1998)[33] gewisse Ähnlichkeiten aufweist: „In einem Tank mit einer Nährlösung“ befindet sich ein Gehirn, dessen Nervenenden mit einem „superwissenschaftlichen Computer“ verbunden sind, der das Gehirn (bzw. die Person, um deren amputiertes Gehirn es sich handelt) durch die perfekte Simulation der Wirklichkeit im Glauben lässt, „alles verhalte sich völlig normal“ (1982, S. 22). Putnam argumentiert nun, dass die Gehirne im Tank, obschon sie über Vorstellungsbilder verfügen, nicht auf die äußeren, tatsächlichen Dinge, von denen diese Vorstellungsbilder handeln, bedeutsam Bezug nehmen können. Bedeutungen sind nämlich nicht als geistige Objekte im Gehirn repräsentiert, wie Fodor (1975) im Einklang mit den Annahmen der ‚harten’ KI-Fraktion meint, sondern entstehen im praktischen (auch nicht-sprachliche Aspekte umfassenden) Umgang mit den Dingen selbst. Wir müssen uns auf die Außenwelt, die wir kraft der sprachlichen Bezugnahme geistig präsent zu haben glauben, so einlassen, dass wir in eine „kausale Wechselbeziehung“ (Putnam 1982, S. 34) zu ihr treten. Die Erzeugung von Bedeutungen in realen Handlungskontexten weist demnach eine Qualität auf, die der ‚intelligenteste’ Computer durch Rechenleistungen allein nicht simulieren oder aufwiegen kann. Der ‚Mehrwert’ der menschlichen Lebensform gegenüber dem Maschinenprogramm ist folglich garantiert. Ebenso wie der späte Wittgenstein, favorisiert der späte Putnam eine Gebrauchstheorie der Bedeutung und verwirft mit den frühen Konzepten, in denen der Computer Modell stand, auch jede intentionalistische Version der geistigen Bezugnahme auf physische Gegenstände. In einem ähnlich berühmten und breit diskutierten Gedankenexperiment hat auch John Searle (1980) prinzipielle Einwände gegen die künstliche, algorithmen-basierte Produktion von Bedeutung erhoben. Freilich beruht sein Argument auf der Annahme, dass die von Putnam des sprachtheoretischen Feldes verwiesene Intentionalität eine notwendige Bedingung für Bedeutung darstellt. Ohne intentionale Geisteszustände soll die sprachliche Bezugnahme auf Dinge und Ereignisse in der Welt gar nicht möglich sein. Damit nähert sich Searle, dessen Sprechakttheorie als Fortsetzung der wittgensteinschen Spätphilosophie gilt, allerdings den Kernideen der ‚harten’ KI-Fraktion an und muss deshalb die Frage beantworten, ob Intentionen Geisteszustände sind, die eine symbolverarbeitende Maschine ‚simulieren’ kann. Dem „Chinese-Room-Argument“[34] kommt in diesem Zusammenhang ein hoher Stellenwert zu. Denn es soll demonstrieren, dass Computer nicht in der Lage sind, Intentionalität zu erzeugen. Der Witz von Searles Gedankenexperiment besteht nun darin, dass es den Wert des Turing-Tests zu entkräften versucht, indem es dessen Gelingen als Indiz seines Scheiterns vor Augen führt[35]: Selbst wenn die Maschine die gleichen Leistungen wie der Mensch erbringt und Turings „imitation game“ (1950, S. 441) erfolgreich zu spielen vermag, so wird ein entscheidender Mangel sichtbar. Die Maschine bzw. die Person im chinesischen Zimmer ‚versteht’ nämlich die Aufgaben nicht, die sie programmgerecht abwickelt: Das Gehirn ist kein Computer[36], weil die syntaktischen Operationen, die die Maschine virtuos und mit enormer Geschwindigkeit ausführt, niemals ausreichen (werden), um semantische Beziehungen zu konstituieren. Dieses Argument versucht Searle noch zu erhärten, indem er ihm die These zur Seite stellt, dass Intentionen ein biologisches Phänomen sind, das durch kausale Prozesse zustande kommt, die von keinem Formalismus hervorgezaubert werden können. Allerdings schafft eine derartige ‚naturalistische’ Annahme mehr Probleme, als sie löst, und hat daher entsprechend harsche Kritik erfahren. Auch Roger Penrose, der ebenso wie Searle prinzipielle Einwände gegen die Computer-Geist-Analogie erhebt, bezweifelt den Wert der These: „Was ist das Besondere an biologischen Systemen [...], das ausgerechnet ihnen erlaubt, Intentionalität oder Semantik zu erwerben?“ (1991, S. 21). Aus der Warte von Penrose sind Searles Spekulationen ohnehin unnötig; denn nicht die stoffliche Eigenart des Menschen, sondern der Charakter formaler Systeme liefert das schlagende Argument, mit der die Vorstellung, menschliches Denken und algorithmische Operationen seien (zumindest in funktioneller Hinsicht) identisch, ad absurdum geführt werden kann. Die Existenz der Gödelschen Unvollständigkeitssätze zeigt, dass der menschliche Verstand dazu fähig ist, die Grenzen formaler Systeme zu erkennen und zu überschreiten. Hier manifestiert sich eine Art des Verstehens, die sich nicht in der Produktion und Befolgung von mathematischen Regeln erschöpft. Der Geist besitzt vielmehr Zugang zu einer gleichsam Platonischen Welt logischer Entitäten, deren Gestalt durch kein Computerprogramm simulierbar ist. Ein ähnlich gelagertes Argument trägt Klaus Mainzer vor: Sowohl die Gödelschen Sätze als auch „die mathematische Theorie“, die das Verhalten „nicht-linearer dynamischer Systeme“ untersucht, liefern Belege dafür, dass die „Vernunft über alles, was sie zu formalisieren vermag, hinausgehen“ kann, und dass die „Phantasie [...] dissipativ und irreversibel, nicht programmierbar und nicht reproduzierbar“ ist (1994, S. 780).[37] Bei Mainzer dient der Hinweis auf Gödel und die Chaos-Theorie aber nicht einer raffinierten Dekonstruktion der künstlichen Intelligenz. Vielmehr schafft die Selbstrelativierung der avancierten Mathematik den Protagonisten der KI-Forschung erst freie Bahn.[38] Weil die prinzipielle Überlegenheit der gattungsspezifischen Vernunft mathematisch bewiesen ist, wird die „uralte Angst des Menschen“ vor einer Wissenschaft „hinfällig“, die ihn „durchschaut“ und am Ende in „eine mechanische Puppe“ (ebd.) verwandelt. Nachdem dieses heikle Problem beseitigt ist, kann die KI-Zunft ihre ambitionierten Projekte verfolgen, ohne sich bei jedem ihrer Schritte erkenntniskritischen und ethischen Reflexionen zu unterwerfen. Von der eingetretenen Entlastung profitiert auch die Philosophie. Denn das kritische Denken muss sich nicht länger als Hüter einer Lebensform aufspielen, die vielleicht durch die KI oder andere Richtungen der Informatik bedroht ist. Der Philosophie verbleibt die angenehme Rolle, Stärken und Schwächen der aktuellen Lehrmeinungen zu beurteilen und den Stand der Forschung in den einzelnen Disziplinen miteinander zu vergleichen. Aus solcher Distanz lässt sich dann zum Beispiel behaupten, dass die „neurobiologischen Begriffe auf dem Niveau der modernen Logik noch nicht greifen“ (ebd., S. 774). Und dies bedeutet: Die Biologie muss im Begriffsdesign mit der Mathematik erst noch gleichziehen, bevor an eine praktische Integration beider Wissenschaften zu denken ist. Der schon bereitgestellte „Theorierahmen komplexer dynamischer Systeme“ liefert aber immerhin einen Kriterienkatalog, dem Biologie und Informatik genügen müssen, um die erstaunlichen „Phänomene des Geist-Gehirn-Systems“ (ebd., 779) aufzuklären und sie dann ggf. (mit stetiger Rücksicht auf das nicht-formalisierbare Transzendierungspotenzial der Vernunft) auch zu simulieren. Mainzers äußerst moderate Version einer Philosophie der Computertechnik beruht auf umfangreichen Fachkenntnissen im Bereich von Logik und Informatik und einer nicht minder kundigen Einschätzung der Urteilskompetenzen, die sich philosophische Reflexion heute noch zumuten kann und anmaßen darf. Aber seine Texte hinterlassen einen merkwürdigen Eindruck: Die ernsthafte Frage, ob die Computer als „neue Flügel des Geistes“ (1994) in die Weltgeschichte eingehen werden, scheint die Schwingen der Philosophie gestutzt zu haben.

Weitaus schärfere und engagiertere Kommentare zur KI-Entwicklung liefert seit Jahren der Philosoph Hubert Dreyfus[39], der sich auch mit Studien zu Foucault einen Namen gemacht hat. Aus seinem Windschatten sind 1986 die Informatiker Terry Winograd und Fernando Flores hervorgetreten und haben „zur Neugestaltung von Computersystemen“ aufgerufen. Alle drei Autoren und viele andere, die ihnen gefolgt sind, verlassen sich nicht auf die internen Kontroll- und Lernmechanismen der einmal entfesselten informatischen Praxis. Die lehrreichen Erfahrungen mit der Formalisierungsgrenze, die Gödel aufgezeigt hat, kommen nämlich – soviel lehrt die anhaltende Softwarekrise – zu spät. Daher ist es nötig, nachdrücklich darauf aufmerksam zu machen, dass die KI, aber auch weite Teile der sog. Kern-Informatik, auf verfehlten Konzepten von Sprache und Kognition beruhen.[40] Dreyfus greift Analysen von Heidegger und Merleau-Ponty auf, Winograd/Flores beziehen sich primär auf Heideggers und Gadamers Kritik der rationalistischen Tradition und verbinden sie mit Studien zur biologischen Selbstorganisation, die Maturana und Varela vorgelegt haben. Folgt man den genannten Theoretikern, so erschließen sich Menschen ihre Welt durch eine leiblich-sprachliche Praxis, die stets auf ein implizites Hintergrundwissen, das die lebensnotwendige Vertrautheit stiftet, angewiesen ist.[41] Erkenntnis erscheint dann nicht mehr als eine symbolische Repräsentation der vorhandenen Einzeldinge und Ereignisse, sondern als ein ganzheitlicher Entwurf, der sich in der jeweiligen konkreten Handlungssituation bewähren muss und einer beständigen, zumeist unbewussten Korrektur unterliegt.[42]

Dreyfus’ und Winograd/Flores’ Versuch, bestimmte philosophische Einsichten verständlich dazustellen und unter Informatikern zu popularisieren, hat in Fachkreisen der KI manchen Widerspruch provoziert, aber auch erheblichen Anklang gefunden. Ohnehin sieht sich 1986, im Erscheinungsjahr von Understanding Computers and Cognition, die ‚harte’ KI bereits in die Defensive gedrängt. Rumlhart/McClelland publizieren ihr begeistert aufgenommenes Buch Parallel Distributed Processing: Explorations in the Microstructures of Cognition. Ein Paradigmenwechsel wird verkündet und schon wenige Jahre später formiert sich im Kielwasser von David Chapmans Werk über Vision, Instruction, and Action (1991) die sog. ‚interaktive KI’. Winograd/Flores’ Wunsch, durch die hermeneutisch inspirierte Sicht auf Sprache, Handlung und Wissensproduktion eine veränderte Form des Umgangs mit Computern zu ermöglichen und für alternative Softwareprojekte den Weg zu ebnen, geht – wie man glauben könnte – endlich in Erfüllung. Doch zur Euphorie besteht noch kein Anlass. Dreyfus weist darauf hin, dass auch die ‚interaktive KI’ die sprach- und handlungstheoretischen Mängel der klassischen Ansätze nicht beheben kann. Die neuen Konzepte orientieren sich zwar an „Heideggers Phänomenologie der Alltagslebens“, versuchen aber nicht, „seine Darstellung der Hintergrundvertrautheit umzusetzen“ (Dreyfus 1993, S. 668). Obschon sie in vieler Hinsicht Vorteile gegenüber der „good-old-fashioned AI“ aufweisen, fehlt den künstlich neuronalen Netzen – nicht anders als den alten KI-Systemen – „die Fähigkeit, Situationen zu erkennen, in denen das von ihnen Gelernte unangemessen ist“ (ebd., S. 674).[43] Diese kritischen Bemerkungen klingen entschieden und klar, dennoch haftet ihnen eine gewisse Zweideutigkeit an. Als Hermeneutiker und Diskursanalytiker nimmt Dreyfus an, dass die impliziten Voraussetzungen der menschlichen Praxis reflexiv eingeholt, wenn auch nicht formalisiert werden können. Daher ist klarzustellen: Den Vertretern der neuen Konzepte gebührt kein Tadel, weil sie eine algorithmische Darstellung der sog. „Hintergrundvertrautheit“ erst gar nicht versucht haben. Vorhaltungen wären nur dann angebracht, wenn sie den Rekurs auf Heidegger als Legitimation eines exzessiven Formalisierungsprojekts und nicht als Anleitung zur Bescheidenheit benutzen würden. Aus hermeneutischer Warte kann die Computertechnik einen sinnvollen Beitrag zur menschlichen Lebenspraxis leisten, indem sie in erster Linie unterstützende Aufgaben übernimmt und nur in Bereichen zum Einsatz kommt, in denen sicher gestellt ist, dass Chancen und Gefahren in einem ausgewogenen Verhältnis zueinander stehen.[44]

Die genannte Zweideutigkeit in Dreyfus’ Kritik an der ‚interaktiven KI’ ist aber nicht durch eine schlichte Präzisierung ihrer Stoßrichtung und Reichweite zu beheben. Denn sie verweist auf Probleme des hermeneutischen Ansatzes, die für eine aktuelle Philosophie des Computers besonders relevant sind. Damit meine ich nicht den generellen dekonstruktiven Einwand gegen die Hermeneutik, welcher besagt, dass der alltagsweltliche Horizont des Verstehens und der Vertrautheit gar kein verbürgter Ort der Orientierung ist, sondern ein heterogenes und fragmentiertes Feld, in dem jede Markierung prinzipiell unsicher und strittig ist. Ich verzichte hier auf die Diskussion dieses Einwandes. Es geht mir vielmehr 1. um Genese und Status des impliziten Wissens unter Bedingungen der spätmodernen ‚Informationsgesellschaft’ und 2. um die normativen Bindungen (commitments), die wir nach Winograd/Flores im Vollzug unserer Sprechakte auch dann eingehen, wenn wir sie explizit leugnen oder durch unser Verhalten in Abrede stellen.

Die leib- und kontextgebundenen Modi des Alltagswissens, die Menschen dazu befähigen, sich eine Welt des Handelns zu erschließen, mögen immun gegen jede Art der Formalisierung sein, sie sind heute aber in einer bislang noch nicht gekannten Weise durch avancierte Kommunikationstechnologien geprägt. Ihre ausgiebige Nutzung ist Teil des gewöhnlichen Lebens mit all seinen unbefragten Selbstverständlichkeiten und Routinehandlungen geworden. Die Annahme, „dass es gerade die vortechnischen Aktivitäten sind, die wirklich befriedigend und identifizierend sind“ (Lenk 1994, S. 58), hat daher kaum noch diagnostischen Wert. „Durch die Artifizialität der Informationssphäre verändern sich auch die aisthetischen Rahmenbedingungen der herkömmlichen Hermeneutik“ (Capurro 1995, S. 73). Und mit den modifizierten „Wahrnehmungsmöglichkeiten“ (ebd.) nehmen die existentiellen Selbstentwürfe eine neue Gestalt an. Auch die leibliche Verankerung kognitiver und kommunikativer Akte unterliegt durch die medial produzierten Körperbilder und die computertechnisch ermöglichten neuartigen Körpererfahrungen einem gravierenden Wandel (vgl. Ellrich 1997b, 2000). Voreilig und unbegründet wäre es freilich, aus diesem Umstand zu schließen, dass die elektronischen Medien „das unhintergehbare historische Apriori unseres Weltverhaltens“ (Bolz 1993a, S 113) geworden sind. Dennoch kann der Rekurs auf ein implizites Wissen, das sich nur durch phänomenologische bzw. hermeneutische Analysen erfassen lässt, nicht mehr die entscheidenden Kriterien liefern, um Sinn und Unsinn der Computertechnik zu beurteilen. Das zeigt sich besonders deutlich an den ethischen Fragen, die ihr Einsatz aufwirft.

 

III. Moralische Aspekte der Computertechnik[45]

 

Dreyfus, Winograd und Flores stellen nicht bloß epistemologische Überlegungen an. Sie richten einen moralischen Appell an Ingenieure, Softwareentwickler und reflektierte Nutzer. Sie verstehen Computerphilosophie als Beitrag zum abendländischen Projekt der Philosophie, das „Einsicht in das Gelingen unserer Praxis“ gewinnen und eben das „Gute“, das eine gelungene Praxis auszeichnet, zugleich fördern will (Menke 2003, S. 243). Der Umgang mit der Computertechnik kann – so lautet die These – in eine gelungene Praxis nur einmünden, wenn bestimmte Irrtümer, die mit der Implementierung dieser Technik verknüpft sind, erkannt und korrigiert werden: Problematisch und philosophisch relevant ist die Computertechnik, weil sie Entwickler und Anwender dazu verleitet, von den Voraussetzungen ihrer Tuns abzusehen. Diese Blindheit für die latenten Grundlagen des Handelns hat gravierende, aber keine irreparablen Folgen. Die Effekte des Computereinsatzes reichen jedoch nicht aus, die konstitutive Basis aller operativen Prozesse, die symbolische Maschinen durchführen, aufzulösen und durch ein anderes Fundament zu ersetzen, das die Übertragung von Information ganz ohne lebensweltliches ‚Vorverständigtsein’ ermöglicht. Eine durch die Brille der Formalisierung betrachtete und entsprechend modellierte Welt erweckt nur den Anschein, sie besäße den gleichen oder sogar einen höheren Wirklichkeitsgehalt als eine durch implizites Wissen erschlossene Welt. Diese Suggestion beeinträchtigt die Kraft lebensweltlicher Sinnbildung und ist daher auch eine Gefahr für das kommunale Leben. Denn sie erzeugen keine medial erweiterten, sondern verengte und reduzierte Beziehungen zwischen den Menschen. Die Effekte der digitalen Medien sind allerdings begrenzt. Der Computer ist außer Stande, seine nicht-formalen Voraussetzungen aufzuzehren und sich ganz auf sich selbst zu gründen. Daher ist eine Revitalisierung der verschütteten Grundlagen informations-technischer Verfahren durch Akte hermeneutischer Reflexion erforderlich.

Auf der Folie dieser Diagnose gelangen die hermeneutischen Theoretiker zu dem Fazit, dass die Informationstechnik eine ethische Herausforderung ersten Ranges darstellt, auf die die Betroffenen mit verantwortlichem Handeln reagieren können. Es steht den Menschen prinzipiell frei, ob sie sich die interpretativen Rahmenbedingungen, in denen sie Computerprogramme entwickeln und einsetzen, vergegenwärtigen und sich darauf in ihren Gestaltungsintentionen einstellen, oder ob sie sie abblenden und nicht wahrhaben wollen. Wenn sie letztere Alternative wählen, dann richten sie sich in einer sozialen Welt ein, die sich dem technologischen Schein unterworfen hat, und verzichten darauf, die vitalen Ressourcen, die eine sprachlich konstituierte Welt enthält, zu nutzen.

Gegen diese zwar alarmierende, aber zugleich auch Heilmittel anbietende Auffassung lassen sich nun nicht allein Einwände machen, die den informationstechnisch veränderten Status des impliziten Wissens betonen, sondern auch Bedenken erheben, die die Geltungskraft eben jener Moral in Frage stellen, auf die das hermeneutische Argument noch blindlings vertraut. Gedeckt durch weitausholende historische Analysen hat Sybille Krämer (1988, 1992, 1993) das ethische Grundproblem, das der Computer erzeugt, herausgearbeitet. Ihre These lautet: Mit der neuzeitlichen Wissensexplosion kommt ein Formalisierungsprozeß in Gang, der einen eigenständigen, nicht mehr lebensweltlich rückgebundenen und d.h. verstehend auch nicht mehr zugänglichen Bereich geschaffen hat. Diese emergente Sphäre einer selbstreferentiellen Zeichenwelt, deren Strukturen allein durch das Möglichkeitsspektrum algorithmischer Codierung geprägt sind, schafft eine merkwürdig ethik-averse Zone. Kommt es nun im Zuge wissenschaftlicher Entwicklung zu einer breitgestreuten, alle Grenzen ignorierenden Anwendung informationstechnischer Produkte, so werden die jeweiligen Gegenstandsfelder regelrecht über-formt. Und dies führt letztlich dazu, dass in diesen Bereichen die Quellen ethischer Orientierungen und Begründungen, die den Umgang mit den technischen Apparaturen normativ kontrollieren könnten, versiegen.

Dreyfus und Winograd/Flores unterstellen – wie oben dargelegt – die Vorgängigkeit eines nicht-formalen Sinns, von dem die Formalisierung unbemerkt zehrt und von dem sie sich auch in seiner Verstellung niemals völlig abkoppeln kann. Daraus ergibt sich die vorsichtig optimistische Folgerung, dass die wirklichen Bedingungsverhältnisse aufgedeckt, falsche Konzepte von den Potenzialen und Wirkungen der Computertechnik ausgeräumt und Kriterien für einen angemessenen Einsatz des Rechners geliefert werden können. Alles weitere ist dann eine Frage des guten Willens der Betroffenen und Beteiligten.

Krämer geht zwar ebenfalls von einer grundsätzlichen Differenz formaler und nicht-formaler Sinn- und Repräsentationsbereiche aus, gibt aber die Annahme einer unaufhebbaren, wenngleich kaschierbaren Abhängigkeit der einen von der anderen Sphäre preis. Sie schreibt stattdessen dem nicht-formalen Bereich die Unfähigkeit zu, gegenüber formalisierenden Eingriffen resistent zu bleiben und seine originären Sinnstrukturen zu bewahren: Denn das „ethische Fundament“ der Moderne wird einer Revision unterzogen (1992, S. 340). Die informale Grammatik ethischer Abwägungen und Entscheidungsfindungen nimmt dadurch einen Schaden, der nicht zu reparieren, sondern allenfalls einzudämmen ist. In späteren Arbeiten hat Krämer diese Position argumentativ angereichert und sie mit einer Pointe versehen, die ihre Diagnose nur scheinbar abmildern: In den neunziger Jahren ändert sich mit der Etablierung des PCs und den ständig wachsenden Zahlen der Internet-Nutzer die Einstellung zum Computer. Er „fasziniert nicht mehr so nachhaltig als Instrument der Intelligenzverstärkung, sondern beschäftigt eher als Medium der Kommunikation“ (1998, S. 10).[46] Dies hat jedoch keine Einbindung des Computers in bereits bestehende Formen sozialer Interaktion zur Folge, sondern – im Gegenteil – die Produktion einer post-sozialen Sphäre, die nicht mehr den alten Regeln gehorcht. Der Index von Anonymität zum Beispiel, mit dem das Internet nach Wunsch und Bedarf der Akteure jede Kommunikation versieht, sorgt für eine eigentümliche Fiktionalisierung des Geschehens. „Von den moralischen, politischen, rechtlichen Verankerungen unserer ‚gewöhnlichen’ Kommunikation“ wird gerade abgesehen (1997, S. 96f.). Im „elektronischen Netz“ bildet sich eine Art der Interaktion, die nach herkömmlichem Verständnis eher dem „alltagsweltentlasteten ‚Spiel’“ als dem „alltagsverstärkenden ‚Ernst’ zugehörig ist“ (ebd., S. 98).

Die hier benutzte Unterscheidung von Spiel und Ernst ist ein theoretisches Provisorium. Für die neuartigen Verhältnisse fehlen offenkundig noch die ‚passenden’ Begriffe. Unverkennbar ist allerdings, dass die basalen „commitments“, von denen Winograd/Flores sprechen, durch den derzeit vorherrschenden Computereinsatz gekappt werden. Krämers Thesen lassen sich mit soziologischen Untersuchungsergebnissen stützen, die die Erosion der normativen Bestände in spätmodernen Gesellschaften konstatieren. An die Stelle von Wertbindungen und Normorientierungen treten nämlich zunehmend ‚normalistische’ Konzepte des Handelns und Erlebens, bei deren Aufbau die neuen Medien eine kaum zu überschätzende Rolle spielen (vgl. Ellrich 2001). Derartige Befunde muss eine Philosophie des Computers, die einen Beitrag zur politischen Philosophie leisten möchte, sorgfältig studieren. Die aktuellen Prozesse der Globalisierung, die vorhandenen technischen Möglichkeiten der Kontrolle und Überwachung, die sich abzeichnenden Formen des ‚Cyberkrieges’, die merkliche Umstrukturierung der demokratischen Öffentlichkeit, die gravierenden Änderungen auf dem Arbeitsmarkt – all dies und mehr lässt sich philosophisch gehaltvoll nur dann thematisieren, wenn zuvor geklärt ist, welch tiefgreifenden Einfluss die Computertechnik auf den sog. ‚moral point of view’ der modernen Menschen nimmt. Ein solches Unterfangen wird auch haarsträubende Ideen zur moralischen Qualität der Gattung in die Diskussion einbeziehen und auch (wie z.B. im Film Blade Runner vorgeführt) die Frage zulassen müssen, ob Roboter nicht am Ende die besseren Menschen sind. Peter Sloterdijk hat angesichts der Tatsache, dass die Evolution bisher nur wenige großzügige und gutartige Exemplare hervorbrachte, provokante und weithin diskutierte Überlegungen angestellt: Die erforderliche ‚Humanisierung’ der hinter ihren eigenen Ansprüchen deutlich zurückbleibenden Gattung könne nur geleistet werden, wenn wissenschaftliche und politische Eliten (unter philosophischer Anleitung) den Mut aufbringen, Projekte zur biologischen Züchtung moralisch hochwertiger Individuen einzuleiten. Vergleichbare Denkübungen ließen sich mit Blick auf den Computer durchführen. Ekkehard Martens hat das Problem auf den Punkt gebracht: „Die verantwortliche Anwendung von Computern könnte aus ethischen Gründen die Forderung nahe legen, dass der Mensch als fehlerhaftes, irrationales Subjekt möglichst ausgeschaltet werden sollte. Computerethik wäre im Interesse menschlichen Glücks Sache eines Ethik-Computers“ (Martens 1993, S. 144).[47]

 

IV. Fünf Aufgaben einer zukünftigen Medienphilosophie des Computers

 

(1) Charakteristisch für die Philosophie ist ihr vordringliches Interesse an einer Klärung von Grundbegriffen. Die philosophische Arbeit am Begriff „Computer“ erfordert deshalb Auskünfte darüber, was mit Computation oder Berechnung gemeint sein könnte. Ob Denken, Fühlen, Wollen etc. etwas mit Berechnung im Sinne der Turing-Church-These oder mit den Formen der verteilten Berechnung zu tun haben, ist eine weitere Frage, die ihren Reiz (trotz vieler enttäuschender Studien zum Thema) sobald nicht verlieren wird. Wünschenswert wäre neben solchen Beiträgen aber auch ein kritischer Kommentar zur gängigen (und auch von mir strapazierten) Rede von ‚dem’ Computer. Dass es ein Kompaktphänomen, welches so genannt werden könnte, im strengen Sinne nicht gibt, ist etlichen Sprechern/Hörern durchaus bewusst; gleichwohl verwenden sie gewöhnlich diesen Ausdruck, der eine Einheit des bezeichneten Objekts suggeriert, die sich bei genauerer Analyse der technischen Gegebenheiten und der vielfältigen Gebrauchsweisen auflöst. Der Rekurs auf die Turing-Maschine als ‚Urform’ des Computers stiftet in diesem Zusammenhang mehr Verwirrung als Einsicht. Wer unbedacht von ‚dem’ Computer spricht, operiert mit einer metaphorischen Verdichtung, die zumeist praktisch, doch nicht immer erhellend ist. Hier könnte die Philosophie einen Beitrag zur Suche nach geeigneten Sprechweisen leisten.

(2) Man findet – wie bereits dargelegt – auf dem Feld der Computerphilosophie einerseits Aussagen über das Medium Computer und andererseits Argumente, in denen eine bestimmte Definition des Computers als Modell des Geistes, des Lebens, der Erkenntnis etc. fungiert. Diese beiden Sichten sind nun dringend durch eine dritte zu ergänzen, nämlich eine Art philosophischer Performance von Einsichten, die sich nur dann ergeben, wenn ‚der’ Computer nicht als Gegenstand oder als lehrreiches Beispiel, sondern selbst als Medium der Reflexion verstanden wird.[48] Bei diesem Unterfangen ist allerdings der Weg zu meiden, den Vilém Flusser einschlägt. Für ihn sind „numerisierte Bilder auf Computerschirmen“ das zeitgemäße Medium des Denkens: „Man kann und soll nicht weiter in Worten philosophieren, wenn es jetzt einen Code gibt, der bildlich darstellt, wofür Worte nicht mehr kompetent sind“ (1998, S. 190). Flussers paradoxe Anstrengung, den Verzicht auf Worte mit Worten zu begründen und die referenzlosen Bilder des Computers zu feiern, ist nicht überzeugend. Wesentlich ergiebiger wäre es, die Computertechnik als Medium zu fassen, das die Differenz von Schrift und Bild relativiert und neue hybride Darstellungs- und Ausdrucksweisen entstehen lässt.

(3) Die Philosophie muss – auch darauf wurde schon hingewiesen – einen ausreichend komplexen Begriff des erstaunlichen Phänomens Computer entwerfen. Dies setzt voraus, dass man stärker als bisher den Zusammenhang von zwei Aspekten analysiert, welche auf den ersten Blick kaum gegensätzlicher sein könnten. Die Computertechnik fasziniert sowohl durch die ungeheuren Mittel zur Steuerung und Kontrolle, die sie bereitstellt, als auch durch die permanente Erfahrung von „Unkontrollierbarkeit“ und „Unvorhersehbarkeit“ (Esposito 2003, S. 29), der sie Gestalt verleiht. Möglicherweise bahnt sich bei der noch ausstehenden Analyse der widersprüchlichen Konstellation ein Revival dialektischer Denkfiguren an.

(4) Die gesellschaftliche Bedeutung ‚des’ Computers lässt sich im Rahmen einer Medienphilosophie nur bestimmen, wenn dieses neue Projekt einerseits technik- und kulturphilosophische Überlegungen zusammenführt und andererseits die Frage nach der  ‚Pathologie des Sozialen’ nicht aus den Augen verliert. Um das zu erreichen, sind interdisziplinäre Diagnosen nötig. Ob eine fächerübergreifende Forschung und Verständigung gelingt, hängt von zahlreichen Faktoren ab. Ein erster Schritt besteht wohl darin, den methodisch begrenzten Versuch von Dreyfus und Winograd/Flores mit alternativen Ansätzen fortzuführen. Die Medienphilosophie sollte hierzu ohne Scheu Anregungen aus den Reihen der technischen Experten aufgreifen. Dass solche Impulse schon vorliegen, sei durch ein Zitat belegt, das ich einem Text des Informatikers Jörg Pflüger entnehme: „In der maschinellen Nachbildung einer sich evolutiv organisierenden Wissensform wird die Informatik zum Vorbild für einen generalisierbaren Zugang zur Welt. Die Computertechnologie stellt so für den Menschen eine äußere Repräsentanz dar, an der sich sein Weltbild festhalten und sein Menschenbild ausformen kann. Sie garantiert gleichermaßen seiner Weltdeutung eine gewisse Zuverlässigkeit und verleiht seiner Selbstdeutung Außenstabilität“ (1992, S. 393). Diese These eines philosophierenden Computerfachmanns macht schlagartig klar, welchem Erklärungsanspruch eine professionelle Medienphilosophie, die sie sich der Computertechnik zuwendet, genügen muss.

(5) Alle bisher genannten Aufgaben sind gewissermaßen Vorübungen für die entscheidende Leistung, die die Medienphilosophie des Computers zu erbringen sucht. Es geht letztlich um die Frage, ob es sinnvoll ist, neben der mimisch-gestischen, oral-auditiven, literalen bzw. chirografischen und typografischen auch von einer telematischen Prägnanz[49] zu sprechen, die maßgeblich durch das aktuelle Leitmedium Computer bestimmt wird. Wie aber lässt sich zeigen, dass es ‚eigenartige’ Denk- und Handlungsweisen, Einstellungsmuster und Weltsichten gibt, die der Umgang mit dem Computer fordert und fördert? Für viele Autoren sind die umwälzenden Effekte des neuen Mediums bereits eine ausgemachte Sache. Immer wieder wird z.B. behauptet, dass die Computertechnik, sobald sie ausgiebig zum Einsatz kommt, bei professionellen Akteuren ebenso wie bei Gelegenheitsnutzern den Sinn für die unhintergehbare Kontingenz ihrer Unterscheidungen und Entscheidungen schärft. Diese auf den ersten Blick recht plausible These lässt sich nun allerdings auf gegensätzliche Weisen ausbuchstabieren: Einmal läuft sie auf die Vermutung heraus, dass die reizvollsten Anwendungen des Computers den „grundsätzlich konstruktivistischen Charakter von Wirklichkeit, die Interpretativität all unserer Wirklichkeitsauffassungen zu Bewusstsein bring(en)“ (Welsch 1998, S. 241), zum anderen mündet sie in die (von Kittler und Bolz propagierte) Vorstellung ein, dass der Computer „Klartexte“ hervorbringt, die immer auch anders ausfallen können und sich trotzdem ohne deutende Anstrengung entziffern lassen. Neben solch radikalen Ansichten hat eine weitere starke These, die oben bereits erwähnt wurde, große Beachtung gefunden. Schenkt man ihr Glauben, so führt der Computereinsatz zur Ausbreitung jener dekonstruktiven und rhizomatischen Denk- und Schreibweisen, die Derrida und Deleuze vorexerzierten. Die digitale Technik, die letztlich auf der Differenz ‚Strom ein’/‚Strom aus’ beruht, erzeuge, so heißt es, hybride Gebilde und untergrabe traditionelle binäre Schemata wie wahr/falsch, wirklich/scheinhaft, authentisch/simuliert, poetisch/wissenschaftlich, buchstäblich/metaphorisch, weiblich/männlich etc.

Um den Erkenntniswert dieser und ähnlich gelagerter Aussagen, die sich teils überschneiden, teils widersprechen, beurteilen zu können, darf die Medienphilosophie nicht bloß den Wandel der philosophischen Paradigmen und Moden (seit der Einführung des Computers) als Indikator in Betracht ziehen, sie muss auch die Ergebnisse der empirischen Sozialforschung berücksichtigen. Erst die eingehende Untersuchung von Personen, die sich intensiv und andauernd mit dem Computer beschäftigen, liefert das nötige Basiswissen über die prägende Kraft des neuen Mediums. Zwingende Beweise für bestimmte Annahmen sind freilich auch hier nicht zu erwarten; denn das in qualitativen und quantitativen Studien erhobene Datenmaterial wird (trivialerweise) von den eingesetzten Forschungsmethoden beeinflusst und unterliegt den Auslegungen der Beobachter und Interviewer. Aber man erhält zumindest signifikante Angaben darüber, welche Theorien nur aufregende (z.B. Angst schürende oder Hoffnungen weckende) Spekulationen anzubieten haben und welche Überlegungen einigermaßen zu den empirischen Befunden ‚passen’. Aus den Selbstbeschreibungen der Computerprofis können – so lautet meine These – Schlüsse gezogen werden, die wertvolle Erkenntnisse über die (bereits vorhandene und zukünftig wohl noch deutlicher hervortretende) mediale Prägnanz des Computers stiften. Ich möchte daher vorschlagen, dass die medienphilosophische Reflexion der bislang avanciertesten Kommunikations- und Simulationstechnologie sich an einigen interessanten Befunden der qualitativen Sozialforschung orientiert[50]:

Die Computerprofis besitzen einen durchaus ‚postmodernen’ Sinn für offene Situationen, pflegen eine relativistische Haltung gegenüber Normen und Werten und verstehen den Computer als eine Technologie, die Sphären des Spiels, der Variation, der Unbestimmtheit zugänglich macht. Zugleich aber (und das wird in den gängigen Darstellungen ignoriert) betonen sie, dass diese affirmative Haltung zur Kontingenz nur ein vorübergehender Zustand ist, der sich gerade mithilfe des Computers überwinden lässt. Offenbar ermöglicht das Medium Computer durch sein Virtualisierungspotential eine Sicht auf Realität, die die Subjekte dazu bewegt, prinzipiell alle eingespielten Denk- und Verhaltensmuster zur Disposition zu stellen. Es gewährt ihnen jedoch auch die Gewissheit, dass in nicht allzu ferner Zukunft eine neue verbindliche Ordnung entstehen wird. Die Computertechnik scheint also ein Denken zu fördern, dass die kurzfristige Hingabe an das Unbestimmte mit der Erwartung einer baldigen Epiphanie des Eigentlichen verknüpft.

Wenn man zu ergründen versucht, wie es zu dieser widersprüchlichen Einstellung kommen kann, stößt man auf eine eigentümliche Konstellation. Auffallend und überraschend ist, dass die Computerprofis den provisorischen Zustand begrüßen und affirmieren, dessen Überwindung sie gleichzeitig prophezeien und herbeisehnen. Kontingenz löst bei ihnen (wie sie zugeben) im Grunde Unbehagen aus und wird doch ganz gelassen hingenommen. Woher stammt diese Sicherheit, dieser Mangel an Nervosität? Auf der Basis meiner Untersuchungen möchte ich hier eine bündige Antwort geben: Nicht weil sie durch ihre Computerpraxis lernen, die plötzlich errungene Freiheit von subjektiver Identität zu genießen und sich als multiple Persönlichkeiten zu entfalten, sondern weil sie eine neue, verblüffend feste Identität finden, sind die Profis, die ich befragt habe, so aufreizend entspannt und ertragen geduldig die instabilen Verhältnisse, die sie eigentlich gar nicht schätzen. Im Umgang mit dem Computer entsteht nämlich eine Ich-Einheit, die hinreichend tragfähig ist, um die Erfahrung mit zunehmender sozialer Unverbindlichkeit produktiv zu verarbeiten. Das Fundament der neuen subjektiven Identität – und das ist entscheidend – wird durch die Kopplung von Körper und Computer gelegt, ohne dass die Hilfsmittel des Cybergeschirrs ins Spiel kommen müssen. Es setzt sich gerade nicht aus Erlebnissen zusammen, die die Akteure mit einem mentalistischen Vokabular beschreiben, sondern bildet sich im direkten Kontakt mit dem Rechner und seinen diversen Zuständen, die gleichsam erspürt werden. Der Computer ist für den Personenkreis, der sich ihm bei aller virtuosen Handhabung auch immer ausliefert, weniger eine „Geistmaschine“ (Schachtner 1993), als vielmehr ein Motor des leiblichen Bei-sich-Seins. Hier liegt seine identitätsstiftende Kraft. – Eine Medienphilosophie, die das ignoriert, dürfte zum Verständnis der erstaunlichen Beziehung zwischen Mensch und programmierbarer Universalmaschine nur geringe Beiträge liefern können.

Literaturverzeichnis:

 

AG-Text-Code (1992), „Graphematik oder: Die nächsten Schritte in der Evolution der Schrift“ (http://www.uni-ulm.de/uni/intgruppen/memosys/lp106.html).

Baecker, Dirk (2002), Wozu Systeme?, Berlin: Kadmos.

Becker, Barbara (1992): Künstliche Intelligenz, Frankfurt/New York: Campus.

Becker, Barbara (2000): „Cyborgs, Robots und ‚Transhumanisten’“, in: Dies./Schneider, Irmela (Hg.), Was vom Körper übrig bleibt, Frankfurt/New York: Campus, S. 41-69.

Becker, Barbara (2003): „Philosophie und Medienwissenschaft im Dialog“, in: Münker, Stefan/Roesler, Alexander/Sandbothe, Mike (Hg.), Medienphilosophie, Frankfurt a.M.: Fischer, S. 91-106.

Bense, Max (2002), „Kybernetik oder Die Metaphysik einer Maschine“ (zuerst 1951), in: Engell, Lorenz (Hg.): Kursbuch Medienkultur, Düsseldorf: DVA, S. 472-483.

Block, Ned (1980), „Troubles with Functionalism“ (zuerst 1975), in: ders. (Hg.), Readings in Philosophy of Psychology, Bd. 1, Cambridge, Mass.: Harvard Univ. Press, S. 429-440.

Boden, Margaret, A. (Hg.) (1996), The Philosophy of Artificial Life, New York: Oxford Univ. Press.

Bolz, Norbert (1993a), Das Ende der Gutenberg-Galaxis, München: Fink.

Bolz, Norbert (1993b), „Der Computer als Medium“, in: ders. u.a. (Hg), Computer als Medium, München: Fink, S. 9-17.

Bush, Vannevar (1945), „As we may think“, in: The Atlantic Monthly, July, S. 101-108 (Nachdruck in Goldberg, Adele (1986) (Hg.), A History of Personal Workstation, New York: ACM Press).

Capurro Rafael (1995), Leben im Informationszeitalter, Berlin: Akademie Verlag.

Chapman, David (1991), Vision, Instruction, and Action, Cambridge, Mass: MIT Press.

Coy, Wolfgang (1993), „Aus der Vorgeschichte des Mediums Computer“, in: Bolz, Norbert u.a. (Hg.), Computer als Medium, München: Fink, S. 19-37.

Coy, Wolfgang (1994), Computer als Medium (Forschungsbericht des Studiengangs Informatik 3), Bremen: Universitätsdruck.

Deleuze, Gilles/Felix Guattari (1972), Anti-Ödipus (orig 1972), Frankfurt a.M.: Suhrkamp.

Dennett, Daniel C. (1980), „The milk of human intentionality“, in: The Behavioral Brain Sciences 3, S. 428-430.

Dennett, Daniel C. (1991), Consciousness explained, Boston/Toronto/London: Little, Brown.

Dennett, Daniel C. (1999), Spielarten des Geistes (orig. 1996), München: Bertelsmann.

Derrida, Jacques (1974), Grammatologie (orig. 1967), Frankfurt a.M.: Suhrkamp.

Dreyfus, Hubert L. (1982) (Hg.), Husserl, intentionality and cognitive science, Cambridge, Mass.: MIT Press.

Dreyfus, Hubert L. (1985), Die Grenzen der künstlichen Intelligenz. Was Computer nicht können (orig. 1972, erw. Fassung 1979), Königstein/Ts.: athenäum.

Dreyfus, Hubert L./ Dreyfus, Stuart E. (1986), Mind over Machine, New York: The Free Press.

Dreyfus, Hubert (1993), „Was Computer immer noch nicht können“ (orig. 1992), in: Deutsche Zeitschrift für Philosophie, 4, S. 653-680.

Dreyfus, Hubert (1994), „Den Geist konstruieren vs. das Gehirn modellieren – die KI kehrt zu einem Scheideweg zurück“, in: Cyranek, Günther/Coy, Wolfgang (Hg.), Die maschinelle Kunst des Denkens, Braunschweig/Wiesbaden: Vieweg, S. 215-230.

Ellrich, Lutz (1997a), „Neues über das ‚neue Medium’ Computer“, in: Technik und Gesellschaft 9, Frankfurt/New York: Campus, S. 195-223.

Ellrich, Lutz (1997b), „Textkrisen und Medienerlösungen“, in: Graevenitz, Gerhart von (Hg.), Konzepte der Moderne, Stuttgart: Metzler, S. 440-461.

Ellrich, Lutz (1999), „Zwischen virtueller und wirklicher Realität“, in: Honegger, Claudia u.a. (Hg.), Grenzenlose Gesellschaft, Opladen: Leske + Budrich, S. 397-411.

Ellrich, Lutz (2000), „Der verworfene Computer“, in: Becker, Barbara/Schneider, Irmela (Hg.), Was vom Körper übrig bleibt, Frankfurt/New York: Campus, S. 71-101.

Ellrich, Lutz (2001), „Medialer Normalismus“, in: Allmendinger, Jutta (Hg.), Gute Gesellschaft?, Opladen: Leske+Budrich, S. 372-398.

Ellrich, Lutz (2002a), „Tricks in der Matrix“, in: Schneider, Irmela/Liebrand, Claudia (Hg.), Medien in Medien, Köln: DuMont, S. 251-275.

Ellrich, Lutz (2002b), „Die Realität virtueller Räume“, in: Maresch, Rudolf/Werber, Nils (Hg.), Raum – Wissen – Macht, Frankfurt a.M.: Suhrkamp, S. 92-113.

Ellrich, Lutz (2003a), „Cyberzeit“, in: Funken, Christiane/Löw, Martina (Hg.), Raum – Zeit – Medien, Opladen: Leske + Budrich (im Druck).

Ellrich, Lutz (2003b), „Die unsichtbaren Dritten. Eliten-Latenz und neue Medien“, in: Hitzler, Ronald (Hg.), Elitenmacht, Opladen: Leske + Budrich (im Druck).

Esposito, Elena (2003), „Blindheit der Medien und Blindheit der Philosophie“, in: Münker, Stefan/Roesler, Alexander/Sandbothe, Mike (Hg.), Medienphilosophie, Frankfurt a.M.: Fischer, S. 26-33.

Flusser, Vilém (1996), Ins Universum der technischen Bilder, Göttingen: European Photography.

Flusser, Vilém (1998), Vom Subjekt zum Projekt, Frankfurt a.M.: Fischer.

Fodor, Jerry A. (1975), The Language of Thought, New York: Cambridge, Mass.: Harvard Univ. Press.

Foerster, Heinz von (1982), Observing Systems, Seaside: Intersystems Publications.

Foerster, Heinz von (1993), KybernEthik, Berlin: Merve.

Gehlen, Arnold (1957), Die Seele im technischen Zeitalter, Reinbek: Rowohlt.

Gehlen, Arnold (1961), „Die Technik in der Sichtweise der Anthropologie“ (zuerst 1953), in: ders., Anthropologische Forschung, Reinbek: Rowohlt, S. 93-105.

Grim, Patrick (1999), The Philosophical Computer, Cambridge, Mass.: MIT Press.

Grush, Rick/Smith Churchland, Patricia (1997), “Lücken im Penrose-Parkett”, in: Metzinger, Thomas (Hg.), Bewußtsein. Beiträge zur Gegenwartsphilosophie, Paderborn: Schöning, S. 221-250.

Günther, Gotthard (1963), Das Bewußtsein der Maschinen. Eine Metaphysik der Kybernetik (1. Aufl. mit geringerem Umfang 1957) Krefeld und Baden-Baden: Agis.

Hartmann, Frank (2000), Medienphilosophie, München: UTB.

Havelock, Eric E. (1963), Preface to Plato, Cambridge, Mass.: Belknap.

Heidegger, Martin (1989), Überlieferte Sprache und technische Sprache (zuerst 1962), hg. von Hermann Heidegger, St. Gallen: Erker.

Heim, Michael (1987), Electric Language: A Philosophical Study of Word Processing, New Haven: Yale University Press.

Heim, Michael (1993), The Metaphysics of Virtual Reality, Oxford: University Press.

Heintz, Bettina (1993), Die Herrschaft der Regel, Frankfurt/New York: Campus.

Husserl, Edmund (1977), Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie (zuerst 1936), Hamburg: Meiner.

Kapp, Ernst (1877), Grundlinien einer Philosophie der Technik, Braunschweig: Westermann.

Koschorke, Albrecht (1997), „Platon, Schrift, Derrida“, in: Neumann, Gerhard (Hg.), Poststrukturalismus, Stuttgart: Metzler, S. 40-58.

Krämer, Sybille (1988), Symbolische Maschinen, Darmstadt: Wiss. Buchgesellschaft.

Krämer, Sybille (1992), „Symbolische Maschinen, Computer und der Verlust des Ethischen im geistigen Tun“, in: Coy, Wolfgang u.a. (Hg.), Sichtweisen der Informatik, Braunschweig/Wiesbaden, S. 335-341.

Krämer, Sybille (1993), „Operative Schriften des Geistes“, in: Schefe, Peter u.a. (Hg.): Informatik und Philosophie, Mannheim/Leipzig/Wien/Zürich: BI-Wissenschaftsverlag, S. 69-83.

Krämer, Sybille (1997), „Vom Mythos der ‚Künstlichen Intelligenz’ zum Mythos der ‚künstlichen Kommunikation“, in: Münker, Stefan/Roesler, Alexander (Hg.), Mythos Internet, Frankfurt a.M.: Suhrkamp, S. 83-107.

Krämer, Sybille (1998), „Was haben die Medien, der Computer und die Realität gemeinsamß“, in: dies. (Hg.): Medien, Computer, Realität, Frankfurt a.M.: Suhrkamp, S. 9-26.

Künzel, Werner/Bexte, Peter (1993), Allwissen und Absturz, Frankfurt a.M.: Insel.

Lacan, Jacques (1973), Schriften I, Olten: Walter.

Lacan, Jacques (1975), Schriften II, Olten: Walter.

Lacan, Jacques (1980), Das Ich in der Theorie Freuds und in der Technik der Psychoanalyse (Seminar II, 1954-1955), Olten: Walter.

Latour, Bruno (1998), Wir sind nie modern gewesen. Versuch einer symmetrischen Anthropologie (orig. 1991), Frankfurt a.M.: Fischer.

Leidlmair, Karl (1990), Künstliche Intelligenz und Heidegger, München: Fink.

Lenk, Hans (1994), „Chancen und Probleme der Mikroelektronik“, in: Ders., Macht und Machbarkeit der Technik, Stuttgart: Reclam, S. 46-65.

Lévy, Pierre (1994), „Die Erfindung des Computers“ (orig. 1989), in: Serres, Michael (Hg.), Elemente einer Geschichte der Wissenschaft, Frankfurt a.M.: Suhrkamp, S. 905-944.

Lévy, Pierre (1997), Die kollektive Intelligenz (orig. 1990), Mannheim: Bollmann.

Licklider, J.C.R./Taylor, Robert W. (1968), „The Computer as a Communication Device“, Science and Technology, 4, S. 21-41.

Licklider, J.C.R (1960), „Man-Computer-Symbiosis“, in: IRE Transactions of Human Factors in Electronic, March, S. 4-11.

List, Elisabeth (2001), „Kybernetischer Platonismus“, in: dies., Grenzen der Verfügbarkeit, Wien: Passagen, S. 143-159.

Luhmann, Niklas (2000), Organisation und Entscheidung, Opladen: Westdeutscher Verlag.

McCulloch, Warren/Pitts, Walter (1943), „A logical calculus of the ideas immanent in nervous activity“, Bull. Math. Biophys, 5, S. 115-133.

McLuhan, Marshall (1968), Die magischen Kanäle (orig. 1964), Düsseldorf/Wien.

Mainzer, Klaus (1994), Computer – Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie, Berlin/New York: Walter de Gruyter.

Mainzer, Klaus (2003), KI – Künstliche Intelligenz, Darmstadt: Wiss. Buchgesellschaft

Margreiter, Reinhard (2003a), „Medien/Philosophie: ein Kippbild“, in: Münker, Stefan/Roesler, Alexander/Sandbothe, Mike (Hg.), Medienphilosophie, Frankfurt a.M.: Fischer, S. 150-171.

Margreiter, Reinhard (2003b), ..., in: Sandbothe, Mike (Hg.), Systematische Medienphilosophie, Berlin: Akademie Verlag.

Martens, Ekkehard (1993), Computerethik, in: Schefe, Peter u.a. (Hg.): Informatik und Philosophie, Mannheim/Leipzig/Wien/Zürich: BI-Wissenschaftsverlag, S. 141-154.

Menke, Christoph (2002), „Können und Glauben“, in: Kern, Andrea/ders. (Hg.), Philosophie der Dekonstruktion, Frankfurt a.M.: Suhrkamp, S. 243-263.

Meyer-Drawe, Käte (1993), „Ob Computer denken können?, in: Deutsche Zeitschrift für Philosophie, 4, S. 681-691.

Minsky, Marvin (1990), Mentopolis (orig. 1985), Stuttgart: Klett-Cotta.

Minsky, Marvin (1994), “Künstliche Intelligenz ist Evolution – jenseits des Konnektivismus”, in: Cyranek, Günther/Coy, Wolfgang (Hg.), Die maschinelle Kunst des Denkens, Braunschweig/Wiesbaden: Vieweg, S. 231-242.

Moravec, Hans (1990), Mind Children (orig. 1988), Hamburg: Hoffmann & Campe.

Münker, Stefan/Roesler, Alexander/Sandbothe, Mike (Hg.) (2003), Medienphilosophie, Frankfurt a.M.: Fischer.

Münker, Stefan (2003), „Virtual Reality“, in: Sandbothe, Mike (Hg.), Systematische Medienphilosophie, Berlin: Akademie Verlag.

Pauen, Michael (2001), Grundprobleme der Philosophie des Geistes, Frankfurt a.M.: Fischer.

Penrose, Roger (1991), Computerdenken – Des Kaisers neue Kleider oder die Debatte um Künstliche Intelligenz, Bewußtsein und die Gesetze der Physik (orig. 1989), Heidelberg: Spektrum der Wissenschaften.

Perrow, Charles (1984), Normal Accidents. Living with High-Risk Technologies, New York: Basic Books.

Pflüger, Jörg (1992), „Gesetzlose Informatik“, in: Coy, Wolfgang u.a. (Hg.), Sichtweisen der Informatik, Braunschweig/Wiesbaden, S. 277-298.

Poster, Mark (2003) „Ethik im Informationszeitalter“, in: Sandbothe, Mike (Hg.), Systematische Medienphilosophie, Berlin: Akademie Verlag.

Putnam, Hilary (1975): Mind Language and Reality, Cambridge: University Press.

Putnam, Hilary (1991): Repräsentation und Realität (orig. 1988), Frankfurt a.M.: Suhrkamp.

Pylyshyn, Zenon W. (1984), Computation and Cognition, Cambridge, Mass.: MIT Press.

Rheingold, Howard (1991), The Virtual Community, Reading, Mass.: Addison-Wesley.

Rumlhard, David E./McClelland (1986), Parallel Distributed Processing: Explorations in the Microstructures of Cognition, Cambridge, Mass: MIT Press.

Russel, Stuart/Norvig, Peter (2003²), Artificial Intelligence. A Modern Approach, Upper Saddle River, NJ.: Prentice Hall.

Sandbothe, Mile (2001), Pragmatische Medienphilosophie, Weilerswist: Velbrück.

Sandbothe, Mike (2003), „Filmphilosophie als Medienphilosophie“, in: Nagl, Ludwig/Waniek, Eva/Mayr, Brigitte (Hg.), Film/Denken, Wien: Synema (im Druck).

Santaella, Lucia (1998), „Der Computer als semiotisches Medium“, in: Nöth, Winfried/Wenz, Karin (Hg.), Medientheorie und die digitalen Medien, Kassel: University Press, S.121-157.

Schachtner, Christel (1993), Geistmaschine, Frankfurt a.M.: Suhrkamp.

Schäfer, Erich (1994), Grenzen der Künstlichen Intelligenz, Stuttgart: Kohlhammer.

Schelhowe, Heidi (1997), Das Medium aus der Maschine, Frankfurt/New York: Campus.

Schefe, Peter (1999), „Softwaretechnik und Erkenntnistheorie“, Informatik-Spektrum 22/2, S. 122-135.

Searle, John R. (1980), „Minds, brains, and programs”, in: The Behavioral and Brain Sciences 3, S. 417-457.

Searle, John R. (1990), “Ist das Gehirn ein Digitalcomputer” (orig. 1990), in: Schefe, Peter u.a. (Hg.): Informatik und Philosophie, Mannheim/Leipzig/Wien/Zürich: BI-Wissenschaftsverlag, S. 212-232.

Searle, John R. (1993), Die Wiederentdeckung des Geistes (orig. 1992), München: Artemis und Winkler.

Seel, Martin (1993), „Über Wahrheit und Richtigkeit. Erläuterungen zum Begriff der Welterschließung”, in: Deutsche Zeitschrift für Philosophie, Bd. 41, Heft 3, S. 509-524.

Tetens, Holm (1993), „Informatik und die Philosophie des Geistes“, in: Schefe, Peter u.a. (Hg.): Informatik und Philosophie, Mannheim/Leipzig/Wien/Zürich: BI-Wissenschaftsverlag, S. 175-193.

Tholen, Georg Christoph (1993), „Platzverweis. Unmögliche Zwischenspiele von Mensch und Maschine“, in: Bolz, Norbert u.a. (Hg), Computer als Medium, München: Fink, S. 111-135.

Tietel, Erhard (1995), Das Zwischending. Die Anthropomorphisierung und Personifizierung des Computers, Regensburg: S. Roderer.

Turing, Allan (1937), „On Computable Numbers, With an Application to the Entscheidungsproblem“, in: Proceedings of the London Mathematical Society, 42/43, S. 230-265, 544-546.

Turing, Allan (1950), „Computing Machinery and Intelligence“, in: Mind 59, S. 433-460.

Turkle, Sherry (1995), Life on the Screen, New York: Simon & Schuster.

Vogel, Matthias (2001), Medien der Vernunft. Eine Theorie des Geistes und der Rationalität auf Grundlage einer Theorie der Medien, Frankfurt a.M.: Suhrkamp.

Walitsch, Herwig (1998), „Computer“, in: Hiebel, Hans H. u.a. (Hg.), Die Medien, München: Fink, S. 227-253.

Weizenbaum, Joseph (1977), Die Macht der Computer und die Ohnmacht der Vernunft (orig. 1976), Frankfurt a.M.: Suhrkamp.

Weizenbaum, Joseph (1992), „Das Menschenbild der Künstlichen Intelligenz“, in: Fischer, Hans Rudi/Retzer, Arnold/Schweitzer, Jochen (Hg.), Das Ende der großen Entwürfe, Frankfurt a.M.: Suhrkamp, S.140-146.

Welsch, Wolfgang (1999), „Virtualisierung und Revalidierung“, in: Vattimo, Gianni/ ders. (Hg.), Medien-Welten Wirklichkeiten, München: Fink, S. 229-248.

Wiener, Norbert (1968), Kybernetik: Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine (orig. 1948), Düsseldorf: Econ.

Wiener, Norbert (1952), Mensch und Menschmaschine (orig. 1950), Frankfurt a.M.: Alfred Metzner.

Wiener, Oswald (1990), Probleme der Künstlichen Intelligenz, Berlin: Merve.

Winograd, Terry/Flores, Fernando (1989), Erkenntnis Maschinen Verstehen (orig. 1986), Berlin: Rotbuch Verlag.

Wittwer, Alexander (2001), Verwirklichungen. Eine Kritik der Medientheorie. Freiburg: Rombach.

Zemanek, Heinz (1996), „Computer, Geschichte der“ (Lexikon-Artikel) in: Strube, Gerhard u.a. (Hg.), Wörterbuch Kognitionswissenschaft, Stuttgart: Klett-Cotta, S. 84-86.


[1] Mitunter ist sogar von einem computertechnisch geschaffenen „kosmischen Gehirn“ (Flusser 1996, S. 36) oder einem „kollektive[n] Gehirn“ (Levy 1997, S. 114) die Rede. Zur Kritik an der Vermenschlichung der Technik und speziell des Computers, die in der neueren Medientheorie z. B. von Flusser und Bolz vorgenommen wird, vgl. Tholen (1993). Solide empirische Befunde über die weitverbreitete Neigung zur „Anthropomorphisierung und Personifizierung des Computers“ liefert Tietel (1995).

[2] Vgl. hierzu die Darstellung der medialen Aspekte des Computer bei Ellrich (1997a, 195ff.) und Schelhowe (1997).

[3] Zur Kommunikation im Internet vgl. Poster (2003) und zur virtuelle Realität Münker (2003).

[4] Diese Bezeichnung verwendet Heinz Zemanek, weil es sich bei dieser Maschine, deren Existenz auf Anweisung der amerikanischen Regierung 30 Jahre geheim gehalten werden musste, um „keinen echten Rechner“ handelt (Zemanek 1996, S. 86). Nach Léviy (1994, S. 929) kann man die Colossus-Serie hingegen „als die ersten großen Elektronenrechner betrachten“. Hier zeigen sich interessante begriffliche Differenzen, die Informatiker und Wissenschaftshistoriker vornehmen.

[5] Zur Vorgeschichte des Computers, die ich hier vernachlässigen muss, vgl. Krämer (1988), Künzel/Bexte (1993), Coy (1993).

[6] Die zentrale Idee der Kybernetik, eine für biologische, soziale und technische Systeme gleichermaßen gültige Theorie der Strukturbildung und Selbststeuerung zu entwerfen, hatten bereits Warren McCulloch und Walter Pitts in ihrem Artikel „A Logical Calculus of the Ideas Immanent in Nervous Activity“ (1943) dargelegt. Dessen These lautet: Die Aktivität der Nervenzellen lässt sich durch die Boolsche Algebra darstellen.

[7] Zur Figur einer „kybernetischen Kränkung, die den Menschen zu einem Objekt unter anderen macht“ (Meyer-Drawe 1993, S. 683), vgl. auch Bolz (1993b, S. 9) und Baecker (2002, S. 39).

[8] Ein ähnlich positives Bild zeichnet die technische Utopie von Vannevar Bush (1945), der die Leistungen bestehender Analog-Computer ‚hochrechnet’ und in seiner Zukunftsvision das Supermedium ‚Memex’ (Memory Extender) entwirft. Auf der gleichen Linie argumentieren später Licklider/Taylor (1968) und Rheingold (1991).

[9] Dieser moralische Gestus löst sich auf, wenn man – wie Niklas Luhmann in einem seiner letzten (aus dem Nachlass herausgegebenen) Manuskripte – von der „kybernetischen Revolution der Systemtheorie“ spricht. Jetzt geht es nicht mehr um Gut und Böse, sondern nur noch um die Entscheidung, dass auf Strukturen und nicht auf Ereignisse zugerechnet wird (Luhmann 2000, S. 453).

[10] Wobei das kybernetische Begriffsarsenal auch die Aufgabe hat, „die falsche Beurteilung, der Naturwissenschaft und Naturwissenschaftler in der öffentlichen Meinung unterliegen“ (Wiener 1952, S. 195), zu korrigieren.

[11] Dem Ziel, eine mehrwertige Logik zu konstruieren, die Hegels Idee in einen anspruchsvollen Kalkül überführt, dienen Günthers Arbeiten an der sog. „Kenogrammatik“, welche allerdings nie zu einem lauffähigen Computerprogramm fortentwickelt werden konnten.

[12] Wie eine solche Beschreibung auszusehen hätte, ist immer noch umstritten. Vgl. die Kontroverse zwischen Dieter Henrich und Ernst Tugendhat über den vermeintlichen präreflexiven Status des Selbstbewusstseins. Günthers Arbeiten werden in diesen Debatten vollkommen ignoriert. Erst Niklas Luhmanns Systemtheorie, die auch eine Theorie des Bewusstseins umfasst, greift auf Analysen und begriffliche Angebote von Günther zurück.

[13] Dieser pejorative Begriff von ‚Berechnung’ lässt sich auf Edmund Husserls Überlegungen in der ‚Krisis-Schrift’ beziehen. Husserl hatte 1936 im Rückblick auf die wissenschaftliche Entwicklung in der Neuzeit eine überwältigende Mathematisierung der Erkenntnis diagnostiziert, in deren Verlauf die sog. Lebenswelt und damit der Eigensinn menschlicher Gemeinschaftspraktiken Schaden nimmt: Formalisierung und Mathematisierung erzeugen einen reduzierten Vernunftbegriff, untergraben die Dämme eines substanziellen Verständnisses von Rationalität und schaffen so letztlich Zonen der Sinnleere, in die irrationale Ideologien (wie z.B. Nationalismus und Faschismus) eindringen können. – Zu dieser Kritik an der abendländischen Mathematisierung steht freilich Husserls eigene Theorie der Erkenntnisbildung in einem merkwürdigen Missverhältnis. Wie Dreyfus u.a. (1982) zeigen, weist Husserls Analyse der Gegebenheitsweisen von Objekten, die zum Begriff „Noema“ führen, mit den basalen Annahmen der Kognitionswissenschaft und der KI signifikante Gemeinsamkeiten auf. Denn die Art der Regeln, denen die Noemata gehorchen, und ihre „Strukturtypik“, die Husserl „systematisch auszulegen“ versucht, passen zu den Konzepten der Symbolverarbeitung und -manipulation, die die Kognitionswissenschaft vertritt. Dreyfus war sich, wie er bekundet, zunächst nicht sicher, ob „die Noemata einer Formalisierung zugänglich sind“. In der zweiten, erweiterten Ausgabe (1979) seines Buches What Computer can’t do (1972), die der dt. Übers. zugrunde liegt, kommt er allerdings bereits zu dem Schluss, dass Husserl mit dem Noema-Konzept „eine formale symbolische Beschreibung stereotyper Gegenstände“ anstrebt (Dreyfus 1985, S. 364).

[14] Jacques Lacan, der in vieler Hinsicht an Heideggers Philosophie anschließt, hat ein ungebrochenes Verhältnis zur Kybernetik. Bereits 1953 fordert er, dass die Psychoanalyse „die wesentlichen Dimensionen ihres Erfahrungsbereichs adäquat formalisiert“ (1973, S. 131). 1955 hält er einen pointierten Vortrag über „Psychoanalyse und Kybernetik“ (1980, S. 337ff.) und 1957 vergleicht er die Struktur des Unbewussten (speziell die Wiederholungsautomatismen) mit den „modernen Denkapparaten (die auf einer elektronischen Realisierung der signifikanten Komposition basieren)“ (1975, S. 44). Beachtlich sind auch die mathematischen Modelle, mit denen Lacan in seinem programmatischen Text „La lettre volée“ von 1956/1957 jenen Mechanismus illustriert, den er als „die Insistenz der signifikanten Kette“ bezeichnet (1973, S. 9 und 46ff.). Gegen Lacans Konzept des Unbewussten, das wie eine Rechenmaschine funktioniert, setzen Gilles Deleuze und Felix Guattari (1972) ihren Begriff der Wunschmaschine, mit dem unbewusste Vorgänge bezeichnet werden, die sich durch keinen noch so komplexen Algorithmus modellieren lassen.

[15] Vgl. die Ausführliche Darstellung von Leidlmair (1990), ferner die Arbeiten von Heim (1987, 1993), in denen auf der Folie von Heideggers Technikphilosophie den Veränderungen der Sprache durch elektronische Textverarbeitungssysteme nachgespürt wird .

[16] Vgl. hierzu auch die abweichende Meinung von Eric E. Havelock (1963), der die Schrift und nicht die präsenzverbürgende Stimme als Leitfigur des griechischen Denkens identifiziert. Unter Einbeziehung dieser These hat Albrecht Koschorke (1997) auf die (von Derrida vernachlässigte) Figur der „Seeleninschrift“ bei Platon hingewiesen, die die Phonozentrismus-These entschieden relativiert.

[17] Vgl. hierzu genauer Turkle (1995, S. 14f.) und Ellrich (1997b, S. 443f.).

[18] Eine populär-philosophische Selbstauslegung der Kybernetik findet sich später auch in den Arbeiten Heinz von Foersters, der die Kybernetik 2. Ordnung (1982) propagiert und aus der mathematisch-technischen Unentscheidbarkeit bestimmter praxis-relevanter Fragen auf die Verantwortung der zur Entscheidung genötigten Akteure schließt (1993).

[19] Zum Prozess der Formalisierung siehe ausführlich Heintz (1993).

[20] Zur philosophischen Analyse der KI vgl. die kritische Bestandsaufnahme von Becker (1992) und die moderat affirmative Darstellung von Mainzer (1994, 2003). Auf die bekannten Arbeiten von Dreyfus, Searle, Winograd/Flores komme ich noch zu sprechen.

[21] Die These, dass Denken und Rechnen identisch sind, hat in der Philosophie eine ehrwürdige Tradition: sie ist von Descartes über Hobbes, Leibniz und La Mettrie bis hin zum frühen Wittgenstein vertreten worden.

[22] Ich lasse hier die Differenz zwischen Symbolen und reellen Zahlen, die für den Streit zwischen zwei Richtungen in der frühen KI-Forschung nicht unwichtig war (Newell, Simon, Minsky, Papert vs. Rosenblatt u.a.) beiseite (vgl. im Detail Dreyfus 1994).

[23] Dieser Test beschreibt die Bedingungen, unter denen der Maschine eine für menschlich Wesen kennzeichnende Intelligenz zugeschrieben werden kann, und wird oft zum Ausgangspunkt der KI erklärt (vgl. Mainzer 2003, S. 20).

[24] Sie sind versammelt in Putnam (1975, S. 325-451). Derrida hat erstaunlicherweise diese frühen Texte über die Lese- und Schreibweisen des maschinell operierenden Geistes nicht zur Kenntnis genommen.

[25] Vgl. Turing (1937). Es handelt sich bei der Turing-Maschine nicht um den Entwurf einer Computerarchitektur, sondern um die Klärung des Berechnungsbegriff mit Hilfe einer imaginären Maschine, die über eine endliche Zahl interner Zustände und ein unendliches externes Register verfügt. Fast gleichzeitig hat Alonzo Church seinen Lambda-Kalkül entwickelt, der mit anderen Methoden als Turings Modell zur selben Definition des Berechnungsbegriffes gelangt. Man spricht daher heute auch zumeist von der Church-Turing-These. Da Churchs Verfahren die Anschaulichkeit der Turing-Maschine (welche durch beliebig oft wiederholbares Hin- und Herrücken die Markierungen auf einem Endlosband liest, löscht und ggf. überschreibt) vermissen lässt, ist es unter mathematischen Laien nicht bekannt geworden. Das gilt auch für die Vertreter der Philosophie: Sie interessieren sich überdies für Turings Maschinen-Konzept, weil es die Unterscheidung zwischen internen und externen Eigenschaften trifft, also eine Unterscheidung, auf die die Differenz von Struktur und Funktion, Hardware und Software, Materie und Geist Bezug nehmen kann. Dass Turing gerade ein Maschinen-Modell konzipiert, ist Hilberts ‚zehntem Problem’ geschuldet, das auf die Frage herausläuft, ob „es ein allgemeines mechanisches Verfahren (gibt), das im Prinzip alle Probleme der Mathematik (die zu einer entsprechend wohldefinierten Klasse gehören) eines nach den anderen zu lösen vermag“ (Penrose 1991, S. 32).

[26] Searle und Penrose haben hingegen versucht zu zeigen, dass man prinzipielle Einwände gegen die Gleichsetzung von menschlichem Geist und Rechenmaschine erheben kann. Auch Putnams „Gehirne-im-Tank-Beispiel“ (1982, S. 21ff.) kann in diese Richtung gelesen werden.

[27] Searles ‚Intentionalismus’ impliziert hingegen die Behauptung, dass nur ganz bestimmte strukturelle Eigenschaften den logischen Zustand, den wir Geist nennen, hervorbringen können.

[28] Daniel C. Dennett hat die „Grundidee“ des Funktionalismus (vgl. hierzu auch Pauen 2001, S. 128ff.) mit einer im „Alltagsleben“ gängigen Annahme verglichen: „Nicht das, woraus er besteht, macht den Geist (oder eine Überzeugung, einen Schmerz, eine Angst) aus, sondern das, was er tun kann.“ Ergänzt man diese Sicht um die Vorstellung, dass „die Tätigkeit des Geistes darin besteht, Informationen zu verarbeiten“ und dadurch als „Steuerungssystem des Körpers“ zu fungieren, so erhält man zweifellos ein Bild von der Geist-Körper-Beziehung, das „dem Theoretiker das Leben einfacher“ macht. Freilich hat die schlichte „Konzeption“ der Funktionalisten den Nachteil, dass nun – wie Dennett eingestehen muss – „das Leben für die Theoretiker zu einfach wird“ (1999, S. 87f.).

[29] Nach Margreiter (2003a, S. 170) soll die „medientheoretische Fassung und Reformulierung einer ‚philosophy of mind’“ zeigen, dass „Symbolsysteme [...] sowohl eine bedeutungshafte wie eine sinnlich-materielle Seite“ haben. Über diesen trivialen Zwei-Seiten-Dualismus gelangen schon die alten Funktionalisten hinaus, indem sie anhand des Computers das gelungene ‚Interagieren’ beider Seiten beschreiben wollen.

[30] Siehe Fodor (1975), Block (1975, 1980) und die wohl pointierteste Darstellung des Konzepts bei Pylyshin (1984).

[31] Siehe die scharfsinnige und mitunter vernichtende Kritik dieser Autoren bei Wittwer (2001). Zur Philosophie der Medien generell vgl. Hartmann (2000), Vogel (2001), Sandbothe (2001) und Münker/Roesler/Sandbothe (2003).

[32] Oft wurden die Konzepte der neuronalen Netze gegen die Denkmodelle der traditionellen KI ausgespielt, weil sie deren (zumindest aus philosophischer Warte) problematischen Repräsentationsbegriff nicht mehr benötigen. Aber der Streit ist überholt. Beide ‚Verfahren’ haben Stärken und Schwächen und werden daher in den neueren Statements der einstmals ‚harten’ KI-Vertreter (vgl. etwa Minsky 1994) als kombinierbare Strategien angepriesen. Ohnehin sind auch die konnektionistischen Modellierungen der Idee verpflichtet, „daß der Digitalrechner auf die technische Objektivierung individueller Kognition ziele“ (Krämer 1997, S. 85). Selbst die neuen Ansätze der DAI oder VKI (verteilte künstliche Intelligenz) behalten das Programm bei und modifizieren nur den Gegenstand: Statt ‚Geist’ wird jetzt die soziale Interaktion (also die problemlösende Intelligenz der Gesellschaft) algorithmisch aufbereitet.

[33] Zur filmischen ‚Repräsentation’ der Computertechnik vgl. Ellrich (2002a); ferner Sandbothe (2003), der die philosophischen Fragen (nach den Kriterien für Wirklichkeit und menschliche Würde) diskutiert, die der Film aufwirft.

[34] Das Argument beruht auf folgendem Gedankenexperiment: Eine Person, die kein Chinesisch versteht, sitzt in einem abgeschlossenen Raum und erhält Kärtchen mit chinesischen Schriftzeichen hereingereicht, die sie mithilfe von englischsprachigen Anweisungen, die sich nur auf die Form der Symbole beziehen, derart manipuliert, dass Zeichenfolgen entstehen, die ein externer Beobachter als sinnvolle Antworten auf Fragen auffassen kann. Siehe dazu u.a. Searle (1980), Dennett (1980), Wiener (1990, S. 119ff.), Dennett (1991, S. 435f.), Putnam (1991, S. 64ff.), Penrose (1991, S. 16ff.), Heidlmair (1991, S. 44f.), Becker (1992, S. 216f.), Searle (1993), Tetens (1993, S. 186ff.), Schäfer (1994, S. 111ff), Mainzer (1994, S. 769ff.), Pauen (2001, S. 149ff.).

[35] Bei Turing imitiert die Maschine den Menschen und erhält das Prädikat intelligent, wenn ein Außenstehender sie vom Menschen nicht mehr zu unterscheiden vermag. Bei Searle hingegen wird ein Akteur beschrieben, der ein Computerprogramm imitiert. Und auch hier wird – wie oben bereits bemerkt – zu philosophischen Beweis- oder Argumentationszwecken ein äußerst simples Modell eines solchen Programms skizziert.

[36] Searle versucht zu zeigen, dass allein schon die Behauptung „Das Gehirn ist ein Digitalcomputer“ überhaupt „keinen klaren Sinn“ hat (1990, S. 232).

[37] Selbstverständlich ist diese Deutung der Gödeltheoreme nicht unbestritten geblieben. Tetens z.B. bemerkt trocken: „Mit keinem anderen mathematischen Satz wird philosophisch und auch sonst so viel Schindluder getrieben (1993, S. 177). Wandschneider distanziert sich im Vorwort zur deutschsprachigen Ausgabe von The Emperor’s New Mind ebenfalls ausdrücklich von der Gödel-Interpretation, die Penrose verficht (1991, S. XXI). Zur Kritik an Penrose vgl. ferner Wiener (1990, 180) und die geistreichen Überlegungen von Grush/Churchland (1999), die auch Turings eigene Einschätzung der Gödeltheoreme (ebd., S. 230) heranziehen.

[38] Der affirmative Tenor von Mainzers letztem Buch über die KI (2003) gründet in dieser paradoxen Figur der Be- und Entschränkung.

[39] Siehe hierzu u.a. seine Arbeiten von 1972, 1979, 1986, 1993 und 1994.

[40] Vgl. hierzu auch Weizenbaum (1975), dessen Kritik sich primär gegen die Illusionen der ‚harten’ KI richtet, ohne dabei eine ausgefeilte Sprach- und Erkenntnistheorie in Anspruch zu nehmen. Zur Kritik an Weizenbaum, der noch bestimmte Grundannahmen der von ihm attackierten Position teilt, Dreyfus (1985, S. 167f, 330ff.), Winograd/Flores (1989, S. 186).

[41] Ähnliche Argumente finden sich auch beim späten Wittgenstein und bei zahlreichen ‚postanalytischen’ Philosophen. Wie erhellend die Kombination von kontinentaler und anglo-amerikanischer Philosophie ist, zeigt Seel (1993) mit seiner Analyse des Begriffs der „Welterschließung“ bei Heidegger und Goodman. Aufschlussreich ist auch der Versuch, den Computer als Zeichen im Sinne von Peirce aufzufassen und so die gegensätzlichen Positionen von Newell/Simon und Winograd/Flores zu verknüpfen (vgl. Santaella 1998). Zur Rolle des Körpers, der im Rahmen einer Computer-Philosophie besondere Aufmerksamkeit verdient, siehe Ellrich (1997b, 2000), List (2001) und Becker (2000, 2003).

[42] Schefe (1999) setzt ähnliche Akzente. Er diagnostiziert „ein tiefgehendes erkenntnistheoretisches Mißverständnis über das Wesen von Software“ (S. 123) und versucht Strategien zu entwerfen, die ihrer „ontologischen Doppelnatur“ (S. 122) gerecht werden: „Software ist keine bloß mathematische Gegebenheit und kann daher auch nicht bloß mathematisch behandelt werden“ (S. 124). Die Aufgabe des Software-Entwicklers ist „eher der eines Ethnologen vergleichbar, der kulturelle Phänomene zu erfassen versucht, als der eines Naturwissenschaftlers, der Naturgesetze aufspürt. Die Aufgabe ist, Intentionen zu verstehen, Sinn zu erfassen“ (S. 123).

[43] Aus einer Perspektive, die sich von den hermeneutischen Argumenten nicht irritieren lässt, sieht die Sache anders aus. Norbert Bolz z.B. begrüßt die Wende ohne Einschränkung: Mit den neuronalen Netzen werde „der Schritt vom Geist zum Gehirn“, von „der Reinheit symbolischer Logik zur Empirie menschlicher Handware“ vollzogen (1993b, S. 14). Auch Dirk Baecker misst dem Übergang vom „Modell logischer Schlussfolgerung“ zum „Modell neuronaler Netze“ große Bedeutung bei. Er spricht von einem „paradigmatischen Wechsel von der Orientierung an Regeln zur Orientierung an Beispielen“. Jetzt können Roboter geschaffen werden, die sich „vom Dasein mechanischer Maschinen zum Dasein unruhiger Intelligenzen“ emanzipieren (Baecker 2000, S. 30). Die Menschen müssen sich also darauf einstellen, dass Hybride existieren, denen ggf. der Status sozialer Akteure (vgl. Latour 1998) gebührt. Man sollte den sog. Paradigmenwechsel (vgl. Anm. 32) jedoch nicht überschätzen: „Tatsächlich entwickelt sich die Computertechnologie an der Nahtstelle der beiden Paradigmen: Organisation und Selbstorganisation. Sie enthält Momente aus beidem und stellt derart eine Institution dar, die es erlaubt, beide zusammenzubringen. Einerseits repräsentiert der Computer, wie nichts zuvor, die Ideale der Berechenbarkeit, Kontrolle und Strategie. [...] Andererseits zeigt die Entwicklung dieser Technologie selbst das Scheitern dieser Ordnungsprinzipien an“ (Pflüger 1991, S. 289). Heute könnte man rückblickend sogar von vier Paradigmen bzw. Phasen der KI sprechen: Der heuristischen Suche (1956-1968), den wissensbasierten Systemen (1969-1979), der verteilten Berechnung bzw. der Neuroinformatik (ab 1986) und den Agentensystemen (ab 1995). Siehe hierzu die Darstellung bei Russell/Norvig (2003).

[44] Hermeneutisch inspirierte Informatiker plädieren daher für partizipative Software und den Einsatz kleiner, relativ überschaubarer Systeme, in denen die riskante Kombination aus hoher technischer Komplexität und dichter Kopplung der Elemente (vgl. Perrow 1984) vermieden wird.

[45] Ich beschränke mich hier auf wenige Punkte. Zu Details siehe den Aufsatz von Mark Poster in diesem Band.

[46] Siehe hierzu insbesondere Heidi Schelhowes Studie „zur Metamorphose des Computers“ (1996).

[47] Zur philosophischen Diskussion über Roboter und künstliches Leben (Artificial Life) vgl. Boden 1996.

[48] Patrick Grims vielversprechendes Buch Philosophical Computer (1999) leistet dies gerade nicht. Computer dienen hier bloß als Instrumente zur Veranschaulichung philosophischer Probleme.

[49] Vgl. zur Definition der einzelnen Begriffe Margreiter (2003b).

[50] Ich muss mich auf wenige Punkte konzentrieren, die an anderer Stelle ausführlicher dargelegt wurden (vgl. Ellrich 1999, 2000, 2001). Zum potentiellen Einfluss des Computers auf die Konzepte des Raums, der Zeit und der Macht vgl. Ellrich (2002b, 2003a, 2003b).


Letztes Update am 24.03.13