Alfred Lang | ||
Unpublished Manuscript for Journal Article, 1989 | ||
ERKENNTNIS UND PRAXIS DES MENSCH-COMPUTER-VERHÄLTNISSES | 1989.05 | |
60 / 72KB + 1 Abb. Last revised 98.11.05 | ||
Alfred Lang & Urs Fuhrer | © 1998 by Alfred Lang | |
Scientific and educational use permitted | ||
Home || |
Zusammenfassung
Der Computer ist für die Psychologen in zwei Hinsichten wichtig geworden. Einerseits ist die Psychologie zu einem Beitrag zur Optimalisierung seiner Instrumentalität als Datenverarbeitungswerkzeug aufgerufen. Anderseits hat sie sich seiner als Modell für den Menschen bemächtigt. Diese beiden Umgangsweisen mit dem Computer werden anhand einer globalen Literaturübersicht kritisch betrachtet und mit den Thesen konfrontiert, (a) der Computer sei nur im Verein mit dem ihn benutzenden Menschen überhaupt zu verstehen, und (b) die Computer-Metapher als Erklärungsmodell sei höchst bedenklich. Zur Erläuterung dieser Thesen werden Mensch und Computer in einigen ihrer typischen Merkmale aufgewiesen und verglichen. Ferner wird die "Schnittstelle" zwischen den beiden Teilen oder "Partnern" im kombinierten informationsverarbeitenden System hinsichtlich Stand und Lücken der psychologischen Forschung untersucht, dies auf den drei Ebenen der Ergonomie, der symbolisch-kognitiven Prozesse und der sozio-kulturellen Bedingungen und Folgen.
Abstract
The computer has become important for psychologists in two respects. Firstly, psychology is called up to contribute towards an optimalization of its instrumentality as a data processing device. Secondly, psychology has seized upon the computer as a model of man. On the basis of a global literature review, both of these types of intercourse with the computer are evaluated and confronted with the theses (a) that computers are bound to be misunderstood if separated from their bond with the user, and (b) that the computer-metapher for modeling man will prove to become a serious hazard. Both theses are illustrated by pointing out and comparing some typical characters of humans and computers. In addition the "interface" between the two parts of or "partners" within the combined information processing system is investigated on three levels, i.e. the ergonomic, the symbolic-cognitive, and the socio-cultural level, as to the state and needs of psychological research.
In den fünfziger Jahren verwendeten ein paar Spezialisten unhandliche Computer, seit den sechziger Jahren setzte man sie in Forschung, Militär und Industrie im grossen Massstab ein, mit den siebziger Jahren begann die Welt der persönlichen Computer. Damit wird der Computer, wie die Ethnologin Sherry Turkle (1984) meint, immer mehr zu einem zentralen "Akteur" unserer Kultur. Computer werden von Menschen gemacht und genutzt; es ist damit zu rechnen, dass Computer auch auf den Menschen nachhaltig zurückwirken. So ist auch die Psychologie aufgefordert, über das Verhältnis zwischen Mensch und Computer nachzudenken, empirische Grundlagen für ihre menschengerechte Konstrutkion und ihren humanen Einsatz zu erarbeiten und die damit verbundenen Möglichkeiten und Gefahren aufzuzeigen.
Computer lösen oft heftige Gefühle aus, und zwar auch bei Menschen, die nicht in unmittelbarem Kontakt mit ihnen stehen (Turkle, 1984, Volpert, 1985). Man spürt die Faszination von etwas Neuem und Spannendem. Aber man fürchtet die neuen Maschinen auch als etwas Mächtiges und Bedrohliches. Computer sind magische Dinge, kaum je neutral. Die individuellen Einstellungen zu diesem Objekt sind ausgesprochen ambivalent (vgl. Faulstich & Faulstich-Wieland, 1988). Sie wirken aktiv auf uns ein, sind "evokatorische Objekte" (Turkle, 1984), die uns gefangen nehmen, stimulieren, stören und verunsichern. Geistige Tätigkeiten oder jedenfalls Transformationen von Information in Zeichensystemen, bisher den Menschen vorbehalten, werden mehr und mehr von Maschinen übernommen, was das Bild vom Menschen direkt und nachhaltig tangiert. Der Computer verkörpert die Ordnung schlechthin, die in der Konsequenz das eigentlich Menschliche, was immer das sein mag, bedrohen könnte. An der "Schnittstelle" von Mensch und Computer müssten sich interessante Einsichten über das Zusammenspiel dieser beiden "Partner" gewinnen lassen. Will man sich mit der "Schnittstelle" zwischen zwei Systemen befassen, so liegt es nahe, sich zunächst den beiden Systemen je für sich zuzuwenden.
Mit "Computer" ist in diesem Beitrag die Konkretisierung einer Turing-Maschine im Sinne von John von Neumann gemeint. Wir wissen recht gut, was ein solcher Computer ist (z.B. Gerke, 1987), weil er ja von Menschen entworfen und gebaut wird. Solche Maschinen dienen dem Umgang mit Information in Zeichenform. Die zwei wesentlichen Merkmaledieser Computer sind: (a) die prinzipiell unbegrenzte Herstellbarkeit und Speicherbarkeit für Zeichen aus einem endlichen Alphabet und (b) die Möglichkeit der logischen Inbezugsetzung aller aus dem Alphabet konstruierten Zeichen mit allen konstruierbaren mittels Operationen.
Der heute übliche Digitalrechner wird dementsprechend als Prozess in Raum und Zeit realisiert: (1) Es wird eine endliche Zeichenmenge ausgewählt und im Binärsystem darstellbar gemacht; (2) in jedem Augenblick wird eine Auswahl (A) aus dieser Zeichenmenge in einem Speichermedium konkretisiert; (3) eine kleinste Auswahl aus A wird jeweils untereinander nach logischen Regeln so prozessiert, dass (4) die konkretisierte Zeichenmenge A zu A' verändert, erweitert oder reduziert werden kann. Charakteristisch dabei sind die TrennungvonSpeicherungundProzess, d.h. es handelt sich um eine äusserst stabile "Welt", von der nur immer ein ganz kleiner und eindeutig bestimmter Teil aufs Mal von Veränderung betroffen ist. Weiter werden Objektzeichen und Operatorzeichen aus der gleichen Zeichenmenge konkretisiert, sind aber dennoch in zwei Klassen geschieden, insofern die einen jene Transformationen erleiden, die ihnen von den anderen auferlegt werden. Schliesslich ist bedeutsam, dass es sich um einreinsyntaktischesSystem handelt, d.h. es bestehen Regeln dafür, wie Zeichen gebildet und transformiert werden, nicht jedoch, was die Zeichen bedeuten.
Wenn der Computer mehr sein soll als ein in sich geschlossenes Zeichensystem, muss man ihm deshalb eine Semantik beifügen. Das bedeutet, dass er eine Einrichtung erhalten muss, durch welche wenigstens einige seiner Zeichen Referenten bekommen und somit auf etwas ausserhalb seiner konkreten Zeichenmenge verweisen. Der Computer braucht also einen "semantischenPartner". Hier interessiert uns der Menschalsdirekter "semantischerPartner"desComputers. Der typische moderne Universal-Computer verfügt über eine Tastatur als primäre Input-Einrichtung sowie über Bildschirm oder Drucker als primäre Output-Einrichtung. Diese sind zusammen mit den zugehörigen Treiberprogrammen dazu gedacht, einem Menschen als Benutzer zu ermöglichen, wenigstens einen Teil der Zeichen semantisch zu lesen. (Grundsätzlich ist die Situation nicht anders, wenn Sensoren und Effektoren den Computer mit seiner Umgebung verbinden, bloss haben hier Menschen die Zuordnung von bestimmten Weltzuständen zu bestimmten Zeichen ein- für allemal festgelegt.) Damit sind wir von der Computerseite bei der uns interessierenden Mensch-Computer-"Schnittstelle" angelangt.
Schwieriger wird es sein zu sagen, was ein Mensch ist. Dieser ist - im Unterschied zum Computer - nach unserem wissenschaftlichen Verständnis nicht nach einem im voraus festgelegten, vom Menschen getrennt existierenden und damit einsehbaren Bauplan gemacht. Folglich ist es nicht möglich, ihn als Konkretisierung eines allgemeinen Prinzips zu verstehen. Hingegen kann man sehr wohl versuchen, sich auf induktivem Wege ein Bild zu machen, d.h. aus seinem manifesten Verhalten Prinzipien zu (re-)konstruieren, die dann - ähnlich, aber nicht gleich wie ein Bauplan - wesentliche Merkmale zusammenfassen. Man wird sich freilich auf kontroverse Prinzipien-Vorschläge einstellen müssen.
Sinnvoll ist allgemein, den Menschen als ein Regeln folgendes System zu verstehen und zwar ein System, das nicht nur in Raum und Zeit existiert, sondern sich in der Zeit auch wandelt. Aber was sind die Regeln? Wir können uns heute ein grobes Bild seiner Entstehung im Rahmen der kosmischen, biologischen und kulturellen Evolution machen. Wir wissen hingegen nichts Sicheres über seine Zukunft. Und wie bei aller induktiven Erkenntnis können wir nie sicher sein, dass unser Bild vollständig ist. Jederzeit können bisher unerkannt gebliebene Eigenschaften zum Vorschein kommen oder neue Eigenschaften überhaupt erst herausentwickelt werden, die eine Revision unseres Bildesfordern.
Die Bilder, die wir uns vom Menschen machen, sind in der Tat sehr vielfältig und unterschiedlich. Sie sind nämlich abhängig davon, welche der manifesten oder erschlossenen Eigenschaften man für zentral und welche man für akzidentell betrachtet. Ferner weckt Erkenntnis über Menschen stets ein Rekursionsproblem; denn über den Menschen gewonnene Erkenntnis besitzt ein Potential, gerade den Menschen zu ändern, indem er diese Erkenntnis zur Kenntnis nimmt und daraus Konsequenzen zieht, indem er entweder mehr oder weniger danach handelt oder sich ihr zu verweigern versucht. Der Computer ist ein besonders eindrückliches Beispiel rekursiver Tätigkeit des Menschen (Hofstadter, 1985).
Eine heute in weiten Teilen der Psychologie - und darüber hinaus - dominierende Auffassung des Menschen ist die eines informationsverarbeitendenSystems (z.B. Newell & Simon, 1972; Gerke, 1987). In der Tat ist nicht zu verkennen, dass wir mit den Sinnesteilsystemen Information über die Welt aufnehmen und auf dem Weg über Drüsen- und Muskeltätigkeiten Information an die umgebende Welt abgeben. Wichtig ist dabei auch die Vorstellung eines Speicherteilsystems (des Gedächtnisses) in welchem individuelle Erfahrungen inFormvonRepräsentanten niedergelegt und geordnet sind. Diese Repräsentanten wiederum können selektiv verwertet und laufend verändert werden, so dass die Verhaltenssteuerung durch mehr oder anderes als den unmittelbaren Input determiniert ist.
So gesehen hat das Individuum einen verblüffend ähnlichen Aufbau wie der Computer, oder besser, der Computer einen ähnlichen Aufbau wie der Mensch. Auch der Mensch ist als ein Zeichensystem beschreibbar, das in Raum und Zeit als ein Prozess realisiert wird, welcher syntaktischen Regeln folgt. Wir möchten hier nicht die sinnleere Frage aufwerfen, ob Mensch und Computer gleich oder verschieden sind (vgl. dazu u.a. Simon, 1979; Anderson, 1983; Weizenbaum, 1978; Dreyfuss & Dreyfuss, 1986), sondern bloss die erwähnte Gemeinsamkeit ein Stück weit verfolgen und vier interessante Unterschiede herausarbeiten.
3. Mensch und Computer: Parallelen und Differenzen
3.1. Individuen als semantische Systeme
Im Unterschied zum Computer ist im menschlichen Informationsverarbeitungssystem die Semantik eigentlich immer schon mit dabei. Die Zuordnungen von Zeichen und Referenten oder die Bedeutungen sind nicht beliebig und willkürlich wie im Computer, sondern jeder konkrete (z.B. neurophysiologisch oder biochemisch realisierte) Informationsträgerprozess "weiss" gewissermassen um die von ihm getragene Information, ist also, wie der Computerwissenschaftler sagen würde, für die getragene Information nicht transparent. Man spricht heute von informationsspezifischen "Kanälen" (z.B. Gibson, 1966); eine alte Formulierung der semantischen Gebundenheit ist das "Gesetz der spezifischen Sinnesenergie" von J. von Müller. Das hindert nicht, dass die Kanäle bezüglich der Information, die sie übertragen können, entwicklungsfähig sind und je nach ihrem Zustand die eintretende Information unterschiedlich wandeln und weitergeben. Demgegenüber ist im Computer alle qualitativ oder quantitativ unterschiedliche Information in völlig gleicher Weise - im Binärsystem oder ein-eindeutigen Transformationen davon - enkodiert.
3.2. Selbstaktive Speicherungs- und Verarbeitungsprozesse
Aehnlich bedeutsam wie der materiell-energetische Stoffwechsel für Organismen ist für Individuen der Informationsaustausch mit ihrer Umgebung. In beiden Fällen treten nicht nur Assimilationen derart auf, dass selektiv Teile oder Aspekte aus der Umgebung "hereingenommen" und in neuartiger Weise zusammengefügt werden, sondern es ist auch in beiden Fällen ein "Puffereffekt" zu beobachten, welcher das System ein Stück weit unabhängig von aktuellem Input von Stoff, Energie und Information, also von seiner Umgebung macht.
Dennoch ist die psychische Organisation ebensosehr auf Information angewiesen (um nicht zu sagen "süchtig") wie der Organismus auf Nahrung der passenden Art (z.B. Kempe, 1977). Denn es handelt sich beim Menschen um ein selbstaktives Informationsverarbeitungssystem. Gespeicherte Information wartet nicht, bis sie von Operatoren abgerufen wird, sondern sie macht sich immer wieder von sich aus geltend. Es wäre sogar angemessen zu sagen, dass die Inputfunktion nicht so sehr das "Material" für die Speicherung liefert, als dass sie die Eigentätigkeiten des Systems bloss moduliert. Demgegenüber ist der Computer nicht "süchtig", weder nach Energie noch nach Information.
3.3. Zugang zu gespeicherter Information: ortsadressiert vs. inhaltsadressiert
Noch weiss man überhaupt nicht, wie Information im menschlichen System enkodiert wird. Das ist vielleicht das allerwichtigste der offenen Welträtsel; es wird kaum im allgemeinen Denken als offene Frage wahrgenommen. Als sicher gilt, dass sie im wesentlichen auf Nerventätigkeit basiert. Über die Zuordnung zwischen Information und neuronalen Aktivitätsorten und Aktivitätsmustern in peripheren Subsystemen ist einiges bekannt; die Grundlage der Speicherung ist jedoch völlig ungewiss (vgl. Matthies, 1986). Dennoch können funktionelle Aussagen darüber gemacht werden, unter welchen Bedingungen welche Art von Informationsverarbeitungs-Leistungen möglich sind. Die (Kognitions-) Psychologie verfügt über einen grossen Schatz solcher Aussagen faktischer wie hypothetischer Art; sie haben sich allerdings bisher nicht auf eine einheitliche und anerkannte Ordnung bringen lassen. Von den Erkenntnissen, die uns unter den hier interessierenden Gesichtspunkten relevant scheinen, wollen wir eine Hypothese herausgreifen, die einen wichtigen Unterschied zwischen Informationsverarbeitung durch Menschen oder durch Computer auf ein Schlagwort bringt: Information sei im Computer ortsadressiert, im Menschen inhaltsadressiert.
Speicherung im Computer setzt eine finite Portionierung voraus, die Information wird gewissermassen in Kästchen abgelegt. Einem Speicherplatz im Computer (RAM- oder Diskadresse) ist "gleichgültig", was sein Inhalt ist. Das hat zur Folge, dass ein Inhalt für den Operator zum Abruf von Information verloren ist, wenn dieser ihre Adresse (den "Ort" des Kästchens) nicht verfügbar hat. In der psychischen Organisation hingegen scheinen die Informationen aufgrund der verschiedenen Affinitäten ihrer Inhalte und ihrer Formen zugänglich zu sein. Erfahrungen ähnlichen Inhalts bilden stets einen oder mehrere Komplexe, auf die später von den verschiedenartigsten Aspekten her wieder zugegriffen werden kann. Solches versucht man in von Neuman'schen Computer-Repräsentationen mittels Relationensystemen von Informationselementen zu modellieren (z.B. in Form von Propositionen, semantischer Netzwerke, kognitiver Schemata, u.ä.). Obwohl darüber seit einigen Jahren sehr viele Experimente und Theorien gemacht wurden (vgl. Mandl & Spada, 1988), wissen wir noch kaum, wie die Relationenbildung in der psychischen Organisation vor sich geht. Die Methode der Relationenbildung setzt zwingend Informationselemente voraus, über deren Natur wir in Unkenntnis des Träger-Codes natürlich nur mutmassen können. Das umfangreiche Korpus an Untersuchungen und Theorien bezieht sich zudem fast ausschliesslich auf sprachliches Material, und das ist wohl ein Spezialfall.
Ferner bilden in der psychischen Organisation wohl fast alle diese Informationskomplexe inter- oder extrapolierte Inhalte aus, welche ihrerseits fast wie Erfahrungen behandelt werden, obwohl sie niemals als solche vorgekommen sind. Das sind dann z.B. mögliche Affinitäten mit oder Gegensätze zu virtuellen Inhalten, Idealtypen und dergleichen. Die psychische Organisation schafft sich durch die intensive Verflochtenheit aller Inhalte untereinander (das Wissen insgesamt) ihre eigene Welt, ohne in der Regel den Kontakt mit der umgebenden (realen) Welt ganz zu verlieren. Ein Programmierer muss hingegen für alle Inhalte und alle ihre Aspekte Adresslisten führen, die Relationen eigens stiften und dafür wiederum Adresslisten anlegen. Falls ein einziges Bit verloren geht oder den Wert wechselt, ist ein Inhalt nicht (oder nur mittels fehlererkennender bzw. -korrigierender Codes) wieder auffindbar. Andererseits stelle man sich beispielsweise vor, dass ein Student die Adresse einer Kommilitonin verloren hat. Er geht zu einer sinnvollen Zeit ins Mensacafé und aus vielen kaffeetrinkenden Studentinnen erkennt er seine Bekannte wieder, selbst wenn diese inzwischen eine dunkelrandige Brille trägt und ihre Haare kurzgeschnitten hat. Solche, mit Ortsadressierung unvereinbaren Effekte haben in gedächtnispsychologischen Untersuchungen verschiedentlich nachgewiesen werden können (vgl. Baddeley, 1986).
3.4. Operanden und Operatoren; Identität und Selbstreflexion
Obwohl im Hinblick auf die kognitionspsychologische Forschung nun vielleicht der Eindruck erweckt worden ist, fast nichts sei sicher, ist eine der empirisch stützbaren Aussagen, dass auch in der psychischen Organisation die in der Mathematik geläufige Unterscheidung vonOperatoren und Operandenunentbehrlich ist (z.B. Anderson, 1983; theoretisch ist allerdings auch dies nicht unbestritten). In propositionalen Formen finden sich Operanden und Operatoren in der Logik (Terme und Relationen) und in der Sprache (Subjekte und Objekte einerseits, Prädikate und Attribute andererseits). Auch im Handeln und im Denken dominieren solche Strukturen in der prozeduralen Form, dass etwas durch einen Akt in etwas Anderes übergeführt wird. Es kommt daher nicht von ungefähr, dass die Terminologie Operator und Operand gewählt wurde. Sie ist auch in den Computerprozeduren in der Gegenüberstellung von Programmen und Daten fundamental. Die Tatsache, dass Operatorengruppen ihrerseits in gewissen Zusammenhängen als Operanden behandelt werden können oder dass Operanden und Operatoren zusammen in bestimmten Fällen zu neuen Paketen geschnürt und dann wie ein Superoperand oder -operator behandelt werden können ("object oriented programming") lässt die Trennung auf einer jeweils tieferen Ebene bestehen. Auch das "logische Programmieren" darf einem nicht darüber hinwegtäuschen, dass die Relationensysteme im von-Neumann-Computer durch Prozeduren aus Operatoren und Operanden realisiert werden; und die sog. Neuronalcomputer werden derzeit ebenfalls in digitalen Prozeduren emuliert. Der Begriff des Produktionssystems, letztlich identisch mit demjenigen der Turing-Maschine (Hunt, 1989), bringt das auf die Essenz.
Eine der folgenreichsten "Erfindungen" der modernen Computerpioniere (theoretisch John von Neumann, praktisch erstmals John V. Atanasoff; vgl. Mackintosh, 1988) war die Idee, Operanden und Operatoren im gleichen Medium des Binärcodes darzustellen. Natürlich ist ihre interne Unterscheidbarkeit damit nicht aufgehoben. Die Feststellung, dass die im Computer konkretisierte Zeichenmenge nichts anderes als eine Menge von Operanden und Operatoren darstellt, wobei die Operatoren bloss selektiv auf ihnen affine Operanden (Datentypen) anwendbar sind und die möglichen Operationen das Relationenpotential aller Operanden untereinander definieren, könnte also unter informationsorientierter Sicht auch auf die psychische Organisation zutreffen. So verstanden, wäre der Mensch ein Spezialfall einer Turing-Maschine, und um ihn zu erklären, müsste man nur genau jene Restriktionen spezifizieren, welche nötig sind, damit der Computer gerade jene und keine anderen "Produktionen" herstellt, zu welchen auch der Mensch fähig ist (Hunt, 1989). Die Menge aller möglichen Operanden und ihrer durch Operatoren realisierbaren Relationen, die einem Menschen grundsätzlich verfügbar sind, entspräche dann etwa dem, was man das Weltbild, die innere Repräsentation der umgebenden Welt und das Handlungspotential, kurz, die "kognitive Struktur", dieses Individuums nennen kann. Solange nichts über korrespondierende Operanden-Operatoren-Separierung in den neuro-humoralen Trägerprozessen bekannt ist, lässt sich der Ansatz natürlich als Heuristik einsetzen.
Nun muss man aber zu dieser Arbeitshypothese einer möglichen Gemeinsamkeit von Mensch und Computer noch eine Beifügung machen, die wieder auf eine Differenzierung hinausläuft. Während die Operatoren im Computer untereinander nur durch ihre Logik bzw. durch die ihnen affinen Operanden verbunden sind, ist bei der psychischen Organisation nicht zu übersehen, dass die Gesamtheit der Operatoren (und wohl auch der Operanden) durch ein integrierendesPrinzip zusammengehalten wird. Erlebnismässig erscheint dies beispielsweise als "Ich" oder "Selbst", allgemein als die Identität der Person. Damit bezeichnen wir die Tatsache, dass sich ein Mensch während seiner ganzen Lebensspanne - trotz vielerlei Wandels in seinem Wissen und Können -, als mit sich selbst identisch erfährt. Auch für Dritte erscheinen wir - oder Dritte erscheinen uns - als über das ganze Leben mit sich identisch (von pathologischen Fällen sei hier abgesehen). Damit verbunden ist vermutlich eine weitere Eigenart psychischer Organisation: Das "Ich" wird nicht nur als ein uns vereinheitlichendes Prinzip, sondern zugleich als etwas von uns selber Abstand Nehmendes erfahren. Es handelt sich um eine partielle, mutmasslich im Zusammenhang mit Sprache mögliche "Verdoppelung" der kognitiven Struktur, die uns erlaubt, über uns selber nachzudenken. Man spricht von Selbstreflexion und vom Selbstbewusstsein.
Wir nehmen an, dass Identität und Selbstreflexion und ähnliche Erscheinungen auf Repräsentationen zweiter Ordnung beruhen, d.h. auf Repräsentationen von Repräsentationen. Entscheidend dürfte sein, dass die sekundären oder Meta-Repräsentationssysteme nicht in einem ein-eindeutigen Verhältnis zu den primären zu stehen scheinen und dennoch die Gesamtheit der primären Repräsentationen betreffen. Informationsaustausch mit ihrer Umgebung pflegen die Tiere auch, aber nur die weitestentwickelten - sicher der Mensch mit seinem Grosshirn - bilden den Informationsaustausch noch einmal partiell ab und überwachen ihn als ganzen. Sekundärroutinen im Computer sind hingegen immer zielspezifisch. In gewissem Sinne lassen sich die Meta-Repräsentationen der psychischen Organisation als Theorien über die Funktionsweise des eigenen Systems auffassen (vgl. Wellman, 1985). Mit Identität und Selbstreflexion sind Phänomene angesprochen, die sich der physikalisch-technischen Modellierung im von-Neumann-Computer infolge seiner Linearisierung entziehen (z.B. Mandler, 1988). Abzuwarten bleibt, ob in künftigen nicht-arbitrierten parallelprozessierenden Maschinen ein-mehrdeutige Relationen bewältigbar werden.
3.5. Bedenken zur Computer-Metapher
Die vier herausgegriffenen Punkte machen deutlich, dass zwischen Mensch und Computer eine Affinität besteht, die nicht ohne Grund zur sogenannten Computer-Metapher geführt hat. Weil der Computer so gut verstanden wird, setzt man ihn als Modell für das noch nicht Verstandene, das Funktionieren des Menschen ein.
Die Computer-Metapher ist heute speziell im Bereich kognitionswissenschaftlicher Theoriebildung sehr verbreitet (vgl. Mandl & Spada, 1988; Pylyshyn, 1984). Wir halten sie - bei allem Interesse für viele Einzelbefunde, die sie hervorbringt - für nicht unproblematisch (vgl. Allport, 1975). Es ist logisch unannehmbar, einen Gegenstand durch ein Prinzip erklären zu wollen, welches eine Hervorbringung genau des zu erklärenden Gegenstandes darstellt, also demselben untergeordnet anstatt über- oder nebengeordnet ist. Dieser Zirkularitätseinwand gilt streng genommen sogar für die blosse Beschreibung eines Systems in Termini eines seiner Teilsysteme; ein unabhängiges tertiumcomparationis ist dem Menschen allerdings grundsätzlich nicht verfügbar, rationale Psychologie deshalb notwendig irrational.
Doch auch in pragmatischer Perspektive scheint es uns ungünstig, dass die Computer-Metapher den Psychologen und Anderen den Blick verstellen kann auf Phänomene, die ausserhalb ihres Horizontes liegen. Man denke zum Beispiel an die allgemeine Grundannahme diskreter Informationselemente und ein-eindeutiger Relationensysteme beim Computer, welche, auf die psychische Organisation übertragen, vermutlich unangemessen ist (Dreyfuss & Dreyfuss, 1986). Damit verbunden sind auch die forschungsmethodischen Probleme der Beziehung zwischen psychologischer Theorie und Computer-Programm (vgl. Hermann, 1982).
Konkret bedeutet dies: Informationsverarbeitungsmodelle der psychischen Organisation auf der Basis der Computer-Metapher sind apriorisch oder tautologisch. Sie stecken hinein, was sie herausbekommen wollen. Das wäre nicht so problematisch, wenn solche Modelle bloss als Heuristik dienten und dann in einer unabhängigen Rechtfertigungsstrategie Falsifizierungschancen ausgesetzt würden. Solche Strategien werden jedoch heute nur ausnahmeweise verfolgt. Die Folge ist, dass der Mensch dieser Denkweise nicht von Maschinen zu unterscheiden ist. Und dies geschieht nicht deshalb, weil er in Wirklichkeit eine Maschine wäre, sondern einfach deswegen, weil er sich zu seiner Beschreibung eines solchen Erkenntnismittels bedient. Als formale Modelle sind sie nützlich, aber als solche auch beliebig auf alle Sachverhalte anwendbar und daher deskriptiv praktisch, explikativ aber wertlos.
4. Schnittstelle auf drei Ebenen
Die vier Vergleichsaspekte und die generelle methodologische Vorsichtsmahnung sollen ausreichen, wenn wir uns nun der "Schnittstelle" zwischen Mensch und Computer nähern. Wir untersuchen Eigenschaften der beiden Partner sowie die beim Zusammenwirken entstehenden Folgen. Wenn zwei so komplexe Systeme aufeinander treffen, ist eigentlich zu erwarten, dass sie nicht bloss einen Berührungspunkt haben. Mit dem Begriff "Schnittstelle" meinen wir folglich eine Vielzahl von Uebergängen, selbstverständlich in beiden Richtungen. Der Terminus ist auch insofern irreführend, als die Interaktionsprozesse auf beiden Seiten in die Tiefe reichen. Sie sollen in drei Ebenen (in aufsteigender Komplexität) gruppiert werden.
4.1. Mikroebene: Informationsaustausch oder die ergonomische Mensch-Computer-"Schnittstelle"
Auf einer Mikroebene interessiert der direkte Informationsaustausch zwischen den beiden Teilsystemen: Bildschirm und Tastatur sowie Auge und Hand sind die prominenten Schnittstellenoberflächen, die beim Universalcomputer interessieren. Hardware- und Software-Ergonomie, d.h. die Anpassung von Computer-Systemen an den Menschen sind die gängigen Sammelkategorien für Fragen geworden, die sich mit der Optimalisierung des direkten Informationsaustausches beschäftigen. Dabei stehen Fragen der Gestaltung von Möbeln, Tastaturen, blend- und flimmerfreier Bildschirme (Hardware-Ergonomie) oder die menschbezogene Optimierung von Software (Software-Ergonomie, Software-Psychologie) im Zentrum des Interesses (z.B. Balzert u.a, 1988; Streitz, 1988). Die mit dem Namen "Mensch-Computer-Interaktion" bezeichnete Disziplin umfasst weitgehend die Themenkreise aus der Hardware- und Software-Ergonomie, leider allzu oft eingeschränkt auf die sog. Benutzerfreundlichkeit.
Die damit zusammenhängenden Fragen berühren verschiedene wissenschaftliche Disziplinen (vgl. Balzert u.a., 1988). Die Tatsache, dass Computer von Menschen benutzt werden, macht die Bedeutung der Psychologie für den Entwurf von Computersystemen unmittelbar deutlich. Dabei scheint es, dass eine wesentliche Diskrepanz zwischen Mensch und Computer, wenn man sich an den Uebergängen auf der Mikroebene orientiert, damit zu tun hat, dass bei der zwischenmenschlichen Kommunikation drei Zeichenfunktionen genügen (z.B. Bühler, 1934), beim Computer eigentlich zwei: Beschreibung (Operand) und Appell (Operator). Ausdrucks- oder expressive Zeichen sind in Algorithmen unsinnig. Der Computerbenützer fügt sie aber im Dialog mit seinem Computerpartner bei der Informationsaufnahme vom Bildschirm in Form von interpretierenden Mutmassungen und auch bei der Informationsabgabe etwa in der Art und Weise seiner Tastaturbehandlung und verbal oder mimisch hinzu; doch der Computer reagiert darauf in keiner Weise. Die systematische Nutzung von menschlichem Ausdruck durch den Computer müsste ohne vorgängige Digitalisierung und mithin Umsetzung in Deskriptives oder Appellatives notwendig zu Problemen in den Algorithmen führen und wird deshalb vermieden. Man darf vermuten, dass der "fossile" Charakter der heute üblichen Tastaturen mit diesem Umstand zusammenhängt. Expressive Momente sind beim Informationsdisplay jedoch erwünscht und möglich, wie etwa der Einsatz von akustischen Signalen oder von visuellen Aspekten wie Blinken, Schriftart und -grösse, Rahmungen, Farbigkeit und räumlicher Anlage zeigt. Allerdings werden heute solche expressiven Darstellungsfunktionen mehrheitlich noch ungeschickt gehandhabt (Balzert u.a., 1988). Nicht selten sehen überdies deskriptive und appellative Zeichen wie Daten(objekte), Operanden und ihre Relationen bzw. Operatoren auf dem Bildschirm völlig gleich aus und werden mit wenigen Ausnahmen durch gleichartige Tastenbedienung erfasst.
Mit der angesprochenen Asymmetrie der Zeichenfunktionen der beiden Partner lassen sich möglicherweise auch die unseres Erachtens falschen Hoffnungen angehen, die an künftige Erfassungssysteme im akustischen Kanal heute immer wieder geknüpft werden. Abgesehen von den offenbar kaum maschinell zu emulierenden perzeptiven Konstanzleistungen fällt auf, dass im menschlichen Handeln der verbale und der manuelle Output-Kanal ein recht unterschiedliches Verhältnis zum Handlungseffekt aufweisen. Eine manuell geleistete Objektbearbeitung (Verlagerung, Verformung) ist stets unmittelbar von taktilem, meist zusätzlich auch visuellem und/oder auditivem Feeback begleitet. Lautäusserungen gehen demgegenüber zunächst ins Ungewisse; auch insofern sie nicht rein expressiv, sondern kommunikativ, in der Regel auf einen Artgenossen intendiert sind, erlaubt erst eine ganz andere Verhaltensweise des Partner den mittelbaren Rückschluss auf die Wirkung der eigenen Äusserung. Ja, das häufigste Indiz für angemessenes Verständnis einer Äusserung ist das Fehlen einer darauf bezogenen Rückmeldung (Foppa, 1987). Selbst wenn es sich erweisen sollte, dass Computerbenützer sich in ihrer fast grenzenlosen Anpassungsbereitschaft auch an akustische Eingabegeräte gewöhnen würden, möchten wir im Sinne unserer Überlegungen zum Mensch-Computer-Vergleich für Techniken plädieren, welche den Unterschied dieser Interaktionsweisen betonen und also den Computer zur Hauptsache der Hand vorbehalten.
Abbildung 1: Ergonomie der Mensch-Computer-Anordnung (vgl. Text)
Die Abbildung 1 veranschaulicht schematisch drei verschiedene mögliche Bezüge zwischen Mensch und Computer auf der ergonomischen Ebene der Geräteaufstellung. (A) zeigt die heute dominierende Anordnung, bei welcher der Computer dem Menschen so total auf den Arbeitsplatz gestellt wird, dass andere Tätigkeiten auf einen zweiten Arbeitsplatz ausweichen müssen und Information in anderer Form unvermeidlich eine periphere Lage und Rolle einzunehmen genötigt ist. (B) zeigt eine mit geringem Aufwand verbesserte Anordnung, welche wenigstens der Informationsaufnahme in anderer Form ihren Platz gibt. Die Spezialisierung der linken, raum-affinen Hand auf die Bedienung der Maus ist vermutlich empfehlenswert; empirische Untersuchungen dazu stehen leider noch aus. (C) ist eine derzeit utopische Anordnung, welche nicht nur eine Reihe der häufigen Beleuchtungs- und Reflexionsprobleme lösen könnte, sondern durch Freimachung einer zentralen Arbeitsfläche dem Computer seinen gebührenden Spezialplatz zuweist. Voraussetzung dazu sind allerdings psycho-ergonomische Entwicklungsarbeiten für eine neue Tastatur, welche das analog-räumliche Zeigeprinzip und das tastaturbezogene Digitalprinzip im gleichen Gerät integrieren und die Freiheit der Verwendung einer oder beider Hände in spezifizierter oder flexibler Bedeutung dem Benutzer freistellt.
Wie gesagt wird in der zwischenmenschlichen Interaktion fast jede Kommunikation expressiv begleitet (z.B. Argyle, 1972). Mangelhafte, fehlerhafte oder indirekte soziale Kommunikation wird von seiten des (menschlichen) Partners durch verbale oder nichtverbale Hinweise signalisiert. Der Partner wird so auf bestimmte Rahmenbedingungen des Dialogs aufmerksam gemacht. Entsprechende Modi finden sich in Computersystemen erst in rudimentärer Form vor (vgl. Balzert u.a., 1988). Problematisch ist dabei nicht, dass die Interaktion innerhalb bestimmter Modi erfolgen muss, sondern dass der Benutzer in einem falschen, oft unpassenden Modus gefangen bleibt, dies gar nicht oder erst spät merkt und spezielle Anstrengungen zum Moduswechsel unternehmen muss. In der menschlichen Kommunikation sind die Modi so subtil und selbstverständlich, dass man den Uebergang nicht merkt. Sie verschwimmen auch leicht ineinander. Die Modi sollen folglich in Anzahl, Ordnung und Zuordnung so gestaltet sein, dass sie nicht als Modi erscheinen, wohl aber erscheinen können, wenn man sich fragt.
Auf der ergonomischen Ebene möchten wir auch jene Entwicklungsrichtungen lokalisieren, die sich mit Fragen der Optimalisierung des Informationsaustausches unter dem Gesichtspunkt sozio-technischer Systeme beschäftigen (z.B. Udris & Ulich, 1987). Weil der Entwurf von Computersystemen immer auch Aufgaben- und damit Arbeits- und Organisationsgestaltung ist (bzw. sein müsste), hat sich während der letzten Jahre insbesondere in der Arbeits- und Organisationspsychologie ein starkes Interesse an hardware- und software-ergonomischen Fragen sowie an Problemen neuer OrganisationsformenmenschlicherArbeit (z.B. Telearbeit) herausgebildet (z.B. Frese & Brodbeck, 1989; Frese, Ulich & Dzida, 1987; Ulich, 1983; 1988; Kraut, 1987; Blackler, 1988; von Benda, 1988). Man ging sogar soweit, psychologische und ergonomische Erkenntnisse in Handbüchern zusammenzutragen (Smith & Mosier, 1986). Schliesslich hat man auch begonnen, sich im Schnittbereich von Arbeits-, Organisations- und Architekturpsychologie verstärkt mit Fragen der Gestaltung des physischen Arrangements "elektronischer" Arbeitsplätze zu beschäftigen (z.B. Wineman, 1986; vgl. auch Abb. 1). Allerdings wird diese stark ergonomische Orientierung neuerdings selbst innerhalb der Arbeits- und Organisationspsychologie als unzureichend empfunden (z.B. Bungard & Jöns, 1988).
4.2. Mesoebene: individuelle und kollektive Denk- und Handlungsformen oder: der Computer als Mentalitätsimpuls
Ergonomie, wenn sie konsequent über Kriterien wie Benützerfreundlichkeit hinausgeht, mündet in die Einsicht, dass das entschiedende Bild nicht auf dem Schirm, sondern im Kopf des Benutzers zu finden ist. Und auch dieses "Bild" ist nicht bloss ein aktueller Informationssatz, sondern ist Teil einer kognitiven Formation des Menschen, die als "Mentalität" bezeichnet werden kann. Dabei soll der Begriff "Mentalität" nicht alltagssprachlich, sondern als die organisierte Gesamtheit der Formen und des Stils kognitiver Prozesse verstanden werden. Die Schnittstelle hat auch auf der Menschseite Tiefe. Es geht also darum aufzuzeigen, was die Benutzung informationsverarbeitender Maschinen für das Denken und die Intelligenz und für das (soziale) Handeln des Menschen bedeuten.
Es ist unbestritten, dass der Computer dem Menschen ein Werkzeug für geistige Aktivitäten anbietet. Werkzeuge ermöglichen wie andere Objekte aber nicht nur eine Erweiterung des individuellen Handlungspotentials (Boesch, 1983), sondern es ist damit zu rechnen, dass sie menschliches Denken und Handeln verändern. Dass der Mensch sich der rasanten Entwicklung, die der Computer in den gut vier Jahrzehnten seiner bisherigen Existenz durchgemacht hat, nicht nur passiv anpasst, sondern kulturell koevoluiert, ist aber zunächst eine These. Dennoch wäre es falsch und sicher zu einfach, nun nach einer allgemeingültigen Wirkung des Computer auf Menschen zu suchen (z.B. Caporael & Thorngate, 1984).
Ueber die Möglichkeiten eines Transfers vom Programmieren auf allgemeine kognitive Fähigkeiten, die keinen direkten Bezug zum Programmieren haben, gibt es erst wenige empirische Befunde (vgl. Pea, Kurland & Hawkins, 1986). Nach einem Jahr Praxis mit LOGO erreichten beispielsweise Neun- bis Elfjährige bei einem Wortpuzzle und einer Umordnungsaufgabe bessere Ergebnisse als eine Vergleichsgruppe ohne Programmiererfahrung. Weil Umordnen und Kombinieren formale Denkoperationen implizieren, stützt dieses Ergebnis teilweise Paperts (1980) Behauptung, dass das Programmieren zur Entwicklung formal operationaler Denkfähigkeiten führt, worin abstrakte Sachverhalte durch Zerlegung in Einzelschritte konkret nachvollziehbar werden.
Bei der Diskussion weitergehender Wirkungen auf das menschliche Verhalten, die durch den Umgang mit Computern bedingt sind, beruft man sich erstaunlicherweise immer wieder auf einige wenige Veröffentlichungen (z.B. Weizenbaum, 1978; Eurich, 1985; Volpert, 1985), deren Aussagen weitgehend auf idiosynkratischem und/oder anekdotischem Datenmaterial beruhen. Darin drückt sich etwa die Befürchtung aus, dass das Denken bedingt durch den Umgang mit Computern nur noch maschinengleich funktioniere, wodurch die klaren und eindeutigen Strukturen der "künstlich" geschaffenen Welten von Computerprogrammen den individuellen Denkstil sowie das soziale Handeln prägen, was sich wiederum im Umgang (auch) mit der konkreten Welt nachteilig auswirke (Volpert, 1985). Dadurch bedingt sei eine einfache "Weltsicht" sowie die Gefahr einer Vermischung von Kunstwelt und realer Welt (von Hentig, 1987). Bei dieser Argumentation wird leider nicht immer klar zwischen möglichen Einflüssen der Informatik und der Bild-Medien unterschieden.
Bis heute existieren leider erst wenige Untersuchungen zur Frage, ob die Arbeit am Computer das individuelle Denken und das soziale Handeln mechanisiert. Die Untersuchungen richten sich zudem nicht auf den Nachweis, dass sich das Denken als solches verändert hat, sondern auf die Kognitionen der Personen darüber. Sowohl in den Untersuchungen von Pflüger & Schurz (1986) als auch von Fuhrer (1988) meinten die Probanden, dass sich ihr Denken bedingt durch den Umgang mit Computern verändert habe. Die Probanden von Pflüger & Schurz (1986) gaben an, dass sie logischer, systematischer und algorithmischer an Probleme herangehen. Die Studie von Fuhrer (1988) bietet insofern ein etwas differenzierteres Bild, als sich die Probanden hinsichtlich der subjektivenEinschätzungderVeränderungihresDenkens in Abhängigkeit davon unterschieden, welche Bedeutungen sie mit dem Computer verbinden. Dabei schätzen Probanden, für die der Computer eine epistemische Bedeutung (Suche nach eigener Identität) hat, die Veränderung signifikant höher ein als Probanden, die dem Computer eine sachlich-instrumentelle Bedeutung (gutes Arbeitsinstrument) zuschreiben. Zudem deuten die Interviews mit den Probanden darauf hin, dass sich bei jenen, die dem Computer eine epistemische Bedeutung zuschreiben, ihr Denken über sich selbst verändert zu haben scheint. Aehnliche Veränderungen werden auch von Turkle (1984) aufgezeigt. Die Methodik dieser Untersuchungen muss aber offen lassen, ob der Effekt in der Sache oder in der Meinung über die Sache gründet.
Eine weitere interessante Perspektive zur Analyse von Veränderungen im Denken ist die Frage, wieweit der Computer-Jargon zum "Jargondes Denkens" wird. Selbst bei rein technischen Diskussionen werden Begriffe verwendet, die sonst nur zur Bezeichnung menschlichen Denkens und Verhaltens verwendet werden (Turkle, 1984). Viele Menschen, die nie Programme geschrieben haben, betrachten Computer als Geräte, mit denen man mathematische Operationen ausführen, Texte schreiben und bearbeiten, Daten verwalten kann. Doch wenn man erste Programmier-Erfahrungen gemacht hat, stellt man fest, dass Computer Geräte sind, die Informationen verarbeiten, dass sie Mitgestalter von Symbolwelten und Sprache sind. Der Computer wird zu einer "psychologischen" oder "metaphysischen Maschine", und zwar nicht deshalb, weil man sagen könnte, er habe eine Psyche, sondern weil er Einfluss darauf hat, wie wir über uns selber denken (Turkle, 1984).
Doch ist nicht nur die Neigung festzustellen, auf den Computer menschliche Eigenschaften zu projizieren (Anthropomorphismus). Es zeigt sich zugleich eine Tendenz in die entgegengesetzte Richtung: Der Mensch beginnt, über sich selbst und andere in Begriffen zu denken, die ursprünglich Eigenschaften und Funktionen der Maschine bezeichneten (Mechanomorphismus). Anthropomorphismus und Mechanomorphismus sind aber weder Eigenschaften von Menschen noch Eigenschaften von Maschinen, sondern beide konstituieren sich erst in der Wechselbeziehung zwischen den beiden "Partnern" (Caporael, 1987).
Wichtige Fragen künftiger Forschung müssten sich zum Beispiel damit befassen, wie sich mechanomorphekognitive Repräsentationen entwickeln und welches die Folgen für das individuelle und kollektive Handeln sind. Einen ersten, auf der Piaget'schen Stufentheorie aufbauenden Ansatz hat Turkle (1984) vorgelegt. Eine weitergehende These vertritt Salomon (1979), wonach die symbolverarbeitenden Systeme der neuen Medien nicht nur die aktuellen kognitiven Verarbeitungsprozesse beeinflussen, sondern durch wiederholten Umgang mit einem Symbol-System übe dieses auch auf die kognitivenRepräsentationsprozesse einen prägenden Einfluss aus. Das würde bedeuten: Die Codierungsformen der neuen Medien prägen die Denkmuster, Vorstellungsbilder und Problemlöseschemata. Salomon kann diese "Kultivierungsthese" auf die zuerst von Whorf (1963) ausgearbeitete Theorie stützen, die besagt, dass das Kommunikationssystem einer Gesellschaft - die Sprache - das individuelle Denken und, so würden wir vermuten, auch das kollektive Handeln nachhaltig beeinflusst. Die Kultivierungsthese impliziert die interessante medienpädagogische Frage, welchen Einfluss der immer intensiver werdende Umgang mit Bildschirmmedien auf die Repräsentationsformen der heranwachsenden Generation haben wird. Neuere Untersuchungen zeigen beispielsweise, dass unter bestimmten Bedingungen (z.B. bei längerfristigem Umgang mit einem Medium, bei intensiver Zuwendung) eine Uebertragung mediensprachlicher Verhaltensmuster auf völlig andere Bereiche erfolgen kann (Salomon, 1984).
Hinsichtlich der Frage nach einer sozialenIsolierung bedingt durch intensiven Umgang mit Computern (z.B. Eurich, 1985; Volpert, 1985), ergibt sich aufgrund der ersten empirischen Untersuchungen ein recht klares Bild. Computereinsiedler sind die Ausnahme und selbst unter Hackern beobachtet man starke soziale Gruppenbildungen (Turkle, 1984). In schulischen Institutionen hat man beobachtet, dass Schüler intensiver miteinander kommunizieren, wenn sie am Computer arbeiten (z.B. Hawkins & Sheingold, 1986) und stark dazu neigen, neue soziale Gruppen zu bilden (Turkle, 1984; Herman, 1988). Innerhalb grösserer Organisationen, in die Computer eingeführt wurden, hat man ebenfalls eine Intensivierung der direkten sozialen Kontakte beobachtet (vgl. Kiesler & Sproull, 1987). Dass die dichtere Kommunikation nicht bloss ein Artefakt ist, d.h. durch die Probleme im Zuge der Implementation der neuen Systeme bedingt ist, belegen die Arbeiten der Gruppe um Sara Kiesler an der Carnegie-Mellon University in Pittsburgh. Diese Studien belegen aber auch, dass in bestehenden sozialen Strukturen, bedingt durch eine "Umverteilung" individuellerKompetenzen und der daran gebundenen sozialen Positionen, Veränderungen induziert werden. Ueber die längerfristigen Veränderungen, die sich innerhalb sozialer Systeme (z.B. in Schulklassen, Familien, Arbeitsteams) ergeben, weiss man aber noch kaum etwas.
Betrachtet man die Ergebnisse der dargestellten Untersuchungen zu den mentalen Einflüssen im Ganzen, so drängt sich eine Dialektik zwischen den formalen, rationalen, maschinellen "Denkformen" einerseits und den informellen, intuitiven, emotionsgefärbten Umgangsweisen mit Information anderseits als Kernproblem auf. In mancher Hinsicht kann man in der Informatik einen Höhepunkt der rationalen Methodik des abendländischen Wissenschaftsideals sehen. Descartes müsste den Computer als seinen grössten Triumph erleben und zugleich als Vollendung der Bestimmung der "denkenden Substanz", welche in klarer und deutlicher Weise den diffusen Gegebenheiten der Materie, des Raumes, der Zeit, des Leibes usw. gerecht wird. Bei näherer Betrachtung müsste er allerdings erschrocken festellen, dass die Informatik seinen Dualismus erschüttert oder widerlegt; denn es ist ja eine "ausgedehnte Substanz", ein materielles Etwas, das da so tut, wie wenn es "denken" würde, das da klarere und deutlichere Strukturen realisiert, als sie der denkende Mensch vermag. Und wenn Descartes, wie wir es empfehlen, den Blick auf die neugewonnene, übergeordnete Einheit der Mensch-Computer-"Partnerschaft" richten würde, müsste er auch feststellen, dass hier die Umkehrung der Zielsetzung seiner analytischen Geometrie angelegt ist: wohl kann ein von menschlichem Denken entworfener Algorithmus eine komplexe Sache auf ihre klare Struktur bringen und so einen Konsistenztest abgeben; aber ebenso bedeutsam - wenn nicht bald schon wichtiger - ist der Computer als ein Instrument der Aufbereitung von überkomplexer Information in eine der menschlichen Anschauung nachvollziehbare Form.
4.3. Makroebene: die Rolle des Computers im sozio-kulturellen System
Auf der dritten, der Makroebene interessieren uns die Folgen, welche die Vergesellschaftung von Mensch-Computer-Partnern hervorbringen. Obwohl dies den Bereich der Psychologie überschreitet, möchten wir wenigstens den Blick darauf lenken.
Die biologische Evolution hat dieses ebenso wunderbare wie problematische Grosshirn hervorgebracht, welches den Informationsaustausch höherer Lebewesen mit ihrer Umgebung in einem besonderen Zeichensystem abbildet und organisiert. Die kulturelleEvolution hat darauf im wesentlichen mit der Herausbildung zweier weiterer Zeichensysteme reagiert. Das erste ist die WeltderArtefakte: die Werkzeuge, die Kultobjekte, die Alltagsdinge, das Gebaute, die Häuser, die Siedlungen. Das heisst allgemeiner: ein System von zusätzlichen kulturellen Raum- und Zeitstrukturen. Das sind also die konkreten Symbole der stofflichen Kultur. Das zweite ist die WeltderSymbolealssolche: also die Sprache, die gesprochene, später die geschriebene, auch die Bilder, die Musik. Das sind die geistigen Zeichen der ideellen Kultur, welche Traditionen ermöglichen wie Mythen, Wissenschaft, Recht, Technik, Geld, Politik, Ideologie u.a.. Beide Zeichensysteme, die Objektkultur und die Denkkultur, haben die Unzulänglichkeiten des Grosshirns vor allem bezüglich der Stabilisierung der zwischenmenschlichen Verhältnisse sowie ihre kurzlebige Vergänglichkeit teilweise zu kompensieren vermocht; allerdings sind sie nahe daran, ihren Schöpfer, den Menschen in seiner Existenz zu gefährden.
Wie ordnet sich der Computer in diese Errungenschaften ein? Er scheint Aspekte der beiden Zeichensysteme zu integrieren: ein einzigartiges Artefakt, welches die symbolische Welt aus ihrer Passivität herausführt: die Zeichen treten mit Zeichen in Interaktion, ohne dass immer unmittelbar ein Mensch sie führen müsste. Im Computer machen sich die Zeichen partiell selbständig und treten mit ihren menschlichen Schöpfern in Interaktion. Lösen sie ihn gar ab, wie einige Computerfreaks es glauben oder glauben machen möchten? Oder ist der Computer einfach eine Fortsetzung der bisherigen Zeichensysteme, eine machtvollere Sprache und Schrift gewissermassen, ein weiteres Herrschafts-Instrument in der Hand von Menschen zur Festigung bestehender sozialer Strukturen (Weizenbaum, 1977) oder zur Herausbildung neuer sozialer Systeme? So betont beispielsweise Mowshowitz (1980) die Folgen davon, dass der Computer Information selegiert und filtert und somit - im Sinne von Schütz & Luckmann (1979) - zu sehr spezifischen Verteilungen des "Wissensvorrates" innerhalb einer Gesellschaft führt und folglich die Herausbildung bestimmter - unter Umständen neuer - Sozialstrukturen bedingt.
Aber Computer als Objekte unterliegen selbst einem Bedeutungswandel. Es dürften sich im Laufe der Zeit bestimmte Rituale menschlicher Beziehungen herausbilden, wie sie Elias (1978) beispielsweise in der gesellschaftlichen Veränderung des Essens schildert. Weiter nimmt die Komplexität technologischer Objekte ständig zu, unsere Gesten werden aber immer einfacher (Baudrillard, 1968) oder fallen - etwa im Falle nonverbalen Verhaltens bei elektronischer Kommunikation - völlig weg. Schliesslich überbrücken neue Informationstechnologien nicht nur die räumlichen Distanzen, sondern mit der elektronischen Kommunikation auch die zeitlichen Einbindungen individuellen Handelns: "Jeder kommuniziert mit jedem jederzeit", propagiert die Telekommunikationswerbung. Obwohl das ja offensichtlich unmöglich ist, muss die Sinnfrage gestellt und diskutiert werden.
Mit den Wirkungen solcher Regulationsformen des Zusammenlebens müssen wir heute fertigwerden, obwohl erst spätere Generationen diese Evolutionen werden beurteilen können. Aus der Geschichte der Zeichensysteme und ebenso aus der Sozialgeschichte gegenständlicher Aneigung von Dingen (Elias, 1978) können wir immerhin lernen: Die Objektkultur und die Denkkultur haben sich immer dann als problematisch erwiesen, wenn sie sich vom Menschen losgelöst haben, verobjektiviert und verabsolutiert worden sind. Die kulturelle Evolution gefährdet dann sich selbst, wenn der Mensch seinen Möglichkeitssinn (Robert Musil) mit seinem Wirklichkeitssinn verwechselt. Dazu lädt der Computer wie kaum eine frühere kulturelle Errungenschaft ein. Die Verwendung der Computer-Metapher in der Psychologie ist nur ein Beispiel dafür. Das Korrektiv gegen diese Verwechslung muss und kann nur vom Menschen her kommen. Deshalb meinen wir, es sei eine der aktuellsten Aufgaben der Psychologie, die Mensch-Computer-"Schnittstelle" auf allen ihren Ebenen zu thematisieren und den Blick auf das übergeordnete Ganze, die Mensch-Computer-"Partnerschaft", zu lenken.
Computer sind als Gegenstand und als Hilfsmittel psychologischer Forschung in einem beträchtlichen Ausmass bereits zu Alltagsobjekten und -routinen geworden. Wir haben es für angezeigt gefunden, eher grundsätzliche und programmatische Überlegungen darüber einzuleiten, ohne den Kontakt mit der Sache anhand von Forschungsliteratur und direkter Erfahrung aufzugeben. Die "Schnittstelle" zwischen Mensch und Computer hat sich für den Einstieg in eine solche Reflexion als geeignet erwiesen. Es ist wünschenswert, dass der Computer als Erkenntnismittel nicht allein den Spezialisten überlassen wird, sondern dass sich Psychologen aller Teildisziplinen mit den Voraussetzungen und Folgen dieser Denkweisen über den Menschen befassen. Dass die Psychologen zur Praxis des Umgangs mit dem Computer etwas beizutragen haben, findet zunehmend Anerkennung. Zu wünschen ist freilich eine weite und offene Sicht, die sich weder in der Unterrichtung von Menschen für gegebene Computer noch in der Anpassung der Computer an gegebene Menschen erschöpft, sondern Impulse zu ihrer gemeinsam Evolution gibt und diese Entwicklungen beobachtet und bewertet. Angesichts der Brisanz beider Themenkreise sind eigentlich fast alle Teilbereiche der Psychologie angesprochen.
Anderson, J.R. (1983). The architecture of cognition. Cambridge, MASS: Harvard University Press.
Allport, D.A. (1975). Critical notes: The state of cognitive psychology. Quarterly Journal of Experimental Psychology, 27, 141-152.
Argyle, M. (1972). Soziale Interaktion. Köln: Kiepenheuer & Witsch.
Baddeley, A. (1986). Working memory. Oxford: Claredon Press.
Balzert, H. u.a. (1988) (Hrsg.). Einführung in die Software-Ergonomie. Berlin: de Gruyter.
Baudrillard, J. (1977). Le système des objects. Paris: Gallimard.
Benda, H. von (1988). Neue Technologien: Mensch-Computer-Interaktion. In D. Frey, C. Graf Hoyos & D. Stahlberg (Hrsg.), Angewandte Psychologie. München: Urban & Schwarzenberg, im Druck.
Blackler, F. (1988). Information technologies and organizations: Lessons from the 1980s and issues for the 1990s. Journal of Occupational Psychology, 61, 113-127.
Boesch, E.E. (1983). Das Magische und das Schöne: Zur Symbolik von Objekten und Handlungen. Stuttgart: Frommann-Holzboog.
Bungard, W. & Jöns, I. (1988). Neue Kommunikations- und Informationstechniken im Büro- und Verwaltungsbereich als Gegenstand der Arbeits- und Organisationspsychologie. Köln-Mannheimer Beiträge zur Wirtschafts- und Organisationspsychologie, Heft 2, 13-42.
Bühler, K. (1934). Sprachtheorie. Jena: Fischer.
Caporael, L.R. (1987). Anthropomorphism and mechanomorphism: Two faces of the human machine. Computers in Human Behavior, 2, 215-234.
Caporael, L.R. & Thorngate, W. (1984). Computing: Prophecy and experience. Journal of Social Issues, 40(3).
Carroll, J.M. (1987) (Ed.). Interfacing thought: Cognitive aspects of human-computer interaction. Cambridge, MASS: MIT Press.
Dreyfuss; H.L. & Dreyfuss, S.E. (1986). Mind over machine. New York: The Free Press.
Elias, N. (1978). Ueber den Prozess der Zivilisation. Soziogenetische und psychogenetische Untersuchungen. Frankfurt: Fischer, 5. Auflage.
Eurich, C. (1985). Computerkinder. Reinbek b/Hamburg: Rowohlt.
Faulstich, P. & Faulstich-Wieland, H. (1988). Computer-Kultur. München: Lexika Verlag.
Foppa, K. (1987). Dialogsteuerung. Schweiz. Zeitschrift für Psychologie und ihre Anwendungen, 46, 251-257.
Frese, M. & Brodbeck, F.C. (1989). Computer in Büro und Verwaltung. Berlin: Springer.
Frese, M., Ulich, E. & Dzida, W. (1987) (Eds.). Psychological issues of human-computer interaction in the work place. Amsterdam: North-Holland.
Fuhrer, U. (1988). Handeln im Kontext neuer Informationstechnologien. Forschungsbericht, Nr. 51, Psychologisches Institut der Universität Freiburg im Breisgau.
Gerke, P.R. (1987). Wie denkt der Mensch? München: Bergmann.
Gibson, J.J. (1966). The senses considered as perceptual systems. Boston: Houghton Mifflin.
Hawkins, J. & Sheingold, K. (1986). The beginning of a story: Computers and the organization of learning in classrooms. In J.A. Culbertson & L.L. Cunningham (Eds.), Microcomputers and education (pp. 40-58). Chicago, ILL.: Chicago University Press.
Hentig, H. von (1987). Das allmähliche Verschwinden der Wirklichkeit. München: Hanser, 3. erw. Auflage.
Herman, J.L. (1988). The faces of meaning: Teachers', administrators', and students' views of the effects of ACOT. Paper presented at the annual meetings of the AERA, New Orleans, April 1988.
Hermann, T. (1982). Ueber begriffliche Schwächen kognitivistischer Kognitionstheorien: Begriffsinflation und Akteur-System-Kontamination. Zeitschrift für Sprache und Kognition, 1, 3-14.
Hofstadter, D.R. (1985). Gödel, Escher, Bach - ein endloses geflochtenes Band. Stuttgart: Kohlhammer.
Hunt, E. (1989). Cognitive Science: definition, status, and questions. Annual Review of Psychology, 40, 603-629.
Kempe, P. (1977). Wenn die Sinne schweigen, sprechen die Nerven. Psychologie Heute, 4(8) , 13-18.
Kiesler, S. & Sproull, L.S. (1987) (Eds.). Computing and change on campus. New York: Cambridge University Press.
Kraut, R.E. (Ed.), (1987). Technology and the transformation of white-collar work. Hillsdale, NJ: Erlbaum.
Mackintosh, A.R. (1988). Dr. Atanasoff's Computer. Scientific American, 259, 72-78.
Mandl, H. & Spada, H. (1988) (Hrsg.). Wissenspsychologie. München: Psychologie Verlags Union.
Mandler, G. (1988). Memory: Conscious and inconscious. In P.R. Solomon, G.R. Goethals, C.M. Kelley & B.R. Stephens (Eds.), Memory: Interdisciplinary approaches (pp. 84-106). Berlin: Springer.
Matthies, H. (1986). Learning and memory: Mechanisms of information storage. Oxford: Oxford University Press.
Mowshowitz, A. (1980). Ethics and cultural integration in a computerized world. In A. Moswshowitz (Ed.), Human choice and computers (pp. 251-269). Amsterdam: North-Holland.
Newell, A. & Simon, H.A. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice Hall.
Papert, S. (1980). Mindstorms. Children, computer and powerful ideas. New York: Basic Books.
Pea, R.D., Kurland, D.M. & Hawkins, J. (1986). LOGO and the development of thinking skills. In R.D. Pea & K. Sheingold (Eds.), Mirrors of minds: Patterns of experience in educational computing (pp. 178-197). Norwood, NJ: Ablex.
Pflüger, J. & Schurz, R. (1987). Der maschinelle Charakter: Sozialpsychologische Aspekte des Umgangs mit Computern. Opladen: Westdeutscher Verlag.
Pylyshyn, Z.W. (1984). Computation and cognition: toward a foundation of Cognitive Science. Cambridge Mass.: MIT Press.
Salomon, G. (1979). Interaction of media, cognition, and learning. San Francisco: Jossey-Bass.
Salomon, G. (1984). Media's effects on children's thinking patterns. Educational Media International, 4, 2-7.
Schütz, A. & Luckmann, T. (1979). Strukturen der Lebenswelt. Frankfurt: Suhrkamp.
Simon, Th.W. (1979). Philosophical objections to programs and theories. In M. Ringle (Ed.), Philosophical perspectives in artificial intelligence (pp. 225-242). Brighton, Sussex: Harvester Press.
Smith, L.S. & Mosier, J.N. (1986). Guidelines for designing user interface software. Bedford, MASS.: The MITRE Corporation.
Streitz, N.A. (1988). Psychologische Aspekte der Mensch-Computer-Interaktion. In B. Zimolong & C. Graf Hoyos (Hrsg.), Enzyklopädie der Psychologie: Ingenieurpsychologie. Göttingen: Hogrefe, im Druck.
Turkle, S. (1984). Die Wundermaschine: Vom Entstehen der Computerkultur. Reinbek: Rowohlt.
Udris, I. & Ulich, E. (1987). Organisations- und Technikgestaltung: Prozess- und partizipationsorientierte Arbeitsanalysen. In K. Sonntag (Hrsg.), Arbeitsanalyse und Technikentwicklung (S. 49-68). Köln: Wirtschaftsverlag Bachem.
Ulich, E. (1983) (Hrsg.). Technologie und Kultur. Psychosozial, 3 (ganzer Band).
Ulich, E. (1988). Arbeits- und organisationspsychologische Aspekte. In H. Balzert u.a. (Hrsg.), Einführung in die Software-Ergonomie (S. 49-66). Berlin: de Gruyter.
Volpert, W. (1985). Zauberlehrlinge: Die gefährliche Liebe zum Computer. Weinheim: Beltz.
Weizenbaum, J. (1978). Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt/Main: Suhrkamp.
Wellman, H.M. (1985). The child's theory of mind: The development of conceptions of cognition. In S.R. Yussen (Ed.), The growth of reflection in children (pp. 169-206). Orlando: Academic Press.
Whorf, B.L. (1963). Sprache, Denken, Wirklichkeit. Reinbek: Rowohlt.
Wineman, J.D. (1986)(Ed.). Behavioral issues in office design. New York: Van Nostrand.