Spiegelbild unserer Werte

Der Informatiker Iyad Rahwan will Maschinen nach ihrem Verhalten beurteilen, um sie besser kontrollieren zu können. Die Kommunikationswissenschaftlerin Miriam Meckel treibt eine Bildungsoffensive für die digitale Gesellschaft voran. Für Albert sprachen die beiden über die ethischen Grundlagen einer neuen Mensch-Maschine-Zivilisation, überlegene Algorithmen und die Frage, ob Maschinen lügen sollten.

 

M E C K E L Eine Zukunft autonomer Maschinen geht mit vielen ethischen Dilemmata einher, etwa der viel zitierten Frage: Darf ein selbstfahrendes Fahrzeug eine andere Person töten, egal ob es nun ein alter Mann oder eine schwangere Frau ist, um seinen Passagier zu retten? Wir sind bisher nicht in der Lage, derart komplexe moralische Entscheidungsprozesse in Algorithmen einzuprogrammieren, und es scheint auch keine absehbare Lösung dafür zu geben.

 

R A H W A N Die ethische Komplexität nimmt durch Entwicklungen wie autonomes Fahren immer weiter zu. Aber im Grunde geht es dabei um ein sehr altes Problem. Die Vorstellung, Ethik mittels Mathematik zu automa- tisieren oder in Form von Axiomen auszudrücken, reicht weit zurück, vielleicht sogar zu Platon. Leibniz hatte die Idee einer analytischen Maschine: Sobald wir in der Lage wären, alles analytisch zu beschrei- ben, und die Regeln kennen würden, um Schlüsse zu ziehen, könnten wir mit ihrer Hilfe alles Wissen der Welt ableiten, einschließlich ethischer Grundsätze. Viele Menschen glaubten lange an diese Idee, doch sie wurde gründlich widerlegt. Informatiker und Mathematiker wie Kurt Gödel und Alan Turing zeigten, dass sich manche Dinge schlicht nicht berechnen lassen und selbst das präziseste Ableitungsmodell niemals vollständig sein wird. Mittlerweile haben wir uns damit arrangiert, dass es nicht möglich ist, Normen und Regeln, die für alle Situationen richtige Antworten parat haben, in mathematisch präzise Formeln zu pressen.

 

M E C K E L Vielleicht ist das ja eine gute Nachricht. Die metrische Gesellschaft, in der alles berechenbar wird, selbst ethische Entscheidungen, scheint mir nicht gerade ein Traumziel zu sein. Insofern kann es auch ein Hoffnungsschimmer sein, dass wir wohl niemals in der Lage sein werden, die ethisch perfekte Maschine zu erschaffen.

 

R A H W A N Richtig. Doch auch wenn uns das bisher nicht gelungen ist, so haben wir es trotzdem geschafft, eine Zivilisation aufzubauen und uns weiterzuentwickeln. Wir haben erkannt, dass wir uns schrittweise auf sinnvolle ethische Regeln einigen müssen, um Fortschritte zu erzielen. Das ist ein kontinuierlicher Lernprozess.

 

M E C K E L Wir müssen immer wieder verhandeln, wie wir mit neuen Exis- tenzformen zusammenleben, seien sie biochemischen oder maschinellen Ursprungs. Mit der Zeit vertiefen wir unser Wissen über sie, sammeln Erfahrungen und einigen uns auf Regeln...

 

R A H W A N Vor mehreren Tausend Jahren haben wir zum Beispiel gelernt Pferde zu domestizieren, und schließlich lebten diese Kreaturen mit uns in den Städten. Wir haben gelernt einzuschätzen, was um uns herum passiert, die Auswirkungen davon zu diskutieren und zu verhandeln, wie wir damit zukünftig umgehen sollen. So haben wir es geschafft, dass unsere Städte sauber und sicher bleiben, obwohl Pferde, Kutschen oder inzwischen auch Autos darin unterwegs sind. Mit den Maschinen als neuen Kreaturen müssen wir auf den gleichen politischen Lernprozess zurückgreifen. Wir müssen eine temporäre Einigung aushandeln, die fürs Erste funktioniert, und die Lage dann immer wieder neu bewerten. Ich habe dafür die Idee eines algorithmischen Gesellschaftsvertrags ins Spiel gebracht, der darauf basiert, dass wir Maschinen auf dieselbe Weise regulieren, wie wir alles andere zuvor reguliert haben.

 

M E C K E L Mich beunruhigt ein wenig, dass die technologische Transformation neue Standards in diesen Gesellschaftsvertrag einbringt. Aus der Forschung wissen wir, dass Convenience, also die Annehmlichkeit oder Bequemlichkeit im Alltag, eine enorme Bedeutung hat. Dafür lassen viele Menschen auch ihre Datenschutzansprüche fallen. Die algorithmisch definierte Gesellschaft erscheint mir als eine, in der alles bequem und berechenbar wird. Einerseits kann ich das verstehen, denn es wird immer schwieriger, mit den Unklarheiten und Unsicherheiten unserer Zeit umzugehen. Es ist also nur menschlich, diese Komplexität auf handhabbare Formeln reduzieren zu wollen, obwohl viele wissen, dass dies nicht funktionieren wird. Andererseits gibt es kein soziales Leben ohne diese Komplexität, ohne Ambivalenz, Mehrdeutigkeit und Enttäuschungen, weil die bevorzugte Alternative sich nicht realisiert hat. Wer kann die wichtigen Impulse geben, damit der Verhandlungsprozess für einen solchen Gesellschaftsvertrag auf einer gemeinsamen Vorstellung dessen beruhen wird, was machbar ist? Im Moment beschäftigen sich damit die Ethikräte in Politik und Unternehmen.

 

R A H W A N Der Einsatz von Ethikräten reicht sicher nicht aus. Viele Unternehmen stellen Ethiker und Philosophen ein und verlangen von ihnen, dass sie gegen Bezahlung universelle ethische Standards erarbeiten. Ich befürworte es, wenn Unternehmen auf diese Weise versuchen, mehr über die ethischen Herausforderungen und Konsequenzen ihrer Erfindungen und Technologien zu erfahren und ihre Programmierer und Entwickler weiterzubilden. Doch damit ist keinesfalls sichergestellt, dass sie sich ethisch korrekt verhalten. Wir benötigen Behörden. Nichtregierungsorganisationen oder auch brancheninterne Selbstregulierungsorganisationen, die Verstöße gegen Vereinbarungen zum Wohle der Gesellschaft strikt ahnden.

 

M E C K E L Die Komplexität der ständig neuen Algorithmen und Technologien macht es allerdings sehr schwer, die potenziellen Auswirkungen auf die Gesellschaft abzuschätzen. Viele Leute verstehen gerade noch, dass Amazon oder Netflix Personalisierungsalgorithmen nutzen, um ihnen passende Angebote zu machen. Und sicherlich sehen sie sogar einen Nutzen darin. Aber wenn es um Algorithmen geht, die ernste Konsequenzen haben, die etwa juristische Entscheidungen beeinflussen, dann versteht kaum noch jemand, wie diese funktionieren.

 

Miriam Meckel hat 2018 das ada-Magazin und die gleichnamige Weiterbildungsplattform gegründet, die sich als digitale Bildungsoffensive für Deutschland versteht und einjährige Fellowships zu Zukunftstechnologien und digitalen Prozessen anbietet.

 

R A H W A N Richtig, Informatiker haben es deswegen leicht, Bedenken von Aktivisten oder Kritikern abzublocken. Wenn die Bedenkenträger nicht über das nötige technische Fachwissen verfügen, ist die Debatte beendet. Ich denke, dass es daher einer Art Brücke zwischen beiden Seiten bedarf, und die geeignetste Brücke ist eine Art Verhaltensmodell für die Maschine. Laien sollten sich mit der Komplexität der Algorithmen und Programmiersprachen gar nicht erst befassen müssen. Es reicht aus, wenn ihnen ein Modell hilft zu verstehen, wie Maschinen sich unter bestimmten Bedingungen verhalten. Dann könnten sie wichtige Fragen beantworten, etwa: Ist das Verhalten der Maschine fair oder nicht?

 

M E C K E L Eine gute Idee, wir ignorieren also, was in einer Maschine steckt, und konzentrieren uns auf den beobachtbaren Teil ihres Outputs. Sagen wir, ich möchte Sie ermorden, was natürlich nicht der Fall ist...

 

R A H W A N Danke sehr.

 

M E C K E L ...dann weiß dennoch niemand, was in meinem Kopf vorgeht. Ich kann diesen Gedanken haben, ohne dass er nach außen dringt. Und das darf ich sogar. Sobald ich Sie aber tätlich angreife, wird man mich dafür verurteilen und ins Gefängnis stecken. Auf die gleiche Weise können wir auch das Innere der Algorithmen – die Black Box des Programmierens – außer Acht lassen und uns auf das Beobachtbare konzentrieren. Das finde ich nachvollziehbar. Dennoch habe ich Schwierigkeiten, den Begriff Verhalten auch auf Maschinen anzuwenden, weil er immer auch mit dem freien Willen oder einem Bewusstsein verbunden ist. Wenn wir es tun, laufen wir Gefahr, das Handeln von Menschen mit dem von Maschinen in einen Topf zu werfen.

 

R A H W A N Das ist ein sehr guter Punkt, manche nutzen den Begriff Maschinenverhalten, um Maschinen eine eigene Handlungsfähigkeit zuzuschreiben und damit das Handeln der Person hinter der Maschine herunterzuspielen. Wenn mit der Maschine dann etwas schiefläuft, kann man weder dem Menschen eine Schuld geben, noch die Maschine zur Verantwortung ziehen, weil wir gar nicht wissen, wie wir sie bestrafen sollten. Auf diese Weise verringern wir die Verantwortung der Person, die die Maschine gebaut hat.

 

M E C K E L Setzt der Verhaltensbegriff nicht immer eine Form der Intentionalität voraus?

 

R A H W A N Dieser Sicht liegt eine Interpretation von Verhalten zugrunde, die sich am menschlichen Verhalten orientiert. Doch wir erforschen ja auch das Verhalten von einfachen Organismen oder Bakterien, die Krankheiten verursachen. Wir setzen sie zum Beispiel Antibiotika aus und messen ihre Reaktionen. Ich denke, wir sollten das Verhalten von Maschinen auf die gleiche Weise studieren, um es regulieren zu können. Natürlich befreit das den Menschen nicht von seiner Verantwortung. Genauso wenig, wie Hundehalter von ihrer Verantwortung befreit werden, wenn wir das Verhalten von Hunden verstehen.

 

M E C K E L Wie genau wollen Sie das Verhalten von Maschinen denn messen?

 

R A H W A N Wir wollen Wissenschaftler aus anderen Fachgebieten einladen, sich unserer Forschung anzuschließen. Ich setze auf die Unterstützung durch Politikwissenschaftler, Soziologen oder Psychologen mit ihren psychometrischen Tests und experimentellen Werkzeugkästen, um menschliches oder tierisches Verhalten zu studieren. Es ließe sich viel erreichen, wenn wir solche Werkzeuge auf Maschinen anwenden.

 

M E C K E L Was zum Beispiel?

 

R A H W A N Sozialwissenschaftler aus Harvard haben mögliche Diskriminierungen im Bewerbungsverfahren aufgrund der ethnischen Herkunft untersucht. Sie verschickten Hunderte von Lebensläufen mit unterschiedlichen Namen an Unternehmen, die mal männlich, mal weiblich, manchmal eher afroamerikanisch klangen. Dann zählten sie die Rückrufe. Sie ignorierten dabei die Unternehmensstruktur, die Funktionsweise der Personalabteilungen – und was die Personaler zum Frühstück hatten. Aber sie waren in der Lage, präzise Schätzungen zum Ausmaß der Diskriminierung aufzustellen. Ich denke, die Forschenden, die an dieser Studie beteiligt waren, sollten in der Lage sein, Algorithmen in ähnlicher Weise auf Diskriminierung hin zu untersuchen. Es gibt ja mittlerweile bereits Programme auf dem Markt, die Bewerber vorauswählen. Sozialwissenschaftliche Methoden eignen sich dafür viel besser als die eines Informatikers wie mir, der keine Ahnung davon hat, wie sich Diskriminierung messen lässt.

 

Iyad Rahwan beschäftigt sich mit den gesellschaftlichen Folgen der Digitalisierung. Er leitet seit 2019 den neuen Forschungsbereich Mensch und Maschine am Berliner Max-Planck-Institut für Bildungsforschung. In einem viel diskutierten Artikel in Nature forderte er 2019 eine interdisziplinäre Verhaltensforschung für Maschinen.

 

M E C K E L Es geht Ihnen also nicht um Verhalten, das auf Intention und Menschenverstand beruht, sondern um Verhalten als Summe einzelner maschineller Entscheidungsprozesse, die eine bestimmte Tendenz herbeiführen und zum Beispiel durch solche Experimente analysiert werden können?

 

R A H W A N Exakt. Es ist amüsant, dass der Behaviorismus, wie diese Form der Verhaltensforschung heißt, die das beobachtbare Geschehen untersucht, bis Mitte des 20. Jahrhunderts einen sehr schlechten Ruf in der Psychologie hatte, eben weil er interne Mechanismen ignoriert. Es stellte jedoch niemand infrage, dass er einwirkungsvolles Werkzeug zur Charakterisierung, Konditionierung und Vorhersage von Verhaltensmustern ist. Ich denke, dass er sich deswegen auch sehr gut zur Beobachtung von Maschinenverhalten eignen würde. Der Quellcode, der dem Verhalten von Maschinen zugrunde liegt, ist ja häufig Firmengeheimnis, das rechtlich geschützt ist und das Firmen nur ungern preisgeben, weil sie damit ihr Geld verdienen. Wenn wir uns darauf konzentrieren, nur das Verhalten der Maschinen zu bewerten, dann können sie ihr Geheimnis behalten. Sie müssten dann aber gezwungen werden, für ihre Maschinen eine Art Prüfung abzulegen.

Es bräuchte eine Art Maschinen-TÜV, der fortwährend prüft, ob Maschinen sich nach unseren Regeln verhalten. Und das unabhängig davon, wie sie programmiert wurden.

Miriam Meckel

 

M E C K E L Es bräuchte also eine Art Maschinen-TÜV, einen Konformitätstest, der fortwährend prüft, ob Maschinen sich nach unseren Regeln verhalten. Und das ganz unabhängig davon, wie sie einmal programmiert wurden.

 

R A H W A N Diese Sichtweise ist ja nichts Unübliches, wir prüfen ja auch nicht, ob Menschen gute Fahrer sind, indem wir ihre Gehirne scannen und deren Funktionsweise zu verstehen versuchen. Vielmehr definieren wir ein erwartetes Verhalten, etwa: Du solltest an einer roten Ampel anhalten. Dann vergewissern wir uns mit einer Prüfung, dass sie die Regeln verstanden haben, und beobachten sie fortlaufend mithilfe von Radarkontrollen und Verkehrspolizisten. Für Maschinen sollten wir etwas Ähnliches einführen. Dann können Entwickler ihre Maschinen nach Belieben programmieren, solange diese anschließend einen definierten Verhaltensstandard einhalten.

 

M E C K E L Aus einer konstruktivistischen Betrachtung heraus würde das bedeuten, es ist ganz egal, ob Maschinen eines Tages in der Lage sein werden, tatsächlich ein menschliches Bewusstsein zu entwickeln, oder ob sie Intention und Menschenverstand lediglich so simulieren können, dass wir Menschen sie nicht mehr von uns selbst unterscheiden können. Die Wahrheit der Wahrnehmung intelligenter Maschinen liegt dann im Auge der Betrachtenden.

 

R A H W A N Ich bin kein Experte für die Philosophie oder für die neurologischen Grundlagen des Bewusstseins, aber ich finde, dass es eine sehr spannende Frage ist, ob Maschinen irgendwann einen Personenstatus erlangen werden, der ihnen Rechte und Pflichten verleiht. Darauf wird es keine einfache Antwort geben und es ist schon jetzt ein sehr umstrittenes Thema. Eine ebenso wichtige Frage wird aber sein: Was ist unsere Rolle bei all dem?

 

M E C K E L Das erinnert mich an Ian McEwans Retro-Science-Fiction-Roman „Maschinen wie ich“, in dem ein junges Pärchen, Charlie und Miranda, einen humanoiden Roboter kauft, der wie ein Mensch aussieht und handelt. Sie wählen ein männliches Modell und programmieren ihn gemeinsam. Dann gibt es diese interessante Szene, die berührt, in welcher Weise wir selbst in die Entwicklung einer Kombination aus Mensch und Maschine involviert sind. Die Maschine namens Adam verliebt sich in Miranda, und Charlie sagt zu ihm: „Du kannst dich nicht verlieben.“ Und Adam erwidert: „Wir lieben dieselbe Frau. Und das heißt, wir sind jenseits des Punktes, an dem einer das Bewusstsein des anderen abschalten kann.“ In einer Nacht haben Adam und Miranda dann Sex, während Charlie in der Küche sitzt und vor Eifersucht platzt. Er versucht vergeblich, zu ergründen, warum es ihm so ergeht, schließlich handelt es sich doch nur um eine Maschine, einen „Vibrator auf zwei Beinen“. Es gelingt ihm nicht. Und das ist ein wichtiger Punkt: Sobald wir das Gefühl haben, dass eine Maschine sich menschenähnlich verhält oder sogar menschlich denkt, geht es eher darum, wie wir auf sie reagieren, als um die Frage, ob sie tatsächlich über eine Art menschliche Intelligenz verfügt. Wenn wir jedoch die Art und Weise, wie eine Maschine sich verhält und Gedanken hervorbringt, gar nicht mehr davon unterscheiden können, wie es ein Mensch tut – wie sollen wir dann in der Lage sein, Maschinen anhand ihres Verhaltens zu erkennen und zu beurteilen?

Wir entwickeln uns gemeinsam mit den Maschinen weiter, koexistieren und beeinflussen uns gegenseitig in dieser Welt. Es muss daher darum gehen, das gesamte Ökosystem zu verstehen.

Iyad Rahwan

 

R A H W A N Das ist ein faszinierendes Thema, zu dem ich ebenfalls arbeite. Ich stimme zu, dass der Blick auf das Verhalten der Maschine allein nicht ausreicht. Wir erhalten ja laufend Informationen oder Empfehlungen von der Maschine. Das beeinflusst unser Verhalten, was dann wieder von der Maschine beobachtet wird. Es ist eine fortwährende Interaktion. In unserem Artikel in Nature zu Maschinenverhalten betonen wir deshalb, dass der erste Schritt darin bestehen muss, das Verhalten einer einzelnen oder mehrerer Maschinen, die miteinander interagieren, zu definieren. Das übergeordnete Ziel ist jedoch ein Verständnis des gesamten Ökosystems samt uns Menschen, der Pflanzen und Tiere. Wir entwickeln uns gemeinsam mit den Maschinen weiter, koexistieren und beeinflussen uns gegenseitig in dieser Welt. Bei unserer Forschung muss es daher darum gehen, das gesamte Ökosystem zu verstehen.

 

M E C K E L Was das Ökosystem von Menschen, Tieren und Pflanzen anbetrifft, haben wir uns ja nicht gerade mit Ruhm bekleckert, wie die aktuelle Debatte um Klimaschutz zeigt. Wie optimistisch sind Sie, dass wir es bei diesem neuen Ökosystem besser schaffen?

 

R A H W A N Natürlich haben wir in punkto Umwelt vieles falsch gemacht. Die Wissenschaft hat aber wesentlich dazu beigetragen, zu erkennen, was zum Aussterben von Arten oder zu Ungleichgewichten von Ökosystemen führen kann. Idealerweise sollte es einen fruchtbaren Dialog geben zwischen Wissenschaftlern, die rein an den Tatsachen interessiert sind, sowie der Politik und der Öffentlichkeit, die diese Informationen nutzen. Bevor wir beispielsweise mit der Regulierung von Social Media beginnen, müssen wir verstehen, wozu diese Technik fähig ist. Dazu wurde bereits viel geforscht, doch vieles beruht auch auf persönlichen Erfahrungen und Anekdoten. Manche sagen, Social Media mache uns einsam, andere sagen, es mache uns sozialer, wieder andere sehen es als Gefahrenzone, in der Wahlen manipuliert oder Menschen mit Falschinformationen vom Impfen abgehalten werden. Wir müssen begreifen, welche Rolle Algorithmen bei all dem spielen, und welche unsere menschliche Natur spielt.

 

M E C K E L In diesem neuen Ökosystem werden Maschinen wohl eines Tages anfangen, von der Interaktion mit Menschen, Tieren oder Pflanzen zu lernen, aber auch aus der Auseinandersetzung mit sich selbst. Dieses „unbeaufsichtigte“ maschinelle Lernen könnte dann eine ganz eigenständige Maschinenevolution hervorbringen, die sich von unserer menschlichen Evolution unterscheidet, den Menschen vielleicht sogar irgendwann vom weiteren evolutionären Prozess ausschließt.

 

R A H W A N  Das ist durchaus möglich. Aktuell sind wir zwar nicht in Gefahr, aber in manchen Bereichen werden wir bereits überholt. Im Go-Spiel gelang es jüngst einem Algorithmus, den amtierenden Weltmeister zu schlagen – und das trotz all der Jahrtausende, in denen Menschen Strategien für dieses Spiel entwickelt haben. Die Maschine erlernte einfach eine neue Strategie, auf die bislang kein Mensch gekommen war und die wir wohlmöglich nie entdeckt hätten. Sie tat es ohne jede menschliche Aufsicht, einfach, indem sie Dinge ausprobierte. Ich habe gelesen, dass Menschen nun von dieser Maschine lernen.

 

M E C K E L Wenn wir davon ausgehen, dass eine Maschine sich verhalten kann, ohne eine Intention zu ver- folgen, dann kann sie an sich nicht gut oder böse handeln. Eine Maschine könnte also auch Strategien ent- wickeln, die Menschen schadet oder übervorteilt...

 

Sie war Chefredakteurin und Verlegerin der Wirtschaftswoche, Staatssekretärin für Medien in Nordrhein-Westfalen und ist Institutsleiterin an der Universität St. Gallen. Mit ihrer Bildungsoffensive "ada" will sie Antworten auf die drängendsten Fragen der Digitalisierung bieten.

 

R A H W A N Sicher, stellen wir uns nur mal vor, eine Maschine würde neue Formen unlauteren Wettbewerbs entdecken. Dann wäre es gut, ein Werkzeug zu haben, das ein solches Verhalten zeitnah aufdecken kann. Wir haben uns etwa das Konzept „autonomer Nudges“ angeschaut, bei dem Menschen mithilfe von Nudges, also Anstupsern oder Anreizen, dazu gebracht werden, bestimmte Produkte zu kaufen oder Dinge zu tun. Schon bald könnten Maschinen eigene Nudging-Strategien entwickeln.

 

M E C K E L Wie könnte eine solche autonome Nudging-Strategie aussehen?

 

R A H W A N Angenommen, wir haben ein Pärchen, das gerne reist, aber auch darüber nachdenkt, Kinder zu kriegen. Beide sind 35 Jahre alt. Systeme wie Facebook oder Google würden sie als potenzielle Eltern und potenzielle Urlaubsreisende klassifizieren. Ein Algorithmus für maschinelles Lernen, der etwa darauf ausgelegt ist, die langfristige Rendite eines Unternehmens für Fertilitätsdienste zu maximieren, könnte eine Strategie entwickeln, die dieses Pärchen dazu bringt, Urlaube zu machen und das Kinderkriegen erst einmal hintanzustellen. Dadurch würde die Wahrscheinlichkeit steigen, dass sie später zu Kunden einer Fertilitätsklinik werden. Das ist ein gruseliges Szenario, aber eine Strategie, die von einem Algorithmus, dem Werte nichts bedeuten, erlernt werden könnte.

 

M E C K E L Das ist gruselig, aber nichts Neues. All das basiert ja immer auch auf den kommerziellen Interessen, die in den Algorithmus einprogrammiert wurden, und die dieser dann perfektioniert, oft ohne dass uns das in der Nutzung unserer technologischen Geräte bewusst wird.

 

R A H W A N Das stimmt, und wenn es einen Weg gibt, den Bedarf an Fertilitätsdiensten effektiv zu steigern, dann wird der Algorithmus ihn früher oder später entdecken. Das Problem ist, dass wir dies nicht einmal bemerken würden. Alles, was wir merken würden, wäre: Verkaufszahlen und Gewinne steigen. Es gibt sicher noch eine Million andere Beispiele, in denen langfristige Entscheidungen von Menschen durch Maschinen beeinflusst werden können. Wenn wir keinen Weg finden, das sichtbar zu machen, werden wir große Probleme bekommen.

 

M E C K E L Eine Vision unserer Zukunft umfasst selbstfahrende Fahrzeuge, die Teil eines selbstorganisierten Mobilitätssystems sind und deren Algorithmen vom menschlichen Fahrverhalten auf der Straße lernen sollen. Stellen wir uns mal vor, die autonomen Fahrzeuge lernen wirklich vom Menschen. Das wäre ein Albtraum. Die Maschinen würden sich bei uns abgucken, dass man schneller ans Ziel kommen kann, wenn man andere schneidet, ausbremst oder austrickst und ihnen den Parkplatz wegschnappt. Das würde das ganze System unberechenbar machen. Wenn wir in dem Feld Algorithmen von Menschen lernen lassen, bekommen wir missgünstige Maschinen.

 

Er kam vom Massachusetts Institute of Technology in Cambridge nach Berlin. In seiner Forschung tritt Iyad Rahwan für einen Dialog zwischen Informatik, Sozial- und Verhaltenswissenschaften ein, um Maschinen zu schaffen, die den Menschen dienen, statt ihnen zu schaden.

 

R A H W A N Natürlich sollten schlechte Fahrer nicht zum Maßstab für autonome Fahrzeuge werden. Aber es gibt ja auch gute, von denen Maschinen sehr wohl etwas lernen können. Andersherum könnte sich aber mit der Zeit auch das menschliche Verhalten ändern, wenn autonome Fahrzeuge besser fahren als Menschen. Es gibt das Szenario von Kindern, die aus Spaß vor autonome Fahrzeuge springen, weil sie wissen, dass diese stoppen werden, während ein Mensch dies nicht zwingend tun würde. Was ist unsere Antwort darauf? Programmieren wir Algorithmen so, dass die autonomen Autos manchmal Menschen überfahren, weil menschliche Fahrer dies auch gelegentlich tun? Lassen wir sie also von unserem Verhalten lernen? Oder ändern wir die Verkehrsregeln und verbieten es, vor Autos zu springen? Vielleicht sollten wir besser gar nicht wissen, wer oder was das Auto fährt, um keine derartigen Schlüsse zuzulassen.

 

M E C K E L Das führt zu der Frage, ob wir ein Recht haben zu wissen, wann wir es mit einer Maschine zu tun ha- ben. Im Sinne der Transparenz sollten Maschinen sich genauso ausweisen müssen, wie das von uns Menschen ja auch oft verlangt wird.

 

R A H W A N Google hat erst kürzlich einen Chatbot mit einem Gesprächsalgorithmus vorgestellt, der viel menschlicher klingt als je zuvor. Manche Menschen hat das aufgebracht, sie wollten wissen, ob sie mit einer Maschine kommunizieren, wenn sie einen Kundendienst anrufen. Sie fühl- ten sich manipuliert. Wenn wir aber wissen, dass wir mit einer Maschine reden, kann das dazu führen, dass wir weniger höflich sind und unsere Probleme weniger effektiv lösen. Wir haben dazu eigene Experimente gemacht. Bei einem Kooperationsspiel haben wir Probanden sowohl mit Maschinen als auch mit Menschen interagieren lassen. Mal wurde ihnen mitgeteilt, sie spielten mit einer Maschine, wenn es in Wirklichkeit ein Mensch war, mal umgekehrt. Und manchmal waren es wahrheitsgetreu ein Mensch oder eine Maschine. Dabei bemerkten wir, dass die Probanden Vorurteile hatten. Im Spiel mit einer Maschine wurden sie weniger sozial, stärker wettbewerbsorientiert, weniger kooperativ.

 

M E C K E L Der Computerpionier Joseph Weizenbaum hat 1966 ein Programm namens „Eliza“ entwickelt, das therapeutische Gespräche mit Menschen führen konnte. Die Nutzer waren damals so angetan, dass sie zum Teil dachten, die Maschine bringe Verständnis für ihre Probleme auf. Weizenbaum hingegen haben diese Ergebnisse so geschockt, dass er sich zu einem Gesellschaftskritiker entwickelt hat. Wäre Unwissenheit in der Frage Mensch oder Maschine also die bessere Lösung?

 

R A H W A N Das ist eine Frage, die von der Wissenschaft erst noch beantwortet werden muss. Sicher gibt es Situationen, in denen es besser ist, nicht zu wissen, dass man es mit einer Maschine zu tun hat. Mal angenommen, wir hätten ein Diagnosesystem, das wesentlich genauer ist als menschliche Diagnosen, dessen Ratschlägen wir aber nicht folgen mögen, weil sie von einem Algorithmus stammen. Sollte der Arzt uns dann anlügen und die Ratschläge des Systems als seine eigenen hinstellen, damit wir ihnen folgen?

 

M E C K E L Lügen sind ja ein zentraler Bestandteil unserer Zivilisation. Wenn wir dauernd sagen würden, was uns durch den Kopf geht, wäre es kaum möglich, den sozialen Zusammenhalt aufrechtzuerhalten. Für eine Maschine ist eine vollständig transparente Umgebung hingegen der Optimalzustand, weil sie dann alle Daten sammeln und verarbeiten kann. Wie können wir diese beiden widersprüchlichen Welten zusammenführen?

Ich denke, dass es letztlich darauf hinausläuft, dass Maschinen immer mehr zu einem Spiegelbild unserer Werte werden und dessen, was wir sein wollen.

Iyad Rahwan

 

R A H W A N Jede Kultur lehrt ihre Kinder, nicht zu lügen, aber wir lernen auch, dass Lügen manchmal nötig ist. Das ist ein sehr subtiler Mechanismus. Wir üben eine kontinuierliche gegenseitige Kontrolle darüber aus, ob eine Lüge zu weit geht oder ungerechtfertigt ist. Wenn uns Lügen aber in einer Situation hilft, Gefahren abzuwenden, dann sollte auch eine Maschine so programmiert sein, dass sie in dieser Situation lügt. Ich will nicht behaupten, dass Menschen ein optimales Verhalten an den Tag legen. Vielleicht sollten wir überhaupt nicht lügen. Womöglich wäre das eine bessere Welt – vielleicht aber auch nicht.

 

M E C K E L Algorithmen müssen also lügen lernen, damit eine gemeinsame Zivilisation möglich wird?

 

R A H W A N Das kommt darauf an. Wenn Maschinen wissen, dass für mich ein geringes Risiko besteht, an einer Krankheit zu erkranken, gegen die sich nichts tun lässt, dann wäre dieses Wissen für mich nutzlos. Es würde nur Stress bei mir auslösen, weshalb es mir lieber wäre, die Maschine würde mich anlügen und mir diese Information vorenthalten. Ich denke, dass es letztlich darauf hinausläuft, dass Maschinen immer mehr zu einem Spiegelbild unserer Werte werden und dessen, was wir sein wollen.

 

M E C K E L Alles, was wir tun, beeinflusst die Maschine, und alles, was die Maschine tut, beeinflusst wiederum uns. Es scheint so, als befänden wir uns inmitten eines äußerst dynamischen Prozesses zur Schaffung einer Mensch-Maschine-Zivilisation, deren Ergebnis durchaus offen ist.

 

R A H W A N Ja, aber einer, die ein Ausdruck unseres Willens ist. Denn am Ende wollen die Maschinen ja von uns wissen, was sie tun sollen. Das selbstfahrende Fahrzeug fragt: Wie werdet ihr mich programmieren, damit ich mich richtig verhalte? Es zwingt uns mehr denn je dazu, dass wir uns unseren Werten stellen, besonders, wo wir uns bisher bewusst vage gehalten haben. Wenn wir präzise programmieren müssen, was eine Maschine in einer bestimmten Situation zu tun hat, dann sind wir gezwungen, uns selbst mit größter Genauigkeit zu betrachten. Das ist für mich ein äußerst spannender Aspekt dieser Evolution. 

Übersetzung: Sebastian Landsberger/Cornelia Gritzner