Mensch Maschine

Berliner Neurowissenschaftler erforschen die Mechanismen des Denkens und nutzen Hirnsignale, um Computer und Prothesen zu steuern. Unser Autor hat ihnen sein Gehirn für Experimente zur Verfügung gestellt

 

Die Gedankenlesemaschine muss noch hoch- fahren. Carsten Bogler, Wissenschaftler am Bernstein Center for Computational Neuroscience (BCCN) in Berlin, wirft einen prüfenden Blick auf die Monitore im Kontrollraum und führt mich in ein Nebenzimmer, wo ich mich aufs Auslesen meiner Gedanken vorbereiten soll: Gürtel ausziehen, Münzgeld aus den Hosentaschen. Metallteile können sich im drei Tesla starken Magnetfeld des hochauflösenden Magnetresonanztomografen (MRT), mit dem mein Gehirn gescannt werden soll, in Geschosse verwandeln. 

Gedankenlesen – bis vor Kurzem war das der Stoff von Science-Fiction-Filmen. Mittlerweile können Neurowissenschaftler zuverlässig erkennen, ob eine Person an einen Hund denkt oder an eine Katze. Sie können aus der Gehirnaktivität herauslesen, welches unter Tausenden von Bildern sich ein Proband gerade ansieht, aber auch, ob er eine Zahl addieren oder subtrahieren möchte.

Bei dem Experiment des BCCN, an dem ich teilnehme, geht es um die Speicherung von Informationen im Langzeitgedächtnis. Ich bin dafür in die Rolle eines Einbrechers geschlüpft. Am Tag zuvor musste ich verschiedene Räume auf dem Campus der Uniklinik Charité in Berlin-Mitte besuchen: eine Anatomie-Ausstellung mit Schädelmodellen, einen schlichten Büroraum, ein Untergeschoss mit einer Wendeltreppe. Im Hirnscanner werden mir die Forscher Bilder und Videoaufnahmen dieser „Tatorte” zeigen, im Wechsel mit Bildern von Räumen, die ich nie zuvor gesehen habe. Wird meine Gehirnaktivität verraten, in welchen Räumen ich tatsächlich gewesen bin?

Wichtigstes Werkzeug der Gedankenleser ist die funktionelle Magnetresonanztomografie (fMRT). Das Anfang der 1990er Jahre entwickelte Bildgebungsverfahren zeigt in immer höher aufgelösten Aufnahmen, wo im Gehirn sich die Durchblutung verändert. Daraus entstehen dreidimensionale Muster der Hirnaktivität. Ist das nun Hirnforschung oder die Ergründung des menschlichen Geistes? 

„Wenn Geist und Gehirn getrennt wären, könnten wir aus Mustern der Hirnaktivität nicht auf Gedanken schließen”, sagt der Neurowissenschaftler John-Dylan Haynes, der einer der Pioniere auf dem Gebiet ist und an der Charité die BCCN-Gruppe leitet, an deren Versuch ich teilnehme. Genau dies können die Forscher aber – und zwar mit immer größerer Präzision. Bereits wenige Jahre nach Einführung der fMRT lieferten erste Studien in der Neurobildgebung eine holzschnittartige Topografie des Denkens: Verarbeitet der Proband gerade visuelle Reize? Ist das Planungszentrum aktiv?

Davon ausgehend begannen die Neurowissenschaftler vor rund zehn Jahren, nach und nach auch spezifische Inhalte aus den Mustern herauszulesen – etwa, ob ein Proband an einen Hund oder an eine Katze denkt. Um die relevanten Muster zu erkennen, nutzten sie neue mathematische Verfahren, die für die Bilderkennung und den Abgleich von Fingerabdrücken entwickelt wurden – mit Erfolg. Seither versuchen sie, verschiedenste Gedanken systematisch mit spezifischen Aktivitätsmustern des Gehirns in Beziehung zu setzen – und dann im Umkehrschluss von Hirnmustern auf Gedanken zu schließen. „Brain Reading” nennt sich das neue Forschungsfeld. 

„Das Wort ‚Lesen’ trifft es eigentlich nicht richtig, denn wir kennen den sprachlichen Code des Gehirns noch gar nicht”, sagt Haynes. Ähnlich wie die englischen Code-Knacker, die im Zweiten Weltkrieg die Botschaften der deutschen Verschlüsselungsmaschine Enigma dechiffrierten, müssen die Neuroforscher die „Sprache des Gehirns” erst mühsam entziffern. Eine Mammutaufgabe, denn das Gehirn ist ein sich selbst organisierendes System aus 86 Milliarden Neuronen. Jeder Mensch hat zudem eigene Aktivitätsmuster – und damit einen ganz spezifischen Sprachcode im Gehirn. Bislang ist unklar, ob sich hinter diesen individuellen Codes ein universelles Codierungssystem finden lässt. „Das Fernziel unserer Forschung ist die universelle Gedankenlesemaschine, aber davon sind wir heute noch weit entfernt.”

Ob die Gedankenleser meinen Gedankenbrei entziffern können?

Bei meinem Experiment geht es darum, Gemeinsamkeiten in den Aktivitätsmustern zu finden, die auftreten, wenn ich die Tatorte sehe. Ich werde auf einer Liege in den Hirnscanner gefahren, und kurz darauf legt das MRT ratternd los. Eine knappe Stunde muss ich mir – bewegungslos in einer engen Röhre liegend – Bilder von Räumen anschauen. Ich erkenne alle am Tag zuvor besuchten Orte eindeutig wieder. Doch nach dem fünften Durchlauf kommen mir auch Räume, die ich nicht besucht habe, sehr bekannt vor. Wie Traumsequenzen ziehen die Bilder an mir vorbei, während meine Gedanken abdriften. Ob die Gedankenleser meinen Gedankenbrei entziffern können?

Mir geht eine Frage durch den Kopf: Was, wenn derartige Anwendungen in der Kriminalistik zum Einsatz kommen? Wenn Richter bei ihren Entscheidungen über Schuld und Unschuld Hirnscans heranziehen? In ersten Verfahren in den USA und Indien wurden fMRT-Sequenzen vor Gericht bereits als Beweismittel vorgebracht. Die US-amerikanischen Unternehmen Cephos und No Lie MRI versuchen, die Verfahren, ähnlich wie Gentests, in der Beweisführung zu etablieren, zum Beispiel als neue Methode der Lügendetektion. Bisher wurde ihnen die Zulassung verweigert. „Zu Recht, die Verfahren sind noch lange nicht praxisreif”, warnt Haynes. Ein Verdächtiger kann sich dem Test etwa entziehen, indem er die Augen schließt oder an ganz andere Dinge denkt. Ein Psychopath ohne Schuldbewusstsein kann gar jegliche Erinnerung erfolgreich verdrängen. 

Haynes wird nicht müde zu betonen, dass die meisten Anwendungen noch in weiter Ferne liegen. Zudem müsse man die Frage stellen, ob andere Wissenschaftsdisziplinen, etwa die Psychologie, nicht einfachere oder zielführendere Lösungen anbieten können. „Wenn ich wissen will, wo Sie wohnen, kann ich Sie in den Hirnscanner legen – oder Sie einfach fragen”, scherzt er. Wir nehmen den Umweg über die Hirnmuster, Experiment ist Experiment. „In ein paar Tagen haben wir Ihre Ergebnisse”, verabschiedet mich Haynes. 

Bei der Fußball-WM 2014 in Brasilien führte ein Querschnittsgelähmter den symbolischen Anstoß aus

In der Zwischenzeit unterziehe ich mein Gehirn einem weiteren Selbstversuch. An der TU Berlin arbeiten Mathematiker, Informatiker und Ingenieure gemeinsam an der Entwicklung von Hirn-Computer-Schnittstellen, auch BCI (Brain- Computer-Interface) genannt. Per Elektroenzephalografie (EEG) lesen sie die von den Gehirnströmen erzeugte elektrische Spannung an der Kopfhaut aus – und koppeln das Gehirn über diese Signale mit Rechnern.

Die Technologie mutet futuristisch an, klingt nach Cyborgs und Science-Fiction – und ist deshalb schlagzeilenträchtig. Immer wieder liest man davon, wie Amputierte mit Gedankenkraft Prothesen steuern, Gelähmte mit ihren Hirnsignalen Computer bedienen. Bei der Fußballweltmeisterschaft 2014 in Brasilien führte ein Querschnittsgelähmter den symbolischen Anstoß aus – mit seinem Gehirn bediente er dafür ein Exoskelett, eine Art Roboteranzug, mit dem er die Beine bewegte.

Bis Anwendungen wie diese im Alltag ankommen, wird noch viel Zeit vergehen. Doch die Szene ist für Überraschungen gut. Unternehmen aus der Spielebranche werfen bereits erste Headsets für Gamer auf den Markt, im Netz verbreiten sich Tutorials, wie man sich mit einfachen Bausätzen sein eigenes EEG-System basteln kann. In Open-Source-Projekten machen Neuroforscher und Brain-Hacker gemeinsame Sache und tüfteln an selbst gebauten Systemen, um Meditation zu unterstützen oder Spiele zu steuern. 

„Bei solchen Anwendungen muss man immer genau hinsehen”, sagt Benjamin Blankertz, der an der TU Berlin das Fachgebiet Neurotechnologie leitet und wie Haynes Mitglied des Bernstein Netzwerks für Computer-Neurowissenschaften ist. „Oft werden dabei nicht Hirnsignale, sondern Muskelsignale genutzt oder die Elektroden sind unter der Schädeldecke implantiert, wo die Signale viel stärker sind als an der Kopfoberfläche.” Hirn-Computer-Schnittstellen seien derzeit noch weit von der Marktreife entfernt.

Gemeinsam mit der Arbeitsgruppe von Klaus-Robert Müller, einem der weltweit führenden Experten für maschinelles Lernen, arbeiten die Wissenschaftler um Blankertz an neuen Algorithmen, um aus den komplexen Hirnsignalen diejenigen herauszufischen, die sich nutzen lassen, um Systeme zu steuern oder Aussagen über den mentalen Zustand einer Person zu treffen. Für erste Testsysteme klappt das schon ganz gut: Die Forscher konnten mit Hirnsignalen Computerspiele steuern und aus EEG-Signalen ablesen, ob jemand gleich seinen rechten oder linken Arm bewegen wird.

In einem Projekt zeigten sie, dass sich die Absicht zu bremsen beim Autofahren bereits 130 Millisekunden vor dem Bremsmanöver aus den Hirnsignalen ablesen lässt. In dieser Zeit bewegt sich ein 100 Kilometer pro Stunde fahrendes Auto knapp vier Meter weit. Könnte man also, indem man EEG-Signale an die Bordelektronik übermittelt, Unfälle vermeiden, Leben retten? „Der Fahrer könnte im letzten Moment merken, dass die Straße nass ist und sich doch für ein Ausweichmanöver entscheiden”, gibt Blankertz zu bedenken.

Ein Gedankenspiel, das sich auch auf militärische Anwendungen übertragen lässt. Das US-amerikanische Militärforschungsinstitut Darpa arbeitet bereits an Gehirnschnittstellen, mit denen Soldaten Feinde per Fernglas oder auf Satellitenbildern schneller identifizieren können. Was, wenn diese Technologien direkt mit dem Auslöser von Waffen gekoppelt werden? „Wenn solche Signale genutzt werden, umgeht man letzte Entscheidungsinstanzen”, warnt Blankertz. Der Soldat könnte zwar schneller reagieren. Aber vielleicht möchte er seine Entscheidung im letzten Augenblick korrigieren – ein BCI-System würde ihm diese Entscheidungsfreiheit verwehren.

Ich stülpe die weiße EEG-Haube mit 36 Elektroden über, die schweren Kabel hängen mir wie schlaffe Tentakel vom Kopf

Die Arbeitsgruppe von Blankertz arbeitet an ethisch weniger bedenklichen Anwendungen. In mehreren Projekten untersucht sie aktuell, wie sich BCIs sinnvoll in die Arbeitswelt integrieren lassen. Für Siemens haben die Wissenschaftler beispielsweise Mitarbeiter im Leitstand einer Industrieanlage mit einem speziellen BCI-System ausgestattet. Die Fragestellung dahinter: Lässt sich durch die Messung der Hirnsignale feststellen, ob eine Warnmeldung wirklich wahrgenommen wurde? Ähnliche Systeme könnten auch Zugführer im ICE unterstützen – und Unfälle vermeiden helfen.

In dem Versuch von Blankertz’ Arbeitsgruppe, an dem ich nun teilnehme, geht es um die Entwicklung einer wissenschaftlichen Rechercheplattform, deren Bedienung durch ein direktes Auslesen der Hirnaktivität unterstützt wird. Der Computer verfolgt meine Augenbewegungen und leitet aus den EEG-Signalen ab, welche der angezeigten Begriffe mich interessieren. Als ich im Labor ankomme, hat der Informatiker Mihail Bogojeski schon alles vorbereitet: Ich stülpe die weiße EEG-Haube mit 36 Elektroden über, die schweren Kabel hängen mir wie schlaffe Tentakel vom Kopf. Bogojeski verbindet die Schnittstelle mit dem Brain-Amp – einer Art Verstärker für Hirnsignale – und beginnt, jede einzelne Elektrode mit Kontaktgel zu unterspritzen. Es dauert eine knappe Stunde, bis ich verkabelt bin.

Dann muss der Algorithmus trainiert werden: Der Computer misst meine persönlichen EEG-Signale und lernt, sie richtig zu interpretieren. Nach 45 Minuten beginnen die Maschine und ich uns langsam zu verstehen. Regungslos sitze ich da und richte meine Aufmerksamkeit auf die am Computerbildschirm aufblinkenden Begriffe. Es ist faszinierend: Nach einiger Zeit klappt es wirklich. Der Computer registriert meine Hirnsignale und passt die Suchergebnisse entsprechend an. Was den Entwicklern für die Zukunft vorschwebt: eine Art symbiotische Suchmaschine, bei der Eingaben über die Tastatur um kognitive Signale ergänzt werden.

Doch noch ist die Entwicklung alltagstauglicher EEG-Geräte eine der größten Herausforderungen auf dem Weg zu reibungslos funktionierenden BCIs. Präzise Messungen sind ohne operative Eingriffe bis heute nur mit Nasselektroden möglich – oder in der schmerzhaften Variante mit Trockenelektroden, die mit großem Druck auf die Schädeldecke gepresst werden. Ich muss nach dem Test jedenfalls erst mal Haare waschen.

Wenige Tage später erhalte ich eine Mail von Haynes. Meine Ergebnisse sind da. „Wir konnten mit 100-prozentiger Genauigkeit unterscheiden, welchen Raum Sie gerade sahen”, schreibt er. Ob ich in einem Raum vorher schon war, ließ sich mit 80-prozentiger Genauigkeit ablesen. Wissenschaftlich betrachtet liegt das weit über Zufallsniveau – die Forscher konnten meine Gedanken also tatsächlich auslesen. Ein juristisch gültiges Beweismittel ist das jedoch nicht. Verraten haben mich übrigens spezifische Muster im medialen Parietalkortex und im parahippocampalen Campus – Hirnareale, die mit dem Gedächtnis und mit räumlich-visuellen Eindrücken zu tun haben. Als Einbrecher wäre ich trotzdem davongekommen. 

Der Mathematiker Benjamin Blankertz befasste sich mit der Verarbeitung akustischer Reize, bevor er zur Entwicklung von Hirn-Computer- Schnittstellen kam. Er ist Professor für Neurotechnologie an der Technischen Universität Berlin.

 

Der Psychologe und Hirnforscher John-Dylan Haynes war schon als Jugendlicher von der Macht des Unterbewussten fasziniert. Heute ist er Professor für Theorie und Analyse weiträumiger Hirnsignale am Bernstein Center for Computational Neurosciences und einer der führenden Wissenschaftler auf dem Gebiet des Brain Reading.

Text: Dietrich von Richthofen