Exabyte

Einstein-Professorin Gitta Kutyniok ist eine Vordenkerin des neuen Forschungsgebiets Compressed Sensing in Deutschland. Die Theorie ermöglicht es, Daten bereits in komprimierter Form zu erfassen, statt sie nachträglich zu komprimieren, wie bisher üblich. Im Interview spricht Kutyniok über ein explodierendes Forschungsfeld, das für viele Anwendungsbereiche nützlich ist – und im Berliner Mathematik-Kosmos einen festen Platz gefunden hat.


Was leistet das neue Forschungsfeld Compressed Sensing für die digitale Gesellschaft?

Compressed Sensing hat bereits heute eine zentrale Stellung in der Datenverarbeitung. Es werden immer größere Datenmengen produziert, und Studien zeigen, dass die Summe aller digitalen Daten bis zum Jahr 2020 auf mehr als 40.000 Exabyte anwachsen wird – wobei ein Exabyte rund eine Milliarde Gigabyte entspricht! Man kann sich durchaus fragen, ob diese Daten wirklich alle gesammelt werden müssen. Albert Einstein sagte ja einmal: „Nicht alles, was man zählen kann, muss man auch zählen“. Das beinhaltet eine der zentralen Aussagen heutiger Datenverarbeitung: Der Informationsgehalt ist fast immer geringer, als es die Größe impliziert. Compressed Sensing ist eine neuartige mathematische Methode, die es uns ermöglicht, Daten in einem Schritt zu erfassen und zu komprimieren. Man erfasst also nur den Informationsgehalt und die aufgenommene Datenmenge wird deutlich reduziert. 

Auf den ersten Blick erscheint es unmöglich, nur den wichtigen Informationsgehalt herauszulesen ...

Lange Zeit dachte man auch, das sei unmöglich. Basierend auf der Grundidee, dass der Informationsgehalt fast immer deutlich kleiner als die Größe der Daten ist, hat Compressed Sensing dann aber einen Durchbruch bei der Datenerfassung ermöglicht. Die Methodik wurde 2006 von zwei Forschergruppen parallel entwickelt, von David Donoho an der Stanford University und den drei Forschern Emmanuel Candès, Justin Romberg und Terence Tao, die damals am California Institute of Technology und an der University of California Los Angeles tätig waren. Viele Mathematiker haben danach das Potenzial erkannt und gemeinsam die Kerntheorie erarbeitet. Seither hat sich Compressed Sensing rasant zu einem zentralen Forschungsgebiet in der angewandten Mathematik entwickelt.

Die Methoden erlauben erstaunlicherweise, dass bei ausreichend geringem Informationsgehalt und linearen Messungen extrem wenige Messpunkte genügen, um die Daten mittels effizienter Algorithmen vollständig zu rekonstruieren. Das heißt, man verliert keinerlei Information bei der Datenerfassung. 

So kann zum Beispiel die Zeit verringert werden, die Patienten in einem Magnetresonanztomografen zubringen müssen? 

Ja, die notwendige Zeit der Datenerfassung von Magnetresonanztomografen lässt sich mit Compressed Sensing auf mindestens ein Sechstel verringern. In Stanford stehen schon Geräte, die das leisten, aber aufgrund klinischer Studien wird es noch Jahre dauern, bis der Fortschritt in der Praxis ankommen wird. Sehr vereinfacht könnte man sagen, dass ein Magnetresonanztomograf Punktmessungen an einem mathematisch transformierten Bild des Körpers vornimmt, aus denen sich das Gesamtbild rekonstruiert lässt. Wir sind daran interessiert, noch deutlich weniger Punktmessungen zu verwenden, damit Patienten für noch kürzere Zeit im MRT liegen müssen oder bei gleicher Zeit die Auflösung signifikant erhöht werden kann. 

Wie lassen sich die Punktmessungen verringern, ohne dass Qualität verloren geht?

Für die Bildrekonstruktion benötigt man ein Bausteinsystem, das die Daten effizient darstellt. Bisher wurden hierfür immer nicht richtungsbezogene Wavelets verwendet, zum Beispiel beim Kompressionsstandard JPEG2000. Diese Wavelets sind grob gesprochen eine Menge von stark lokalisierten Bildern, die durch Überlagerungen die Darstellung von Punktstrukturen sehr effizient ermöglichen. 

Gemeinsam mit Kooperationspartnern an der Charité in Berlin verwenden wir jetzt sogenannte Shearlets, die Kantenstrukturen viel besser erfassen. Bilddaten sind durch Kanten geprägt, auch weil das menschliche Auge und der zugehörige Bereich des Gehirns sehr stark darauf trainiert sind, Kanten zu erkennen. Unsere Shearlets können ein Bild daher viel effizienter darstellen – wir benötigen viel weniger Shearlets, als wir Wavelets bräuchten.

Welche Probleme können Shearlets noch effektiv lösen? 

Zum Beispiel die Rekonstruktion von Bildern, bei denen Bereiche fehlen – etwa weil sie zerkratzt sind oder übermalt wurden. Durch globale Annahmen über das ursprüngliche Bild werden Bedingungen an die Shearlet-Zerlegung formuliert und wenn diese Annahmen zutreffen, kann man die fehlenden Stellen vollständig rekonstruieren. 

Was fasziniert Sie persönlich am Compressed Sensing?

Die derzeitigen Ergebnisse und das Potenzial an sich sind schon faszinierend genug. Darüber hinaus bietet das Forschungsgebiet eine außerordentliche methodische Vielfalt mit Einflüssen aus verschiedensten Teilgebieten der Mathematik, darunter angewandte harmonische Analysis, Frame-Theorie, numerische lineare Algebra, Optimierung und die Theorie der Zufallsmatrizen. Auf der anderen Seite lebt es Interdisziplinarität. Es gibt derzeit ein wachsendes Interesse aus verschiedensten Anwendungsbereichen, zum Beispiel aus der Medizin, Radartechnik, Seismologie oder Telekommunikation. 

Das ist für mich die schönste Art der Mathematik: eine fundamentale Methodik zu entwickeln, die für einen ganzen Kanon von Anwendungen nützlich und mit schwierigen mathematischen Aufgabenstellungen verbunden ist, deren Lösung die Mathematik auch selber voranbringt. All das trifft auf Compressed Sensing zu, es ist ein Glücksfall für die Mathematik. 

Ist Ihre Forschung nicht auch für Geheimdienste oder kommerzielle Datenkraken attraktiv?

Ich denke, wir müssen mit offenen Augen und Ohren forschen. Wenn es so kommen würde, dass unsere Forschung für negative Machenschaften genutzt werden soll, müssten wir Grenzen ziehen. Aber im Moment sind die Anwendungen alle sehr positiv und tragen eher zur Datensicherheit bei. Dass Konzerne wie Google Ideen von Mathematikern nutzen oder weiterentwickeln, um Informationen über Personen zu sammeln, lässt sich kaum verhindern. Aber bei eigenen Kooperationen hat man durchaus Einfluss, wie die Forschungsergebnisse verwendet werden. 

Wie haben Sie Compressed Sensing für sich entdeckt? 

Nach meiner Habilitation an der Justus-Liebig-Universität Gießen habe ich mit einem Heisenberg-Stipendium der Deutschen Forschungsgemeinschaft lange Zeit in den USA verbracht – an den Universitäten Princeton, Stanford und Yale. An die Stanford University hat mich einer der Erfinder von Compressed Sensing eingeladen, David Donoho. Mit ihm zusammen habe ich eine Methode entwickelt und analysiert, um komplexe Strukturen in Bilddaten durch Compressed Sensing zu trennen. 
In Deutschland ist das Forschungsgebiet leider noch immer nicht sehr verbreitet, neben der TU Berlin gibt es erste Professuren zum Beispiel an der RWTH Aachen, an der Jacobs University Bremen, an der Universität Göttingen und an der TU München. Eines meiner Ziele ist es, in Deutschland viel mehr Leute für Compressed Sensing zu begeistern.

Und Berlin soll dabei im Zentrum stehen? 

Ja, es tut sich sehr viel im Moment. 2013 haben wir an der TU Berlin eine erfolgreiche Konferenz zu Anwendungsgebieten von Compressed Sensing durchgeführt, die jetzt im Dezember wieder stattfinden wird. Im April 2014 wurde das interdisziplinäre DFG-Schwerpunktprogramm „Compressed Sensing in der Informationsverarbeitung“ bewilligt, das ich mit Rudolf Mathar von der RWTH Aachen beantragt hatte und das wir gemeinsam koordinieren. Und im November 2014 wurde die neue internationale Graduiertenschule BIMoS an der TU Berlin eröffnet, bei der es um modell- und simulationsbasierte Forschung geht und Big Data und Compressed Sensing eine wichtige Rolle spielen werden. Zudem sind mehrere Drittmittelprojekte angelaufen, darunter ein sehr spannendes Projekt mit Christoph Schütte und Tim Conrad von der Freien Universität Berlin zu Diagnosemethoden für Krebserkrankungen, das vom Einstein-Zentrum für Mathematik finanziert wird (siehe dazu den Albert-Artikel "Gesunde Zahlen").

Compressed Sensing kann dabei helfen, Krebserkrankungen zu diagnostizieren? 

Ja, wir wollen eine zuverlässige Diagnosemethode für verschiedene Krebsarten entwickeln, die Patienten möglichst wenig belastet. Es reichen ein paar Bluttropfen, die dann in einem Massenspektrometer auf die darin vorhandenen Proteine – in diesem Zusammenhang auch Proteome genannt – analysiert werden. Wir sind an sogenannten disease fingerprints in diesen Proteomics-Daten interessiert, also den Fingerabdrücken der Erkrankungen. Mittels Compressed Sensing wollen wir sie aus möglichst wenigen Proteomen erkennen. Ein Problem dabei ist, dass die Daten massiv hochdimensional und extrem verrauscht sind. Das stellt zahlreiche neue Herausforderungen an Compressed Sensing.

Und worum geht es bei dem neuen DFG-Schwerpunktprogramm? 

Das Schwerpunktprogramm ist in der Elektrotechnik beheimatet, aber sehr mathematisch ausgerichtet, was durch das Koordinatorenteam aus einem Elektrotechniker und mir als Mathematikerin unterstrichen wird. Es berührt eine Vielzahl spannender und hochaktueller Anwendungsgebiete, zum Beispiel die effiziente Gestaltung von Mobilfunknetzen oder effiziente Sensornetzwerke zur verteilten Temperaturmessung im Bereich der Meteorologie. Ich hoffe, dass Compressed Sensing an der TU Berlin und an den anderen Berliner Universitäten und Forschungsinstituten dadurch noch viel stärker als bisher in die Anwendung getragen werden kann. 

Im letzten Jahr wurde das Berlin Big Data Center eröffnet – ein weiterer Schub für Ihr Fachgebiet? 

Ja, das ist für meine Kollegen und mich sehr wertvoll. Es ist vor allem aus der Informatik heraus entstanden, aber es könnten sich interessante Kooperationen ergeben. Die Projekte am Big Data Center werden an vorderster Front der Forschung angesiedelt sein, und für Deutschland ist so ein Zentrum – ein zweites entsteht in Dresden – essenziell, um eine weltweite Vorreiterrolle bei Big Data zu spielen. 
Welche theoretischen Grenzen reizen Sie? 

Eine wichtige offene Frage ist die nach einer analogen Theorie des Compressed Sensing, bisher ist die Kerntheorie fast rein digital. Signale, die in der Natur auftreten, sind allerdings immer analog und daher stellt sich die Frage, ob man die Theorie nicht auch für analoge Signale entwickeln kann – etwa für Audiosignale oder Hirnströme. Dazu habe ich ein Projekt mit einem Humboldt-Stipendiaten von der University of Houston gestartet, der in meiner Arbeitsgruppe zu Gast ist.

Was mich auch bewegt ist, dass uns derzeit zufällige Messungen die besten Ergebnisse für eine effiziente Datenerfassung liefern. Daraus ergibt sich die Frage, ob man die gleiche optimal geringe Anzahl von Messungen nicht auch mit vorher festgelegten Messungen erreichen kann. Wie bei der analogen Theorie sind wir da von einer Antwort noch sehr weit entfernt. Mathematisch gibt es also im Moment noch extrem viel zu tun, und je mehr Anwendungsgebiete sich für Compressed Sensing interessieren, desto mehr Fragestellungen ergeben sich. 

Gitta Kutyniok beschäftigt sich mit mathematischen Methoden der Datenanalyse. Sie ist Einstein-Professorin für Mathematik an der Technischen Universität Berlin und leitet die Arbeitsgruppe Angewandte Funktionsanalysis. Bevor die Ausnahmewissenschaftlerin 2011 nach Berlin kam, forschte sie unter anderem an den amerikanischen Universitäten Stanford, Princeton und Yale.

Interview: Mirco Lomoth