#14: Felix Bießmann
Transparente Daten

Intro: Wenn viele Leute von KI reden und darüber nachdenken, was es uns bringt, dann sieht man oft diese Bilder von Roboterarmeen, die die Welt beherrschen und so terminatormäßige Szenarien. Das glaube ich nicht, dass das die Wirklichkeit gut widerspiegelt. Ich glaube, das Potenzial von maschinellem Lernen liegt eher darin, die Beschleunigung an Automatisierung von Prozessen, Verwaltungsprozessen vielleicht. Insofern seh ich es weniger als Gefahr, sondern als als Chance, dass maschinelles Lernen unser aller Leben irgendwie einfacher machen wird. AskDifferent, der Podcast der Einstein Stiftung mit Leon Stebe.
LeonStebe: Kaum ein Bereich regt die Fantasie so sehr an wie die Forschung an der künstlichen Intelligenz. Wenn Maschinen künftig selbst lernen, wenn sie Dinge besser vorhersagen, wenn Systeme uns die Arbeit abnehmen können, was bedeutet das für uns Menschen? Damit beschäftigt sich Felix Bießmann. Er ist Einstein-Professor für maschinelles Lernen an der Beuth Hochschule für Technik Berlin. Er ist Forscher am Einstein Center Digital Future und er ist überzeugt davon, dass wir alle von künstlicher Intelligenz profitieren können. Schönen guten Tag, Herr Professor Bießmann.
Felix Bießmann: Guten Tag.
Stebe: Herr Bießmann, Sie haben promoviert zum Thema maschinelles Lernen. Was fasziniert Sie daran?
Bießmann: Ich glaube, die Tatsache, dass Menschen lernen und wie sie lernen, so ging das los, diese Faszination. Und im Laufe meines Studiums, des Bachelorstudiums, habe ich mich dann immer mehr für die Neurowissenschaften interessiert und dann später eben ja mich dafür interessiert, wie man das in Maschinen implementieren kann. Und ich glaube, daher kommt das ursprünglich von wie Menschen lernen, diese Faszination.
Stebe: Wie Menschen lernen, das heißt, Sie haben viel über den Menschen selbst gelernt, weil Sie die Maschinen gesehen haben?
Bießmann: Ja. Oft versucht man ja Systeme zu verstehen, indem man so proofs of concept macht, indem man eben versucht, etwas nachzubauen und dann schaut, was diese Systeme können oder nicht. Und damit kann man oft besser verstehen, wie biologische Systeme funktionieren könnten.
Stebe: Aber wie sind Sie darauf gekommen? Sie hätten sich ja auch in Anführungszeichen nur mit dem Menschen beschäftigen können. Wieso die Faszination für die Maschinen?
Bießmann: Ich glaube, getrieben wurde das hauptsächlich von so praktischer Notwendigkeit. Ich hatte damals in den Neurowissenschaften, als ich meinen Master gemacht hatte, da hab ich Brain Computer Interfaces gemacht, also Hirn-Maschine-Schnittstellen. Und die besondere Herausforderung bei Brain Computer Interfaces ist, dass die Daten sehr hochdimensional sind und es ziemlich kompliziert ist, die Hirnsignale aus diesen Messungen raus zu analysieren sozusagen. Und das ist generell so ein Trend gewesen, dass die Messverfahren für Hirnsignale immer komplexer wurden in den letzten Jahrzehnten und dass dadurch die Analysen auch immer anspruchsvoller wurden. Und irgendwann, ja, so Beginn der 2000er Jahre oder so, hat das Einzug erhalten, dass immer mehr maschinelle Lernverfahren eingesetzt wurden, um Hirndaten zu verstehen. Und ich glaube, so hat das bei mir angefangen. Ich hab eben einfach nur maschinelles Lernen gebraucht als Methode, um diese biologischen Hirndaten verstehen zu können. Und bin dann über diese Hirn-Maschine-Schnittstellen, also Brain Computer Interfaces reingerutscht in dieses maschinelle Lernen. Und na ja, während meines PhDs hab ich festgestellt, dass es auch ganz gut ist, wenn man das beherrscht, weil das vielleicht wichtig sein könnte und man damit auch noch andere spannende Sachen machen kann. Und hab dann nach meinem PhD nicht mehr so viel Neuro gemacht, sondern halt auch andere Daten analysiert damit.
Stebe: Viele verwenden den Begriff künstliche Intelligenz selbstverständlich, aber nur wenige durchdringen, was KI wirklich ist. Was ist künstliche Intelligenz für Sie?
Bießmann: Ja, das ist eine sehr gute Frage. Meistens antworte ich darauf mit einer Gegenfrage, was für Sie denn Intelligenz ist. Denn für mich und das ist, glaub ich, der Grund, warum ich angefangen hab mit diesen Neurowissenschaften, mir ist das nicht klar, was Intelligenz sein soll. Und es gibt viele verschiedene Definitionen. Der IQ, wie er getestet wird eben, hat viele Schwächen. Das wird auch allgemein so anerkannt. Ich persönlich weiß nicht, was Intelligenz ist, und deswegen fällt es mir sehr schwer, von künstlicher Intelligenz zu reden. Und besonders in den letzten Jahren, also im Zuge meines neurowissenschaftlichen oder kognitionswissenschaftlichen Studiums, hab ich immer mehr gelernt, dass es schwierig ist, menschliche Kognition von tierischer Kognition abzugrenzen. Darum ging es in dem Studium viel. Und wir erleben gerade alle, dass es sehr schwierig ist, Maschinenkognition von menschlicher Kognition abzutrennen mit Definitionen.
Stebe: Interessanter Gedanke, weil man quasi dann unterstellt, dass der Mensch sich etwas sehr wichtig nimmt und sich für sehr intelligent hält. Und wenn wir uns maschinell dem annähern, heißt das, wir haben da gar nicht die hohen Ansprüche, wenn wir von menschlicher Intelligenz sprechen.
Bießmann: Ja, genau. Also wenig Leute im Feld des maschinellen Lernens benutzen den Ausdruck künstliche Intelligenz, vermutlich auch aus den Gründen, die ich grade skizziert hatte. Aber die meisten sagen nur maschinelles Lernen. Da kommt Intelligenz nicht vor und das ist deswegen ein bisschen einfacher zu definieren. Wenn man diese Modelle entwickelt, kommt es oft vor, dass man Modelle findet, die ähnlich gut sind wie Menschen, zum Beispiel in der Klassifikation von Texten oder irgendwas. Wenn man dann untersucht, wie Maschinen das machen, merkt man oft, dass das sehr, sehr einfache Features sind, sehr, sehr einfache Merkmale, die die Maschinen benutzen, um zum Beispiel Texte zu klassifizieren. Und wenn man das dann wieder sozusagen reflektiert und überlegt, wenn das so einfach ist, dann ist vielleicht auch menschliche Kognition nicht so komplex, wie man das immer annimmt, sondern stützt sich auf ganz wenige oberflächliche Merkmale. Dann ist das vielleicht so, na ja, so eine ähnliche Kränkung, die Menschen empfinden, wenn ihre Kognition näher an die von Tieren heranrückt. Jetzt nicht nur Primaten, sondern halt auch ja, Vogelhirnen oder so was. Die können ja auch Dinge leisten, inzwischen weiß man das, die weit komplexer sind, als was wir noch vor zehn, 20 Jahren dachten.
Stebe: Was ist für Sie ein gutes Beispiel für maschinelles Lernen? Was ist für Sie etwas, wo Sie sagen, das ist eigentlich so der klassische Fall, der Best case?
Bießmann: Im Moment sehen wir, dass es sehr gut bei Sprache funktioniert. Diese Sprachmodelle, die jetzt gerade trainiert werden, werden immer besser. Davor haben ja die künstlichen neuronalen Netze den Durchbruch geschafft bei Computervision, also bei der Objekterkennung auf Bildern. Ich denke, das sind wahrscheinlich zwei der Beispiele, die das am besten verdeutlichen.
Stebe: Bei der Bilderkennung, da fällt mir irgendwie ein, also zum Beispiel in der Krebsforschung könnte man ja einfach solche Bilder von einer Lunge oder sonst wie ganz schnell irgendwie durch so einen Computer jagen. Und das System zeigt einem an, ist da was oder ist da nichts. Ist das schon konkret, wird das schon so angewandt?
Bießmann: Ja, also das ist ein super Beispiel. Ich selber hab auch Kollaborationen in dem Bereich. Und ich glaube, es ist ein sehr gutes Beispiel, weil das auch die Gefahren sehr gut vor Augen führt, die der nicht so verantwortungsvolle Einsatz von solchen Technologien birgt. Zum Beispiel kann man sich vorstellen, dass es Ärzte gibt, die dem System dann irgendwann blind vertrauen. Vor allem junge Ärzte, die vielleicht unter hohem Zeitdruck arbeiten und nicht so viel Erfahrung haben, können dann vielleicht dazu neigen, eher der Empfehlung eines solchen Systems zu folgen, als selber sozusagen noch mal genauer hinzuschauen oder vielleicht den Oberarzt zu fragen. Auf der anderen Seite stehen Ärzte, die sehr, sehr viel Erfahrung haben und vielleicht solchen Systemen einfach überhaupt nicht vertrauen können und deswegen dann die Ratschläge von solchen Systemen grundsätzlich ignorieren, obwohl diese Systeme eben die Fähigkeit haben, viel mehr Daten anzuschauen, als sich jeder noch so gute Arzt in seinem ganzen Leben anschauen könnte.
Stebe: Echt faszinierend, weil's dann darum geht, wer entscheidet eigentlich oder wie entsteht dieser Entscheidungsprozess dann?
Bießmann: Ja, genau. Ich glaube, wir sind sehr gut darin geworden, im maschinellen Lernen diese Systeme besser zu machen. Und was wir noch besser machen können, glaube ich, ist, Menschen in der Benutzung dieser Systeme zu schulen. Es gab in den letzten Jahren eine große Forschungsinitiative, sage ich mal so, in der Gemeinschaft des maschinellen Lernens dieser Forscher, diese Modelle transparenter zu machen. Und die Hoffnung war, dass wenn man die Entscheidungen oder die Vorhersagen von maschinellen Lernmethoden transparenter macht, dann wird es auch Menschen leichter fallen, deren Fehler schneller zu sehen oder überhaupt mehr Vertrauen zu haben und das richtige Maß an Vertrauen zu haben. Und wir haben grade so ein paar Studien gemacht, wo sich andeutet, dass das nicht immer der Fall ist. Also Transparenz kann auch schaden. Insbesondere kann es schaden, wenn es schwierige Entscheidungen sind und Leute sich dann aus Bequemlichkeit auf die KI verlassen. Und ja, das ist jetzt nur ein Beispiel davon, wie gerade in solchen verantwortungsvollen Berufen wie Ärzten, also bei Ärzten, bei Polizisten oder im Justizsystem, dass es nicht nur wichtig ist, die Maschinen besser zu machen, sondern es ist auch wichtig, Menschen im Umgang mit diesen Maschinen besser zu kalibrieren.
Stebe: Eine Maschine, ein Algorithmus kann ja nur so gut sein wie die Daten, mit denen das System eben gefüttert wird. Wenn die Daten schlecht sind, dann wird auch das Ergebnis schlecht sein. Ist das nicht nach wie vor ein riesiges Problem?
Bießmann: Ja, genau. Und ich glaube, das ist ein viel zu unterschätztes Problem. Viele Menschen nehmen maschinelles Lernen wahr als eine Blackbox von Algorithmen, die irgendwas tun. In Wirklichkeit sind die Algorithmen sehr oft schnell geschrieben. Also es gibt sehr gute Libraries, da kann sich jeder heutzutage diese Algorithmen runterladen und benutzen. Man muss sehr wenig programmieren. In den Kursen, die ich unterrichte, ist es oft so, dass nach nur einem Semester Leute sehr komplexe maschinelle Lernverfahren implementieren können. Das ist ein Privileg der Leute, die in unserer Zeit leben. Es gibt Daten, es gibt schnelle Hardware für fast kein Geld. Es gibt die Software, die offen zur Verfügung steht, denn Google und Facebook veröffentlichen ja all diese Sachen als Open Source und auch ihre trainierten Modelle. Es ist sehr einfach, diese Dinge zu bauen, die secret sauce, die eben große Unternehmen dann haben und die die auch oft in einen bedenklichen Wettbewerbsvorteil sozusagen denen bringt, sind die Daten. Und es wird oft vergessen, dass normale Softwaresysteme grundverschieden sind zu KI-Softwaresystemen. Normale Softwaresysteme werden getestet. Die sind vielleicht nicht immer ganz deterministisch, aber man kann unit tests schreiben, also einzelne Komponenten eines Softwaresystems, eines Standard-Softwaresystems kann man testen. Man kann große Integrationstests machen. Mit maschinellen Lernverfahren ist das anders. Man kann die testen, wenn man, bevor man die raus in die echte Welt bringt. Aber sobald maschinelle Lernverfahren in der echten Welt sind, sind sie echten Daten ausgesetzt. Daten, die vielleicht auch von Gegnern, also von Leuten, die das System irgendwie hacken wollen, generiert wurden. Daten, die vielleicht sich aus irgendwelchen Gründen verschieben, weil irgendwelcher Code nicht mehr funktioniert oder so. Und in diesem Kontext wird klar, Daten und Datenqualität sind eben das A und O für diese maschinelle Lernverfahren. Man kann maschinelle Lernverfahren nicht validieren, monitoren oder für deren Qualität bürgen, wenn man die Daten nicht unter Kontrolle hat und wenn man die nicht ordentlich validiert.
Stebe: Das kann auch Folgen haben und schwere Konsequenzen. Also der Fall, der immer wieder zitiert wird, ist ein System, das zum Beispiel einer Justizbehörde oder der Polizei sagt, wie wahrscheinlich ist es, dass eine verurteilte Person wieder rückfällig wird, also wieder Straftaten verübt? Und dann hat man herausgefunden, dass dieses System einen Bias hat, also eine Schlagzeile, einen Fehler, weil zum Beispiel in den USA Menschen mit schwarzer Hautfarbe schlechter oder ungerechter behandelt werden als Weiße. Und das darf natürlich nicht sein. Also da bringt dann maschinelles Lernen erst mal nichts.
Bießmann: Es gibt viele von solchen und anderen scheußlichen Beispielen von Biases. Es ist gut, diese Themen alle zu diskutieren, denn oft wird auch angenommen, nur weil ein Computer eine Entscheidung trifft, ist die objektiver. Was natürlich nicht stimmt, wenn man mit maschinellen Lernverfahren arbeitet, dann spiegeln diese Verfahren genauso die wider, die in den Trainingsdaten sind. Und wenn Polizisten voreingenommen sind bezüglich der ethnischen Herkunft und dann eben entsprechend so handeln und vielleicht mehr Leute aus einer gewissen Ethnie kontrollieren und diese Daten dann benutzt werden, ein Machine-Learning-Modell zu trainieren, dann wird das Modell genau diesen Bias auch widerspiegeln. Und es ist sehr schwierig, all diese Biases a priori sozusagen, wenn man sich nur die Daten anschaut, zu finden und auszuschließen. Ein Grund, warum das schwierig ist, ist, oft ist das so, dass diese Biases vielleicht sogar das Modell besser machen bei dem, was es tun soll. Also besser insofern, als dass in dem Fall der Rückfallwahrscheinlichkeit, das Rückfallrisiko besser vorhergesagt werden kann, wenn man diese Variable der ethnischen Herkunft drin hat in den Daten. Aber – und das ist jetzt das Perfide –, gemessen wird der Erfolg eines solchen Modells auch auf gebiasten Daten. Das heißt, wenn man gebiaste Daten hat, dann wird natürlich auch die Evaluierung davon beeinflusst sein und man denkt, oh, wenn ich jetzt die ethnische Herkunft rausnehme aus meinem System, um das fairer zu machen, dann wird das auch erst mal schlechter. Das liegt aber nur daran, weil die Metrik auch falsch und auch gebiast ist.
Stebe: Wie kriegt man dann die Schlagseite raus? Wie kriegt man den Bias raus aus dem System, aus so einem Algorithmus?
Bießmann: Die Forschung hat sich lange beschäftigt damit und es gibt eigene Konferenzen dazu. Und es gibt sehr viel, was publiziert wird. Man versucht oft, Modelle fairer zu machen, indem man die Modelle selbst verändert. Man kann Modelle fairer machen, indem man gewisse Features, Merkmale einfach gar nicht in den Daten hat, so wie Gender oder ethnische Herkunft. Und all diese Verfahren haben das Problem, dass sie eben methodisch zwar funktionieren, aber man braucht immer sozusagen die Hilfe von Nicht-Machine-Learninern, von Leuten, die sich in einer Domäne auskennen, diese Risiken, diese Unfairness-Probleme zu finden. Und deswegen finde ich, ist es ein gutes Beispiel, wie wichtig es ist, dass transdisziplinär oder interdisziplinär gearbeitet wird, dass Sozialwissenschaftler mit Machine-Learning-Forschern zusammenarbeiten, denn nur so kann man diese Sachen rausfinden. Also dass die zusammenarbeiten, eng zusammenarbeiten mit den Leuten, die die Machine-Learning-Modelle bauen. Das ist kein Prozess, der in einer oder zwei Generationen passiert, der dauert wohl länger.
Stebe: Können Sie nachvollziehen, dass viele die Entwicklung von künstlicher Intelligenz spooky finden? Also dass da großes Misstrauen herrscht?
Bießmann: Ja, also das kann ich sehr gut verstehen. Und es wird vielleicht auch davon getrieben, dass, wenn man Wissenschaftler fragt, was genau diese Modelle machen, dann können die das eben auch oft nicht sagen. Denn das ist oft eine Frage, die von eben den Trainingsdaten abhängt, die oft nicht mit veröffentlicht werden mit den Modellen. Und das ist die eine Seite. Die Wissenschaft arbeitet gerade noch daran zu verstehen, was diese komplexen, immer komplexer werdenden Modelle eigentlich gelernt haben und was die tun. Ich glaube, es ist wichtig, dass man der Bevölkerung klarmacht, dass der wissenschaftliche Fortschritt noch nicht so weit ist, dass wir alles verstehen, was diese Modelle machen. Aber dass das eben auch wichtig ist, dass diese Forschung weitergeht und dass man eben den Wissenschaftlern auch vertraut.
Stebe: Vertrauen ist ein guter Punkt. Es gibt einen anderen Kritikpunkt. Die Maschinen werden irgendwann mal so intelligent, dass sie dem Menschen die Arbeit komplett wegnehmen. Was sagen Sie zu diesem Argument?
Bießmann: Da mach ich mir auch sehr viele Gedanken drüber. Es gab auf Reddit, das ist so eine Website, wo Leute Meinungen posten und kommentieren. Da gab es Programmierer, die haben ihren eigenen Job weggescriptet, also komplett automatisiert. Und dann haben sie die Community gefragt, ist das amoralisch? Und es gab eine große Diskussion. Manche sagen, ja, das kannst Du nicht machen. Du wirst doch bezahlt. Sein Arbeitgeber hat den immer weiter bezahlt und er hat gutes Feedback bekommen für seine Arbeit, die er gemacht hat oder eben die seinen Code für ihn gemacht hat. Und diese Debatte spiegelt das ganz gut wider. Am Ende wurde der Mann, glaube ich, gefeuert, aber das ist wie gesagt, anecdotal evidence.
Stebe: Er hat sich selber wegprogrammiert.
Bießmann: Genau und dann kommt die Frage, sollte er dafür noch Geld verdienen dann, wenn sein Code seinen Job richtig macht oder nicht? Und das ist eine offene Frage. Ich hab da keine Antwort drauf, aber zu der Frage, ob man Angst davor haben sollte, glaube ich, nein. Also eine andere Anekdote ist, dass vor vielen Jahren, als die automatischen Blutdruckmessgeräte eingeführt wurden, haben vielleicht manche gedacht, jetzt brauchen wir keine Ärzte mehr oder kein Pflegepersonal. Und das ist natürlich Quatsch, denn das hat die Arbeit der Ärzte und des Pflegepersonals nur deutlich vereinfacht. Und ich glaube, man muss es eher so sehen, also maschinelles Lernen und Automatisierung im Allgemeinen sollen uns nicht Arbeit wegnehmen, die wir gerne machen. Das soll uns Arbeit wegnehmen, die vielleicht zu repetitiv ist, als dass wir die gerne machen, und soll uns Zeit geben für Dinge, die uns mehr Spaß machen oder Dinge, die Menschen einfach viel besser können.
Stebe: Und trotzdem wird der Einsatz von künstlicher Intelligenz und von maschinellem Lernen natürlich dramatische gesellschaftliche Folgen haben. Davon ist auszugehen dann, wenn es tatsächlich bestimmte Jobs nicht mehr gibt. Wie gehen Sie sozusagen mit dieser kritischen Debatte um. Die wird sie ja auch im privaten Leben erreichen.
Bießmann: Es gibt ja zum einen den Trend, dass dieser Wachstumsgedanke sowieso gerade so öfter mal hinterfragt wird und die Einstellung zur Arbeit, die vielleicht wir von unseren Eltern und Großeltern kennen, dass man einfach immer noch mehr arbeitet und zwölf bis 16 Stunden am Tag arbeitet, dass das öfter hinterfragt wird. Also es gibt schon vielleicht auch Leute, die vielleicht gern weniger arbeiten würden. Und vielleicht können Automatisierung und künstliche Intelligenz dabei ja helfen. Und ich arbeite in erster Linie daran, meinen eigenen Job weg zu automatisieren im Moment, weil eben die Automatisierung von Datenqualität und die Automatisierung von Machine-Learning-Systemen mir sehr am Herzen liegt, weil das eben sehr schwierig ist. Und ich glaube, dass man da mit maschinellem Lernen was machen kann. Deswegen bin ich vielleicht, also könnte ich solchen Leuten antworten, dass das nichts Schlechtes sein muss. Man macht dann eben was anderes. Und was man macht, ich kann das den Leuten ja nicht sagen, was passieren wird in der Zukunft. Und das konnten die Leute ja damals genauso wenig, als sie prophezeit hatten, dass wir jetzt dieses Auto haben. Es wird immer Pferdegespanne geben auf unseren Straßen. Ich glaube, dieser Fehler wird heute ja weniger gemacht. Leute glauben nicht mehr daran, dass eben alles so bleibt, wie es jetzt ist, nur weil das schon immer so war. Aber ich glaube, es ist sehr schwierig vorherzusagen, wie sich unsere Arbeitswelt verändert. Und ich finde das eigentlich eher spannend als furchteinflößend.
Stebe: Sie sehen das anders. Sie fragen auch anders. Also Sie haben nicht die Angst, dass die Maschine Ihnen was wegnimmt, sondern Sie glauben daran, dass Ihnen die Maschine mehr gibt, mehr Freizeit vielleicht auch.
Bießmann: Ja, genau. Wenn viele Leute von KI reden und darüber nachdenken, was es uns bringt, dann sieht man oft diese Bilder von Roboterarmeen, die die Welt beherrschen und so terminatormäßige Szenarien. Das glaube ich nicht, dass das die Wirklichkeit gut widerspiegelt. Ich glaube, das Potenzial von maschinellem Lernen liegt eher darin, kleine Tätigkeiten, Editieren von Dokumenten und Tabellen, die Beschleunigung an Automatisierung von Prozessen, Verwaltungsprozessen vielleicht, da liegt viel Potenzial von maschinellem Lernen, was Leute gar nicht so wahrnehmen, aber was unser Leben, glaube ich, doch verbessern kann. Und ich glaube, insofern sehe ich es weniger als Gefahr, sondern als Chance, dass maschinelles Lernen unser aller Leben irgendwie einfacher und weniger mit weniger repetitiven Aufgaben machen wird.
Stebe: Gibt's da auch Rückschläge? Gibt's da Momente, wo Sie sagen, ah Mist, da kommen wir nicht weiter?
Bießmann: Ja, also ständig. Aber ich glaube, dass wenn irgendwas nicht funktioniert, ist das an sich kein Rückschlag. Ein Rückschlag ist, wenn man nicht rausfindet, warum das nicht funktioniert. Aber wenn Hypothesen irgendwie falsifiziert werden, ist es ja immer so, eher, dass eine Chance, um an diesen Fehlern oder an diesen Gedanken zu schrauben und rauszufinden, warum das nicht funktioniert hat, was man anders machen muss.
Stebe: Sie arbeiten ja auch oder haben gearbeitet für den US-Konzern Amazon, auch als Data Scientist. Und warum ist Ihnen das dennoch wichtig, so für die Wissenschaft sich zu engagieren? Sie hätten ja wahrscheinlich auch einen hoch dotierten Job bei einem Konzern komplett haben können.
Bießmann: Also das größte Privileg, das ich empfinde jetzt in dieser Einstein-Professur, ist eben, frei forschen zu können und ohne mich an irgendwelche Ansagen von anderen halten zu müssen, zu erforschen, was ich grade wichtig finde. Ich glaube, im Großen und Ganzen ist die Freiheit der Forschung, die wir genießen als Professoren in Deutschland, unschätzbar wertvoll.
Stebe: Wie muss man sich die Arbeit an dem Einstein Center Digital Future dann vorstellen?
Bießmann: Kann man vielleicht sich vorstellen wie einen Co-Working Space, wo 50 Professoren ungefähr dann an verschiedenen Themen forschen. Und in allererster Linie bietet ihnen das Einstein Center Digital Future die Möglichkeit, neue Kollaborationen zu entdecken und spannende neue Anwendungen zu entwickeln.
Stebe: Und was ist dabei anders als zum Beispiel, wenn Sie für ein Unternehmen wie Amazon arbeiten, für die Sie ja auch gearbeitet haben?
Bießmann: Der Hauptunterschied ist, dass man freier entscheiden kann, an was man forscht und mit wem man forscht. Ansonsten würde ich sagen, ist die wissenschaftliche Arbeit, die in dem Bereich maschinelles Lernen grade stark vorangetrieben wird von der Industrie… In der Industrie ist die wissenschaftliche Arbeit – ich möchte dafür auch eine Lanze brechen für die Forscher in der Industrie. Wissenschaftliche Arbeit ist, egal ob in der Industrie oder in der Akademia, folgt sie den ähnlichen wissenschaftlichen Grundsätzen natürlich. Und die Wissenschaftler, die bei großen Industrieunternehmen arbeiten, haben auch so, ich sag mal, einen Arbeitsethos, dass eben alles, was sie erforschen, publiziert wird, dass das, was sie implementieren, auch publiziert wird unter Open-Source-Lizenzen, den Anspruch haben, wir zumindest auch in unserem Team und da wird Wert draufgelegt.
Stebe: Was möchten Sie da erreichen? Was ist Ihr Ziel?
Bießmann: Ich glaube, das wichtigste Ziel, was viele Wissenschaftler haben, ist, dass sie irgendwas machen und aufschreiben, was andere Leute als nützlich empfinden. Und das wird oft einfach in Zitationen gemessen. Das kann man auch verwechseln mit Geltungsdrang oder so was oder Narzissmus, aber letztlich ist schon die Hoffnung, dass man was baut oder was beitragen kann, was nützlich ist.
Stebe: Das sagt Professor Felix Bießmann, Einstein-Professor für maschinelles Lernen an der Beuth Hochschule für Technik Berlin, Forscher am Einstein Center Digital Future in Berlin. Herr Bießmann, danke Ihnen sehr für das Gespräch.
Bießmann: Danke Ihnen.
Stebe: Und alles Gute für Ihre Forschung.
Bießmann: Danke.
Stebe: Das ist AskDifferent, der Podcast der Einstein Stiftung, warum Wissenschaftlerinnen und Wissenschaftler anders fragen. Damit beschäftigen wir uns auch beim nächsten Mal und bis dahin verabschiedet sich Leon Stebe. Tschüs.