Was macht das Wesen eines Ballons aus? In Deep-Learning-Netzen lernen Computer, Objekte anhand von bestimmten Eigenschaften zu erkennen. (Bild: Alamy)
Künstliche Intelligenz (KI) fasziniert die Informatikwelt seit den Fünfzigerjahren: Damals veröffentlichte der britische Computerpionier Alan Turing das Werk «Computing Machinery and Intelligence».[1] Turing skizzierte die Idee, ein Programm zu entwickeln, das durch Lernfähigkeit menschenähnliche Intelligenz erreichen sollte. Um der Schwierigkeit einer Definition von KI gerecht zu werden, entwickelte er den sogenannten Turing-Test. Nach einem mehrminütigen Chat-Dialog mit ihrem Gegenüber muss die Testperson entscheiden, ob sie es mit einer menschlichen oder einer künstlichen Intelligenz zu tun hat.
Heute – fast 70 Jahre später – enthalten die meisten Smartphones Assistenten, von denen man Unterstützung erfragen kann, zum Beispiel beim Stellen eines Weckers oder der Steuerung der heimischen Lampen. Ist der Turing-Test also bestanden? Wohl kaum. Siri und Alexa sind noch weit entfernt von einer «allgemeinen» künstlichen Intelligenz im Sinne Turings.
Dennoch hat sich in den letzten Jahren eine Revolution ereignet – eingeleitet durch den Zuwachs an digitalen Daten und durch exponentiell wachsende Rechenkapazitäten. Beides sind Grundvoraussetzungen für das maschinelle Lernen (ML), das dem Computer menschliche Fähigkeiten wie Sehen und Hören näherbringt.
Ballons und Erdbeeren
Das bisher erfolgreichste Teilgebiet des maschinellen Lernens ist das «überwachte Lernen» (Supervised Learning). Basierend auf grossen, von Menschen annotierten Datenmengen wie beispielsweise beschrifteten Bildern von Objekten, werden komplexe Modelle trainiert, um das menschliche Verhalten nachzuahmen. Diese künstlichen neuronalen Netzwerke enthalten oft viele Millionen Parameter, die mittels Verfahren der mathematischen Optimierung auf die Daten angepasst werden. Diese Methodik ähnelt Ansätzen statistischer Regressionsverfahren, allerdings sind die ML-Modelle wesentlich komplexer.
Deep-Learning-Netze etwa können hierarchische Zusammenhänge über mehrere Ebenen erkennen. Eine Lernbasis liefert beispielsweise die Image-Net-Datenbank: Sie enthält Millionen von Bildern, denen Kategorien und Begriffe wie «Ballon» oder «Erdbeere» zugeordnet sind. Dank dieser Daten hat das maschinelle Lernen beachtliche Fortschritte erzielt: Innerhalb von acht Jahren sank die Fehlerrate der besten ML-Modelle von 25 Prozent auf 4 Prozent – dies entspricht etwa dem Wert, wenn Menschen die Zuordnung vornehmen. Weitere Erfolgsbeispiele sind die Spracherkennung und Übersetzungen, die auf sogenannten rekurrenten Netzwerken basieren. Eine populäre Variante davon (LSTMs) wurde in der Schweiz am Dalle Molle Institute for Artificial Intelligence Research (IDSIA) entwickelt[2]. Machine-Learning-Technologien sind bereits ein zentraler Bestandteil von Suchmaschinen und E-Commerce-Empfehlungssystemen.
Die Zahl der ML-Anwendungsbereiche steigt stetig. Ein Gebiet mit grossem Potenzial ist die Medizin, wo die Fortschritte im Bildverstehen[3] mittlerweile so gross sind, dass Entscheidungsunterstützung auf dem Niveau menschlicher Experten geboten werden kann. Auch entwickeln Forscher der ETH Zürich Systeme zur automatischen Überwachung von Intensivstationen in Spitälern.[4]
Um das Potenzial für ML-Anwendungen bestmöglich und branchenübergreifend auszuschöpfen, gründeten die ETH Zürich und die ETH Lausanne (EPFL) im Jahr 2017 das Swiss Data Science Center. Die Institution unterstützt Projekte in Wissenschaft und Wirtschaft – wobei die Anwendungsgebiete von der Medizin über Umweltwissenschaften bis zur Kosmologie reichen.
Neue Krankheiten erkennen
Eine weitere Ausprägung des maschinellen Lernens ist das «unüberwachte Lernen» (Unsupervised Learning). Hier gibt es zwar noch nicht so viele direkte praktische Anwendungen wie beim überwachten Lernen, dennoch ist der Fortschritt rasant. Beim unüberwachten Lernen erfassen Computer selbstständig Muster aus Daten. Sprich: Sie benötigen keine menschlich definierte «Beschriftung» als Lernsignal. Ein Anwendungsbereich ist wiederum die Medizin, wo sich anhand von ähnlichen Datensätzen neuartige Subtypen von Krankheiten erkennen lassen.[5]
Zum unüberwachten Lernen gehören insbesondere «generative Modelle», welche in der Lage sind, komplexe Bild- und Textdaten zu modellieren und automatisiert ähnliche Daten zu erzeugen. Grosses Potenzial besteht etwa in der Arzneimittelforschung[6] oder bei der Anonymisierung von Patientendaten.
Eine wesentliche Schwierigkeit der unüberwachten Verfahren ist die Validierung: Während im überwachten Lernen die Fehlerrate anhand von Testdaten bewertet werden kann (also etwa wie viele Bilder falsch klassifiziert wurden), ist das im unüberwachten Lernen nicht möglich. So ist im Voraus zum Beispiel nicht bekannt, wie viele Subtypen von unterschiedlichen Krankheiten in den Daten zu erwarten sind. Für die Grundlagenforschung stellt dies eine wesentliche Herausforderung dar.
Wo essen wir heute?
Sowohl das überwachte als auch das unüberwachte Lernen gelten als «passive Lernverfahren»: Ein Modell – zum Beispiel ein neuronales Netz – wird auf einem vorgegebenen Datensatz trainiert und danach zum Einsatz gebracht. Im Gegensatz dazu findet in «aktiven Lernverfahren» eine Interaktion mit der Umgebung oder den Nutzern statt.
Ein bekanntes Beispiel ist das bestärkende Lernen (Reinforcement Learning, RL), das zum Beispiel bei Empfehlungssystemen eingesetzt wird. Indem der RL-Agent Entscheidungen trifft, lernt er, wie sich die Umgebung verändert, und erhält dafür Belohnungssignale. Eine Herausforderung ist der sogenannte Exploration-Exploitation-Trade-off: Der Agent muss in jeder Situation abwägen, ob er eine erfolgversprechende Aktion wählt (Exploitation) oder ob er durch eine neue Aktion mehr über seine Umgebung lernen will (Exploration). Wir Menschen stellen uns solche Fragen häufig. Zum Beispiel, indem wir uns fragen: Sollen wir heute Abend in unserem Lieblingsrestaurant essen, oder probieren wir mal ein neues aus?
Computer triumphiert bei Go
Obwohl man seit Jahren zu Reinforcement Learning forscht, sind erst in jüngster Zeit grosse Durchbrüche erzielt worden. Ein prominentes Beispiel ist das Brettspiel Go: Im Gegensatz zu Schach, welches der Computer seit Langem mit herkömmlichen Planungsverfahren ohne Einsatz von maschinellem Lernen besser als der Mensch spielen kann, ist Go um ein Vielfaches komplexer. Hier schaffte es der Agent Alpha Zero der Google-Tochter Deep Mind, die besten menschlichen Go-Spieler zu übertreffen. Um sich zu verbessern, simulierte Alpha Zero unzählige Partien gegen sich selbst. Dabei experimentierte die KI mit neuen Zügen, um zu sehen, wie der simulierte Gegner reagiert.
Eine Voraussetzung für das Reinforcement Learning ist ein akkurater Simulator. Aus diesem Grund eignen sich Spiele besonders gut: Man weiss genau, wie das Go-Brett aussieht, sobald man selbst und der Gegner einen Zug gespielt haben. Ausserhalb der Spielwelt ist man auf möglichst realistische Simulatoren angewiesen. In der Robotik ist es Kollegen an der ETH Zürich beispielsweise kürzlich gelungen, mittels RL ihrem Lauf-Roboter «ANYmal» neue Gehtechniken beizubringen.[7]
Was aber, wenn keine hinreichend genauen Simulationstechniken zur Verfügung stehen? Dies ist so in unzähligen Anwendungen, von der medizinischen Rehabilitation über die Prozessoptimierung bis hin zur wissenschaftlichen Versuchsplanung. In diesem Fall ist das Ausprobieren von Aktionen mit unsicherem Ausgang potenziell riskant. Meine Forschungsgruppe entwickelt im Rahmen eines vom Europäischen Forschungsrat unterstützten Projektes neuartige RL-Verfahren.[8] Dabei geht es um die sorgfältige Schätzung der Unsicherheit in ML-Modellen, welche es erlaubt, robuste und unter gewissen Voraussetzungen beweisbar sichere Entscheidungen zu treffen – eine wichtige Herausforderung in der Robotik und weiteren Anwendungen.
Schweiz an der Spitze
Die Forschung zur künstlichen Intelligenz überschneidet sich mit anderen Wissenschaftsgebieten wie beispielsweise den Datenwissenschaften (Datascience). Dieser Wissenschaftszweig versucht anhand von algorithmischen und statistischen Verfahren Zusammenhänge und Einsichten aus komplexen Daten zu gewinnen. Wie die moderne KI greifen auch die Datenwissenschaften essenziell auf maschinelles Lernen zurück. Über ML hinaus verwenden moderne KI-Systeme oft weitere algorithmische, statistische, spieltheoretische und regelungstechnische Verfahren.
Die Schweiz ist in Sachen KI-Forschung gut aufgestellt. Dank der hohen Autonomie betreiben die Technischen Hochschulen seit Jahrzehnten Grundlagenforschung – sie forschten bereits, als KI noch kein heisses Thema war. In Sachen Impact (Zitationen pro Forschungsarbeit) rangiert die Schweiz international auf Platz 1. Mit dem Idiap Research Institute in Martigny und dem IDSIA in Manno TI gibt es zwei Forschungsinstitute, die sich auf KI und den Transfer in die Industrie spezialisieren. Die Forschungsprojekte der ETH Zürich und der EPFL erlangen auf den internationalen KI-Konferenzen regelmässig grosse Aufmerksamkeit.
Der ETH-Bereich setzt zudem systematisch auf den Schwerpunkt Datenwissenschaften. In diesem Zuge wurden nebst neuen Professuren auch neue Master- und Weiterbildungsprogramme sowie das bereits erwähnte Swiss Data Science Center gegründet. Auch die Universitäten und Fachhochschulen sind auf dem KI-Gebiet aktiv. Die Universität Zürich beispielsweise untersucht in ihrer Digital Society Initiative gesellschaftliche Auswirkungen der Digitalisierung und von KI. Auch private Unternehmen – darunter die Tech-Konzerne Google, Microsoft, Disney, IBM – forschen in der Schweiz zu KI.
KI ist kein Selbstzweck
Künstliche Intelligenz hat das Potenzial einer Querschnittstechnologie mit Anwendungen in allen Branchen. KI und maschinelles Lernen verändern dabei die Art und Weise, wie Forschung betrieben wird. Es erstaunt daher nicht, dass ein globaler Wettbewerb um dieses Zukunftsfeld herrscht. Damit Europa nicht den Anschluss an die USA und China verliert, begann sich vergangenes Jahr das Forschungsnetzwerk European Laboratory for Learning and Intelligent Systems (Ellis) zu formieren. Die Schweiz hat im Wettbewerb um kluge Köpfe gute Karten, muss aber konsequent in diesen Sektor investieren, wenn sie ihre Führungsrolle in der Forschung verteidigen will. Letztlich gilt: KI ist kein Selbstzweck – Innovation und Nutzen für die Gesellschaft entstehen durch enge Kollaboration von KI-Grundlagenforschung und Anwendungsdisziplinen wie Medizin und Robotik.
Wie bei jeder neuen Technologie bestehen Risiken – zum Beispiel stellen sich Fragen der Zuverlässigkeit, der Interpretierbarkeit und der Anfälligkeit bezüglich verzerrter Daten. Die Schweiz bietet ideale Voraussetzungen, einen weltweit anerkannten, vertrauensvollen Umgang mit Daten und KI-Technologien zu entwickeln und zu leiten. Diverse Forschungsprojekte haben sich bereits mit der Frage befasst, wie KI-Verfahren fair, transparent und robust zu gestalten sind.[9] Plattformen wie «AI for Good» der Vereinten Nationen in Genf können helfen, die Schweiz international zu positionieren und gesellschaftlich relevante Anwendungsgebiete wie Nachhaltigkeit und Ernährung zu identifizieren. Die Schweiz sollte deshalb die Chance nutzen, die durch KI geprägte digitale Zukunft positiv und vertrauenswürdig mitzugestalten.
- Turing (1950). []
- Hochreiter und Schmidhuber (1997). []
- Z. B. Cireşan et al. (2013). []
- Hyland et al. (2018). []
- Brodersen et al. (2014). []
- Gupta et al. (2018). []
- Hwangbo et al. (2019). []
- Berkenkamp et al. (2017). []
- Vgl. z. B. Berkenkamp et al. (2017), Moosavi-Dezfooli et al. (2018) und Goel et al. (2018). []
Literaturverzeichnis
- Berkenkamp, Felix, Matteo Turchetta, Angela Schoellig und Andreas Krause (2017). Safe Model-based Reinforcement Learning with Stability Guarantees. In: Advances in Neural Information Processing Systems: 908–918.
- Brodersen, Kay H., Lorenz Deserno, Florian Schlagenhauf, Zhihao Lin, Will D. Penny, Joachim M. Buhmann und Klaas E. Stephan (2014). Dissecting Psychiatric Spectrum Disorders by Generative Embedding. In: NeuroImage: Clinical 4: 98–111.
- Cireşan, Dan C., Alessandro Giusti, Luca M. Gambardella und Jürgen Schmidhuber (2013). Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks. In: International Conference on Medical Image Computing and Computer-assisted Intervention: 411–418.
- Goel, Naman, Mohammad Yaghini und Boi Faltings (2018). Non-discriminatory Machine Learning Through Convex Fairness Criteria. In: Thirty-Second AAAI Conference on Artificial Intelligence.
- Gupta, Anvita, Alex T. Müller, Berend JH Huisman, Jens A. Fuchs, Petra Schneider und Gisbert Schneider (2018). Generative Recurrent Networks for De Novo Drug Design. In: Molecular Informatics 37, no. 1-2: 1700111.
- Hochreiter, Sepp, and Jürgen Schmidhuber (1997). Long Short-term Memory. Neural Computation 9.8: 1735–1780.
- Hwangbo, Jemin, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso, Vassilios Tsounis, Vladlen Koltun und Marco Hutter (2019). Learning Agile and Dynamic Motor Skills for Legged Robots. In: Science Robotics 4, no. 26: eaau5872.
- Hyland, Stephanie L., Matthias Hüser, Xinrui Lyu, Martin Faltys, Tobias Merz und Gunnar Rätsch (2018). Predicting Circulatory System Deterioration in Intensive Care Unit Patients. In: AIH@ IJCAI: 87–92.
- Moosavi-Dezfooli, Seyed-Mohsen, Alhussein Fawzi, Jonathan Uesato und Pascal Frossard (2019). Robustness via Curvature Regularization, and Vice Versa. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition: 9078–9086.
- Turing, Alan (1950). Computing Machinery and Intelligence. In: Mind 49 (1950): 433–460.
Bibliographie
- Berkenkamp, Felix, Matteo Turchetta, Angela Schoellig und Andreas Krause (2017). Safe Model-based Reinforcement Learning with Stability Guarantees. In: Advances in Neural Information Processing Systems: 908–918.
- Brodersen, Kay H., Lorenz Deserno, Florian Schlagenhauf, Zhihao Lin, Will D. Penny, Joachim M. Buhmann und Klaas E. Stephan (2014). Dissecting Psychiatric Spectrum Disorders by Generative Embedding. In: NeuroImage: Clinical 4: 98–111.
- Cireşan, Dan C., Alessandro Giusti, Luca M. Gambardella und Jürgen Schmidhuber (2013). Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks. In: International Conference on Medical Image Computing and Computer-assisted Intervention: 411–418.
- Goel, Naman, Mohammad Yaghini und Boi Faltings (2018). Non-discriminatory Machine Learning Through Convex Fairness Criteria. In: Thirty-Second AAAI Conference on Artificial Intelligence.
- Gupta, Anvita, Alex T. Müller, Berend JH Huisman, Jens A. Fuchs, Petra Schneider und Gisbert Schneider (2018). Generative Recurrent Networks for De Novo Drug Design. In: Molecular Informatics 37, no. 1-2: 1700111.
- Hochreiter, Sepp, and Jürgen Schmidhuber (1997). Long Short-term Memory. Neural Computation 9.8: 1735–1780.
- Hwangbo, Jemin, Joonho Lee, Alexey Dosovitskiy, Dario Bellicoso, Vassilios Tsounis, Vladlen Koltun und Marco Hutter (2019). Learning Agile and Dynamic Motor Skills for Legged Robots. In: Science Robotics 4, no. 26: eaau5872.
- Hyland, Stephanie L., Matthias Hüser, Xinrui Lyu, Martin Faltys, Tobias Merz und Gunnar Rätsch (2018). Predicting Circulatory System Deterioration in Intensive Care Unit Patients. In: AIH@ IJCAI: 87–92.
- Moosavi-Dezfooli, Seyed-Mohsen, Alhussein Fawzi, Jonathan Uesato und Pascal Frossard (2019). Robustness via Curvature Regularization, and Vice Versa. In: Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition: 9078–9086.
- Turing, Alan (1950). Computing Machinery and Intelligence. In: Mind 49 (1950): 433–460.
Zitiervorschlag: Krause, Andreas (2019). Künstliche Intelligenz: Schweiz forscht an der Spitze. Die Volkswirtschaft, 26. November.