60 Jahre Artificial Intelligence – Gegenwart und Geschichte einer Wissenschaftsdisziplin (Teil 2)

Artificial Intelligence (AI), intelligente Apps und intelligente Dinge – dies sind die drei Technologien, die schon im zweiten Jahr in Folge die Top 10 der Gartner Technology Trends anführen. Viele Methoden und Anwendungsfelder, die unter die Disziplin «Künstliche Intelligenz» fallen, wie z. B. Machine Learning, Deep Learning, Virtual Assistants und Smart Robots, nähern sich dem Gipfel der überhöhten Erwartungen des Gartner Hype Cycles. AI-Experten sagen voraus, dass intelligente Technologien innerhalb der nächsten 120 Jahre alle von Menschen ausgeführten Tätigkeiten vollständig automatisiert ausführen können, wobei signifikante Fortschritte zum Beispiel beim Übersetzen, Schreiben von Essays und LKW-Fahren bereits innerhalb der nächsten zehn Jahre zu erwarten sind.

Die baldige Ablösung menschlicher Arbeit durch künstliche Intelligenz wurde allerdings schon in den 1950ern vorhergesagt. Warum also jetzt der Hype um ein Thema, das mehr als 50 Jahre alt ist? Und wie ernst kann man Versprechen nehmen, die damals schon gemacht wurden und bis heute nicht eingetroffen sind?

Nachdem wir im ersten Beitrag die Grundbegriffe und Anfänge von Artificial Intelligence betrachtet haben, beschäftigen wir uns in diesem Beitrag mit Machine Learning und Deep Learning und gehen der Frage nach, wie sie AI-Anwendungen zu einem festen Bestandteil unseres Lebens gemacht haben.

Machine Learning und Deep Learning

Seinen momentanen Siegeszug trat AI mit Verbesserungen im Bereich Machine Learning an, das aus Methoden besteht, die es Maschinen erlauben, Muster zu erkennen und dadurch Dinge zu lernen, die ihnen nicht explizit einprogrammiert wurden. Zu diesen Methoden gehören zum Beispiel Regressionen, Clustering und Entscheidungsbäume, von denen letztere 1997 zum Sieg des Schachcomputers Deep Blue über den damaligen Schachweltmeister Garry Kasparow führten. Die bisher grössten Erfolge und damit den heutigen Hype hat das Machine Learning allerdings einer anderen Methode zu verdanken: dem Deep Learning, das künstliche neuronale Netze zur Klassifikation und Gruppierung von Daten nutzt. Deep Learning steht hinter den AI-Anwendungen, die mittlerweile fester Bestandteil unseres täglichen Lebens geworden sind: Suchanfragen oder Übersetzung bei Google, Empfehlungen von Netflix oder Amazon, Nachrichtenanzeige und Werbung bei Facebook, virtuelle Assistenten auf dem Smartphone oder zu Hause.

Abbildung 1: Zeitliche und thematische Verortung von Deep Learning (CC Sourcing, 2017)

Wie AI selbst sind auch künstliche neuronale Netzwerke alles andere als neu, das erste lässt sich auf das Jahr 1958 zurückdatieren. Dem menschlichen Gehirn nachempfunden bestehen künstliche neuronale Netzwerke aus mehreren Schichten sogenannter Neuronen, die eintreffende Inputdaten Schicht für Schicht verarbeiten und nach Relevanz gewichten, bis der Input nach Durchlaufen des Netzwerks entweder in eine vordefinierte Kategorie eingeordnet oder einer Gruppe ähnlicher Inputs zugeordnet wird. Dabei wird die Granularität der Klassifikation desto höher, je mehr Schichten durchlaufen werden. Um einen Input, z. B. ein Bild, korrekt klassifizieren zu können, muss das neuronale Netzwerk zunächst anhand vieler Daten trainiert werden, dabei gilt: je tiefer das Netzwerk (d. h. je mehr Schichten es besitzt; ab vier Schichten spricht man von Deep Learning), desto mehr Daten werden für diesen Schritt benötigt. Je nach Aufgabe des Netzwerks gibt es eine Reihe von Trainingsarten, die am häufigsten genutzt werden:

  • Supervised Learning. Beim Supervised Learning erhält das System eine grosse Anzahl an Beispielen, die mit Anmerkungen versehen sind und dem Netzwerk die Klassifikation sowie die relevanten Merkmale der Beispiele erläutern. Bei jedem Beispiel gleicht das System seine Vorhersage der Antwort mit der Lösung ab, korrigiert die Gewichtung der einzelnen Inputfaktoren und ist irgendwann in der Lage, Daten selbstständig korrekt zu klassifizieren. Beispiele für Supervised Learning sind unter anderem Bild- und Spracherkennung.
  • Unsupervised Learning. Beim Unsupervised Learning versucht das neuronale Netzwerk nicht, das passende Label zu einem Input zu finden, sondern sucht eigenständig nach Mustern, die ihm dabei helfen, ähnliche Daten zu gruppieren. Ein einfaches Beispiel dafür ist das Gruppieren ähnlicher Nachrichten oder Bilder in einem Album.
  • Reinforcement Learning. Beim Reinforcement Learning erhält der Algorithmus ein zu lösendes Problem sowie Vorgaben zu Variablen, deren Werte er im Rahmen der Problemlösung maximieren soll. Daraufhin simuliert der Algorithmus die Problemlösung so lange und übernimmt überlegene Lösungsschritte aus vorhergegangenen Versuchen, bis er den bestmöglichen Lösungsweg gefunden hat. Ein häufig verwendetes Beispiel für Reinforcement Learning ist das Trainieren eines Spiels, wie z. B. Super Mario, bei dem der Spieler auf jedem Level möglichst viele Punkte sammeln soll.

Mithilfe von Deep Learning ist es den am weitesten entwickelten Systemen mittlerweile möglich, 95 % aller Spracheingaben korrekt zu erkennen sowie in 99 % der Fälle Gesichter den entsprechenden Personen zuzuordnen. Im März 2016 befähigte es das Programm AlphaGo den Koreaner Lee Sedol, einen der weltweit besten Go-Spieler im wohl schwierigsten Strategiespiel der Welt zu schlagen. Und damit scheint das Potenzial von Deep Learning noch lange nicht ausgeschöpft zu sein, denn nur ein Jahr später besiegte die vierte Version des Go-Algorithmus, AlphaGo Zero, über 60 Go-Profis, darunter den Weltranglisten-Ersten Ke Jie. Und das nachdem es sich, nur mit den Regeln des Spiels ausgestattet, alle Strategien des Spiels selbst angeeignet hatte, ohne mit einer einzigen menschlichen Partie trainiert worden zu sein. Das Niveau der Version, die gegen Lee Sedol gespielt hatte, hatte es bereits nach drei Tagen erreicht.

Use Cases für Deep Learning umfassen vom Verhindern von Kreditkartenmissbrauch, über schnellere und bessere medizinische Diagnosen bis hin zur Umweltwahrnehmung sowie Spracherkennung in selbstfahrenden Autos eine beinahe unbegrenzte Fülle an Möglichkeiten. Zum Durchbruch verholfen haben dem Deep Learning vor allem die stetig ansteigende Rechenleistung und deren Verfügbarkeit z. B. durch Cloud Computing, Fortschritte beim Verständnis komplexer Probleme und dadurch verbesserte Algorithmen sowie die einfache Verfügbarkeit riesiger Datensätze, mithilfe derer die Algorithmen trainiert werden können.

Nun da AI ihren Weg in unseren Alltag gefunden hat und ein neuer AI-Winter daher wenig wahrscheinlich scheint, bleibt abzuwarten, ob die eingangs erwähnten Prognosen sich dieses Mal als realistischer erweisen und wie der Methodenschatz der künstlichen Intelligenz sich weiterentwickelt, um dieses Ziel zu erreichen. Anfang Mai zum Beispiel hat sich Google Duplex bei der Konferenz Google I/0 als guter Kandidat präsentiert, das erste Programm zu werden, das den ursprünglichen Turing-Test bestehen könnte, und zwar nicht schriftlich, sondern in natürlicher Konversation bei der telefonischen Reservation eines Friseurtermins und eines Tisches in einem Restaurant. Zugegeben, Google Duplex ist vorerst nur auf bestimmte Situationen trainiert und könnte daher in Gesprächen über andere Themen auf Probleme stossen; ausserdem würde wohl keiner der Konversationspartner von sich aus eine künstliche Intelligenz hinter dem Anruf vermuten, wodurch das für den Turing-Test notwendige Misstrauen des Gesprächspartners fehlt. Eine beeindruckende Leistung war diese Demonstration jedoch in jedem Fall und lässt Vorfreude auf kommende Entwicklungen aufkommen.

Tanja Hessel

Tanja Hessel

Tanja Hessel arbeitet seit fünf Jahren als wissenschaftliche Hilfskraft beim Business Engineering Institute St. Gallen. Zu ihren aktuellen Tätigkeitsfeldern zählen der CC Sourcing Newsletter sowie Forschung zum Thema Geschäftsmodellmuster im Ecosystem.
Tanja Hessel

Kommentar verfassen