te.ma ist seit dem 01. August 2024 bis auf Weiteres inaktiv und befindet sich im Archiv-Modus. Alle Publikationen sind weiter zugänglich. Der Kommentarbereich ist jedoch abgeschaltet. Bestehende Nutzerkonten bleiben bis 31. Juli 2025 weiter zugänglich, neue Nutzerkonten können nicht mehr angelegt werden. Unser Newsletter wird nicht mehr weiter bespielt.

Von Sommern und Wintern der KI

Re-Paper
Henry A. Kautz2022

Inhalte

Intro

Geschrieben von Matthias Karlbauer

Bei te.ma veröffentlicht 04.04.2023

te.ma DOI https://doi.org/10.57964/aett-2h56

Geschrieben von Matthias Karlbauer
Bei te.ma veröffentlicht 04.04.2023
te.ma DOI https://doi.org/10.57964/aett-2h56

Die Menschheit ist bereits zweimal an dem Versuch gescheitert, eine computerbasierte künstliche Intelligenz (KI) zu entwickeln. Der sogenannte dritte KI-Sommer könnte sich jedoch dauerhaft etablieren, spekuliert Henry A. Kautz 2020 in einem Vortrag. Er spannt einen Bogen von vergangenen KI-Sommern und -Wintern über die negativen Potentiale der Technologie bis hin zu seiner eigenen KI-Vision.

Zu Beginn seines dreiteiligen Vortrags erinnert Kautz an bereits vergangene Hochphasen der KI-Forschung. Die Geschichte der künstlichen Intelligenz teilt er dabei in drei Sommer und zwei Winter auf.

Den ersten KI-Sommer (1948-1966) beschreibt Kautz als irrationalen Überschwang: Nach der Erfindung des Computers im Jahr 1948 habe die Wissenschaft zum ersten Mal versucht, künstlich intelligentes Verhalten zu programmieren. Dabei wurden Symbole wie Schrift, Zahlen oder Sensordaten in einen Computer eingegeben, mittels vordefinierter Regeln verarbeitet und in eine Ausgabe überführt. Auf diesem Prinzip basierte zum Beispiel „Shakey“, ein Roboter, der komplexe Kommandos in Teilaufgaben aufbrechen und abarbeiten konnte. Darüber hinaus sei in dieser Zeit ein Grundpfeiler des maschinellen Lernens entstanden: das Perzeptron als eigenständige Lerneinheit mit dem biologischen Neuron zum Vorbild.

Als zerbrochene Träume bezeichnet er den ersten KI-Winter (1967-1977): Zahlreiche überoptimistische Vorhersagen hätten sich als unhaltbar erwiesen. Die Algorithmen versagten etwa kläglich bei der Spracherkennung, was die Branche den finanzstarken Investor DARPA kosten sollte. Auch im Vereinigten Königreich wurden sämtliche Forschungsgelder gestrichen mit der Begründung, dass die Systeme nur in ausgedachten Mikrowelten funktionieren und der echten Welt nicht gerecht werden können.

Dem zweiten KI-Sommer (1978-1987) gibt Kautz die Überschrift Wissen ist Macht: Eine Fokusverlagerung auf Expertensysteme hätte neuen Enthusiasmus verbreitet, indem KI-Systeme mit Expertenwissen gefüttert wurden. Diese Systeme waren immerhin dazu imstande, Patienten auf Basis von Symptomen eine Diagnose auszustellen. In diese zweite Blütezeit fallen außerdem bahnbrechende Erfindungen wie der Backpropagation Algorithmus, das Multilayer Perceptron und das Convolutional Neural Network. Diese Errungenschaften markieren die Geburtsstunde von künstlichen neuronalen Netzen. Daneben ebneten fundamentale Fortschritte im Reinforcement Learning den Weg für selbstlernende Systeme.

Der zweite KI-Winter (1988-2011) sei Kautz zufolge derjenige der missachteten Wissenschaft gewesen: Als sich die wissensbasierten Expertensysteme als kostspielig in der Wartung erwiesen hätten, sei eine erneute Abkehr von der visionären Technologie erfolgt. Die zweite Winterpause währte mit 23 Jahren mehr als doppelt so lang wie die erste. Schließlich wurde sie durch eine Revolution in der Bildverarbeitung beendet.

Als Deep Learning betitelt er schließlich den dritten KI-Sommer (2012-?): Das andauernde Zeitalter des Deep Learning profitiere am grundlegendsten von höheren Rechengeschwindigkeiten moderner Computer. So könnten viele Errungenschaften des zweiten Sommers erst jetzt auf hinreichend großen Datenmengen trainiert werden. Maßgeblich daran beteiligt war, so Kautz, etwa die Zweckentfremdung der Grafikkarte (GPU). Während sie ursprünglich für den Grafikbetrieb entwickelt worden waren, stellte sich die Hardware als überaus nützlich heraus in der parallelen Berechnung von bislang kostspieligen sequentiellen Operationen.

Im Anschluss an seine Aufteilung der Geschichte der KI in drei Sommer und zwei Winter stellt sich Henry A. Kautz die Frage, ob es wohl einen dritten Winter geben wird. Er ist in diesem Punkt deutlich: Nein. Seine Begründung: „Sie (die KI) funktioniert einfach. Obwohl sie grundverschieden von der menschlichen Intelligenz ist, kann die heutige KI leistungsstarke Anwendungen zum Guten oder zum Bösen vorantreiben.“1 Derartige Algorithmen sind aus unserem Leben also nicht mehr wegzudenken, auch wenn sie nicht viel mit menschlicher Intelligenz zu tun haben.

Kautz meldet bezüglich der heutigen KI-Algorithmen allerdings auch Bedenken an. So mahnt er etwa vor Fake Friends, also davor, dass sich KI-Systeme auf sozialen Medien als falsche Freunde ausgeben. Durch die permanente digitale Verfügbarkeit sieht er außerdem die Gefahr des Verlusts von Privatsphäre und warnt vor einem autonomen Abbau von Erdressourcen, speziell auf Ozeanböden.2 Im Kontext von autonomen Waffen bleibt er hingegen unentschlossen: So könnten autonome Waffensysteme immerhin menschliche Soldaten ersetzen, womit weniger Soldaten sterben würden.

Den dritten Teil seines Vortrags widmet Kautz schließlich seiner persönlichen KI-Vision. Dabei spricht er sich für eine Kombination aus symbolischen (erster Sommer) und neuronalen Systemen (zweiter Sommer) aus und skizziert damit eine dem menschlichen Denken überlegene Superintelligenz. Ob eine solche Superintelligenz allerdings erstrebenswert ist, lässt sich debattieren. 

Aus Kautz’ historischem Überblick lässt sich festhalten: Konzeptuell existierte ein Großteil der heutigen KI-Algorithmen und Lernverfahren bereits im letzten Jahrhundert. Neu im fortbestehenden dritten KI-Sommer sind hingegen die schieren Datenmengen im Verbund mit nie dagewesenen Rechenkapazitäten. Erst durch diese Errungenschaften konnten KI-Systeme die Funktionalität erreichen, die ihnen heute einen festen Platz in unserer Gesellschaft sichert.

Fußnoten
2

„It just works. Despite being utterly unlike human intelligence, today’s AI can drive powerful applications for good or for evil.“

Der Abbau Seltener Erden auf dem Meeresboden war bisher technisch nicht möglich. Kautz gibt zu bedenken, dass autonome Roboter diese Aufgabe in Zukunft bewerkstelligen könnten, womit die Biodiversität unter Wasser gefährdet würde.

Re-Paper

Offener Zugang
Offener Zugang bedeutet, dass das Material öffentlich zugänglich ist.
CC BY-NC 4.0
Dieser Artikel ist lizensiert unter einer CC BY-NC 4.0 Lizenz.
Verwandte Artikel

Nach Turing ist ein Computer eine Maschine, die programmiert ist, bestimmte Regeln zu befolgen. Diese Regeln können simple Anweisungen sein: „Addiere A und B und speichere das Ergebnis in X“, oder bedingte Anweisungen: „Wenn Fall A eintritt, dann führe Regel B aus“, oder auch Zufallskomponenten haben: „Wirf einen Würfel und speichere das Ergebnis an Stelle X“. Eine Regel kann auch bedeuten, eine existierende Regel zu verändern oder eine neue Regel aufzustellen. Regeln sowie Ergebnisse müssen hierbei gespeichert werden.

Das Perzeptron als mathematisches Modell wurde 1943 zuerst vorgestellt und markiert die erste Generation künstlicher neuronaler Netzwerke. Es besteht aus einzelnen künstlichen Neuronen. Jedes dieser Neuronen wird mit Signalen gefüttert und summiert diese auf. Wenn eine bestimmte Schwelle überschritten wird, gibt das Neuron selbst ein Signal aus. Dabei lernen die Neuronen die Eingangssignale so zu gewichten, dass die Ausgabe des Perzeptrons einem vorgegebenen Resultat entspricht. Im Gegensatz zum Perzeptron verfügen die Neuronen der heutigen zweiten Generation künstlicher neuronaler Netzwerke über keinen Schwellenwert mehr und erzeugen deshalb ununterbrochen Signale.

Die Defense Advanced Research Projects Agency (DARPA) ist Teil des US-amerikanischen Verteidigungsministeriums und hat zum Ziel, technologischen Fortschritt voranzutreiben.

Anstatt auf realen Sensordaten werden Algorithmen typischerweise zunächst auf Daten aus Computersimulationen getestet. Diese Simulationen bieten den Vorteil, Prozesse exakt definieren zu können, womit unkonfundierte Daten generiert werden können. Allerdings sind Algorithmen, die auf sauberen Simulationsdaten getestet wurden, üblicherweise nicht ohne Weiteres auf reale Sensordaten anwendbar.

Expertensysteme wurden entwickelt, um dieselben Entscheidungen zu treffen wie ein menschlicher Experte. Dafür mussten die Entwickler zunächst eine enorme Faktenmenge als Wissensbasis erstellen. Anhand von ebenfalls vorgegebenen Wenn-dann-Regeln sollte das Expertensystem anschließend eine Eingabe mit den Fakten kombinieren, um entweder nach weiteren Informationen zu fragen oder eine Einschätzung als Antwort auszugeben.

Der Backpropagation Algorithmus stellt die Grundlage des Lernens in künstlichen neuronalen Netzen dar. Mittels dieses Algorithmus werden die Freiheitsgrade (Gewichte) eines künstlichen neuronalen Netzes während der Trainingsphase so angepasst, dass es möglichst wenige Fehler macht.

Das mehrschichtige Perzeptron ist eine Erweiterung des Perzeptrons. Es besteht aus zahlreichen, in Schichten organisierten Perzeptronen. Es kann wesentlich komplexere Funktionen abbilden und damit auch schwierigere Probleme lösen.

Künstliche neuronale Netze (KNN) sind mathematische Funktionen, die durch die Funktionsweise von Nerven in unserem Gehirn inspiriert sind. Hierbei wird die Signalverarbeitung zwischen einzelnen „künstlichen Neuronen" simuliert. Jedes KNN besteht aus mehreren Schichten dieser Neuronen. Eingehende Signale, wie Beispielsweise Pixel in einem Bild, werden von Schicht zu Schicht weitergeleitet, bis sie in der finalen Schicht eine Ausgabe – 1 oder 0, Katze oder Hund – produzieren. Mehrere Schichten können sich hierbei komplexeren Funktionen annähern.

Das künstliche neuronale Netz findet breite Anwendung in der Bildverarbeitung, um Objekte auf Bildern zu erkennen. Auch Zeitserien, also Daten mit zeitlicher Dimension, können mit künstlichen neuronalen Netzwerken verarbeitet werden, um sie zu vervollständigen oder fortzusetzen. So basieren auch Algorithmen zur Sprachverarbeitung oder zur Wettervorhersage auf künstlichen neuronalen Netzen. Eine großartige Erklärungsreihe zu künstlichen neuronalen Netzen ist auf YouTube zu finden, unter https://www.youtube.com/playlist?list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi 

Das bestärkende Lernen kann als Try-and-Error-Verfahren beschrieben werden. Für jede Aktion, die ein Algorithmus ausführt, wird er belohnt oder bestraft. Der Algorithmus lernt mit der Zeit selbständig, welche Aktion er in welcher Situation ausführen muss, um seine Belohnung zu maximieren. Dieses Verfahren hat dazu beigetragen, Algorithmen das Schach- und Go-Spielen beizubringen.

Deep Learning ist eine Kategorie maschineller Lernverfahren, die auf besonders tiefen künstlichen neuronalen Netzen basieren. Als tief wird jedes künstliche neuronale Netz bezeichnet, das über mindestens drei Schichten verfügt. Während derartige Modelle Ende des 20. Jahrhunderts aufgrund von limitierenden Rechenkapazitäten noch wenig Anwendung fanden, trifft diese Definition heute auf beinahe jedes künstliche neuronale Netz zu.

GPUs (graphics processing unit) sind ein Computer-Bauteil, das ursprünglich für Grafikkarten entwickelt wurde. Sie funktionieren ähnlich wie CPUs, die typischerweise in Computern oder Smartphones als zentrale Recheneinheit verbaut sind. GPUs haben aber deutlich mehr Rechenkerne. Außerdem sind sie spezialsiert auf Rechenoperationen mit Matritzen und Vektoren, die für die Verarbeitung von Bildern wichtig sind. Diese Operationen kommen aber auch sehr häufig im Training und Betrieb von KIs zum Einsatz. Daher gehören GPUs und Grafikkarten mittlerweile zur Standardausrüstung von Rechenzentren für KI-Entwicklung.

Diskussionen
3 Kommentare
Es gibt neue Kommentare!
Te.ma befindet sich im Archiv-Modus und daher ist die Kommentarfunktion deaktiviert.
Total 3

Ich stimme dem Author zu, dass KI heutzutage bessere Chance für einen „ewigen“ Sommer hat als im letzten Jahrhundert. Allerdings würde ich das klare „Nein“ hier nicht unterstützen. KI ist eine Technologie, die mit vielen Sorgen und ernstzunehmenden Risiken verbunden ist, weshalb ich denke, dass es sehr darauf ankommt, wer die Entscheidungen trifft, wie sehr KI dann erforscht und in unseren Alltag integriert wird.

Zur Zeit von Sprachassistenten und Chatbots ist KI aus unserem Leben kaum wegzudenken, aber sobald die erste KI als Waffe eingesetzt wird oder deutliche Mengen an Jobs ersetzt, halte ich einen weiteren Winter nicht für auszuschließen - sowohl aus Angst vor der Technologie, als auch als politische Reaktion, wenn in der Bevölkerung protestiert wird.

Total 2

Dem stimme ich absolut zu, ich kann mir definitiv vorstellen, dass es einen weiteren KI Winter geben kann, aber nicht unbedingt technologisch, sondern gesellschaftlich bedingt.

Andererseits fällt mir historisch kein gutes Beispiel ein, wo Restriktionen gegen technologische Entwicklungen langfristiger funktioniert haben, auch wenn sie zwischenzeitlich auf Gegenwind erfuhren. Das wäre, glaube ich, spannend herauszufinden.

Total 2

Ich glaube nicht, dass es einen dritten Winter wie die letzten geben wird.

Die Technologie etabliert sich in einem solchen Ausmaß, dass selbst kritische Infrastrukturen bald nicht mehr ohne KI funktionieren werden.

Ja, es wird heftige Proteste und Boykotte gegen einige Systeme geben, und vielleicht wird die Implementierung per Gesetz gestoppt.

Aber bahnbrechende Erfindungen wie das Internet wurden auch nicht auf Eis gelegt.

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.