Die Generationen künstlicher Intelligenz
Die Entwicklung von Künstlicher Intelligenz (KI) ist bislang in drei Generationen, in sogenannten „Wellen“, erfolgt. Eine Einordnung von KI in solch einfache Kategorien ist eine starke Vereinfachung, für die sich sicherlich zahlreiche Gegenbeispiele finden lassen. Trotzdem lassen sich ansatzweise drei Generationen unterscheiden, die sich durch die folgenden Eigenschaften auszeichnen: 1) Handgemacht, 2) Statistisches Lernen, 3) Erklärbarkeit und Generative Modelle.
Erste Generation: Handgemachte KIs
Die erste Generation umfasst mehr oder weniger handgemachte, intelligente Systeme. Der künstlichen Intelligenz fehlt bei der ersten Welle eine selbst angelernte Wissensbasis. Entscheidungs-, Optimierungs-, oder Suchprobleme löst die KI deshalb stets ausgehend von Expertenwissen. Das Abstraktionsvermögen ist daher noch sehr gering. Die Herangehensweise ist somit nur für bestimmte Klassen von Problemen geeignet, für andere wiederum nicht. Beispielsweise kann ein System der ersten Generation einem Versandhändler helfen Versandkosten einzusparen:
Wie muss ich die Artikel einer großen Bestellung auf wie viele Pakete welcher Größe aufteilen, damit die Versandkosten bei der Auslieferung am geringsten werden?
Auch Schachcomputer sind der zweiten Generation zuzuordnen. Dem Computer werden hierfür die Regeln des Spiels einprogrammiert, anschließend berechnet er eigenständig den Optimalsten aus allen möglichen Zügen. Im Mai 1997 war es dann endlich soweit und ein Schachcomputer namens „Deep Blue“ konnte erstmals einen Schachweltmeister, damals Kasparov, besiegen. Der Sieg war allerdings nur unter Einsatz erheblicher Rechenleistung und Spezialhardware möglich.
Zweite Generation: Statistisches Lernen
Für „Go“, einem vor allem aus dem asiatischen Gebiet bekanntem Spiel, hat es fast weitere 20 Jahre gedauert, bis ein ähnlicher Erfolg erzielt wurde. Im Gegensatz zu Schach ist Go wesentlich komplexer, verglichen an der Anzahl möglicher Stellungen. Das macht es unmöglich, nur durch alleiniges betrachten des Spielbaums den optimalsten Zug zu identifizieren. Trotzdem hat es das Programm „AlphaGo“ im März 2016 geschafft, den Weltmeister Lee Sedol zu besiegen. Genutzt wurden dabei Techniken des Deep Learnings, wie Deep Neural Networks.
Aktuell reden wir hauptsächlich von der zweiten Generation von künstlicher Intelligenz, welche man grob als statistisches Lernen bezeichnen kann. Während die technologischen Grundlagen weitaus älter sind, konnten mit dem Statistischen und Tiefen Lernens (im Sinne der KI der zweiten Generation), besonders seit 2012 Erfolge gefeiert werden. Hierzu zählen u.A. Spracherkennungssysteme aus dem Bereich der maschinellen Übersetzungen, oder Alltagshelfer à la Siri, Alexa und Google Assistant. Neben den offensichtlichen und bekannten Errungenschaften sind KIs auch in weniger bekannten Anwendungsgebieten, wie z.B. Lippenlesen statistisch gesehen bereits besser, als ein Mensch. Man spricht auch deshalb von einer alleinigen statistischen Überlegenheit, weil es sich bei den zu lösenden Problemen meist um unsichere Entscheidungen handelt. Bei diesen kann ein Mensch oftmals gleichermaßen nicht auf Anhieb eine eindeutige „richtig“ oder „falsch“ Antwort finden. Deshalb ist es wichtig, dass für statistische Systeme feste Regeln vorgegeben werden. Andernfalls wäre es deutlich schwieriger eine Aussage zu treffen und das Verhalten des Systems zu erläutern. So haben Forscher in einem Forschungsbericht erklärt, wie sich Neuronale Netze durch spezifisch generierte Muster in die Irre führen lassen. Beispielsweise erkennt die Maschine auf einem Bild, worauf für einen Menschen nur ein undefinierbares Rauschen zu sehen ist, einen Geparden.
Ausblick: Dritte Generation: Erklärbarkeit und Generative Modelle
Bei der dritten und bislang letzten Generation von künstlicher Intelligenz steht die Forschung erst am Anfang. Die Forscher verfolgen das Ziel, ein System zu erschaffen, welches nicht nur in der Lage ist ein gewünschtes Ergebnis zu erzielen, sondern auch die Fähigkeit besitzt, die Ergebnis Herleitung zu erklären. In diesem Rahmen wird bei KI-Sytemene oftmals das Transparenzgebot diskutiert. Dieses besagt, dass die Gründe für die getroffenen Entscheidungen nachvollziehbar und in eine für den Menschen verständliche Form zu überführen sind. Bezogen auf das obige Gepardenproblem wäre es denkbar, der KI nicht anhand einer Unmenge von Beispielen beizubringen, wie ein Gepard aussieht, sondern zu zeigen, wie man einen Geparden malt. Die Fragestellung: „Sieht das wie ein Gepard aus?“ würde sich folglich ändern in: „Wenn du einen Geparden malen würdest, könnte dabei so etwas wie auf diesem Bild hier herauskommen?“
Wie bereits erwähnt, wird an der dritten Generation von künstlicher Intelligenz aktiv geforscht. Dabei sind nach wie vor zahlreiche Detailfragen offen. Inwieweit die derzeitige Generation ähnlich erfolgreich oder gar noch erfolgreicher wird, wie seine Vorgänger, wird sich erst noch zeigen. Jedoch sind Techniken, wie Generative Modelle, vielversprechend.