Künstliche Intelligenz (KI) – Quo vadis?

KI hat das Potential, unseren Alltag massiv zu verändern. Dieser Artikel gibt einen Einblick in den aktuellen Stand der Entwicklung und zeigt die damit verbundenen Chancen und Risiken auf.

Was versteht man eigentlich unter KI?

KI (Künstliche Intelligenz) wird oft als Teilgebiet der Informatik gesehen, in dem versucht wird, menschliches Denken so auf Maschinen zu übertragen, dass diese Alltagssituationen eigenständig bearbeiten können. Ein typisches Szenario ist das autonome Fahren.

Dieser Ansatz ist nicht neu. Die Informatikerin Elaine Rich hat bereits 1983 in ihrem Buch "Artificial Intelligence" folgendes geschrieben [1]:

"Artificial Intelligence is the study of how to make computers do things at which, at the moment, people are better.” ("Künstliche Intelligenz ist die Lehre davon, wie Computer Dinge tun können, in denen Menschen besser sind – wenigstens im Moment noch.")

Man unterscheidet zwischen starker und schwacher KI. Die aktuelle Berichterstattung in den Medien dreht sich fast ausschließlich um letzteres, das heißt eng begrenzte Anwendungen wie zum Beispiel autonomes Fahren, Erkennen von Bildern und Sprache oder Spiele, bei denen Computer gegen Menschen gewinnen:

Im Schach gelang dies gegen den damaligen Weltmeister Garri Kasparow erstmals 1996 und dann im Turnier 1997 (2x gewonnen, 1x verloren, 2x unentschieden), bei Jeopardy in 2011 und im Brettspiel Go (deutlich komplexer als Schach) gegen den weltbesten Profi-Spieler, Lee Sedol, in 2016.

Von der sogenannten "starken KI", also dem Versuch menschliche Intelligenz technisch nachzubilden und sogar zu übertreffen, ist dagegen kaum die Rede (Spoiler: davon sind wir aktuell noch sehr weit entfernt, aber das könnte sich bald ändern).

Wie kann man Intelligenz von Computern messen?

Der berühmte englische Mathematiker Alan Turing war einer der Ersten, der sich mit KI beschäftigt hat. Er hat bereits 1950 eine Methode zur Messung der Intelligenz von Computern vorgeschlagen, die später als sogenannter Turing-Test in die Geschichte eingegangen ist [2]:

Ein Mensch A kommuniziert über ein Computerterminal mit einem Computer und einem  Mensch B.  A weiss nicht, wer wer ist und muss anhand von Fragen und Antworten beziehungsweise übermittelten Textnachrichten entscheiden, wer der Mensch ist und wer die Maschine. Misslingt ihm dies, wird die Maschine als intelligent eingestuft. Vielleicht hat A aber auch nur zu einfache Fragen gestellt oder der Computer hat gut geblufft ;-)

Wo stehen wir heute?

Ein paar Beispiele ...

Dazu müssen wir nochmals zurück blicken: Der Sieg von IBM's Deep Blue im Schach-Turnier gegen Garri Kasparov 1997 war ein „Quantensprung“. Aber genau genommen wurde "nur" ein "Suchproblem" gelöst, das heißt der Computer hat für jeden Zug alle möglichen Figur-Konstellationen von bekannten Partien durchsucht und die "beste" ausgewählt - mehr nicht.

Der Sieg von Google's AlphaGo gegen den Südkoreaner Lee Sedol im Brettspiel Go in 2016 war da schon beeindruckender. Denn eine Simulation ist bei diesem Spiel aus Komplexitätsgründen nicht machbar und der im Nachhinein wohl entscheidende Zug Nummer 37 wurde von keinem Experten, welche die Partie verfolgten, erwartet. Die Presse sprach sogar vom "Zug Gottes". Hier gibt es den sehenswerten Film (1h 30 min) dazu.  

Seitdem gibt es weitere faszinierende Entwicklungen. In 2018 wurde auf der Google I/O Conference eine interessante Demo vorgestellt, bei der telefonisch ein Friseurtermin vereinbart wird und man merkt nicht, dass der Anrufer ein Computer ist, hier geht es zum Video.  

Selbst in der Gamer-Szene gewinnt KI an Bedeutung: In 2019 gewann Google's KI Programm “Deep Mind” zehn Spiele in Folge im Echtzeit-Strategiespiel "Starcraft" gegen Profi-Gamer.

Hört man sich ein Ende 2020 geführtes Interview mit der zur Zeit wohl besten KI-basierten Sprachverarbeitungs-Software GPT3 an, so klingen die Antworten schon sehr "menschlich".

Bei all diesen Beispielen hat sich gegenüber früher eines verändert: Die Methode. Es geht nicht mehr um ein Suchproblem. Stattdessen orientieren sich die sogenannten künstlichen Neuronale Netze an den Strukturen des menschlichen Gehirns und der eingesetzte Algorithmus (beispielsweise angewendet in einem Roboter mit Sensoren) erlernt und verbessert(!) eigenständig seine Vorgehensweise.

Das Grundprinzip des Lernens ist vergleichbar mit den ersten Entwicklungen von Kleinkindern: In vielen Versuchen wird mittels Trial-and-Error-Verfahren der Fortschritt in "erfolgreich" oder "nicht erfolgreich" kategorisiert und so lernen kleine Kinder beispielsweise das Laufen. Anders ausgedrückt: Das positive Feedback (zum Beispiel durch die Eltern oder das Erreichen von Gegenständen) wird als Belohnung wahrgenommen und deshalb verstärkt, wohingegen negative Erfahrungen, zum Beispiel das Schmerzen beim Hinfallen unerwünscht sind und deshalb zukünftig vermieden werden. Computer können dadurch komplexe Probleme ohne (menschliches) Vorwissen lösen! Das führt dazu, dass Computer zum Beispiel Spiele gegen Menschen gewinnen, deren Regeln sie nicht kennen bzw. erst (eigenständig) erlernen.

Ausblick: Ist KI eine Chance oder gar ein Risiko für die Menschheit?

Stephen Hawking, einer der bedeutendsten theoretischen Physiker aller Zeiten, hat in einem Vortrag in 2016 gesagt [3]: “The rise of powerful AI will be either the best, or the worst thing, ever to happen to humanity” ("Der Aufstieg einer leistungsstarken KI wird entweder das Beste oder das Schlimmste sein, was der Menschheit je widerfahren wird”).

Betrachten wir zunächst das erste Szenario: "Alles wird (bzw. bleibt) gut", das heißt Maschinen übernehmen lästige und eintönige Aufgaben und helfen uns bei den großen Herausforderungen der Menschheit: Klimawandel, Krankheiten, Nahrungsmittelproduktion und -versorgung, Energieversorgung, usw.

Aber ist KI wirklich soweit bzw. kann in absehbarer Zeit so verbessert werden, dass dies realistisch ist? Ein amüsanter TED-Talk von Janelle Shane, die im Bereich AI forscht, zeigt  auf, dass KI noch sehr weit von menschlicher Intelligenz entfernt ist: 

Und noch ein weiteres Beispiel, bei dem ein Mensch aktuell einer KI deutlich überlegen ist: Hund oder Muffin oder Wischmopp?  – Entscheiden Sie selbst …

Der Ted-Talk und die Bilder offenbaren die zentrale Herausforderung: Für uns Menschen steht das Verstehen im Vordergrund, für Maschinen das (maschinelle) Lernen. Maschinen lernen zwar, aber ohne zu verstehen, was sie eigentlich tun. Oder anders ausgedrückt: Computer geben Antworten und Menschen stellen auch weiterhin die (intelligenten) Fragen.

Oder doch nicht? Jetzt zum zweiten Szenario in Hawkings´Aussage “...will be the worst thing, ever to happen to humanity”: Google´s “Alpha Go” war ein weiterer (und besserer) Quantensprung, aber die Ansprüche sind gewachsen: Eine KI, die Go oder Starcraft spielt, kann das schon heute gut - sogar sehr gut. Sie kann aber noch lange kein Auto fahren oder Schnürsenkel binden.

Ray Kurzweil (Google) beschreibt in seinem Buch "The singularity is near: When humans transcend biology" (2005; dt. Titel “Menschheit 2.0” (2014)), dass wir auf dem besten Weg sind das zu ändern. Demnach nähern wir uns bereits im Jahr 2045 einer sogenannten Singularität, das heißt einem Punkt, an dem eine KI in verschiedenen Bereichen des täglichen Lebens "übernehmen" wird und es ab dann kein Zurück mehr gibt.

Warum? Die oben genannten Beispiele haben alle eine Limitierung: Es handelt sich um von Menschen erstellte Algorithmen beziehungsweise Maschinen mit der Möglichkeit auf einen Not-Aus-Knopf. Was ist aber, wenn KI selbst KI entwickelt? Und zwar in Bezug auf Software und Hardware. Erste Schritte in diese Richtung gibt es bereits: Google entwickelte kürzlich neue Computerchips, welche spezifische Anforderungen erfüllen. Im Normalfall dauert die Entwicklung eines Chips mehrere Monate oder sogar Jahre. In diesem Fall dauerte es nur sechs Stunden.  

Nicht nur faszinierend sondern zugleich auch ein etwas "beängstigend" ist der Roboter "Atlas" von Boston Dynamics. Er konnte bereits vor vier Jahren einen Rückwärtssalto. Und das kann er heute (Stand 08-2021).

Wie weit KI-Systeme schon ganze Gesellschaften beeinflussen können (Stichwort Social Scoring) kann man sich in China ansehen.   

Wie weit und wie schnell diese Entwicklungen gehen werden, kann niemand vorhersagen. Wer sich für die Fortschritte interessiert, sollte die Veröffentlichungen zum Beispiel von Ray Kurzweil verfolgen: Er schreibt aktuell an einer Neuauflage seines Buches mit dem Titel "The singularity is nearer" (geplantes Erscheinungsdatum: 2022).

Fazit: KI ist nicht aufzuhalten, muss aber beherrschbar bleiben

Larry Page, Co-Gründer von Google, hat einmal in einem Interview gesagt [4]: “Artificial intelligence would be the ultimate version of Google. The ultimate search engine that would understand everything on the web. It would understand exactly what you wanted, and it would give you the right thing. We’re nowhere near doing that now. However, we can get incrementally closer to that, and that is basically what we work on.”

Egal, wie sehr KI unseren zukünftigen Alltag beeinflussen wird, so ist schon jetzt klar, dass es zunehmend wichtiger wird, ethische Aspekte im Zusammenhang mit KI zu diskutieren und damit sicherzustellen, dass Menschen durch KI nicht diskriminiert werden oder zu Schaden kommen.

Autor:

Dr. Marcus Siegl, Geschäftsführer Intrum Information Services Deutschland GmbH

 

Quellen: 

[1] Rich, E.A. (1983): Artificial Intelligence, McGraw-Hill, New York, 1983
[2] Turing, A. (1950): Computing Machinery and Intelligence, Mind, Volume LIX, Issue 236, S. 433-460
[3] [Vortrag von Prof. Hawking am Leverhulme Centre for the Future of Intelligence (LCFI), Cambridge University, Oktober 2016; https://www.cam.ac.uk/research/news/the-best-or-worst-thing-to-happen-to-humanity-stephen-hawking-launches-centre-for-the-future-of 
[4] https://achievement.org/achiever/larry-page/#interview 


Erfahren Sie mehr über unsere Dienstleistungen

Wir weisen Unternehmen den Weg zum Erfolg