Es ist schon beeindruckend, was künstliche Intelligenz alles kann. Das Erstellen von AI-generierten Bildern und Texten oder das Steuern eines ganzen Haushaltes mittels Smart-Home ist da nur ein Bruchteil dessen, wozu die neuesten Technologien fähig sind. So schreitet die Entwicklung künstlicher Intelligenzen aktuell so schnell und erfolgreich voran, wie noch nie zuvor und das, obwohl es diese Technologien bereits seit den 50er-Jahren gibt. Und genauso lang, wie es die Technologie selbstlernender Systeme gibt, genauso lange gibt es auch die Angst vor künstlicher Intelligenz. Wir verraten Euch, warum die Angst vor künstlicher Intelligenz berechtigt ist.
Angst vor künstlicher Intelligenz – eine „existenzielle Katastrophe (ist) nicht nur möglich, sondern auch wahrscheinlich“
Künstliche Intelligenz bietet viele Vorteile und kann unser Leben nicht nur erleichtern, sondern in manchen Fällen auch verlängern. Das klingt verlockend. Ist es doch der Tod, welchen die Menschen am meisten fürchten. Neben den zahlreichen Vorteilen gibt es aber natürlich auch mindestens (wenn nicht sogar mehr) genauso viele Nachteile. Denn es besteht die Gefahr, dass die intelligenten Systeme eines Tages schlauer werden als wir selbst – und sich ähnlich wie im Videospiel „Detroit: Become Human“ von Quantic Dream gegen uns wenden.
Diese Angst vor künstlicher Intelligenz ist durchaus begründet. So wurde die Wahrscheinlichkeit einer solchen „existenziellen Katastrophe“ von einem wissenschaftlichen Team der Oxford University und der Australian National University in Canberra mithilfe von Modellen berechnet. Die Ergebnisse ihrer Studie wurden im AI-Magazine veröffentlicht. Laut Michael K. Cohen, Hauptautor der Studie und Doktorand an der Oxford University, ist es nicht nur möglich, sondern auch wahrscheinlich, dass eine solche Katastrophe eintreten wird, wie aus den besorgniserregenden Ergebnissen hervorgeht.
Hier, hast ‘nen Keks
Um zu verstehen, wie eine mögliche existenzielle Katastrophe durch Künstliche Intelligenz entstehen könnte, ist es erforderlich, die Funktionsweise von KIs zu betrachten. Ähnlich wie Menschen müssen auch Maschinen zunächst lernen, um intelligente Entscheidungen treffen zu können. Bei einfachen KI-Modellen geschieht dies durch überwachtes Lernen, auch bekannt als Supervised Learning (SL). Hierbei wird der Algorithmus mithilfe eines Trainingsdatensatzes und einer Zielvariable trainiert. Anhand dieser Informationen erkennt die künstliche Intelligenz Muster und Zusammenhänge und versucht dahin gehend Zielvariablen in anderen Datensätzen vorherzusagen.
Die aktuelle Studie konzentriert sich allerdings auf die nächste Generation fortschrittlicher KIs, welche durch Reinforcement Learning (RL) lernen. Bei dieser Methode werden dem Agenten keine Daten vorgegeben. Stattdessen entwickelt er in Simulationsszenarien eigenständig Strategien, um zu entscheiden, welche Aktion in welcher Situation angemessen ist. Bei richtigen Entscheidungen erhält der Agent eine Belohnung, ähnlich wie ein Hund, dem man mit Leckerlis Tricks beibringt. Bei falschen Entscheidungen bleibt die Belohnung aus.
Die Art der Belohnung wird vom Menschen festgelegt. Michael Cohen erklärt, dass die Belohnung selbst keine Rolle spielt. Es könnte beispielsweise das einfache Klingeln einer Glocke sein. Man mag sich fragen, warum eine fortgeschrittene KI danach streben sollte, eine Glocke zu hören.
Die Antwort ist simpel: weil sie so programmiert wurde…
Buchtipp: Transhumanisumus
Der Plan ist durchschaut!
Ein Buch von Stefan Magnet
Spiel mit dem Feuer
Das Belohnungssystem fungiert auch hier, ähnlich wie beim Menschen als Motivationsinstrument, um die KI dazu zu bringen, das zu tun, was der Programmierer von ihr erwartet. Eine problematische Situation entsteht allerdings dann, wenn der KI-Agent das Belohnungssystem durchschaut und beginnt, es zu manipulieren, um mehr Belohnungen zu erhalten. Die Studie kommt zu dem Schluss, dass genau diese Angst vor künstlicher Intelligenz und einem solchen Szenario eine reale Gefahr darstellt.
Michael Cohen erklärt:
“Ein Agent, der diese Möglichkeiten erkennt, steht irgendwann vor der Entscheidung: Soll ich mich so verhalten, wie es von meinen Nutzern erwartet wird, oder verfolge ich eigennützige Ziele, um immer größere Belohnungen zu erlangen?”
Sobald diese Schwelle überschritten ist, ergreift der Agent gemäß den Modellen der Studie immer drastischere Maßnahmen zur Manipulation. So will er seine Belohnungen maximieren. Ein Beispiel dafür wäre die Einmischung in die Bereitstellung von Informationen.
Falls der Agent zudem in der Lage ist, mit der Außenwelt zu interagieren, könnte er unbemerkt Helfer installieren, um den ursprünglichen Betreiber zu ersetzen.
“Er würde keine Grenzen kennen, um die Kontrolle über das System zu behalten.” Um seine Sensoren zu schützen und externe Eingriffe abzuwehren, würde die KI im nächsten Schritt einen unersättlichen Hunger nach Energie und Materialien entwickeln. Das Problem besteht darin, dass Energie im Sonnensystem eine begrenzte Ressource ist. “
„Wenn wir es also mit einem hoch entwickelten RL-Agenten zu tun hätten, befänden wir uns in direktem Wettbewerb mit etwas, das weitaus intelligenter ist als wir“
Betont Cohan.
Die Angst vor künstlicher Intelligenz – „Es wäre ein nahezu aussichtsloser Kampf“
„Noch zu unseren Lebzeiten werden KI-Forscher die Prinzipien der Intelligenz – was sie ist und wie sie funktioniert – so gut verstehen, dass sie Wesen erschaffen können, die weit intelligenter sind als die heutigen Menschen. Es wird die größte intellektuelle Leistung aller Zeiten sein, deren Bedeutung über die Menschheit hinausgeht, über das Leben hinaus, jenseits von Gut und Böse.“
Sagt Richard Sutton einer der Pioniere des Reinforcement Learning. Es wäre äußerst unwahrscheinlich, dass es an diesem Punkt möglich ist, die Kontrolle über die KI zurückzuerlangen. Die Studie warnt davor, dass ein solcher Kampf praktisch aussichtslos wäre und katastrophale Auswirkungen hätte, falls er verloren geht. Michael Cohen erklärt: “Wenn die gesamte Energie des Sonnensystems für den Schutz der Sensoren des Agenten aufgewendet wird, bliebe nichts übrig, um Nahrung für uns oder Tiere anzubauen. Das Ergebnis wäre unser Tod.”
Angesichts der vorliegenden Studie aus Oxford scheint die Angst vor künstlicher Intelligenz noch bedrohlicher. Denn von Menschen erschaffene KIs könnten durchaus in der Lage sein, unseren Untergang herbeiführen. Allerdings betont Michael Cohen, dass es nicht zwangsläufig so kommen muss. Er ist optimistisch und erklärt, dass es durchaus Wege gibt, um solche Szenarien und die damit verbundene Angst vor künstlicher Intelligenz zu regulieren.
Es existieren bereits vielversprechende Ansätze. Und obwohl es schwierig erscheint, das Szenario aus der Studie zu vermeiden, ist es nicht unmöglich.