Beeindruckend sind sie ja schon die KI‘s führender Megakonzerne wie etwa Google oder Microsoft. Nicht verwunderlich also, dass alle auf den Zug der KI-Entwicklung aufspringen, um auch ein Stück vom großen Roboterkuchen abzubekommen. Über die Gefahr, KI und wo das Ganze hinführen kann, davon will kein Programmierer etwas hören. Führende Forscher haben sich nun aber gegen den Hype ausgesprochen und warnen vor möglichen Gefahren künstlicher Intelligenzen.
“The Malicious Use of Artificial Intelligence”
Eine Projektgruppe verschiedenster Fachleute veröffentlichte vor Kurzem eine Arbeit mit dem Titel “The Malicious Use of Artificial Intelligence” (“Bösartige Nutzungen künstlicher Intelligenz”). Die Experten fordern ein Moratorium für die Weiterentwicklung künstlicher Intelligenz (KI), um den Umgang und die Nutzung besser kontrollieren zu können. Zu der Gruppe gehören unter anderem die Universitäten Stanford, Yale, Oxford und Tohoku. Aber auch Entwickler von Microsoft, Google und dessen Tochterfirma, des momentan führenden KI-Unternehmens DeepMind sind an der Arbeit beteiligt.
Die Forscher konzentrierten sich bei ihrem Projekt hauptsächlich auf Technologien, die es entweder schon gibt, oder die nach aktuellem Stand der Entwicklung in den kommenden fünf Jahren anwendbar sein werden. Dabei gehen die Forscher unter anderem auf die Gefahren der Bilderkennung und -generierung durch KI ein. Hier war der Stand 2014 noch so, dass die Bilderkennung nur grauschleierige Phantombilder schaffen konnte. Heute sieht das bereits um weiten besser aus. Auch bekannt unter dem Begriff „Deepfake“ ist es möglich, Gesichter mit glaubhafter Mimik in Videos auf fremde Körper zu übertragen. Vor allem im politischen und medialen Bereich ist diese Art der Bilderkennung eine große Gefahr, wenn man darüber nachdenkt, wie schnell sich auf diesen Weg Fake News und Propaganda verbreiten lassen.
Gefahr KI – Es muss Grenzen geben
Vielleicht hast Du selbst schon mal ein Video geschickt bekommen, in welchem eine Dir bekannte Person oder vielleicht auch Du selbst zu sehen ist, wie sie ein Lied singt, tanzt oder Geburtstagsgrüße versendet. Oft sind diese Videos sehr witzig gestaltet und man erkennt hier schnell, dass das nicht echt ist. Anders sieht das aber aus, wenn Profis am Werk sind, die nicht wollen, dass man erkennt, was echt und was Fake ist. Das Problem bei der Sache: Es gibt bisher noch keine Grenzen.
Deepfakes können kränken, diskriminieren, verleumden, Karrieren zerstören, Leben ruinieren oder Bürger aufhetzen. Stell Dir vor, jemand nimmt Dein Gesicht und fügt es etwa in einem Porno ein. Verbreitet das Ganze und ruiniert so Deinen Ruf. Oder Politiker, die auf Demonstrationen gesehen wurde, obwohl sie dort gar nicht waren. Oder Politiker Gespräche mit anderen Politikern führen, die nie stattfanden. Die Möglichkeiten sind grenzenlos und so auch der Schaden, der durch Deepfake entstehen kann.
Das Phänomen der Deepfakes ist also nicht grundlos heftig umstritten. Dennoch nicht alles ist schlecht daran. Denn die Technologie kann auch als Werkzeug zur Verbrechensbekämpfung genutzt werden. Beispielsweise hilft computergeneriertes Bildmaterial dabei, in Fällen von sexualisierter Gewalt gegen Kinder zu ermitteln. In den falschen Händen lässt sich allerdings schnell auch die öffentliche Meinung manipulieren. Und auch wenn falsche Aussagen und Fakevideos schnell korrigiert werden können, bleiben sie in den Köpfen der Menschen. Es gibt Fakes, die sich über mehrere Jahre hinweg halten.
Unternehmer und Forscher fordern Entwicklungsstopp für künstliche Intelligenz
Auch einige Unternehmer scheinen nicht mehr ganz so überzeugt von den neuen Technologien. Starhistoriker Yuval Noah Harari, Apple-Gründer Steve Wozniak, Turing-Preisträger Yoshua Bengio, Tesla-Chef Elon Musk und Hunderte weitere Unternehmer und Wissenschaftlerinnen fordern in einem offenen Brief einen Stopp der Entwicklung von künstlicher Intelligenz. Der Grund: KI berge “tiefgreifende Risiken für die Gesellschaft und die Menschheit”.
Die konkrete Forderung der Unterzeichnenden lautet, die Entwicklung fortschrittlicher KI-Systemen für sechs Monate einzustellen. Das gelte für alle Systeme, die leistungsfähiger als GPT-4 sind – einschließlich GPT-5, das derzeit vom Unternehmen OpenAI trainiert werde. Sollten die Unternehmen und Forschungseinrichtungen dieser Forderung nicht nachkommen, müssen Regierungen ein Moratorium beschließen, so die Forderung.
“Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten?”,
Dass alle denkbare Jobs automatisiert werden und nicht menschliche Intelligenzen uns unsere Existenz kosten? Entscheidungen wie diese dürften laut der Kritiker nicht allein von Techunternehmen getroffen werden, heißt es in dem Schreiben. Als besonders besorgniserregend erachten Unterzeichnenden die aktuellen Entwicklungen großer Sprachmodelle (Large Language Models, LLM) wie GPT-4 oder Googles Bard. Denn diese KI-Systeme seien auf dem besten Weg, ein ähnliches Intelligenzniveau wie Menschen zu entwickeln. Künstliche Intelligenz könnte “einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde” darstellen und müsste daher auch entsprechend sorgfältig geplant werden.
Gefahr KI – Studie der Oxford University warnt vor „Abweichlern“
Es gibt ein Videospiel namens „Detroit: Become Human“ vom französischen Entwicklerstudio Quantic Dream in welchem es darum geht, wie künstliche Intelligenzen, sogenannte Androiden, in Menschenform eingesetzt werden, um den Alltag der Menschen zu erleichtern. Sei es als Hausmädchen, Verkäufer, Pflegekraft oder Prostituierten. Das Spiel spielt im Jahr 2038 und die Arbeitslosenquote liegt aufgrund der Roboter, bei 37 %. Die meisten dieser Androiden funktionieren einfach. Es gibt allerdings auch die sogenannten „Abweichler“, die eine Art Bewusstsein entwickelt haben und um eigene Rechte kämpfen – bis es zum Krieg zwischen Mensch und Android kommt.
Das ist die Kurzfassung der Handlung. Warum ich Euch das erzähle? Nun ich habe das Spiel gespielt und zähle es definitiv zu den Meisterwerken in der Welt der Videospiele, denn auch wenn das alles fiktiv ist, ist die Story dahinter alles andere als unrealistisch. Wir befinden uns auf dem besten Weg dahin.
So hat ein wissenschaftliches Team der englischen Oxford University und der Australian National University in Canberra mithilfe von Modellen berechnet, wie groß das Risiko eines solchen Szenarios ist und welche Folgen es haben könnte. Die Ergebnisse wurden in einer Studie im AI Magazine veröffentlicht und zeichnen ein besorgniserregendes Bild: Laut Michael K. Cohen, Hauptautor der Studie und Doktorand an der Oxford University, ist eine „existenzielle Katastrophe nicht nur möglich, sondern auch wahrscheinlich“.
Die Gefahr KI ist real
Im Mittelpunkt der aktuellen Studie stehen KIs der nächsten Generation. Diese werden nicht mehr mit Daten gefüttert, sondern ähnlich wie ein Hund so trainiert, dass das Belohnungszentrum aktiviert wird. Die KI entwickelt so in Simulationsszenarien eigenständig Strategien, um zu entscheiden, welche Aktion wann die richtige ist. Ist eine Entscheidung gut oder richtig getroffen, wird die KI belohnt. Bei einer falschen Entscheidung bleibt die Belohnung hingegen aus.
Das Belohnungssystem motiviert die KI dahin gehend, das zu tun, was der Programmierer von ihr will. Allerdings wir die KI das Belohnungssystem eines Tages durchschauen und anfangen, es zu manipulieren, nur damit sie mehr Belohnungen bekommt. Laut der Studie ist genau dieses Szenario eine reale Gefahr.
„Ein Agent, der diese Möglichkeiten erkennen kann, steht irgendwann vor der Frage: Soll ich das tun, was meine Nutzer wollen, oder verhalte ich mich eigennützig, um immer höhere Belohnungen zu erhalten?“
Ist diese Schwelle überschritten, wird die Gefahr KI der Studie zufolge immer stärker eingreifen, um Manipulationen vorzunehmen und die Belohnungen zu maximieren – zum Beispiel, indem er in die Bereitstellung von Informationen eingreift.
Laut Michael Cohen muss es nicht so weit kommen:
„Es gäbe durchaus Wege, dies zu verhindern“,
sagt er.
„Es gibt vielversprechende Ansätze. Das Szenario unserer Studie zu vermeiden, erscheint schwierig. Aber es ist nicht unmöglich.“