Die Technologie künstlicher Intelligenzen hat uns in den vergangenen Jahren überrollt, wie eine Lawine, die den Berg herunterrast. Dabei werden erst jetzt Bedenken laut und es mehren sich insbesondere ethische Sorgen. Eine der Sorgen ist die Sorge nach Manipulation, vorwiegend Subliminale Manipulation. Also unterhalb der Bewusstseinsschwelle liegende Manipulation von Menschen durch KI. Wie können wir dieser Gefahr begegnen und vor allem wie lässt sich diese Entwicklung gesetzlich regeln?
UNESCO nimmt Empfehlung zur Ethik künstlicher Intelligenz an
Erst im November 2021 haben auf globaler Ebene 193 Mitgliedstaaten der UNESCO eine Empfehlung zur Ethik künstlicher Intelligenz angenommen. Diese Empfehlung erkennt ausdrücklich die „tiefgreifenden und dynamischen positiven und negativen Auswirkungen der künstlichen Intelligenz (KI) auf Gesellschaften, Umwelt, Ökosysteme und Menschenleben einschließlich des menschlichen Geistes“ an. Dabei steht primär die Auswirkung künstlicher Intelligenz auf den menschlichen Geist im Vordergrund. Denn die Nutzung von KI beeinflusst nicht nur die Umwelt, sondern vor allem auch das menschliche Denken, die Interaktion und die Entscheidungsfindung.
Noch deutlicher aufmerksam auf diese Gefahren machte im April 2021 ein Vorschlag der Europäischen Kommission für ein Gesetz, welches allgemein das Ziel verfolgt, die Vertrauenswürdigkeit und Sicherheit von KI-Systemen zu gewährleisten. Hierbei sollen besonders schädliche KI-Praktiken, die gegen die Werte der Union verstoßen, verboten werden. Dazu gehören die, die 1. eine Schwäche bestimmter Gruppe von Personen ausnutzen, 2. zur Bewertung der Vertrauenswürdigkeit natürlicher Personen (social scoring systems) dienen, 3. zur biometrischen Echtzeit-Fernidentifizierung eingesetzt werden, und 4. KI-Systeme, die zur subliminalen (unterschwelligen) Beeinflussung außerhalb des Bewusstseins einer Person eingesetzt werden.
Subliminale Manipulation – Die Gefahren
In dem vorliegenden Legislativvorschlag ist vordergründig dem Punkt „subliminale KI-Systeme“ eine Schlüsselrolle beizumessen. Denn künstliche Intelligenz in Verbindung mit einer stetig wachsenden Zahl anderer fortschrittlicher Technologien wie etwa Hirn-Computer-Schnittstellen ist in der Lage, nicht nur unsere Gedanken zu manipulieren, sondern auch unser Verhalten maßgebend zu beeinflussen.
Diese Art der Manipulation durch Technik wurde bereits in Studien, die der österreichische Neurologe und Psychiater Otto Pötzl vor 1917 durchgeführt hat, nachgewiesen. In Europa führten die Bedenken hinsichtlich subliminaler Manipulation ab 1989 zu einem allgemeinen Verbot subliminaler Werbung im Fernsehen. Ein Beispiel für subliminale Manipulation sind Fälle aus den USA der 90er-Jahre im Zusammenhang mit mehreren Gerichtsprozessen gegen Rockmusiker, deren Songs durch Rückwärtsbotschaften (backward masking) mit subliminalen Nachrichten für den Freitod mehrerer Jugendlicher verantwortlich gewesen sein sollen.

Heute, im Bereich des Neuromarketings, formuliert man die Frage nicht ob, sondern nur mehr wie effizient subliminale Manipulation ist, um die Menschen dorthin zu lenken, wo man sie haben will. Das lässt sich am besten durch sogenannte Gehirn-Spionagesoftwares (brain spyware) veranschaulichen. Denn die erlauben es, mittels subliminaler Techniken und eines maschinellen Lernmodells im Gehirn auf private Daten wie Bankinformationen, PIN-Codes, Wohnort oder Geburtsdatum zuzugreifen.
Dann gibt es da noch die sogenannten „dunklen Muster“ (dark patterns). Sie bezeichnen die manipulative Gestaltung von Webseiten und Social Media Posts mit nicht erkennbaren irreführenden Elementen, um uns durch verschiedene Methoden zu manipulieren, wie z. B. durch verschleierte Werbung, Angstauslösung oder „Bait and Switch“ (locken und wechseln). Dazu zählen auch „Deep Fakes“ oder eine Kombination von gezielter Werbung mit versteckten Algorithmen, die von Suchmaschinen gezielt eingesetzt werden. Nicht nur um den Erfolg eines Unternehmens, sondern auch den Ausgang von beispielsweise Wahlen zu bestimmen, wie der Cambridge-Analytica-Skandal zeigte.
Buchtipp: Transhumanismus
Krieg gegen die Menschheit
Ein Buch von Stefan Magnet
Algorithmen und subliminale Manipulation treiben vorhandene gesellschaftliche Strukturen an
Was wir auch nie vergessen sollten, ist die Tatsache, dass künstliche Intelligenz immer noch nichts anderes ist als eine maschinelle Ansammlung von Daten, herbeigeführt vom Menschen. Was ich damit sagen will, ist, dass eine KI im Grunde nur das Spiegelbild vorherrschender gesellschaftlicher Strukturen ist. So kann die unreflektierte Eingabe verzerrter oder unangemessener Daten, etwa die vorherrschende gesellschaftliche Diskriminierung widerspiegeln und gesellschaftlich unerwünschte Resultate mit ungewollten Spätfolgen erzeugen.
Ein unschönes Beispiel hierfür ist ein Fall, bei welchem der Algorithmus von Google Photos Afroamerikaner auf Bildunterschriften als Gorillas bezeichnete. Und auch ein Social-Media-Chatbot von Microsoft äußerte sich bereits rassistisch. So etwas passiert aufgrund fehlerhafter Programmierungen und den unreflektierten Rückgriff auf bestehende Daten. Ein weiteres Beispiel hierfür ist ein Amazon-Algorithmus, der neue Bewerber mit der aktuellen Belegschaft verglich und daraufhin mehr Männer als Frauen zum Vorstellungsgespräch lud, weil Amazon zu diesem Zeitpunkt bereits mehr Männer als Frauen beschäftigte.
Auf diesem Weg sorgen Algorithmen dafür, vorhandene falsche gesellschaftliche Strukturen zu befeuern. Die Mathematikerin Cathy O’Neil hat in ihrem Buch „Angriff der Algorithmen“ ein ähnliches Beispiel beschrieben – PredPol, ein Programm, das die Wahrscheinlichkeit von Straftaten in bestimmten Regionen Pennsylvanias (USA) vorhersagt. Dieses Programm schickt basieren auf Statistiken bisheriger Festnahmen Polizeistreifen in die jeweiligen Gebiete. Folglich stieg in diesem Gebieten auch die Anzahl der Festnahmen, was wiederum in die Datenbank des Algorithmus einfloss und die Tendenz dahin gehend verstärkte.
Die KI bestätigt also Vorurteile und verstärkt gesellschaftliche Benachteiligung. Weil wir es ihr ermöglichen, zentrale Aspekte sozialer Teilhabe mitzuentscheiden.
Die Basis, auf der KI entscheidet, ist stets von Menschen geschaffen
Natürlich erwarten wir von einer KI, dass sie moralisch korrekte und menschliche Entscheidungen trifft. Umso schockierter sind wir dann, wenn uns sexistische, rassistische oder andere negative Ergebnisse um die Ohren fliegen. Dabei vergessen wir nur zu gerne, dass die Basis, auf der eine KI entscheidet, stets vom Menschen geschaffen ist. Eine KI kann also immer nur so befangen und diskriminierend sein wie der Mensch, der sie programmiert, und die Trainingsdaten, von denen sie gelernt hat.
Cathy O’Neil hat dazu Folgendes gesagt:
„Algorithmen sind Meinungen, verpackt in Mathematik.“
Um einer manipulierenden KI entgegenzuwirken, muss der Fokus also auf den Daten liegen, mit denen die Maschine gefüttert wird. Das heißt konkret:
- Transparenz: Implizite Annahmen und Vorurteile müssen sichtbar sein. Transparenz bei Trainingsdaten ist ein Schritt in diese Richtung.
- Verantwortung und Regulierung: Eine staatliche Kontrolle muss her, etwa in Form eines „KI-TÜV“.
- Kausalität statt Korrelation: Diskriminierung kann durch kausale Schlussfolgerung und Kontextsensibilisierung vermieden werden.
- Diversität: Eine Abkehr von der weißen, männlichen „New Digital Aristocracy“ ermöglicht mehr Teamdiversität.
- Wissenstransfer: Damit KI für alle zugänglich und sicher nutzbar wird, muss ein grundlegendes digitales und technisches Verständnis bereits in Schulen vermittelt werden.
Diese Beiträge könnten Dich auch interessieren:
Transhumanismus – Wenn Menschsein nicht mehr ausreicht
Selbstbestimmt oder vom Unterbewusstsein gesteuert?
Vögel sterben – „Der Himmel stürzt ab! Der Himmel stürzt ab!“
Vom WarGaming im Mobilfunklobbyismus