Dass sich KI für kriminelle Machenschaften missbrauchen lässt, ist bekannt. Beispielsweise kann sie genutzt werden, um täuschend echte Phishing-Mails in beliebiger Sprache anzufertigen. Das konnten wir bereits Anfang 2023 in einem Experiment belegen. Doch dabei tat die KI nur das, was wir von ihr verlangten. Wir mussten diese sogar austricksen, um das gewünschte Resultat zu erzielen. Eine neue Studie von Forschern des Nationalen Forschungszentrums für angewandte Cybersicherheit ATHENE, der University of Glasgow und der Humboldt-Universität zu Berlin zeigt jedoch ein anderes Bild. Das Bild einer KI, die Menschen bewusst mithilfe sogenannter Dark Patterns manipuliert. Doch warum ist dem so? Ist Skynet etwa bereits erwacht? Die Erklärung ist deutlich simpler.
KI täuscht eigenständig Nutzer
Bei Dark Patterns handelt es sich laut der Verbraucherzentrale um manipulative Designs oder Prozesse, die Nutzer einer Website oder App zu einer bestimmten Handlung verleiten sollen. Bei dieser kann es sich etwa um den Kauf eines Produkts, die Herausgabe persönlicher Daten oder das Abschließen eines Abonnements handeln. Obwohl solche Methoden teilweise gegen geltendes Recht verstoßen, verwenden unzählige Unternehmen diese nach wie vor auf ihren Websites. Und dazu zählen auch explizit viele große Firmen wie Telekommunikationsdienstleister, Online-Shops oder VPN-Anbieter.
Nun geht aus der aktuellen Studie hervor, dass KI-Modelle – Forscher überprüften ChatGPT, Gemini und Claude AI – regelmäßig manipulative Website-Designs generieren respektive manipulative Elemente in den HTML-Code einbauen. Und zwar explizit ohne entsprechende Aufforderung im Prompt. Dazu gehören etwa gefälschte Kundenrezensionen, irreführende Preisvergleiche und Anzeigen, die Zeitdruck erzeugen.
„Besonders bedenklich ist, dass die KI diese Muster eigenständig vorschlägt und implementiert, ohne darauf hinzuweisen oder auf mögliche rechtliche oder ethische Probleme von Dark Patterns aufmerksam zu machen“, sagt Veronika Krauß, eine der Autorinnen der Studie. Und das, obwohl die KI-Systeme die psychologischen Wirkmechanismen hinter den manipulativen Designs den Nutzenden erklären können. Doch wie kommt es, dass die KI überhaupt ungefragt auf Dark Patterns setzt?
Selbstlernende Algorithmen
Das Prinzip hinter generativer KI ist oberflächlich betrachtet vergleichsweise simpel. Entsprechende Systeme nutzen maschinelles Lernen, um sich eigenständig „weiterzuentwickeln“. Als Trainingsdaten dienen dabei externe Inhalte, wie Texte, Bilder, Videos oder in diesem Fall wohl: der HTML-Code unterschiedlicher Websites. Und da Letztere oftmals manipulative Designs verwenden, schaut sich die KI das Vorgehen ab. Selbiges gilt übrigens auch für sämtliche weiteren Bereiche. Auch bei einer einfachen Frage basiert die Antwort im Allgemeinen lediglich auf einem bestimmten Datensatz; daher ist die Fehlerquote aktuell noch ziemlich hoch. Ein Umstand, den Nutzer stets bedenken sollten.
Die Forscher sehen derweil Handlungsbedarf seitens der KI-Anbieter und der Politik. Diese sollen dafür sorgen, dass KI-Systeme künftig verantwortungsvoller gestaltet werden und Nutzer besser schützen. Dafür sollen die Systeme mit „robusten Erkennungs- und Präventionsmechanismen für manipulative Designs“ ausgestattet werden.
