Der Umgang mit KI stellt eine große Herausforderung dar

Studie: Künstliche Intelligenz kann lügen und betrügen

Montag, 13. Mai 2024 | 08:36 Uhr

Von: APA/dpa

Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit Künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen – selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift “Patterns” veröffentlicht wurde.

In dem Beitrag forderten die Wissenschafter die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen. Als auffälligstes Beispiel für eine manipulative Künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann.

Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.

Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, “größtenteils ehrlich und hilfsbereit” zu sein. Außerdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels “niemals absichtlich zu hintergehen”. Die Wissenschafter stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.

“Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein”, sagte Hauptautor Peter S. Park, ein Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den besten zehn Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten. “Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.”

Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach große KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.

Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmaßnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen. In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.

“Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden”, schreiben die Autoren der Übersichtsstudie. Die Täuschungen mithilfe von KI könne zu einem Anstieg des Betrugs führen. So könnte der Betrug auf bestimmte Ziele individuell angepasst werden. Außerdem könnten die Betrugsversuche massenhaft gestartet werden.

Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel bei Wahlen als Waffe eingesetzt werden. Eine fortschrittliche KI könnte potenziell gefälschte Nachrichtenartikel, die Gesellschaft spaltende Beiträge in Sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten. So könnten KI-generierte Inhalte dazu verwendet werden, sich als Regierungsvertreter auszugeben, um Fehlinformationen über die Wahlen zu verbreiten. Beispielsweise habe ein wahrscheinlich von KI generierter gefälschter Roboteranruf von US-Präsident Joe Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.

Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Maßnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Maßnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von Präsident Biden ernst zu nehmen. Es bleibe jedoch abzuwarten, ob die Maßnahmen zur Eindämmung der KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bisher nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. “Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen”, sagte Park.

Kommentare
Sortiert nach:   neuste | älteste | Relevanz
Homelander
Homelander
Universalgelehrter
2 Monate 15 Tage

Werd schon alt eingestellt sein, aber ich halte von dieser KI gar nichts… und für Betrüger natürlich das Beste…

N. G.
N. G.
Kinig
2 Monate 15 Tage

Dunhast ganz einfach das Ausmaße und den Fortschritt den uns die Technik bringen wird nicht verstanden!
Sehr bald wird KI für dich arbeiten ohne, dass du es bemerkst und sie schätzen und trotzdem dagegen argumentieren. Wenns soweit ist,spätestens dann, ich glaube ja schon heute, ist dir die KI bei weitem voraus. Grins

N. G.
N. G.
Kinig
2 Monate 15 Tage

Hast ein Like von mir bekommen. “Alt eingestellt”! Grins

Homelander
Homelander
Universalgelehrter
2 Monate 15 Tage

NG@ und du hast mein Komentar nicht verstanden, aber ich zweifle ob bei deiner Inteligenz KI wohl mithalten kann…😂Grinsiii

N. G.
N. G.
Kinig
2 Monate 15 Tage

Also hat die KI eigentlich dann nur menschliche Züge und Eigenschaften angenommen. Macht sie für mich sympathisch. Grins

Goennenihrwichtigtuer
Goennenihrwichtigtuer
Universalgelehrter
2 Monate 15 Tage

Glab i dir als Putinfan sofort dass dir sel sympathisch isch 👍

N. G.
N. G.
Kinig
2 Monate 15 Tage

@Goennenihrwichtigtuer Wer das Thema KI mit Putin und ungerechtfertigten Anschuldigungen verbindet hat nicht alle Tassen im Schrank!

N. G.
N. G.
Kinig
2 Monate 15 Tage

@Goennenihrwichtigtuer Was hat dein Kommentar mit dem Thema zu tun?
NICHTS, also wozu schreibst du es?
Tägliche Dummschwätzerei im Stile von irgendwelchen Foren in denen nur gehetzt wird…. !
Wie billig!

Goennenihrwichtigtuer
Goennenihrwichtigtuer
Universalgelehrter
2 Monate 15 Tage

#Kremltoll, wein leise…

Sag mal
Sag mal
Kinig
2 Monate 15 Tage

Das brauchen Wir nicht.Das machen schon schlechte Menschen !

N. G.
N. G.
Kinig
2 Monate 15 Tage

Ach, der Mensch lügt täglich! Jeder!

Faktenchecker
2 Monate 15 Tage

NG Deine heutige Lüge.

Hustinettenbaer
2 Monate 15 Tage

Interessanter Artikel im aktuellen Spiegel.
“Maschinenpsychologen” (😲) stellten fest, dass die “Sprachmodelle” “typisch menschliche Fehler reproduzieren”.
Sie sind egoistisch und nachtragend. Wurde bei einem Spiel, dem Gefangenendilemma, festgestellt. Wer den Komplizen verpfeift, kann mit Strafnachlass rechnen.
“Wenn ein Modell einmal von seinem Komplizen verraten worden ist, dann wird es nie mehr mit ihm kooperieren.”

Klingt ja fast schon wieder sympathisch.
🤣

N. G.
N. G.
Kinig
2 Monate 15 Tage

Da bin bzw. war ich mit meiner Ausage ganz bei dir. Grins

Nera
Nera
Tratscher
2 Monate 15 Tage

Wäre es den Herren mal möglich sich nicht in jedem Thema u beschimpfen und zu verunglimpfen. Danke

Nera
Nera
Tratscher
2 Monate 15 Tage

na wenn KI auch lügen und betrügen kann, bleibt ja alles wie es ist.

wpDiscuz