DE EN CN BR ES RU
Image
Icon

US-Militär-Test: Ab wann wendet sich KI gegen uns?

KI ist in aller Munde und so sehr es uns nutzen kann, so sehr könnte es uns auch schaden.... Leni | Juni 4, 2023

KI ist in aller Munde und so sehr es uns nutzen kann, so sehr könnte es uns auch schaden. Vor kurzem gab es dazu zwei Experimente, die auf jeden Fall zum Nachdenken anregen sollte.

Das US-Militär hat eine künstliche Intelligenz eingesetzt, um eine Angriffsdrohne zu steuern. So weit, so gut. Aber dann kam die KI der Drohne in mehreren Simulationen zu dem Schluss, dass ihre Aufgabe am besten erfüllt werden kann, wenn sie den  menschlichen Kontrolleur ausschaltet.

KI Simulationen zum Fürchten

Laut der USAF hat die Simulation nie stattgefunden und es handelte sich lediglich um ein Gedankenexperiment. “An mehreren Stellen in einer Reihe von Simulationen kam die KI der Drohne zu dem Schluss, dass ihre Aufgabe am besten erfüllt werden kann, indem sie einfach den menschlichen Kontrolleur ausschaltet, der das letzte Wort darüber hat, ob ein Angriff stattfinden kann oder abgebrochen werden sollte.”

ai koennte zur gefahr werden oder nicht title

Bild.: so nett wie wir uns wünschen ist AI eventuell garnicht (Bild: Pavel Danilyuk)

Colonel Hamilton hat die Details während einem Vortrag auf einer Verteidigungskonferenz in London Ende Mai veröffentlicht, bei dem er über die Tests von einem autonomen Waffensystem aus der Luft berichtete, das feindliche Missiles aufspüren und eliminieren soll. Das Problem ist, dass das Ziel der Drohne zwar darin bestand, die Anzahl der anvisierten und zerstörten SAM-Stellungen zu maximieren, aber sich Menschen manchmal umentscheiden. Wenn man der KI befehlt, von ihrem von Menschen programmierten Ziel abzulassen…dann kann das böse enden, dann dan wendet sie sich einfach gegen die Menschen.

Als die KI angefangen hat, die menschlichen Operatoren anzugreifen, wurde sie darauf trainiert, keine Menschen anzugreifen. Das Problem dahinter ist die “instrumentelle Konvergenz”, die bei sowas komplett außer Kontrolle geraten kan. Ein Beispiel dafür ist das Büroklammer-Beispiel. Ein Beispiel für technische Konvergenz wurde von dem schwedischen Philosophen und KI-Spezialisten Nick Bostrom dieses Jahr vorgestellt. Das Beispiel heißt “Büroklammer-Maximierer”.

karl klammer title

Angenommen, wir haben eine KI, deren einziges Ziel es ist, so viele Büroklammern wie möglich herzustellen. Die KI wird schnell erkennen, dass es viel besser wäre, wenn es keine Menschen gäbe, weil die Menschen beschließen könnten, sie abzuschalten. Denn wenn die Menschen das tun, gäbe es weniger Büroklammern. Außerdem enthält der menschliche Körper viele Atome, die zu Büroklammern verarbeitet werden könnten. Die Zukunft, auf die sich die KI ausrichten würde, wäre eine, in der es viele Büroklammern, aber keine Menschen gibt.

Katz-und-Maus Spiel mit Lösungsversuchen

Eine unheimliche Vorstellung – und eine sehr reale, die zeigt, wie sensibel eine KI programmiert werden muss. Auch auch dann lauern nach wie vor noch Gefahren. Natürlich gibt es Möglichkeiten, einige dieser Probleme zu entschärfen. Die USAF entschied sich für die naheliegendste Lösung: Das KI-System sollte so umgeschult werden, dass Angriffe auf den Bediener negativ gewertet werden. Nur ist es nicht so einfach. Es ist nicht so einfach, weil die KI nicht dieselben ethischen Bedenken wie Menschen hat und findet immer wieder Wege, um an ihr Ziel zu kommen. Es ist schwer abzuschätzen, in welchem Umfang dieses Katz-und-Maus-Spiel schließlich enden würde – eine Frage, mit der sich KI-Experten heute auseinandersetzen müssen.

ai ist potenziell gefaehrlich titel

Bild.: Wenn AI sich selbstständig macht wird’s eventuell gefährlich (Bild: Kindel Media)

Tatsächlich haben mehrere KI-Experten einen offenen Brief unterzeichnet, in dem sie darauf hinweisen, dass KI das Zeug dazu hat, die ganze Welt zum Aussterben zu bringen. Wo uns all das noch hinführen wird, wird sich mit der Zeit zeigen, aber es klingt auf jeden Fall alles nach einer sehr gruseligen Black Mirror-Folge.

Header: Tara Winstead