Künstliche Intelligenz Autonome Waffen außer Kontrolle

Spiegel

-

01 березня 2019 06:48


Künstliche IntelligenzAutonome Waffen außer Kontrolle

Schon bald könnten autonome Waffen Kriege entscheiden. Ausgerechnet Forscher, die die technischen Grundlagen dafür mit entwickelt haben, wollen das verhindern.

Getty Images

Drohne (künstlerische Darstellung)

Aus Washington berichtet


Womöglich hat das neue Wettrüsten bereits begonnen. Seit Jahren übertreffen sich China und die USA mit Plänen, wie sie Vorreiter auf dem Gebiet der Künstlichen Intelligenz (KI) werden wollen. Das allein wäre vielleicht unproblematisch. Ein Teil der angekündigten Investitionen dürfte aber in autonome Waffen fließen - auch bekannt als Killerroboter.

Zuletzt hat Donald Trump am 11. Februar ein Dekret erlassen, das die Führungsrolle der USA auf dem Forschungsfeld sicherstellen soll. Nur einen Tag später erklärte das US-Verteidigungsministerium in einem Bericht, dass Künstliche Intelligenz in den USA genutzt werden solle, um die Bürger und das Land zu schützen. Autonome Waffen könnten Teil dieser Strategie sein.

Maschinen entscheiden über Leben und Tod

"Es geht hier nicht um eine verrückte, unrealistische Terminator-Fantasie", sagte KI-Forscher Toby Walsh von der australischen University of New South Wales vor wenigen Tagen auf der Wissenschaftskonferenz AAAS in Washington. "Die Waffen wird es in absehbarer Zeit geben. Wir sollten uns gut überlegen, ob wir sie über Leben und Tod entscheiden lassen wollen."

Im Gegensatz zu ferngesteuerten Drohnen, die jetzt schon in Kriegsgebieten im Einsatz sind, arbeiten autonome Waffen ganz ohne menschliche Steuerung. Einfache Varianten gibt es schon - etwa Selbstschussanlagen, die von allein auslösen, wenn eine Person verbotenes Gebiet betritt. Künftig könnten autonome Waffen aber auch in deutlich komplexeren Kriegssituationen entscheiden, wen sie in welcher Form angreifen. Experten sprechen von der dritten großen Revolution der Kriegsführung - nach der Erfindung von Schießpulver und Atomwaffen.

"Kriege sind das genaue Gegenteil von vorhersehbar"

Autonome Schiffe, Panzer oder Flugzeuge erfassen ihre Umwelt mithilfe von Sensoren - viele davon sind heute bereits in Smartphones verbaut. Ein Algorithmus ordnet die Daten dann in zuvor Erlerntes ein und entscheidet, ob und wohin geschossen werden soll. "Wir haben die Technologie, um autonome Waffen zu bauen", erklärte Walsh. "Ich bezweifele aber, dass diese auch in der Lage wären, komplizierte ethische Entscheidungen im Krieg zu treffen."

Читайте також:

Thonis-Herakleion In Ägyptens versunkener Stadt
30 серпня 2019 21:42

Wissenschaftler, die an KI forschen, haben Sorge, dass die Waffen ihre gesamte Branche in Verruf bringen könnten. So haben sich etwa die Gründer von Google-Deepmind, der KI-Sparte des Unternehmens, und der Investor Elon Musk verpflichtet, sich nicht an der Entwicklung beteiligen zu wollen und bereits 2017 gemeinsam mit mehr als hundert anderen Forschern und Unternehmern ein Verbot gefordert. Ausgerechnet diejenigen, die die Entwicklung autonomer Waffen erst möglich gemacht haben, wollen nun also, dass sie verboten werden.

"Künstliche Intelligenz ist nicht per se gefährlich", erklärte der Technikchef des kanadischen Unternehmens Clearpath Robotic, Ryan Gariepy, das sich ebenfalls für ein Verbot von Killerrobotern einsetzt. "In Laboren und Fabriken, wo bereits Roboter arbeiten, sind die meisten Abläufe vorhersehbar und die Technik dadurch sicher. Das Problem ist: Kriege sind das genaue Gegenteil von vorhersehbar."

Ein paar Leute könnten riesige Roboterarmeen erschaffen

Geht es nach den Befürwortern autonomer Waffen, sollen diese Soldaten künftig in besonders gefährliche Regionen begleiten und entlasten. Viele Soldaten sind da allerdings skeptisch (siehe Video unten). Außerdem erhoffen sich manche Staaten, durch den technologischen Vorsprung Auseinandersetzungen zu ihren Gunsten entscheiden zu können.

Video zu Killerrobotern: "Auch das Militär ist skeptisch"

Kalashnikov Media;Spiegel Online

Wer über autonome Waffen verfügt, kann mit wenig Personal eine theoretisch unbegrenzte Menge Roboter in den Krieg schicken. "Befürworter autonomer Waffen sagen, wir sollten die Technik gerade deshalb nutzen - bevor es jemand anderes tut", so Walsh. "Das ist für mich aber kein Argument." Seien autonome Waffen erst einmal verbreitet, kämen Extremisten leichter an sie heran, argumentiert er.

Laut Walsh gilt es nun, möglichst viele Staaten davon zu überzeugen, ein Übereinkommen zum Verbot autonomer Waffen abzuschließen - ähnlich der Chemiewaffenkonvention der Vereinten Nationen (Uno). "Wir können zwar trotzdem nicht komplett verhindern, dass etwa Giftgas eingesetzt wird", sagt er. "Aber wenn es passiert, steht es auf den Titelseiten, es gibt Sanktionen und Kontrollen. Wir brauchen diese breite gesellschaftliche Ächtung auch für autonome Waffen."

Eine Frage der Verantwortung

Bislang blockieren unter anderem die USA, Russland, Großbritannien, Australien, Südkorea und Israel die Verhandlungen der Uno über Regeln für den Einsatz der Waffen. Dem gegenüber stehen 28 Staaten, die sich für ein umfassendes Verbot von KI in Waffen ausgesprochen haben - darunter vor allem Länder aus Südamerika und Afrika. Aus Europa ist nur Österreich vertreten.

Deutschland und Frankreich setzen sich für einen Verhaltenskodex ein, der vorschreibt, dass alle Waffensysteme menschlicher Kontrolle unterliegen müssen. Ferngesteuerte Drohnen wären demnach erlaubt, vollautonome Waffen nicht.

"Kommen vollautonome Waffen zum Einsatz und geht dabei etwas schief, lässt sich im Nachhinein nicht mal mehr sagen, wer dafür nun verantwortlich ist", sagte Mary Wareham von Human Rights Watch. Weil die genutzte Software aus ihren Erfahrungen lernt, entzieht sich ihr Verhalten in Teilen selbst der Kontrolle der Entwickler.

ОРИГІНАЛЬНИЙ ПОСТ

spiegel science додав (ла) Aislinn Lister

Коментарі

Поки немає коментарів.

Ви повинні увійти, щоб залишити коментар.

Схожі новини

no