In Zukunft könnten Kriege von Maschinen geführt werden. In den USA, Israel, Frankreich, Großbritannien, Russland und China arbeiten Spezialisten an vollkommen autonomen Waffensystemen. Maschinen würden somit über Leben und Tod entscheiden, ohne vom Menschen beeinflusst zu werden. Diese Entwicklung ist ethisch sehr fragwürdig und kann aus vielerlei Gründen scharf kritisiert werden. Ein Kommentar.
Künstliche Intelligenzen – kurz KIs – sind heutzutage bereits zahlreich zu finden. Sie erleichtern uns das Leben in vielen Bereichen und sind aus unserem Alltag kaum noch wegzudenken. Doch nun fangen auch Waffen an, „intelligent“ und autonom zu werden. Sollten Künstliche Intelligenzen wirklich so grundlegende ethische Entscheidungen beeinflussen oder sogar übernehmen dürfen? Aus den sonst so hilfreichen KIs, wie wir sie kennen, werden dann schnell eine Killerinstanz oder eine tödliche Zeitbombe.
Autonome Waffen entscheiden selbst, wann sie abfeuern
Autonome Waffensysteme entziehen sich vollkommen der Entscheidung des Menschen. Diese Waffen können ganz unterschiedliche Maschinen, wie beispielsweise Raketen, Schiffe oder Panzer, sein. Durch eine Gesichtserkennung und die Beobachtung von Interaktionen entscheiden die Roboter darüber wie, wo und wen sie abschießen. Eine Maschine könnte somit über Leben und Tod, über Sein und nicht Sein, über Krieg und Frieden entscheiden. Diese Entwicklung ist ethisch äußerst fragwürdig.
Es gibt heutzutage bereits teilweise autonome Waffenarten, beispielsweise unbemannte Kampfdrohnen bei der Bundeswehr. Diesen wird allerdings immer noch vom Menschen vorgegeben, wann und wo sie abfeuern sollen. Bei den vollkommen autonomen Waffensystemen wäre das nicht mehr der Fall. Doch warum sollte der Mensch seine Macht über die Maschine abgeben wollen? Der Mensch, welcher doch sonst stets über alles die Kontrolle haben möchte.
Autonome Waffen haben gegenüber ihren Vorgängern manche Vorteile. Da sie nicht mehr vom Menschen ferngesteuert werden, können mögliche Gegner auch keine Signale mehr abfangen. Somit können sie nicht herausfinden, wo sich der Feind gerade befindet oder wie er vorgehen wird. Außerdem haben sie durch automatische Reaktionen einen Geschwindigkeitsvorteil, da sie nicht mehr auf eine Rückmeldung des Menschen angewiesen sind.
125 Staaten verhandeln über das Verbot der autonomen Waffensysteme
Vom 21. bis 23. November 2018 diskutierten die 125 Vertragsstaaten des UN-Übereinkommens über besondere konventionelle Waffen (kurz CCW) erneut in Genf. Ihr Ziel ist es, die Nutzung dieser Waffen zu verbieten oder immerhin zu beschränken. Vor allem Deutschland und Frankreich setzen sich dafür ein, die Nutzung autonomer Waffen zu regulieren. Auf der Gegenseite stehen die USA und Großbritannien. Die USA beispielsweise sehen im Einsatz der autonomen Systeme eine Chance, die Zivilbevölkerung noch besser schützen zu können. Da die Vertragsstaaten der UN-Konvention Entscheidungen nur im Konsens treffen können, ist am Ende der Verhandlungen aber keine endgültige Entscheidung gestanden.
Die Menschenrechtsorganisation „Amnesty International“ lehnt autonome Waffensysteme aus ethischen Gründen ab. Wir als Weltbevölkerung sollten es ihr gleichtun. Zumindest, so lange es noch keine klaren Regeln und Gesetze für Roboter gibt, sollten sie auch nicht so eine große Verantwortung übernehmen dürfen.
Isaac Asimov und seine Gesetze der Robotik
Nicht erst heutzutage denken die Menschen über Regeln für Roboter nach. Isaac Asimov stellte bereits 1942 in seiner Kurzgeschichte „Runaround“ drei Gesetze für Roboter auf. Damals klangen sie noch eher utopisch und nach Zukunftsmusik. Doch heute sind genau solche Gesetze für Roboter, insbesondere für KIs beim Militär, wichtig und dringend erforderlich. Asimovs erstes Gesetz lautet wie folgt: „Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.“ Autonome Waffen würden aber genau das tun. Sie würden Menschen Schaden zufügen. Wer kann denn sicherstellen, dass eine Künstliche Intelligenz zwischen Feind und Freund unterscheiden kann? Binnen Sekunden könnte ein unschuldiger Mensch getötet werden.
Wer wird dann verantwortlich gemacht? Ein Mensch würde für so eine drastische Fehlentscheidung wohl wegen Mordes ins Gefängnis kommen. Doch es bringt nichts, einen Panzer wegzusperren. Es muss klar sein, wie in einem solchen Fall gehandelt werden muss. Solche rechtlichen Grundlagen existieren für Künstliche Intelligenzen aber noch nicht. Doch gerade in einem solchen ethischen, entscheidenden Bereich ist das wichtig. Der Roboter würde im Fall der autonomen Waffen eine große Verantwortung tragen. Aber wenn er dieser nicht gerecht wird, können wir Panzer und Raketen nicht zur Verantwortung ziehen. Deswegen darf es auch gar nicht erst so weit kommen, dass sie alleine verantwortlich sind.
Auch Asimovs zweites Gesetz widerspricht der Nutzung von autonomen Waffensystemen. „Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.“ Trotz hochkomplexer Technologien und immer fortschreitender Systeme sollte der Mensch, welcher auch der Erschaffer dieser „Wesen“ ist, die Kontrolle über die Maschinen bewahren. Menschen treffen Entscheidungen aufgrund ihres Gefühls, ihrer Erfahrungen und ihres Wissens. Durch sich immer weiter entwickelnde Algorithmen sind Roboter zwar ebenfalls heutzutage lernfähig und erlangen nach einer gewissen Zeit ebenfalls Wissen, verfügen aber dennoch nicht über Intuition und Gefühl. In diesem Aspekt wird der Mensch dem technischen Produkt immer überlegen sein.
In Asimovs drittem Gesetz wird aufgeführt, dass ein Roboter seine eigene Existenz schützen muss, es sei denn, das würde gegen das erste oder zweite Verbot verstoßen. Generell spielt dieses Gesetz in Bezug auf autonome Waffensysteme nur eine untergeordnete Rolle. Dennoch wird an dieser Stelle ein anderer kritischer Punkt angesprochen, welcher neue grundlegende Fragen aufwirft. Muss eine Künstliche Intelligenz sich wirklich selbst schützen? Besitzt sie überhaupt Autonomie? Hat ihre Existenz einen Wert? Mag sein, dass Maschinen immer mehr an Selbstständigkeit und somit auch an Schutzrecht gewinnen. Dennoch wird der Mensch immer das höher entwickelte Wesen bleiben. Das Wesen, welches den Roboter zur Not auch ausschalten darf und dürfen muss.
Wir brauchen Robotergesetze!
Zu seiner Zeit war Assimov der heutigen Bevölkerung bereits um einiges voraus. Vor allem das erste und zweite Gesetz stellen in Bezug auf autonome Waffen wichtige Punkte dar. Er hat nicht nur das Potential der Künstlichen Intelligenzen erkannt, sondern auch die damit verbunden Gefahren. Durch die rasante technische Entwicklung, mit der Roboter einen neuen Grad der Selbstständigkeit gewinnen, sind Robotergesetze heute dringend notwendig. Diesen Gesetzen und Regeln müssen die Künstlichen Intelligenzen folgen. Entscheidungen über Leben und Tod, wie sie die autonomen Waffensysteme vollziehen würden, sind so wesentlich und so essenziell, dass keine Maschine dieser Welt allein dafür verantwortlich sein sollte. Der Mensch sollte stets die Macht behalten und die finale Entscheidung treffen müssen.