Drohnen, politisch korrekt

Israelische Soldatin vor dem Wandgemälde einer Drohne vom Typ Heron in der Palmahim Air Force Base.

Zum Thema Gegenwart und Zukunft des Drohnenkrieges brachte die heutige FAZ einen Aufsatz von John A. Kantara.

_____

Maschinen mit Marschbefehl

Die Bundeswehr setzt Roboter zur Aufklärung ein. In anderen Armeen tragen sie bereits Waffen. Automaten kennen weder Frust noch Wut, aber auch kein Schuldgefühl. Noch nicht.

Sie sind Kampfpiloten der Bundesluftwaffe. Lässig schlendern sie über das Flugfeld des Testflughafens En Shemer nördlich von Tel Aviv zu ihrem Übungseinsatz. Doch anstatt sich nun in die Cockpits ihrer Tornados zu schwingen, verschwinden sie in einem kleinen tarnfarbenen Container. Darin stehen Computerterminals, die über eine verschlüsselte Richtfunkstrecke mit einer Aufklärungsdrohne vom Typ Heron 1 verbunden sind. Das unbemannte Flugzeug wurde von der Israel Aerospace Industries (IAI) entwickelt, der größten Rüstungsschmiede des kleinen Landes. Die Bundeswehr hat für 110 Millionen Euro drei Stück davon bei der Bremer Firma Rheinmetall Defense Electronic geleast, deren Techniker die Flugroboter in Afghanistan warten werden.

Die israelische Drohne mit den deutschen Hoheitszeichen ist vollgestopft mit Aufklärungstechnik, und seit Februar kommen alle zwei Monate etwa 20 deutsche Kampfpiloten nach Tel Aviv, um damit fliegen zu lernen. Aber was heißt hier fliegen? Eine Heron startet und landet ohne Pilotenbeteiligung und absolviert eine programmierte Flugroute selbst bei schlechtestem Wetter völlig automatisch. Die Hauptaufgabe der Luftwaffenpiloten besteht darin, die Bilder, die der Roboter liefert, zu interpretieren und weiterzuleiten. Sie dienen dem Schutz eigener Bodentruppen, aber auch der Zielaufklärung zur Vorbereitung von Angriffen.

Die amerikanische Soldaten in Afghanistan und im Irak schätzen Kamerad Automat schon länger: als Bombenentschärfer, Späher und bewaffneten Kämpfer. Etwa 12 000 Landroboter und 7000 Flugautomaten tun gegenwärtig bei Army, Navy und Air Force Dienst. Dabei ist es ein internationaler Trend. Die Heron zum Beispiel wird in Afghanistan bereits von Frankreich, Australien und Kanada eingesetzt.

Mit der Tendenz, Maschinen statt Menschen in die Schlacht zu schicken, sehen viele Experten ein „post-heroisches“ Zeitalter heraufziehen, das nun mehrere Fragen aufwirft.

Da wäre etwa die nach den Gefahren einer Virtualisierung eines Krieges, bei dem die Feuerknöpfe weit vom Schlachtfeld entfernt gedrückt werden. Heute schießen Drohnen im Irak und in Afghanistan tödliche Raketen ab, ferngesteuert per Satellit aus dem 12.000 Kilometer entfernten Amerika. Die Bedienmannschaften sind nach der Schicht wieder zu Hause bei ihren Familien. Wenn solche Technik das eigene Risiko auf null reduziert, wird das Töten aus der Distanz dann nicht scheinbar harmlos, zu einer Art Videospiel?

Tatsächlich ist die Perspektive, aus der Bürostuhl-Kämpfer das Schlachtgeschehen erleben, eine ganz andere als die eines Soldaten vor Ort. Der bessere Überblick ist dabei zunächst einmal ein Vorteil. Die Aufklärungsdrohne Heron 1 etwa, an der die Bundeswehrpiloten in Tel Aviv üben, kann 24 Stunden lang über einem Ziel kreisen und gestochen scharfe Live-Bilder an die Bodenstation schicken, selbst aus neun Kilometern Höhe und mittels Radar auch durch eine geschlossene Wolkendecke hindurch. Die Sensoren der Heron übermitteln Details in der Größenordnung von zehn Zentimetern. Bei Tag und Nacht. Damit soll es möglich sein, zu erkennen, ob es sich beim Ziel um einen Mann, eine Frau oder ein Kind handelt. Mit genügend Erfahrung, so ein israelischer Ausbilder, lässt sich sogar die Farbe eines Hemdes erkennen.

Die Sensoren melden allerdings nicht, ob in dem Hemd ein Terrorist oder ein Zivilist steckt. Die Entscheidung darüber, was auf den Bildern zu sehen ist, kann die Maschine dem Menschen bis heute nicht abnehmen. Dabei setzt die deutsche Luftwaffe, im Unterschied zu manchen anderen Streitkräften, bei ihren Drohnen-Missionen nur erfahrene Piloten ein. Sie sind für den Job zwar überqualifiziert, aber ihr räumliches Vorstellungsvermögen erhöht die Qualität ihrer Zielaufklärung dramatisch. Außerdem können sie sich leichter in das Geschehen vor Ort hineinversetzen. „Das Bild, das ich sehe, ist real, das ist sehr real, insbesondere dann, wenn eigene Bodentruppen vor Ort sind, und ich versuche diese zu unterstützen“, sagt einer der Bundeswehrpiloten in Tel Aviv. „Das ist also beileibe kein Computerspiel, und dieses Feeling kommt in so einer Mission auch nicht auf.“

Bei ferngesteuerten Kampfeinsätzen aber wirft gerade die Präzision, die im Prinzip möglich ist, neue Fragen auf. Für Claus Kreß, Völkerrechtler der Universität Köln, gehört das gezielte Töten zu den brisantesten Streitfragen der gegenwärtigen Diskussion. „Im Friedenszustand ist ein solches Vorgehen uneingeschränkt verboten“, erklärt Kreß. „Die Situation im bewaffneten Konflikt ist allerdings grundsätzlich anders. Man wird auch hier eine derartige Befugnis nicht kategorisch ausschließen können. Selbst das Internationale Komitee vom Roten Kreuz, der Hüter des Rechts der bewaffneten Konflikte, vertritt diese Auffassung. Es geht allerdings darum, die Grenzen so scharf wie möglich zu ziehen.“

Doch allzu präzise laufen drohnengestützte Kampfeinsätze in der Praxis eben gerade nicht ab. Allein im letzten Jahr starben im Irak, in Afghanistan und Pakistan über 700 Menschen durch Drohnen-Angriffe. Schätzungen besagen, dass auf jeden getöteten Terroristen mindestens zehn tote Zivilisten kommen. Der fast immer einkalkulierte Tod von Unbeteiligten gehört zu den großen Problemen beim Einsatz der neuen Technologie.

Immerhin sind es Menschen, die an den Bildschirmen die letzte Entscheidung zum Abschuss treffen. Doch wie lange noch? Roboter sind Soldaten aus Fleisch und Blut in vielem überlegen. Mit den technischen Möglichkeiten wächst die Gefahr, dass die Menschen den Maschinen zu viele Entscheidungen überlassen und sich mit der Distanz zum Kampfgeschehen auch aus der unmittelbaren Verantwortung zurückziehen. Schon heute kann die Zielaufklärung im Verbund mit einer Lenkwaffe mit der Zielbekämpfung kombiniert werden. Liefert die Aufklärungsdrohne die entsprechenden Bilder, dann wird der Sprengkopf der Lenkwaffe von der Bodenstation aus scharf gemacht und stürzt sich ins Ziel.

„Autonomie wird meiner Einschätzung nach mehr und mehr auf den Roboter verlagert und dem Menschen entzogen“, sagt Ronald Arkin, Professor für mobile Robotersysteme am Georgia Institute of Technology in Atlanta. „Wir müssen uns darüber klarwerden, was die Konsequenzen sind – im Guten wie im Schlechten.“ Arkin entwickelt seit über 25 Jahren auch im Auftrag des Pentagons immer intelligenter agierende Maschinen. In seinem Labor in einem Kellergeschoss des Georgia Tech sollen Roboter lernen, menschliche Verhaltensmuster einzuschätzen, um entsprechend darauf zu reagieren. Militärtechnologen sind sehr an dieser Roboter-Verhaltensforschung interessiert. Denn bei Menschen sind Entscheidungen oft von Gefühlen beeinflusst. Gerade auf dem Schlachtfeld gehören dazu meist Wut, Hass und Angst, die bekanntlich schon im friedlichen Alltag die Urteilskraft eher trüben. Und doch zugleich machen die Emotionen, die an Entscheidungen beteiligt sind, diese erst menschlich. Die völlige Gefühllosigkeit der Maschinen ist es ja gerade, die uns zögern lässt, ihnen wichtige Entscheidungen zu überlassen. Daher arbeiten Männer wie Ron Arkin an einer „fühlenden“ Technik, der man dann ein gewisses Maß an Autonomie gefahrloser übertragen kann.

„Wut oder Angst haben Kampfroboter nicht“, sagt Arkin. „Aber es gibt noch eine andere Kategorie von Emotionen. Dort finden sich Schuld, Reue oder Scham. Gerade Schuld ist ein Gefühl, das in Initiative und konstruktive Veränderung münden kann, sobald etwas Schlimmes passiert. Und wenn ein Kampfroboter mit immer mehr Entscheidungsbefugnis falsch handelt, dann muss er sein Verhalten ändern, damit es besser wird. Die Modelle von Schuld, die wir in unseren Systemen nutzen, helfen uns dabei, Robotern diese Erkenntnisfähigkeit aufzuprägen.“

Zunächst versucht Arkin im Labor, Robotern die einfachen Einsatzregeln einzuprogrammieren, die Nato-Soldaten in Afghanistan als Taschenkarte auch im Einsatz mit sich führen. Diesen fest umrissenen und begrenzten Kategorien – etwa keine Krankenhäuser, Schulen oder Friedhöfe anzugreifen – könnte auch ein autonom agierender Roboter folgen. In der Zukunft wären vielleicht sogar „ethische“ Kampfroboter möglich, die völkerrechtswidrige Befehle menschlicher Vorgesetzter melden. Ein internes „Schuldkonto“, das getötete Zivilisten bei der Berechnung zuvor einbezieht, könnte einen Roboter dazu veranlassen, einen Tötungsbefehl zu verweigern.

Kämpfen Roboter am Ende möglicherweise sogar humaner als Menschen? Claus Kreß hat da Zweifel. „Der Einsatz von Robotern mit gleichsam implantiertem kriegsvölkerrechtlichem Gewissen, das ist auch für den Völkerrechtswissenschaftler eine geradezu atemberaubende Zukunftsfrage, von der man im Moment nur sagen kann, dass sie eine ganze Fülle ethischer Fragen aufwirft.“

Aber selbst wenn Arkins ritterliche Roboter Wirklichkeit würden, die Bedenken gegen die Automatisierung des Krieges, die gegenwärtig mit dem vielleicht größten Nachdruck vorgebracht, werden auch sie nicht ausräumen. Denn sie haben damit zu tun, dass selbst ethische Maschinen keine Angehörigen haben, die zu Hause auf sie warten. Wenn Roboter von einer Mission nicht mehr zurückkehren, werden sie ersetzt. Wenn dagegen eigene Soldaten sterben, nimmt für die Regierung demokratischer Staaten der Legitimationsdruck zu und die Bereitschaft der Bevölkerung, überhaupt Krieg zu führen, ab. Im Umkehrschluss wird daher befürchtet, dass eine Regierung oder eine Armee, die immer mehr Roboter statt Landeskinder in die Schlacht schickt, leichtfertiger und unter geringerer öffentlicher Kontrolle in den Krieg ziehen wird.

Das Argument wird einer Generation, die das Scheitern der Amerikaner in Vietnam als kulturelles Ereignis erlebt hat, so leicht nicht auszureden sein. „Man kann allerdings auch die Gegenfrage stellen“, sagt Claus Kreß: Denn Militärroboter reduzierten ja auch das Risiko für die eigene Seite bei der Abwendung humanitärer Katastrophen wie im Kosovo oder in Darfur. „Werden damit nicht vielleicht Möglichkeiten eröffnet, zu einer Rettungsaktion zu kommen, die man ansonsten aus Furcht vor eigenen Verlusten unterließe?“

Der Film „Die Automatisierung des Krieges“ von John A. Kantara läuft morgen, am 19. Juli, um 21:30 Uhr in der Reihe hitec auf 3Sat.

_____

Time am 18. Juli 2010

Schlagwörter: , ,

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google Foto

Du kommentierst mit Deinem Google-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s


%d Bloggern gefällt das: