Robotikpionier Roland Siegwart und Philosophin Nadia Mazouz diskutieren über Dual-Use-Technologien, den Drohnenkrieg in der Ukraine und die Frage, ob Universit?ten in Zukunft milit?rische Forschung betreiben sollten.

Ein Schwarm von Drohnen.
Viele Technologien, die an Hochschulen entwickelt werden, k?nnen sowohl für zivile als auch für milit?rische Zwecke verwendet werden. Wie gehen Forschende damit um? (Bild mit KI erstelt: Intach / Adobe Stock)

Roland Siegwart, stellen wir uns ein Szenario vor: In drei Jahren wird die Schweiz von einem Schwarm feindlicher Drohnen angegriffen. Würden Sie heute mithelfen, Gegenmassnahmen zu entwickeln?
Roland Siegwart: Wir haben diese Frage in meinem Labor diskutiert. Es w?re lange undenkbar gewesen, dass wir milit?rische Technologien entwickeln. Doch die Welt hat sich mit dem russischen Angriff auf die Ukraine ver?ndert. Wir erleben eine Bedrohung, die uns – zumindest in Europa – lange fremd war. Wenn die Gefahr für die Schweiz konkreter werden würde, w?re ich sicher bereit, zu helfen. Ich glaube zudem, dass wir mit unserem Know-how auch einen Beitrag leisten k?nnten.

Roboter auf Mission

Titelblatt Globe 25/04

Dieser Text ist in der Ausgabe 25/04 des ETH-????Magazins Globe erschienen.

Download Ganze Ausgabe lesen (PDF, 4.2 MB)

Würden Sie solche Technologien an der ETH Zürich entwickeln?
Siegwart: Nein. Hier an der ETH machen wir Grundlagenforschung, deren Ergebnisse für alle zug?nglich bleiben müssen. Wenn es um konkrete milit?rische Anwendungen geht, müssten andere Akteure übernehmen, etwa spezialisierte Forschungszentren, Start-ups oder etablierte Firmen.

Nadia Mazouz: Ich stimme Ihnen zu. Die Wissenschaft ist ihrem Wesen nach offen, sie funktioniert nur, wenn neue Erkenntnisse frei zirkulieren und bewertet werden. Milit?rische Arbeit dagegen basiert auf Geheimhaltung. Diese beiden Logiken widersprechen sich fundamental. Sie k?nnen keine Wissenschaft betreiben, wenn niemand die Ergebnisse kennt und sie kritisieren kann. Offenheit ist für die Wissenschaft unerl?sslich.

Roland Siegwart
?Wir müssen sicherstellen, dass das Wissen, das an Hochschulen entsteht, nicht in die falschen H?nde gelangt.?
Roland Siegwart
Roland Siegwart

Viele Technologien, die an Hochschulen entwickelt werden, k?nnen sowohl für zivile als auch für milit?rische Zwecke verwendet werden. Man spricht hier von ?Dual-Use-Technologien?. Wie gehen Sie als Forschende damit um?
Siegwart: Eigentlich hat jede technologische Entwicklung Dual-Use-Potenzial. So fliegen Drohnen nur, weil in ihnen GPS-Chips stecken – dieselben wie in jedem Smartphone. Man kann nicht im Voraus wissen, wie Grundlagenforschung genutzt wird. Hochschulen haben die Aufgabe, neues Wissen zu schaffen und zu teilen. Alles andere w?re eine Selbstbeschr?nkung, die Wissenschaft unm?glich macht. Umso mehr müssen wir aber sicherstellen, dass das Wissen, das an Hochschulen entsteht, nicht in die falschen H?nde gelangt. Daher gibt es an der ETH eine Sicherheitsprüfung für Bewerbungen aus Risikol?ndern.

Mazouz: Ein Bleistift ist auch Dual Use – man kann ein Gedicht damit schreiben oder jemanden verletzen. Es gibt aber sicher Technologien, die inh?rent problematisch sind – etwa Atomwaffen. Bei vielen anderen Dual-Use-Technologien hilft uns nur, genau hinzuschauen: Was ist das konkrete Risiko? Wer k?nnte die Technologie missbrauchen? Und wie gross ist diese Gefahr dann? Zudem brauchen wir R?ume, in denen Forschende, die neue Technologien entwickeln, gemeinsam mit Politologinnen, Juristen und Philosophinnen über Dual-Use-Fragen diskutieren k?nnen. Mit der neuen Albert Einstein School of Public Policy entsteht gerade so ein Ort.

Zu den Personen

Nadia Mazouz ist Professorin für Praktische Philosophie am Departement Geistes-, Sozial- und Staatswissenschaften der ETH Zürich.

Roland Siegwart ist Professor für Autonome Systeme am Departement Maschinenbau und Verfahrenstechnik der ETH Zürich und Co-Direktor des Wyss Zurich Translational Center.

Auch im Ukrainekrieg werden zivile Technologien milit?risch genutzt. Von Hobbydrohnen über Landroboter bis zu Unterwasserfahrzeugen. Hat Sie diese Entwicklung überrascht?
Siegwart: Nein, das war schon seit L?ngerem abzusehen. Die grosse ?berraschung für viele Armeen war, wie günstig und effektiv diese Systeme sind. Drohnen bestehen im Grunde aus Komponenten, die in jedem Smartphone stecken. Das macht sie viel billiger als klassische Milit?rtechnik – und damit auch massentauglich. Klassische Flugabwehrsysteme, bei denen jede Rakete rund eine Million US-Dollar kostet, k?nnen kaum etwas gegen Schw?rme kleiner, billiger Drohnen ausrichten. Auch die Schweiz w?re heute überfordert. Eines ist klar: Der Luftkrieg wird sich in Zukunft grundlegend ver?ndern. Heute will auf Grund von Drohnenangriffen niemand mehr in einem Panzer sitzen. In zehn Jahren wird wohl auch niemand mehr in einem Kampfflugzeug sitzen wollen. Die Chancen gegen eine Vielzahl autonomer Drohnen sind schlichtweg minimal.

Mazouz: Mich hat vor allem fasziniert, wie improvisiert alles am Anfang war. Russische Panzer wurden von billigen, selbstgebastelten Drohnen ausgeschaltet. So ist wieder ein Stellungskrieg entstanden, wie wir ihn aus dem Ersten Weltkrieg kennen. Sp?ter wurde diese Bastlerphase durch professionelle Produktionsketten ersetzt. Heute gibt es in der Ukraine eine hochentwickelte Drohnenindustrie, und natürlich auch in Russland. Das ver?ndert die Kriegsführung fundamental. Und es hat noch einen anderen Effekt: Schw?chere Parteien k?nnen durch Drohnen pl?tzlich milit?risch mithalten.

Der n?chste Schritt sind autonome Waffensysteme. Auf russischer Seite soll es sie schon geben. Wie realistisch ist das?
Siegwart: Autonomie ist ein dehnbarer Begriff. Viele heutige Drohnen sind bereits autonom, wenn sie per GPS ein Ziel anfliegen. Der n?chste Schritt w?re, dass Drohnen selbstst?ndig mittels Kamera und Radar navigieren, ohne dabei GPS oder eine Funkverbindung zu brauchen. Technisch ist das ohne weiteres machbar. Wenn das kommt, wird es noch schwieriger, Drohnen abzuwehren, denn viele Drohnenabwehrsysteme versuchen, die Funkverbindung oder das GPS-Signal zu st?ren. Auch milit?rische Ziele wie ein Panzer k?nnen heute schon mittels Computer Vision autonom identifiziert werden. Das ist einfacher als das autonome Fliegen über grosse Distanzen.

K?nnte es sein, dass Maschinen Kriege sogar ?humaner? machen, weil sie rationaler entscheiden und weniger Fehler begehen als Menschen?
Mazouz: ?Humaner Krieg? ist ein Widerspruch in sich. Krieg ist immer unmenschlich. Aber ich verstehe, was Sie meinen. Das Problem ist: Maschinen sind nicht nur nicht emotional, sie sind auch nicht rational. Sie verhalten sich idealerweise so, wie wir sie programmieren. Wenn wir das gut machen, k?nnen sie verh?ltnism?ssig handeln und nur v?lkerrechtlich legitime Ziele angreifen. Menschen dagegen sind emotionale Wesen. Sie sind zu Wut und Empathie f?hig. Das kann in beide Richtungen gehen. Wenn ein Mitk?mpfer am Vortag get?tet wurde, dann wird ein Soldat eventuell das V?lkerrecht eher missachten. Es gibt aber auch F?lle, in denen ein Hubschrauberpilot einen Angriff auf einen Motorradfahrer abgebrochen hat, weil er pl?tzlich ein Kind hinter dem Fahrer sitzen sah. Diese Empathie kann eine Maschine nicht haben.

Siegwart: Auf lange Sicht k?nnten autonome Systeme dennoch pr?ziser werden als Menschen – ?hnlich wie selbstfahrende Autos. Aber in der ?bergangsphase wird es Fehler geben, da die Systeme noch nicht zuverl?ssig genug sind. Für L?nder wie Russland ist das auch ein Vorwand, um zu behaupten, dass Drohnen versehentlich den Luftraum anderer Staaten verletzt haben. Die Eskalationsgefahr in dieser ?bergangsphase ist daher enorm.

Nadia Mazouz
?Ist das Zuhause, in dem an einer Kriegsdrohne gebastelt wird, ein legitimes, milit?risches Ziel??
Nadia Mazouz
Nadia Mazouz

Welche Auswirkungen hat der Drohnenkrieg auf das V?lkerrecht?
Mazouz: Neue Technologien stellen das V?lkerrecht immer wieder vor grosse Herausforderungen. Das V?lkerrecht ist eine fragile Institution, mit der sich Staaten selbst binden. Nur wenn sich genügend Staaten an diese Selbstbindung halten, kann es eine Wirkung entfalten. Nun zu Ihrer Frage: Das V?lkerrecht unterscheidet zwischen Zivilisten und Kombattanten. Nur Kombattanten sind legitime direkte Ziele im Krieg sowie Personen, die Kriegsmittel an ihrem Arbeitsplatz herstellen. Doch ist das Zuhause, in dem an einer Kriegsdrohne gebastelt wird, ein legitimes, milit?risches Ziel? Solche extrem schwierigen Fragen werden durch neue Kriegstechnologien aufgeworfen und müssen moralisch und v?lkerrechtlich beantwortet werden.

Lassen Sie uns am Ende einen Blick in die Zukunft wagen: Wie wird sich die Kriegsführung in zehn Jahren ver?ndern?
Siegwart: Ich bin überzeugt, dass autonome Systeme das Gefechtsfeld pr?gen werden – in der Luft, am Boden, im Wasser. Der klassische Panzer oder Kampfjet wird kaum noch überlebensf?hig sein. Flugabwehrsysteme sind schon heute überfordert. Hier braucht es neue L?sungen.

Mazouz: Und wir werden vielleicht auch ?transhumane? Szenarien erleben: Menschen, die technisch erweitert werden, um besser mit Maschinen zu interagieren. Das klingt nach Science-Fiction, wird aber diskutiert. Zugleich dürfen wir nicht vergessen: Wir leben in einer Zeit der Unsicherheit. Klima, Geopolitik, Technologien – überall stehen Disruptionen bevor. Das macht es unm?glich, einfach linear vorauszudenken. Wir müssen wachsam und offen bleiben.

JavaScript wurde auf Ihrem Browser deaktiviert