Verbot von Killer-Robotern?
Was wie Science-Fiction klingt, beginnt grausame Realität zu werden. Rüstungskonzerne arbeiten unterstützt von Verteidigungsministerien schon seit Jahren an deren Realisierung – und sie machen Fortschritte. Gleichzeitig regt sich auch Widerstand. Nicht nur Prominente wie Stephen Hawking und Apples Mitgründer Steve Wozniak warnen vor einem neuen Rüstungswettlauf.
Was wie Science-Fiction klingt, beginnt grausame Realität zu werden. Rüstungskonzerne arbeiten unterstützt von Verteidigungsministerien schon seit Jahren an deren Realisierung – und sie machen Fortschritte. Gleichzeitig regt sich auch Widerstand. Nicht nur Prominente wie Stephen Hawking und Apples Mitgründer Steve Wozniak warnen vor einem neuen Rüstungswettlauf.
Autonome Waffensysteme stehen genau so wie autonom fahrende Autos quasi vor der Tür. Insider bezeichnen diese mit Künstlicher Intelligenz ausgestatteten Waffensysteme schon als dritte Revolution in der Kriegstechnik nach der Erfindung des Schießpulvers und der Atombombe. Nun haben sich aber etwa 1.000 Spezialisten, Prominente und Firmenchefs explizit gegen diese Entwicklung ausgesprochen (siehe auch dieser TTF-Artikel). Ihrer Ansicht nach ist es besonders bedenklich, dass autonome Waffensysteme anders als Drohnen, die von Menschen gesteuert werden, selbstständig über Leben und Tod entscheiden. Ihre Forderung ist folglich, diese Waffensysteme schon vor ihrer praktischen Einführung generell zu verbieten. Das ist nicht ganz blauäugig, denn z. B. wurden 1998 via UN-Beschluss Laserwaffen zur Blendung von Menschen schon vor ihrer Realisierung verboten.
Es liegt auf der Hand, dass die ersten in Dienst gestellten „Killer-Roboter“ weltweit eine Rüstungsspirale ohne Gleichen in Gang setzen werden, denn anders als bei Atomwaffen ist zur Entwicklung und zum Bau solcher Waffen keine enorm kostspielige, gefährliche und technisch aufwändige Großindustrie vonnöten. Tötungsmaschinen à la Terminator werfen zudem ethische Fragen auf, denen sich die Menschheit erstmals stellen muss. Manche Wissenschaftler lehnen daher zwar autonome Waffensysteme ab, billigen aber den Einsatz von KI in „konventionellen“ Waffen. Dieser Kompromiss aber wird letztlich schwierig, denn mit KI ausgestattete Waffen erhalten durch die technische Entwicklung früher oder später fast zwangsläufig die Fähigkeit zur Autonomie. Dass die moralischen Fragen nicht ganz so einfach zu beantworten sind, macht die Überlegung klar: Warum sollten sich Staaten nicht durch hochentwickelte Technik verteidigen können, die den Einsatz eigener Soldaten reduziert und damit eigene Menschenopfer minimiert? Auf der anderen Seite ist klar, dass diese autonomen Waffensysteme ganz sicher nicht auf defensive Verwendung beschränkt werden können, sondern prinzipiell auch offensiven Charakter haben und für Diktaturen auch sehr gut sogar gegen die eigene Bevölkerung eingesetzt werden können. Ein Bann von lediglich offensiven autonomen Waffen, wie es der Milliardär Elon Musk (SpaceX, PayPal) fordert, scheint also kurzsichtig zu sein.
Die Zukunft birgt durchaus komplexe und auch bedrohliche Szenarien.
Autonome Waffensysteme stehen genau so wie autonom fahrende Autos quasi vor der Tür. Insider bezeichnen diese mit Künstlicher Intelligenz ausgestatteten Waffensysteme schon als dritte Revolution in der Kriegstechnik nach der Erfindung des Schießpulvers und der Atombombe. Nun haben sich aber etwa 1.000 Spezialisten, Prominente und Firmenchefs explizit gegen diese Entwicklung ausgesprochen (siehe auch dieser TTF-Artikel). Ihrer Ansicht nach ist es besonders bedenklich, dass autonome Waffensysteme anders als Drohnen, die von Menschen gesteuert werden, selbstständig über Leben und Tod entscheiden. Ihre Forderung ist folglich, diese Waffensysteme schon vor ihrer praktischen Einführung generell zu verbieten. Das ist nicht ganz blauäugig, denn z. B. wurden 1998 via UN-Beschluss Laserwaffen zur Blendung von Menschen schon vor ihrer Realisierung verboten.
Es liegt auf der Hand, dass die ersten in Dienst gestellten „Killer-Roboter“ weltweit eine Rüstungsspirale ohne Gleichen in Gang setzen werden, denn anders als bei Atomwaffen ist zur Entwicklung und zum Bau solcher Waffen keine enorm kostspielige, gefährliche und technisch aufwändige Großindustrie vonnöten. Tötungsmaschinen à la Terminator werfen zudem ethische Fragen auf, denen sich die Menschheit erstmals stellen muss. Manche Wissenschaftler lehnen daher zwar autonome Waffensysteme ab, billigen aber den Einsatz von KI in „konventionellen“ Waffen. Dieser Kompromiss aber wird letztlich schwierig, denn mit KI ausgestattete Waffen erhalten durch die technische Entwicklung früher oder später fast zwangsläufig die Fähigkeit zur Autonomie. Dass die moralischen Fragen nicht ganz so einfach zu beantworten sind, macht die Überlegung klar: Warum sollten sich Staaten nicht durch hochentwickelte Technik verteidigen können, die den Einsatz eigener Soldaten reduziert und damit eigene Menschenopfer minimiert? Auf der anderen Seite ist klar, dass diese autonomen Waffensysteme ganz sicher nicht auf defensive Verwendung beschränkt werden können, sondern prinzipiell auch offensiven Charakter haben und für Diktaturen auch sehr gut sogar gegen die eigene Bevölkerung eingesetzt werden können. Ein Bann von lediglich offensiven autonomen Waffen, wie es der Milliardär Elon Musk (SpaceX, PayPal) fordert, scheint also kurzsichtig zu sein.
Die Zukunft birgt durchaus komplexe und auch bedrohliche Szenarien.