Die KI der Drohnen wirft ethische Fragen auf. Sollen Algorithmen statt Soldaten künftig über Leben und Tod entscheiden? Wie wird Verantwortung übernommen? Die internationale Gemeinschaft muss die Richtlinien festlegen, wie autonom Waffen sein dürfen.
Per Fernsteuerung tödlich
Sie sind handlich, vergleichsweise billig und extrem tödlich: Seit dem Afghanistankrieg kommen einzelne Kampfdrohnen systematisch zum Einsatz – heute werden sie, wie etwa in der Ukraine, in Schwärmen abgeschossen.
Diese unbemannten Flugobjekte sind dank künstlicher Intelligenz hoch entwickelt, tragen Sprengstoff und können präzise gesteuert werden. So erreichen die tödlichen Geschosse andere Ziele, als es Soldaten möglich ist. Mittels eingebauter GPS-Empfänger können die Drohnen ihre Ziele autonom ansteuern und eine Zeit lang in der Luft schwirren – bis Soldaten ihnen per Fernsteuerung das Kommando zur Detonation geben.
Militärische Drohnen: ein lohnendes Geschäft
Supermächte wie die USA, aber auch kleinere Staaten wie die Ukraine, Armenien und Aserbaidschan rüsten immer schneller auf und bilden auch immer mehr Drohnenpiloten aus. Für die Rüstungskonzerne ist das ein lohnendes Geschäft: Nach Prognosen von Marktforschern könnte der Umsatz bei militärischen Drohnen weltweit in den kommenden Jahren auf etwa 30 Milliarden US-Dollar steigen.
Experten beobachten diese Entwicklung mit Sorge – wie autonom dürfen Waffen sein, und werden künftig Algorithmen über Leben und Tod entscheiden? Welchen Einfluss haben Kampfdrohnen auf die Kriegsführung der Zukunft?