Eckhard GnodtkeCDU/CSU - Künstliche Intelligenz
Herr Präsident! Liebe Kolleginnen und Kollegen! Meine Damen und Herren! Einer der Aspekte der heutigen Debatte zur künstlichen Intelligenz betrifft die durch die Fraktion Bündnis 90/Die Grünen aufgeworfene Forderung „Keine Förderung Letaler Autonomer Waffensysteme durch den Europäischen Verteidigungsfonds“. Dieser Fonds, um ihn kurz zu skizzieren, soll unter anderem darauf abzielen – ich zitiere –, „die Wettbewerbsfähigkeit, Innovation, Effizienz und Autonomie der Verteidigungsindustrie der Union zu steigern … Im Rahmen des Fonds könnten Maßnahmen unterstützt werden, die sich sowohl auf neue als auch auf die Modernisierung bereits bestehender Produkte und Technologien beziehen …“ Wirtschaftlich, das ist klar, spricht viel für eine stärkere Zusammenarbeit der EU-Länder bei den Verteidigungsausgaben. Die bis jetzt noch verbesserungsbedürftige Zusammenarbeit zwischen den Mitgliedstaaten im Bereich Verteidigung und Sicherheit verursacht Schätzungen zufolge jährliche Kosten in einer Größenordnung zwischen 25 und 100 Milliarden Euro. 80 Prozent der Beschaffungsvorgänge und über 90 Prozent der Forschungs- und Technologietätigkeiten finden noch auf nationaler Ebene statt.
Doch zu unserem Thema: Zu letalen autonomen Waffensystemen heißt es in der Verordnung zur Errichtung des Europäischen Verteidigungsfonds, den ich gerade skizziert habe – ich zitiere –:
In diesem Zusammenhang sollte die Förderfähigkeit von Maßnahmen im Hinblick auf neue Verteidigungsgüter oder ‑technologien, wie etwa derjenigen, die speziell für die Durchführung tödlicher Angriffe konzipiert sind, ohne dass die Entscheidungen über ihren Einsatz einer menschlichen Kontrolle unterliegen, ebenfalls den völkerrechtlichen Entwicklungen unterliegen.
Zitat Ende.
Noch deutlicher sind die Formulierungen in der Entschließung des Europäischen Parlaments vom 12. September 2018 zu autonomen Waffensystemen; ich ergänze: ausschließlich zu autonomen Waffensystemen. Dort wird zunächst auf entsprechende Stellungnahmen des Vatikans, des Internationalen Komitees vom Roten Kreuz sowie von über 3 000 im Bereich der künstlichen Intelligenz und Robotik tätigen Forschern und Unternehmern verwiesen, in welchen diese sich jeweils verpflichten, sich zu keinem Zeitpunkt an der Entwicklung oder Herstellung letaler autonomer Waffensysteme zu beteiligen oder diese einzusetzen. Und es wird betont, dass die Entwicklung und Herstellung letaler autonomer Waffensysteme, bei denen die kritischen Funktionen wie die Auswahl und Bekämpfung von Zielen keiner Steuerung durch den Menschen unterliegen, unbedingt verhindert werden müsse.
Diese sehr klare Entschließung des Europäischen Parlaments vom 12. September 2018 wurde vor zwei Tagen auch im Verteidigungsausschuss behandelt. Dort wurde bereits über die Frage diskutiert, ob man denn mit hundertprozentiger Sicherheit sicherstellen könne, dass dann auch die Forschung unterbliebe. Ich erinnere mich an die Bemerkung von Herrn Staatssekretär Dr. Peter Tauber, dass, wenn man so herangehe, auch eine ABC-Abwehr nicht disloziert, vorangetrieben werden dürfe. In der Tat haben Sie bei jeder Berufsfeuerwehr – nicht nur dort, auch im Bereich des Katastrophenschutzes – eine ABC-Abwehreinheit. Diese kommt zum Beispiel bei einem Chemieunfall zum Einsatz. Man benötigt jeweils das Wissen und die Technik, um zur Gefahrenabwehr entsprechend handeln zu können. Zur Gefahrenabwehr!
Das Beispiel ABC-Abwehr gibt aber noch mehr her: Was meinen Sie, von wem weit über hundert Feuerwehren bzw. Kommunen in Deutschland bezüglich solcher ABC-Technik beliefert worden sind und weiterhin beliefert werden? Richtig, von einer Firma mit Sitz in Israel, die von Deutschen dort gegründet wurde und mittlerweile zum Weltmarktführer für ABC-Schutzfilteranlagen avanciert ist.
Was ich damit sagen möchte, ist, dass es uns schon zu denken geben sollte, wenn aufgrund der Schere im Kopf, die ich vor zwei Tagen in der Sitzung des Verteidigungsausschusses zumindest bei einigen wahrzunehmen glaubte, wichtige Forschungs- und Entwicklungsfelder, die der Abwehr von Gefahren und – ich ergänze – Angriffen durch letale autonome Waffensysteme dienen könnten, möglicherweise aufgegeben wurden und werden, wobei ich nicht ausschließen möchte, dass zumindest in bestimmten Bereichen der ABC-Abwehr auch deutsche Unternehmen weiterhin unterwegs sind.
(Beifall bei Abgeordneten der CDU/CSU)
Eines ist allerdings beruhigend: Die über 3 000 Forscher und Unternehmen, die ich vorhin erwähnt habe, die sich gegen die Entwicklung und Herstellung letaler autonomer Waffensysteme ausgesprochen haben, müssen ja irgendwie auch weiterhin an der Sache dran sein. Zu Forschungszwecken.
Vielen Dank.
(Beifall bei der CDU/CSU)
Der nächste Redner ist der Kollege René Röspel, SPD-Fraktion.
(Beifall bei Abgeordneten der SPD)
Quelle | Deutscher Bundestag, Nutzungsbedingungen |
Quellenangabe | Deutscher Bundestag via Open Parliament TV |
Abgerufen von | http://dbtg.tv/fvid/7296787 |
Wahlperiode | 19 |
Sitzung | 69 |
Tagesordnungspunkt | Künstliche Intelligenz |