„Künstliche Intelligenz (KI) ist sehr fehleranfällig und kann – so hilfreich sie auch sein kann – sehr gefährlich sein. Wenn KI autonome Waffeneinsätze herbeiführen kann, dann ist das brandgefährlich, umso mehr, wenn es sich dabei um Atomwaffen handelt. Die Algorithmen, die in der KI eine Entscheidungsgrundlage herbeiführen können, sind viel zu simpel und beruhen größtenteils auf im Internet frei verfügbaren Informationen“, erklärte heute, Mittwoch, der freiheitliche Wehrsprecher Volker Reifenberger.
Testversuche mit ernüchternden Ergebnissen
Als Beispiel führte Reifenberger an, dass zum Beispiel in einem Testversuch die Grundlage zur Unterscheidung Wolf von Hund der Hintergrund des Bildes war. „Das ernüchternde Ergebnis war, dass die KI beim Durchforsten des Internet Hunde- und Wolfsbilder verarbeitet hat und somit zum trügerischen Fehlschluss gekommen ist, wenn im Hintergrund des Tieres Schnee zu sehen ist, dann ist es mit hoher Wahrscheinlichkeit ein Wolf, ohne Schnee ist es ein Hund. Auch in der Hautkrebsforschung beruhte die KI mit Ja oder Nein auf der einfachen Tatsache, dass bei Ja-Bildern ein Lineal zu sehen war. Die Trefferquote war in beiden Fällen unglaublich gut, aber trügerisch!“, so Reifenberger.
Unitelligente Blockboxes dürfen nicht über Leben und Tod entscheiden
„Und jetzt muss man sich vor Augen halten, dass es eine KI gibt, bei der man gar nicht mehr nachvollziehen kann, auf welcher Basis sie Entscheidungen trifft. Und solche in Wahrheit unintelligente Blackboxes, eingebaut in autonome Waffensysteme, über Tod oder Leben entscheiden zu lassen, muss unbedingt verhindert werden! Wir haben es hier mit einem Allparteienantrag zu tun, den wir Freiheitlichen natürlich unterstützen“, betonte Reifenberger in weiterer Folge in seinem Debattenbeitrag im Nationalrat zur internationalen Regulierung von tödlichen autonomen Waffensystemen sowie Risiken im Zusammenhang mit der Integration Künstlicher Intelligenz in Nuklearwaffensysteme.