Die Richtlinien und Rahmenbedingungen für „Künstliche Intelligenz“ (KI) beschäftigen derzeit die EU – aber auch ÖVP-Staatssekretär Florian Tursky legte jüngst seine Pläne dafür offen. Er plädiert demnach – wie zuvor auch bereits ÖVP-Nationalratspräsident Wolfgang Sobotka – für eine Zulassung von KI-Anwendungen durch eine nationale Zulassungsbehörde. FPÖ-Technologiesprecher Gerhard Deimek warnt vor dieser Entwicklung: „Wenn Tursky hier von Algorithmen und ihrer potentiellen Gefährlichkeit spricht, dann sieht mal leider Gottes, wie ahnungslos der Staatssekretär für Digitalisierung im Grunde ist. Ein Algorithmus kann nicht gut oder böse sein. Es hängt immer vom Anwender ab. Turskys Wunsch nach einer Genehmigung von Algorithmen durch eine nationale Behörde ist eine gefährliche Drohung. Es könne nicht sein, dass eine Behörde hier eine Einstufung vornimmt.“
Hilfloser Versuch, an der Macht zu bleiben
Wenn in Österreich nun manche Algorithmen oder Softwares verboten werden, bedeute das noch nicht, dass sie nicht trotzdem genützt werden können – beispielsweise unter Verwendung von „virtual private networks“ (VPN). „Wenn mit KI-Produkten durch den einen oder anderen kriminelle Dinge veranstaltet werden, dann haben wir entsprechende Gesetze, die hier zur Anwendung kommen. Die von der ÖVP anscheinend gewollte Verteufelung von manchen Technologien oder Algorithmen ist nicht mehr als vorautoritäre Phantasien einer Partei, die die eigene Macht immer weiter schwinden sieht und sich so mit Hilfe von Technologien doch noch an der Macht festklammern möchte, obwohl ihre Tage eigentlich gezählt sind“, so Deimek.
KI-Verwendung braucht klare rechtliche Rahmenbedingungen
Für die Verwendung von KI müssten klare rechtlichen Rahmenbedingungen geschaffen werden. Gleichzeitig müsse das Bewusstsein für die Risiken bei der Anwendung von Instrumenten der ‚Künstlichen Intelligenz‘ geschärft werden. Es sei Aufgabe der Politik, die entsprechenden Regulative zu schaffen: „Die Verantwortung muss auch bei der KI in letzter Instanz bei jener Person liegen, die diese Programme anwendet. Abschließende Entscheidungen müssen immer von Menschen getroffen werden. Ein Abwälzen der Verantwortung auf Maschinen dürfe nicht passieren“, so Deimek.