Wird das neue KI-Gesetz zum Risiko für den Fortschritt?
Inhalt des Artikels:
- Kritik auch aus den USA
- Nächste Stufe zündet
- Bitkom warnt vor Innovationsstau
- Sachsen und Sachsen-Anhalt bleiben gelassen
- IHK Dresden: Kaum Klagen im Silicon Saxony Valley
- KI-Verordnung: Hemmschuh oder Gütesiegel?
Innovationsbremse, Wettbewerbsnachteil, Bürokratiemonster – die Liste der Vorwürfe gegen die europäische KI-Verordnung ist lang. Und der Unmut groß. Wenige Wochen bevor die Verordnung ihre zweite Etappe nimmt, gipfelt er in einem Brandbrief großer europäischer Konzerne an EU-Kommissionspräsidentin Ursula von der Leyen. 44 Spitzenmanager fordern darin, die Umsetzung um zwei Jahre auszusetzen. Siemens unterschreibt gar nicht erst. Die Begründung, der Brief gehe nicht weit genug. Vorstandschef Roland Busch nennt die KI-Regelungen in der "Frankfurter Allgemeinen Zeitung" "toxisch für die Entwicklung digitaler Geschäftsmodelle".
Kritik auch aus den USA
Auch jenseits des Atlantiks regt sich Widerstand. Europa biege falsch ab, meint Joel Kaplan, Politik-Chef bei Meta, dem Konzern hinter Facebook, Instagram und Whatsapp auf Linkedin sinngemäß. Der Republikaner kündigt an, Meta werde den "Code of Practice" zur Verordnung nicht unterzeichnen, wegen zu vieler Unklarheiten und Risiken für die Entwickler.
Nächste Stufe zündet
Der Hintergrund: Seit Samstag werden allgemeine KI-Modelle wie ChatGPT und Gemini in Europa stärker reguliert; tritt eine weitere Etappe der europäischen KI-Verordnung, auch bekannt als AI Act, in Kraft. Joerg Heidrich ist Rechtsanwalt und IT-Spezialist. Die umfangreichen Transparenz- und Kontrollpflichten, die jetzt für General Purpose AI (GPAI)-Modelle in Kraft träten, machten richtig Arbeit und kosteten viel Geld. "Sicher trägt das nicht dazu bei, dass es in diesem ja auch wirtschaftlich extrem relevanten Bereich zukünftig noch viele Entwicklungen in Europa gibt", meint der Jurist – ohnehin GPAI-Modelle wie ChatGPT in Deutschland und in Europa "extrem seltene Tierchen".
Schon vor Monaten hatte Heidrich den AI Act als die schlechteste Verordnung bezeichnet, die ihm in seinem Berufsleben untergekommen sei. "Meine Einschätzung wird mit zunehmender Beschäftigung mit dem AI Act leider in keiner Weise positiver", sagt der IT-Jurist jetzt MDR AKTUELL. Zwar enthalte das Gesetz sinnvolle Aspekte – etwa das Verbot besonders gefährlicher KI-Anwendungen, Kennzeichnungspflichten für "harmlose KI" oder Fortbildungspflichten. Doch bei Hochrisiko-KI spricht Heidrich von einem völlig überzogenen "absoluten Compliance-Overkill".
Bitkom warnt vor Innovationsstau
Auch der Branchenverband Bikom sieht Risiken: "Schon heute verursacht er enorme innovationshemmende Rechtsunsicherheit bei Unternehmen", warnt Janis Hecker, KI-Referent beim Digitalbranchenverband Bitkom. Hecker zählt auch auf, warum: Es fehle an Leitlinien zur Auslegung des Gesetzes, klaren Behördenstrukturen und an Standards zur rechtssicheren Umsetzung der Hochrisiko-Anforderungen unter anderem im Medizinprodukte oder Maschinenbereich. Gerade in diesem Bereich drohe eine "Innovationsvollbremsung", da Unternehmen bis Ende 2026 keine Rechtssicherheit darüber haben, wie sie KI-Systeme konform zum AI Act in den Markt bringen könnten.
Sachsen und Sachsen-Anhalt bleiben gelassen
Ein erheblicher Wettbewerbsnachteil für die europäische KI-Industrie, meint Hecker im Gespräch mit MDR AKTUELL, aber offenbar nichts, was Unternehmen in Sachsen-Anhalt und Sachsen beunruhigt. "Wir haben einen großen Teil unserer Hausaufgaben gemacht", sagt der Geschäftsführer der Firma Teleport in Barleben, Marco Langhof, MDR AKTUELL. "Die Einsortierung der Anwendungen, die wir jetzt schon draußen haben und die entsprechende Risikobewertung ist auch schon durch." Auch eine interne Dienstanweisung zum Gebrauch von KI Anwendung gebe es bereits. "Ich glaube, dass wir damit zur absoluten Minderheit gehören."
Langhof sieht die Verordnung positiver als viele Konzerne. Sie helfe den Unternehmen, Fragen zu klären, die ohnehin dringend anstanden – etwa arbeitsrechtliche oder haftungsrelevante Aspekte. Auch die Pflicht zur Aufklärung über die Grenzen von KI, die ab Februar 2025 greifen soll, hält er für sinnvoll.
Bitkom: Weiterbildungsdefizit in der Breite
Das sehen offenbar nicht alle Unternehmen so. Laut einer Bitkom-Umfrage vom Juli wurden bislang lediglich ein Fünftel der Beschäftigten im KI-Einsatz geschult. Dieser Einschätzung liegt eine Befragung von 1.005 Menschen zugrunde. 70 Prozent der Befragten gaben dabei an, noch nicht nicht einmal ein Angebot für eine KI-Fortbildung erhalten zu haben. Dabei verstießen Firmen, die keine Schulung anbieten, unter Umständen gegen geltendes Recht, denn sie müssten theoretisch Schulungen sicherstellen. Praktisch gibt es aber bis jetzt keine Behörde, die das kontrolliert.
Welche Sanktionen drohen bei Verstößen?
Zwar gibt es noch keine Stellen, die Verstöße ahnden, aber wenn Verstöße offenkundig werden, sind Geldbußen vorgesehen. Diese richten sich nach der Größe des Unternehmens. Wer "verbotene KI" in den Verkehr bringt, kann mit bis zu 35 Millionen Euro Geldbuße belegt werden oder bis zu 7 Prozent des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres. Verstöße gegen andere Pflichten ziehen Geldbußen von bis zu 15 Millionen Euro nach sich oder bis zu 3 Prozent des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres. Bei Falsch oder Fehlinformation der Behörden drohen bis zu 7,5 Millionen Euro Bußgeld oder bis zu 1 Prozent des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres.
Dabei sind Schulungen im Sinne der Unternehmen, meint Langhof. Viele Mitarbeiter formulierten Mails mit Tools wie ChatGPT, ließen sich Dinge übersetzen oder Berichte schreiben. "Dann nehmen sie Unternehmensdaten und kippen die ins ChatGPT." Was sie nicht wüssten, ist, was dann mit den Daten passiert: "Die werden ja nicht nur interpretiert. Möglicherweise lernt die KI ja etwas über die Firma, etwas, was die KI und Wettbewerber nicht wissen sollten?"
Hinzu kommt eine weitere Fehlerquelle, Langhof spricht von einem großen schwarzen Loch: "Wir können grundsätzlich sagen, wie das funktioniert. Wir, die IT Leute, haben das ja gebaut. Aber was im Inneren dieser riesigen vektorisierten Datenstruktur geschieht, das können wir nicht mehr eins zu eins nachvollziehen. Und dann sind wir manchmal mit einem Ergebnis konfrontiert, das manchmal richtig ist, manchmal nicht so richtig und manchmal grottenfalsch."
IHK Dresden: Kaum Klagen im Silicon Saxony Valley
In Sachsen schlägt die Verordnung offenbar ebenfalls keine hohen Wellen. Der Industrie- und Handelskammer seien bislang kaum Klagen über übermäßigen Aufwand oder Hemmnisse eingegangen, teilt die IHK MDR AKTUELL mit. Lars Fiehler, Pressesprecher der Industrie- und Handelskammer Dresden vermutet, sehr viele Unternehmen dürften sich schon mit KI befasst haben und diese sogar einsetzen, kennen ihre neuen Pflichten aber nicht im Detail. Die Kammer versuche zu sensibilisieren, zu informieren – über "Vermittlung von KI Kompetenzen in den Belegschaften, die Transparenzpflichten sowie die Risikokategorisierung von Anwendungen".
KI-Verordnung: Hemmschuh oder Gütesiegel?
"Europa ist bei KI vorangegangen. Als erster weltweit hat die EU klare Regeln für den Einsatz von Künstlicher Intelligenz geschaffen", schrieb Robert Habeck vor fast genau einem Jahr auf Instagram, damals noch Bundeswirtschaftsminister. Die KI-Verordnung sei ein klares Ja zu Innovation, zu Wettbewerb, zu Fortschritt – aber auch ein klares Ja zum verantwortungsvollen und ethischen Einsatz von KI. Inzwischen hat der AI Act erste Hürden genommen und es zeigt sich, die Verordnung bringt Unternehmen dazu, sich mit Fragen zu beschäftigen, die lange als Nebensache galten – von Datenschutz bis zu Haftung, von Transparenz bis Verantwortung.
Noch fehlt es an vielem, an Richtlinien, Behörden und Kontrolle. Doch vielleicht entsteht mit dem AI Act ein neues Gütesiegel: "Vertrauenswürdige KI - made in EU".
Der AI-Act-Fahrplan
- 21. Mai 2024: EU-Rat nimmt Verordnung an.
- 1. August 2024: Die Verordnung tritt offiziell in Kraft – muss aber noch nicht umgesetzt werden.
- 2. November 2024: EU-Länder müssen die zuständige Behörde einrichten.
- 2. Februar 2025: Erste Verbote greifen. Betroffen sind sogenannte verbotene KI-Systeme. Verboten sind Systeme, die Menschen unterschwellig manipulieren, die Gesichtsdaten erkennen, die Gefühle erfassen, die das soziale Verhalten von Menschen bewerten (social-scoring) und die biometrische Daten erfassen. Es werden Anforderungen an die sogenannte KI-Kompetenz gestellt: Unternehmen müssen ihre Mitarbeiter zu KI schulen.
- 2. August 2025: Mehrere Regelungen treten in Kraft: Die EU-Länder müssen bis jetzt zuständige nationale Behörden benennen und der EU-Kommission mitteilen. Die Länder müssen Regeln für Sanktionen und Geldbußen festlegen.
- 2. Februar 2026: Die Länder müssen Leitlinien für die Umsetzung vorlegen.
- 2. August 2026: Alle übrigen Bestimmungen treten in Kraft.
- (...)
- 2. August 2031: Die KI-Verordnung wird bis 2031 ausgerollt. Dann will die EU-Kommission die Verordnung evaluieren und Bericht erstatten.
Weitere Quellen: dpa, FAZ
Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke