MDR AKTUELL: Sehr geehrte Frau Domscheit-Berg, am 2. August greift eine weitere Stufe der europäischen KI-Verordnung. Die Wirtschaft kritisiert die Verordnung als schwammig und Meta lehnt beispielsweise den Code of practice schlichtweg ab. Hat das Gesetz Schwächen?

Anke Domscheit-Berg: Es hat leider sogar viele. Zum Beispiel Graubereiche, deren Klärung wahrscheinlich erst in den nächsten Jahren auf dem Rechtsweg erfolgt. Etwa die Verpflichtung, dass generative KI-Modelle das Urheberrecht einhalten müssen. Denn was das genau bedeutet, ist gar nicht klar. Hersteller glauben, das bisherige Recht auf sogenanntes Text- und Datamining decke auch das Trainieren von KI-Systemen ab, was Urheber aber ganz anders sehen, denn als das Text- und Datamining geregelt wurde, gab es generative KI noch gar nicht. Gerichte werden deshalb klären müssen, ob die Anbieter das Urheberrecht erst dann wahren, wenn sie für das Trainieren von KI mit urheberrechtlich geschützten Werken eine explizite Erlaubnis der Kunstschaffenden haben, was ich sehr unterstützen würde, denn KI verändert die Kreativbranche schon jetzt ganz extrem.

Generative KI unterliegt jetzt Transparenzpflichten. Reichen die?

Ab diesem August gelten Transparenzpflichten für generative KI-Modelle. Da muss für jedes Modell zum Beispiel dokumentiert werden, wie es das Urheberrecht einhält, welche Risiken eventuell mit diesem Modell einhergehen und wie man sie minimieren wird und wie es grundsätzlich funktioniert.

Die Kennzeichnungspflicht für KI-generierte Inhalte aber (..) die kommt erst nächstes Jahr im August. Das finde ich viel zu spät.

Die Kennzeichnungspflicht für KI-generierte Inhalte aber – also Bilder, Texte, Videos, Deepfakes oder Chatbots - die kommt erst nächstes Jahr im August. Das finde ich viel zu spät. Auch Pflichten für Hochrisiko-Systeme gelten erst nächstes Jahr obwohl sie potenziell Grundrechte verletzen, Manipulation oder Diskriminierung mit erheblichen Nachteilen ermöglichen oder die Gesundheit gefährden. Für Hochrisiko-KI, die Teil von Produkten wie z.B. von Spielzeug ist, gelten Pflichten sogar erst ab August 2027.

Reichen die für den Hochrisikobereich vorgesehenen Regeln?

Auch das wird erst die Praxis zeigen. Aber absurd ist schon mal, dass die Pflichten für Hochrisiko-Systeme auch künftig nicht für alle derartigen Systeme gelten, die bis August 2026 angeboten oder eingesetzt werden. Bei Giftstoffen würde man nie ein Verbot erlassen, und alle vor einem Stichtag entwickelten Giftstoffe trotzdem unbegrenzt weiter in Verkehr bringen lassen. Entweder ist eine KI gefährlich, oder eben nicht, und dementsprechend müssen Regeln gelten und dann auch eingehalten werden.

Entweder ist eine KI gefährlich, oder eben nicht, und dementsprechend müssen Regeln gelten und dann auch eingehalten werden.

Kommen solche Hochrisiko-KI auch im staatlichen Bereich zum Einsatz?

Im Hochrisikobereich sind die Begehrlichkeiten für den Einsatz von KI durch staatliche Stellen extrem hoch. Dazu gehört u.a. alles was mit Asyl und Migration zu tun hat, und alles, was mit Strafverfolgung zu tun hat. Das sehen wir ja nicht nur in den USA, diese Wünsche nach technologiegestützter Überwachung, die erheblich in Grundrechte eingreift, gibt es auch bei uns.

Nachdem die Ampel es nicht mehr durchbringen konnte, will nun auch die neue Koalition mit einem sogenannten Sicherheitspaket künftig KI einsetzen, um biometrische Abgleiche mit im Prinzip dem ganzen Internet ermöglichen: zum Beispiel, um Asylbewerber zu überprüfen oder Täter- und Zeugen zu finden bzw. zu identifizieren. Biometrische Daten genießen aber den höchsten Schutz, weil sie lebenslang unveränderlich sind und auch für Identitätsdiebstahl verwendet werden könnten. So ein Abgleich wäre völlig unverhältnismäßig, da er auch die Grundrechte aller Unbeteiligten verletzt, deren Gesichter mit den zu Überprüfenden verglichen werden. Das ist weder mit dem Grundgesetz noch mit der Datenschutzgrundverordnung vereinbar.

Gelten für staatliche Behörden eigentlich andere Regeln?

Beunruhigend ist aber auch, dass ausgerechnet Behörden erst ab 2030 die Regeln für Hochrisiko-KI-Systeme einhalten müssen, also z.B. Risikobewertungen, Qualitätsanforderungen für Daten, ein Verbot der Diskriminierung, Dokumentationspflichten. Wie kann man bei einem staatlichen Machtmonopol mit hohen Ansprüchen an die Einhaltung von Grundrechten eine derartige Ausnahme machen? Da auch die parlamentarische Kontrolle stark eingeschränkt ist, weil der Einsatz von KI durch Behörden so intransparent ist, und da es außerdem an unterstützenden Strukturen und standardisierten Prozessen fehlt, rechne ich mit erheblichen Grundrechtsverletzungen beim Einsatz von Hochrisiko KI durch Behörden.

Beunruhigend ist aber auch, dass ausgerechnet Behörden erst ab 2030 die Regeln für Hochrisiko-KI-Systeme einhalten müssen (...).

Deutschland hat noch keine Aufsichtsbehörde für den AI-Act benannt. Wissen Sie, welche es wird?

Voraussichtlich wird die Bundesnetzagentur (BNetzA) diese Aufgabe übernehmen – das ist Konsens. Wobei noch unklar ist, wo die Grenze der Zuständigkeit zwischen BNetzA und Bundesdatenschutzbeauftragter gezogen wird. Eine gesetzliche Grundlage dafür gibt es jedenfalls immer noch nicht. Da sind wir auch schon wieder nicht pünktlich. Das war beim Digital Services Act genauso. Zwar erhält die Bundesnetzagentur jetzt eine Beauftragung als Interimslösung, denn irgendjemand muss ja kontrollieren, ob die seit Februar geltenden Verbote und die ab August neu geltenden Pflichten eingehalten werden oder ob es Verstöße gibt und Sanktionen anzuwenden sind. Aber die gesetzliche Grundlage fehlt trotzdem. Außerdem braucht die BNetzA dafür Haushaltsmittel – und es gibt immer noch keinen Bundeshaushalt für 2025 – daran wird sich auch bis mindestens Ende September nichts ändern und es ist absehbar, dass es sowieso zu wenig wird.

Und so wird die Bundesnetzagentur erneut eine weitere große Aufgabe bekommen, ohne auch nur ansatzweise ausreichend Ressourcen dafür – und so kann sie ihre Aufsichtsfunktion gar nicht sinnvoll wahrnehmen. Ich befürchte schon deshalb wird die KI-Verordnung in Deutschland wohl als relativ zahnloser Tiger starten.

Hat die Verordnung nur Schwächen oder enthält sie auch Gutes?

Es ist natürlich sinnvoll, Regeln für den Einsatz von KI zu haben und da auch nach Risiken zu differenzieren, aber es ist blöd, dass viele Regeln für Hochrisiko-KI erst 2027 kommen, dass Behörden sich bis 2030 nicht einmal daran halten müssen und bis August 2026 existierende Systeme überhaupt nie.

Es ist natürlich sinnvoll, Regeln für den Einsatz von KI zu haben (...), aber es ist blöd, dass viele Regeln für Hochrisiko-KI erst 2027 kommen, dass Behörden sich bis 2030 nicht einmal daranhalten müssen und bis August 2026 existierende Systeme überhaupt nie.

Immerhin kommt für die ganzen Deepfakes, Chatbots, Agenten, KI-generierten Bilder, -Videos, -Musik und -Texte eine Kennzeichnungspflicht im nächsten Sommer. Auch das finde ich viel zu spät, aber sie ist extrem wichtig, da wir ja jetzt schon nicht mehr wissen, was echt ist und was nicht.

Wie löst sich das denn auf die Gesellschaft aus?

Wir müssen gesellschaftliche Probleme gesellschaftlich lösen. Das nimmt uns nämlich keine KI ab. Es gibt eine starke Neigung zum sogenannten Tech-Solutionismus. Dass man sich einbildet, mit KI jedes Problem lösen zu können, von Bildungsungerechtigkeit bis zur Klimakrise. Dabei tragen gigantische KI-Rechenzentren erheblich zur Klimakrise bei, weil sie extrem viel Ressourcen verschlingen: Wasser, Energie und Rohstoffe. Wir müssen uns fragen, wo KI mehr nützt, als sie schadet und wo nicht. Es gibt sehr sinnvolle KI-Anwendungen, es gibt aber auch ganz viele, die sind einfach nur umweltschädlich, diskriminierend, menschenrechtsverletzend.

Es gibt eine starke Neigung zum sogenannten Tech-Solutionismus. Dass man sich einbildet, mit KI jedes Problem lösen zu können (...) Wir müssen uns fragen, wo KI mehr nützt, als sie schadet und wo nicht.

Wir müssten den Blick auf das Gesamtsystem haben und auch bedenken, wer vom Nutzen profitiert und wer die Nachteile ausbaden muss. Denn Nutzen und Nachteile sind sehr ungleich verteilt. Den größten Vorteil haben wenige digitale Monopole und eine Handvoll US-Milliardäre, die ihre Big-Tech Dominanz jetzt auch auf KI ausdehnen. Die größten Nachteile hat die Mehrheit der Menschen am anderen Ende der Nahrungskette, bei uns in der westlichen Welt, aber noch mal doppelt im globalen Süden, wo die Ausbeutung von Ressourcen und Menschen aber auch die Folgen der Klimakrise am Stärksten sind.

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke