• Experten warnen vor intransparenten Prozessen bei der Generierung von KI-Antworten.
  • Sie wollen User außerdem dafür sensibiliseren: KI ist nützlich, aber nicht neutral.
  • Öffentlich-rechtliche Medien wie der MDR setzen auf klare Regeln im Umgang mit KI-Inhalten.

Wer herausfinden möchte, wo überall auf der Welt die Meinungsfreiheit eingeschränkt ist, kann dazu ChatGPT befragen. Die Künstliche Intelligenz durchsucht nun das gesamte Internet nach Informationen zum Thema und listet sie binnen Sekunden auf. Zu lesen ist dann zum Beispiel: "Die Meinungsfreiheit ist fast überall eingeschränkt – die Frage ist nur, wie stark und auf welchen Themenfeldern. In Demokratien geht es meist um den Schutz vor Hassrede, Desinformation oder Beleidigung; in autoritären Regimen geht es um totale Unterdrückung von Kritik."

Welche Inhalte die KI dann präsentiert, hängt von verschiedenen Faktoren ab, erklärt Kevin Baum vom Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken: "Zunächst von den Daten, mit denen sie trainiert wurde. Oft aus dem öffentlichen Internet oder auch aus weiteren Quellen. Häufig ist nicht bekannt, was in das Training eingeflossen ist. Als zweites hängt es von den Zielen ab, die die Anbieter der Modelle vorgeben. Schließlich spielen auch Filtermechanismen eine Rolle, die die Antworten lenken oder bestimmte Inhalt ausschließen und zurückweisen. Die sieht man dann gar nicht."

KI: nützlich, aber nicht neutral

Die Antworten, die ein Nutzer erhalte, könnten durch intransparente Auswahlprozesse der KI entstanden und sogar verzerrt sein. Und: "Weil sie unsere Wahrnehmung beeinflussen und unsere Entscheidungen mitbestimmen, tragen diese oft intransparenten Auswahlprozesse dazu bei, was künftig als Fakt gilt."

KI-generierte Inhalt können nützlich und beeindruckend gut sein, aber sie sind keineswegs automatisch wahr oder objektiv im Sinne einer reinen Abbildung der Realität.

Wie Medien mit KI umgehen

Von sich aus manipuliere die KI keine Inhalte oder die öffentliche Meinung, so Baum. Ob und wie sie das kann, das sei schwer nachzuweisen. Deshalb der Tipp: Man solle KI lediglich als Ideen- oder Recherchewerkzeug nutzen.

So sieht es auch Martin Paul. Er ist KI-Koordinator beim Mitteldeutschen Rundfunk. Wie arbeitet der MDR mit KI-generierten Inhalten? "Im öffentlich-rechtlichen, also in der ARD – und speziell auch im MDR – haben wir uns dafür Leitlinien gegeben, wir haben uns Rahmenbedingungen geschaffen, damit wir jederzeit die Möglichkeit haben, KI als Quelle zu nutzen, aber auch die Pflicht haben, das zu überprüfen. Das heißt, wir werden keine ungeprüften Ergebnisse nach außen geben und sagen, ja so ist es, obwohl wir gar nicht verifizieren können, ob es tatsächlich so ist."

Wenn mit einer KI etwas nicht stimme, würden Nutzer das schnell herausfinden, so MDR-KI-Koordinator Martin Paul. Zum Beispiel, wenn die künstliche Intelligenz tatsächlich falsch antworte oder behaupte, sie habe keine Antwort. Das sei dann ein Signal, dass der Anbieter seiner KI offenbar Grenzen gesetzt habe. Und um auf die Frage unseres Hörers zurückzukommen: Niemand überwacht die KI hinsichtlich der Manipulation der öffentlichen Meinung.

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke