Deepfakes, also künstlich erzeugte oder manipulierte Bilder, kennen wir vor allem von Social Media. Sie sind mittlerweile oft täuschend echt, was vor allem in Wahlkämpfen weltweit immer wieder für Desinformation, Vertrauensverlust und politische Kontroversen sorgt. Doch was lange als Problem der digitalen Öffentlichkeit galt, erreicht nun auch einen Bereich, in dem Bilder bislang als verlässliche Beweise galten: die Medizin.

Laut einer kürzlich in der Fachzeitschrift Radiology veröffentlichten Studie können weder Radiologen noch bestimmte KI-Systeme "Deepfake"-Röntgenbilder – also künstlich erzeugte oder manipulierte Röntgenbilder – zuverlässig von echten unterscheiden. Dem Studienleiter Dr. Mickael Tordjman, Postdoktorand an der Icahn School of Medicine at Mount Sinai in New York, zufolge schaffe das eine hochriskante Schwachstelle: Denkbar seien betrügerische Rechtsstreitigkeiten mit erfundenen Verletzungen oder Cyberangriffe, bei denen synthetische Bilder in Krankenhausnetzwerke eingeschleust werden. Vor allem aber drohe ein langfristiger Vertrauensverlust in digitale Patientenakten. Sind Deepfakes also eine Gefahr für uns Patienten?

Überschaubares Risiko – wenn Röntgenbilder gefälscht werden können

Dass Bilder heute nicht mehr automatisch als Wahrheit gelten können, sei tatsächlich ein Bruch mit einer jahrzehntelangen Selbstverständlichkeit, sagt Thomas Neumuth, Professor für Medizintechnik und Medizininformatik an der Universität Leipzig. Über mehr als ein Jahrhundert habe man sich weitestgehend darauf verlassen können, dass das, was auf einem Bild zu sehen ist, auch der Realität entspricht – abgesehen von Hollywood. Dass das jetzt nicht mehr so ist, sorge sicherlich in Zukunft für neue "Angriffsvektoren", also neue Wege für gezielte Cyberangriffe und Betrugsszenarien.

Gleichzeitig warnt Neumuth davor, die Risiken zu dramatisieren. Jedes neue Risiko lasse sich auch adressieren. Denkbar seien technische Herkunftsnachweise für medizinische Bilder, vergleichbar mit Sicherheitsmerkmalen bei Geldscheinen. Digitale Signaturen oder unsichtbare Wasserzeichen könnten bereits bei der Entstehung eines Bildes eingebettet werden, ergänzt durch gesicherte Übertragungswege vom Gerät bis zum beurteilenden Arzt. Technisch sei das machbar – die eigentliche Herausforderung liege in der Standardisierung über unterschiedliche Gerätehersteller und Systeme hinweg.

Jedes Risiko, das besteht, kann in der Regel auch durch entsprechende Gegenmaßnahmen adressiert werden.

Thomas Neumuth, Professor für Medizintechnik und Medizininformatik, Universität Leipzig

Felix Nensa, Professor für Radiologie mit Schwerpunkt Künstliche Intelligenz an der Universität Duisburg-Essen, blickt deutlich gelassener auf die Debatte. Die Erkenntnisse der Studie seien nicht wirklich neu. Viele Forschende hätten bereits gezeigt, dass sich medizinische Bilder täuschend echt generieren lassen. Die Gefahr eines großflächigen Missbrauchs hält Nensa für überschaubar.

Manipulationen sind auch ohne KI möglich

Zum einen seien medizinische IT‑Systeme vergleichsweise gut gesichert, zum anderen brauche es für viele Manipulationen gar keine KI. Einen Laborwert oder einen Arztbrief zu verändern sei deutlich einfacher als ein glaubwürdiges Röntgenbild zu fälschen. Vor allem aber würden medizinische Entscheidungen nie auf Basis eines einzelnen Bildes getroffen. Befunde entstünden immer im Zusammenspiel mehrerer Daten aus etwa Anamnese, klinischer Untersuchung, Laborwerten und Bildgebung. Unplausible Ergebnisse fielen in diesem Prozess meist auf und würden überprüft.

In der Medizin wird fast nie eine Entscheidung auf Basis eines einzelnen Datenpunkts getroffen.

Felix Nensa, Professor für Radiologie mit Schwerpunkt KI, Universität Duisburg-Essen

Trotzdem, betont Nensa, müsse medizinisches Personal künftig für Deepfakes geschult werden – nicht nur, um mögliche Risiken zu erkennen, sondern auch, weil sie sinnvoll eingesetzt für die Patienten auch nützlich sein können.

Ein schnelles MRT – wenn künstliche Bilder Patienten helfen

Dass künstliche Bilder einen direkten Nutzen für den Patienten haben können, betonen beide Experten. Thomas Neumuth spricht daher bewusst von synthetischen Daten statt von Deepfakes. In der Medizintechnik können sie helfen, neue Systeme zu testen, wenn reale Bilddaten nicht für alle Patientengruppen oder Situationen ausreichend verfügbar sind.

Da der menschliche Körper biologisch stark variiert, müssen technische Systeme viele unterschiedliche Szenarien zuverlässig erkennen können, so der Forscher. Entsprechend umfangreich sind die Trainingsdaten. Synthetische Bilddaten können reale Daten ergänzen und gezielt Varianten abbilden, um die Sicherheit und Leistungsfähigkeit solcher Systeme zu überprüfen, bevor sie – je nach Produkt – dann in klinischen Studien am Menschen getestet werden. Die Tests können so schneller, effizienter und preiswerter gestaltet werden, meint Neumuth, und so letztendlich auch schneller den Patienten zur Verfügung stehen.

Der profitiert aber möglicherweise auch bald bei bereits vorhandenen Systemen, beispielsweise bei der Magnetresonanztomografie. Felix Nensa hat hier zusammen mit Forschenden der Radiologie am Universitätsklinikum Essen synthetische Datensätze erprobt: Dabei wurde ein hochspezialisiertes KI-Netzwerk, ein sogenanntes Generative Adversarial Neural Network, darauf trainiert, aus zwei bereits aufgenommenen MRT‑Sequenzen eine dritte Sequenz künstlich zu erzeugen. Das habe gut funktioniert, so der Radiologe. Für Patienten könne damit die Untersuchungszeit um ein Drittel verkürzt werden und damit die oft lange und unangenehme Zeit in der MRT‑Röhre. Genau hier sei es aber auch wichtig, die Grenzen der KI zu verstehen.

"Vergiftete KI" – wo künstliche Bilder an ihre Grenzen stoßen

Bei der MRT-Untersuchung habe man laut Nensa vereinfacht zwei Sequenzen schlau miteinander verrechnet, um eine dritte Sequenz zu erhalten. "Man kann dann diese dritte Sequenz auch immer noch mit den anderen beiden Sequenzen abgleichen und sehen, ob das plausibel ist." Bekomme ein Modell zu viel kreative Freiheit, neige es dazu zu halluzinieren – also Pathologien einzufügen oder hineinzuinterpretieren – oder reale Auffälligkeiten, die es nicht kennt, wegzulassen. Besonders problematisch sei es, wenn KI überwiegend mit bereits synthetischen Daten trainiert werde. Dann gehe Vielfalt verloren, die Abbildung der Realität werde monotoner. Die KI werde "vergiftet", so Felix Nensa.

Besonders wichtig sei es deshalb, die Herkunft der Trainingsdaten zu kennen – auch um einschätzen zu können, inwiefern Unterschiede etwa zwischen Geschlechtern, Altersgruppen, Herkunft oder verschiedenen Gerätetypen zuverlässig abgebildet werden. Für öffentlich zugängliche Forschungsdatensätze hält Nensa Herkunftsnachweise wie Wasserzeichen deshalb ebenfalls für sinnvoll. Im klinischen Alltag hingegen brauche es eher eine gute Dokumentation und die Möglichkeit, Prozesse nachvollziehen zu können, etwa, wann etwas gemacht wurde, von welcher KI oder mit welchem Versionsstand.

Man muss immer wachsam bleiben und herausfinden, wie diese Systeme arbeiten.

Felix Nensa, Professor für Radiologie mit Schwerpunkt KI, Universität Duisburg-Essen

Schon jetzt gäbe es im Header einer Datei immer einen Herkunftsnachweis. Auch Datenschutzprobleme würden bereits jetzt umgangen, indem gezielt Störungen in die Daten eingebaut werden, um Rückverfolgbarkeit auf den Patienten zu verhindern oder zu erschweren, ohne die Wertigkeit der Daten zu beeinträchtigen. Entsprechend werden, dem Radiologen zufolge, synthetische Daten nicht grundsätzlich alles verändern, sehr wohl aber "ein Tool im Werkzeugkasten sein"– auch etwa in der Ausbildung von medizinischem Personal.

Training in der virtuellen Realität

Denkbar seien etwa virtuelle Trainingsumgebungen mit Virtual‑Reality‑Brillen, in denen reale Szenarien mit künstlich erzeugten Erkrankungen ergänzt werden – dass man also mit einem gesunden Schauspieler eine VR-Szene generiert und in diese Welt künstlich bestimmte Krankheiten mithilfe von KI hineingeneriert. Auf die Idee, durch synthetische Datensätze eine Reihe von Krankheitsbildern zu kreieren, wie es sich Thomas Neumuth vorstellen könnte, reagiert Felix Nensa hingegen zurückhaltender. Für gängige Krankheiten gebe es einen großen Fundus an Bildern für die Lehre. Für seltene Erkrankungen fehlten wiederum auch der KI die Daten, um ein korrektes Bild erstellen zu können.

Die Grenzen der KI im Bereich synthetische Bilddaten sind immer wieder präsent. Ein Grund, warum Felix Nensa die Deepfakes als "ein Randthema im Vergleich zum gigantischen Potenzial von KI" bezeichnet. Für Patient und Arzt können sie aber ein nützliches Tool sein, um Untersuchungszeiten zu verkürzen, die Entwicklung medizinischer Produkte voranzutreiben und Sicherheit für die Diagnosen zu geben. Wie hoch ihre Risiken dabei sind, entscheidet sich nicht an der Technik selbst, sondern daran, wie verantwortungsvoll sie eingesetzt wird – und wie gut medizinisches Personal im Umgang mit ihr geschult ist.

Haftungsausschluss: Das Urheberrecht dieses Artikels liegt bei seinem ursprünglichen Autor. Der Zweck dieses Artikels besteht in der erneuten Veröffentlichung zu ausschließlich Informationszwecken und stellt keine Anlageberatung dar. Sollten dennoch Verstöße vorliegen, nehmen Sie bitte umgehend Kontakt mit uns auf. Korrektur Oder wir werden Maßnahmen zur Löschung ergreifen. Danke