Worauf Medienschaffende beim Einsatz von KI achten sollten.
Von Manuel Bertschi
Kennen Sie Klara Indernach? Sie schreibt für den Kölner «Express» unter dem Autorenkürzel KI. Auf der Website der Zeitung findet sich ein durch Midjourney erstelltes Foto von Klara Indernach und der Hinweis darauf, dass ihr Name für Texte stehe, die mithilfe von künstlicher Intelligenz (KI) erstellt werden. Doch wer klickt schon auf Autorenprofile? Bei der durchschnittlichen Leserschaft jedenfalls wird der falsche Eindruck erweckt, eine reale Person habe die Artikel verfasst. Natürlich blieb das Medienecho nicht aus: Zahlreiche deutsche Blätter und auch die NZZ kritisierten den Kölner «Express» für dessen Intransparenz im Umgang mit KI.
Derart auf die Spitze treiben Schweizer Medien im Vergleich dazu die Anwendung von KI (noch) nicht. Trotzdem beschäftigt sich der Schweizer Presserat intensiv mit der Frage, wie KI-Werkzeuge den Journalismus beeinflussen, und prüft, welche medienethischen Regeln für den Einsatz von KI bei der Arbeit von Texten gelten sollen. Hinsichtlich gestellter oder fiktiver Aufnahmen oder Fotomontagen gibt der Berufskodex bereits heute entsprechende Kennzeichnungs- und damit Transparenzvorschriften vor. Dass die Überprüfung der Quelle einer Information seit je als Ausgangspunkt der journalistischen Sorgfaltspflichten definiert wird, erhält durch den Einfluss von KI zusätzliche Bedeutung.
Bestehendes Recht für die KI
Aus (medien-)rechtlicher Sicht sind die Fragestellungen um KI weniger revolutionär, als es die unglaubliche Technologie vermuten liesse. Die weitgehend technologieneutrale Schweizer Gesetzgebung sieht für Medien und Medienschaffende eine zivilrechtliche Verantwortung für deren Inhalte vor, ganz gleich, ob diese von Menschenhand oder durch KI erstellt wurden. Auch in strafrechtlicher Hinsicht können sich Medien nicht hinter der KI «verstecken». Wenn die Autorschaft nicht ermittelt werden kann, ist der verantwortliche Redaktor oder, falls dieser fehlt, jede Person strafbar, welche die Veröffentlichung des betreffenden Artikels verantwortet. Normiert ist denn auch eine entsprechende Impressumspflicht. Medienunternehmen müssen unter anderem die verantwortlichen Redaktionspersonen öffentlich ausweisen. Weiter gehende Transparenzvorschriften existieren nicht, erst recht nicht für den Umgang mit KI. Höchstens aus dem Lauterkeitsrecht (UWG) liesse sich ableiten, dass mangelnde Hinweise auf durch KI erstellte Artikel als irreführend qualifiziert werden könnten.
Sorgfaltspflicht auch mit KI
Der journalistische Umgang mit KI umfasst damit verschiedene Aspekte: die Ethik, das Recht und besonders das Handwerk der Medienschaffenden. Während etwa bei einer umfangreichen Datenrecherche KI-Tools von grossem Nutzen sind, kann sich ein Medium beim eigentlichen Erstellen eines Berichts mithilfe von KI nicht der journalistischen Sorgfaltspflichten entledigen. Das gilt namentlich für die Quellen- und Tatsachenüberprüfung. Genau das wird durch die KI zur Herausforderung: Das Erkennen von immer raffinierteren Deepfakes erfordert ein umso wacheres journalistisches Auge. Nicht immer erweisen sich durch KI erzeugte Inhalte als derart plump wie etwa das landesweit bekannte und von Nationalrat Andreas Glarner veröffentlichte Video über Nationalrätin Sibel Arslan.* Gerade an diesem Beispiel zeigt sich, dass die bestehenden rechtlichen Grenzen auch bei KI-generierten Inhalten greifen: Andreas Glarner musste das betreffende Video auf gerichtliche Verfügung hin entfernen.
Und was ist mit Klara Indernach? Aus rechtlicher Sicht ist ihr Einsatz grundsätzlich nicht zu beanstanden. Wollen Medienunternehmen aber nicht an Glaubwürdigkeit einbüssen, ist ein transparenter Umgang mit KI zu empfehlen. Das beginnt intern bei der Festlegung von Transparenzvorschriften in den publizistischen Leitlinien (wie etwa bereits bei SRF) und kann nach aussen mit entsprechenden Hinweisen in den AGB und in den jeweiligen Artikeln erfolgen.
* Transparenzhinweis: Der Autor vertritt NR Sibel Arslan im erwähnten Verfahren gegen NR Andreas Glarner.
Ihr Kommentar