Element 68Element 45Element 44Element 63Element 64Element 43Element 41Element 46Element 47Element 69Element 76Element 62Element 61Element 81Element 82Element 50Element 52Element 79Element 79Element 7Element 8Element 73Element 74Element 17Element 16Element 75Element 13Element 12Element 14Element 15Element 31Element 32Element 59Element 58Element 71Element 70Element 88Element 88Element 56Element 57Element 54Element 55Element 18Element 20Element 23Element 65Element 21Element 22iconsiconsElement 83iconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsiconsElement 84iconsiconsElement 36Element 35Element 1Element 27Element 28Element 30Element 29Element 24Element 25Element 2Element 1Element 66

MEDIA RESEARCH BLOG

Blog Header Background Image
Zur Übersicht
​Medienrechtliche Verantwortlichkeiten bei Roboterjournalismus

​Medienrechtliche Verantwortlichkeiten bei Roboterjournalismus

29.04.2020

Immer öfter setzen journalistische Medien automatisierte Systeme zur Texterstellung ein. Macht ein “Journalismusroboter” einen Fehler, stellt sich die Frage, wer dafür verantwortlich gemacht werden kann. Stephan Dreyer und Amélie Heldt erklären, wie der medienrechtliche Haftungsrahmen für Falschberichterstattung im Maschinenjournalismus aussieht, warum sich weniger Fragen als z. B. bei autonomen Fahrzeugen stellen, und welche Haftungsfragen (noch) offen bleiben.
Für manch einen klingt es wie eine Zukunftsvision, wenn Verlage über Roboterjournalismus oder Maschinenjournalismus sprechen. Tatsächlich aber nutzen bereits viele journalistische Unternehmen seit längerem ganz unterschiedliche Formen und Möglichkeiten der Automatisierung von Berichterstattung (van der Haak et al. 2012). Wo zuvor vor allem datengetriebene und automatisiert erstellte Servicemeldungen (Verkehr, Wetter, Sport, Finanzmärkte) eingesetzt wurden, halten nun zunehmend “Schreibmaschinen” Einzug in die journalistische Praxis, die auch komplexere Texte autonom generieren (J Robot: Could Artificial Intelligence Actually Replace Reporters?). 

Solche autonome(re)n Systeme und Roboter, die auf der Grundlage von Verfahren maschinellen Lernens - oder breiter: Künstlicher Intelligenz - mehr oder weniger autonome Entscheidungen treffen, werfen in vielen Einsatzbereichen gewichtige Haftungsfragen auf, auf die das derzeitige Recht nur begrenzt Antworten hat. (Einen Überblick über ethische Fragen findet man bspw. im Verzeichnis von Algorithmwatch; zu Algorithmenethik: Roboter sind auch nur Menschen!? – Ein juristischer Blick auf die Haftung für Künstliche Intelligenz von Torsten Kraul; Haftungsregelungen für autonome Systeme? in der Umsetzungsstrategie Digitalisierung des Bundes). Und je mehr Journalismus sich in einer (r)evolutionären Phase befindet, in der journalistische Verlage mit Formen automatisierter Texterstellung experimentieren oder diese bereits einsetzen, stellt sich auch hier die Frage nach der Zuschreibung von rechtlicher Verantwortlichkeit, vor allem im Falle von Falschberichterstattung und/oder der Verletzung von Rechten Dritter.

Anders als etwa im Bereich von Pflegerobotern oder autonomen Kraftfahrzeugen weist automatisierte Berichterstattung allerdings zwei strukturelle und gewichtige Unterschiede auf: Zum einen gibt es bei medialer Berichterstattung gerade kein verkörpertes Produkt mit Schadenspotenzial, für das sich haften ließe, sondern es geht um die Haftung für unverkörperte Informationen bzw. geistige Inhalte. Zum anderen sieht der medienordnungsrechtliche Rahmen bereits spezifische Verantwortlichkeitsregeln vor, die bei Fragen der Haftung zu berücksichtigen sind. Der Kurzbeitrag gibt einen Überblick über dieses bestehende medienrechtliche Haftungsregime und zeigt die verbleibenden Herausforderungen medienrechtlicher Haftung bei Roboterjournalismus auf.
Haftung wofür eigentlich?
Mediale Äußerungen sind rechtlich gesehen eine Querschnittsmaterie. Je nach Darstellung und Aussagegehalt können ganz unterschiedliche Rechtsbereiche berührt und Rechte verletzt oder Tatbestände verwirklicht sein. Die in anderen Einsatzgebieten viel diskutierte Produkthaftung für autonome Systeme stellt sich bei Medienberichterstattung weniger, da es sich hier um Informationen handelt (inkl. Nachrichten, Unterhaltung, Bildung, Kultur). Rechtsverletzungen ergeben sich hier eben nicht in der unmittelbaren körperlichen Schädigung durch zum Beispiel ein autonom fahrendes Auto, sondern etwa durch Verstöße gegen medienrechtliche Vorgaben, Persönlichkeits- oder Datenschutzrecht, Urheber- oder Wettbewerbsrecht, oder, in selteneren Fällen, auch gegen äußerungsbezogene Strafrechtsnormen wie Beleidigung oder Verleumdung. Aus der Vielfalt der tangierten Rechtsbereiche ergeben sich die teils unterschiedlichen Herangehensweisen, wenn es um die Bestimmung der jeweils haftenden Akteur*innen geht. Wir schauen uns im Folgenden einige dieser Rechtsrahmen an.

Wichtig zu wissen ist, dass es im Grunde keine Haftung für “schlicht” unwahre Berichterstattung gibt: Das (unbewusste) Verbreiten von Unwahrheiten ist rechtlich nicht verboten, solange keine weiteren Rechte verletzt sind; entsprechend kann es auch keine Produkthaftung für geistige Inhalte geben. Letzteres ist unter Jurist*innen nicht unumstritten, würde aber zu einer ganzen Reihe von Wertungswidersprüchen in der Produkthaftung führen. Ausnahmen dabei können Falschberichte sein, auf deren Grundlage Dritte mittelbar Kaufentscheidungen treffen. Außerdem können bewusste oder fahrlässige Falschmeldungen daneben eine Sorgfaltspflichtverletzung von Journalist*innen darstellen, sie sind aber gerade nicht mit gesetzlichen Konsequenzen bewehrt: Einziges Sanktionsregime für an der Selbstkontrolle teilnehmende Verlage ist hier der Pressekodex des Presserats.
Medienordnungsrechtliche Verantwortlichkeit
Das Medienordnungsrecht sieht für journalistische Publikationen vor, dass im Impressum eine verantwortliche Redakteurin bzw. ein verantwortlicher Redakteur zu benennen ist (vgl. im Presserecht z.B. § 7 Berliner Pressegesetz, § 8 Hamburgisches Pressegesetz; im Bereich journalistischer Online-Publikationen: § 55 Abs. 2 RStV, bzw. voraussichtlich ab Herbst 2020: § 19 MStV). Diese Person ist dann ordnungsrechtlich für alle Veröffentlichungen "ihres" Angebots verantwortlich - auch für solche von Automaten. Es handelt sich insoweit um eine verantwortungsvolle Position, weil man für jede Äußerung der menschlichen und nicht-menschlichen Mitarbeitenden medienordnungsrechtlich zur Verantwortung gezogen werden kann. 
Strafrechtliche Verantwortlichkeit
Im Straf- und Deliktsrecht wird der "Täter" verantwortlich gemacht. Das ist üblicherweise die Person, die vorsätzlich – d. h. mit Wissen und Wollen – zu der Tatbestandsverwirklichung beigetragen hat (z. B. üble Nachrede); in der Regel ist das jedenfalls die Autorin bzw. der Autor. Bei einem automatisch erstellten Beitrag fehlt allerdings eine unmittelbar handelnde Person. Der handelnden Person, also derjenigen, die den Automaten aktiviert, oder dem/der Verleger*in, fehlt aber in aller Regel der subjektive Wille zu einer Tatbestandsverwirklichung, so dass es bei Roboterjournalismus vor allem um die Frage der Fahrlässigkeitsstrafbarkeit ginge. Bei reiner Fahrlässigkeit muss einer Person stets die Verletzung von Sorgfaltspflichten sowie Vorherseh- und Vermeidbarkeit des Verletzungserfolges nachgewiesen werden können. Bei Beleidigungsdelikten wie bei praktisch allen anderen äußerungsbezogenen Delikten gibt es aber keine fahrlässige Strafbarkeit – die einzige Ausnahme ist das Leichtfertigkeitsdelikt der Preisgabe von Staatsgeheimnissen (§ 97 Abs. 2 StGB). Die Sorgfaltspflichtverletzung bei Leichtfertigkeit muss allerdings besonders krass sein. 

Denkbar sind aber Formen der Täterschaft durch Unterlassen trotz bestehender Sorgfaltspflichten. Im Zusammenhang mit den beschriebenen medienordnungsrechtlichen Pflichten ginge es bei Medienveröffentlichungen dann regelmäßig um die Frage der Sorgfaltspflichtverletzungen im Rahmen der Garantenpflicht, etwa durch fehlende Sichtung und Kontrollabläufe vor Veröffentlichung. Neben der ordnungsrechtlich verantwortlichen Person (s. oben) kommt hier auch die Verlegerin bzw. der Verleger in Betracht: Die Rechtsprechung nimmt eine relativ weitgehende Fiktionshaftung zu Lasten des “Herren des Mediums” an. Die absichtliche oder jedenfalls in Kauf genommene Erfüllung von Straftatbeständen durch automatisiert erstellte Inhalte müssen sich in der Folge die oder der verantwortliche Autor*in bzw. Redakteur*in vorhalten lassen.
Zivilrechtliche deliktische Verantwortlichkeit
In der Praxis spielt die Frage der zivilrechtlichen Verantwortungszuschreibung vielleicht die größte Relevanz. Zwar haben Journalist*innen und Verlag selbst in der Regel ein Eigeninteresse an der Korrektur einer falschen Berichterstattung, sodass dem Anspruch einer betroffenen Person auf Unterlassen, Korrektur oder Löschung der Falschmeldung meist nachgekommen wird. Bei der Frage nach Schadenersatz aber treten die unterschiedlichen Interessen offen zu Tage. Zivilrechtlich geht es um die Frage, wer für Schäden an Rechtsgütern von Dritten haftet, wie etwa einer Persönlichkeitsrechtsverletzung. Die Haftungsfrage ist hier komplexer, da das Zivilrecht selbst unterschiedliche Haftungskonzepte kennt (Verschuldenshaftung, Gefährdungshaftung, Kausalhaftung). Bei Schäden, die durch Äußerungen entstehen, findet regelmäßig das Deliktsrecht Anwendung: Die Haftung für deliktisches Handeln richtet sich nach § 823 Abs. 1 BGB, dort gilt die sog. Verschuldenshaftung.

Da bei automatisiert erstellten Inhalten keine sich unmittelbar äußernde Person existiert, stellt sich auch hier die Frage nach der Zurechnung und damit der Verantwortlichkeit von natürlichen oder juristischen Personen für die automatisch generierte Publikation. Voraussetzung ist die Verletzung eines Rechtsguts sowie die schuldhafte Verletzung einer Verkehrspflicht. Eine Schuld liegt aber nur dort vor, wo nachgewiesen werden kann, dass der Anspruchsgegner eine konkrete Pflicht verletzt hat und dies kausal für den Schaden war. Beim Einsatz von Software geht es vor allem um Sorgfalt bei der Auswahl des eingesetzten Programms, der Pflege und Wartung und natürlich erneut bei der Überprüfung der vom System publizierten Inhalte. Ein relevanter Aspekt dabei sind begründete Erwartungen der Nutzenden an einen journalistischen Beitrag unter dem Dach einer bekannten Medienmarke: Je höher das Vertrauen in das Outlet, desto höher die Sorgfaltsanforderungen. Eine Fehlerkontrolle muss zudem zumutbar sein: Die Anforderungen an die Sorgfaltspflicht beurteilen sich nach der Gefahr bzw. dem Gefahrenpotenzial des jeweiligen Erzeugnisses, d. h. nach dem erkennbaren Ausmaß möglicher drohender Schäden und dem Rang der bedrohten Güter. Daraus wird geschlossen, dass die Sorgfaltspflichtanforderungen bei möglichen unmittelbar rechtsverletzenden Äußerungen, etwa bei Persönlichkeitsrechtsverletzungen, deutlich höher sind als bei inhaltlichen Fehlern, die “nur” zu mittelbaren Schäden führen könnten.

Grundsätzlich bestimmt sich die Haftung danach, wer kausale Ursachen für den Schaden gesetzt hat. Die medienrechtliche Zuweisung an die verantwortlichen Redakteur*innen ist im Zivilrecht insoweit gerade kein Automatismus, sondern es kommt im konkreten Einzelfall darauf an, wer die Software programmiert, implementiert, trainiert und konfiguriert hat, wer den Berichterstattungsgegenstand bzw. das Thema ausgewählt hat, und wer eine schädigende Veröffentlichung hätte verhindern können (und mit Blick auf die angemessene Sorgfalt auch hätte verhindern müssen). 

Auch im Zivilrecht kann die oder der Beklagte dabei für Handlungen haften, die sie bzw. er nicht selbst begangen hat. So gibt es gesetzliche Regelfälle, in denen sich diese das Verhalten Dritter zurechnen lassen müssen. So etwa, wenn eine aufsichtspflichtige Person für das Handeln Dritter haftbar gemacht werden kann (§ 832 BGB; Minderjährige, geistig Behinderte) oder wenn § 833 BGB eine Haftung des Tierhalters für durch das Tier entstandene Schäden vorsieht. Beide Vorschriften werden als mögliche Analogien bei der Haftung für Automaten(äußerungen) herangezogen – mit der weiteren Schwierigkeit, dass für sog. Luxustiere eine Kausalhaftung besteht (Schaden durch Tier: Halter haftet, § 833 S. 1 BGB), für gewerblich genutzte Nutztiere aber "nur" die Verschuldenshaftung (§ 833 S. 2 BGB) gilt. Das kann Relevanz für gewerblich eingesetzte Journalismus-Automaten haben, wenn man an dieser Analogie festhält. Daneben gibt es Stimmen, die Roboterjournalismus eher als einen weisungsgebundenen Verrichtungsgehilfen sehen, für den die Person, die die Software einsetzt, haftet (§ 831 BGB). Hier kann sich die oder der Beklagte der Haftung entziehen, wenn die Auswahl und Überwachung des Gehilfen sorgfältig vorgenommen wurde.
 
Das gilt allerdings auch im Zivilrecht nicht für den “wirtschaftlichen Herren eines Mediums”, d. h. den Verlag: Die vom BGH eingeführte Fiktionshaftung geht davon aus, dass das jeweilige Outlet einer Äußerung vor allem bei gesellschaftlich kontroversen Themen stets verpflichtet ist, auch einzelne Aussagegehalte auf ihre rechtliche Unbedenklichkeit hin zu überprüfen. Diese Form der umfangreichen Verbreiterhaftung steht im Einklang mit der verfassungsrechtlich und gesellschaftlich zugedachten Funktion von Journalismus: Wer Einfluss auf die individuelle und öffentliche Meinungsbildung nimmt, muss sich an besonderen Sorgfaltspflichten messen lassen. Für den Einsatz von Systemen zur automatisierten Berichterstattung folgt daraus eine umfangreiche Verantwortlichkeit des Verlags und der mit der Beaufsichtigung betrauten Redakteur*innen für automatisiert erstellte Inhalte.

In jedem Fall schließt sich an diese rechtlichen Überlegungen, die nach h. M. derzeit tatsächlich von einer regelmäßigen deliktischen Verschuldenshaftung bei automatisierten Publikationen ausgehen würden, die Frage der Beweislastumkehr bei autonomen Systemen an. Müssen die NutzerInnen entsprechender Systeme beweisen, dass ein deliktisches Verhalten eher auszuschließen oder jedenfalls nicht erwartbar war, oder müssen Geschädigte beweisen, dass ein solches Verhalten erwartbar war und die Haftenden ihrer Sorgfaltspflicht nicht entsprochen haben? Das kann für das gerichtliche Vorbringen einen großen Unterschied machen. Auch wichtig in der Praxis ist die sich anschließende Frage, inwieweit Haftende die Verkäufer*innen oder gar den Hersteller bis hin zu den Programmierer*innen der Software in Regress nehmen, sich also den gezahlten Schadenersatz zurückholen können. An dieser Stelle sind sich dann alle Jurist*innen einig, dass die Automatenhaftung jedenfalls im Zivilrecht noch fortentwickelt werden muss.
Datenschutzrechtliche Verantwortlichkeit
Bei einer Falschberichterstattung durch automatisch erstellte Inhalte, bei der personenbezogene Daten eine Rolle spielen, wie etwa die Nennung einer Einzelperson, handelt es sich stets auch um Datenverarbeitung, die unter die Vorgaben der DSGVO fällt. Für Verarbeitungen im Rahmen von journalistischen Zwecken sehen die (meisten) Landespressegesetze ein umfangreiches Medienprivileg vor. So gelten die meisten Vorgaben des EU-Datenschutzrechts für journalistische Äußerungen mit Personenbezug nicht (vgl. Art. 85 iVm den Vorgaben des jeweiligen Landespresse- oder Landesmediengesetzes). Dies gilt aber nicht bei der Haftung für rechtswidrige Datenverarbeitungen. Bei einer Falschberichterstattung stellt sich die Frage, ob die insoweit fehlerhafte Verarbeitung personenbezogener Daten noch von der Privilegierung “journalistischer Zwecke” im Datenschutz umfasst ist, oder ob sich daraus nicht eine umfängliche datenschutzrechtliche Verantwortlichkeit ergibt. Wäre dies der Fall, so sähen die DSGVO sowie das BDSG nicht nur die Haftung des journalistischen Unternehmens als juristische Person vor, sondern – in Ausnahmefällen – auch die persönliche Haftung von Geschäftsführer*in oder Mitarbeiter*innen vor. Da insbesondere bei verschachtelten Akteurskonstellationen (Softwareunternehmen, einzelne Entwickler*innen, interne IT-Abteilung, administrative Redakteur*innen, verantwortliche Redakteur*innen, Herausgeber*innen, Verlag) alle juristischen und natürlichen Personen einzeln für den Gesamtschaden haften, stellt die datenschutzrechtliche Verantwortlichkeit das weitestgehende Haftungsregime dar. 
Urheberrechtliche Verantwortlichkeit
Schließlich kann es bei der automatisierten Texterstellung theoretisch auch zu urheberrechtlich relevanten Handlungen kommen, etwa bei der Übernahme und Verwendung von Fotos, an denen Rechte Dritter bestehen. Hier gilt ein dem Straf- und Zivilrecht ähnlicher Zuschreibungsrahmen (§ 97 UrhG): Wer nicht selbst handelt, kann für das Handeln Dritter oder wegen unterlassener Wahrnehmung einer Sorgfaltspflicht belangt werden. Auch hier kommen neben den verantwortlichen Redakteur*innen und der die Software aktivierenden Person die Verlage als Anspruchsgegner in Betracht. Spannend, aber nicht Gegenstand dieses Beitrags ist übrigens die Frage, ob und inwieweit Urheberrechte an den generierten Texten entstehen (“persönliche geistige Schöpfung”) – und wem die Ausübung dieser Rechte dann zustünde. Ggf. wird hier in Zukunft ein KI-spezifisches Leistungsschutzrecht diskutiert werden.
Ausblick
Die in anderen Automatisierungsbereichen (autonomes Fahren; Pflege; automatisierte rechtliche Entscheidungen) derzeit heiß diskutierte Haftungsfrage köchelt im Bereich des Roboterjournalismus auf kleinerer Flamme. Automatisiert erstellte journalistische Inhalte können eine ganze Reihe unterschiedlicher Haftungsrahmen – ggf. auch mehrere gleichzeitig – berühren, deren Anwendung auf Roboterjournalismus sich in der Regel keinen größeren Zuschreibungsproblemen gegenübersieht als bisher. Hauptgrund dafür ist die Konstruktion einer medienspezifischen Verbreiterhaftung, die regelmäßig alle (natürlichen und juristischen) Personen in den Blick nimmt, die an einer Veröffentlichung mitgewirkt haben. Die äußerungsbezogene Haftung bei medialer Kommunikation wird also auch in naher Zukunft nicht auf Roboter oder Software delegiert. Weiterer Diskussion dagegen bedarf die Frage nach möglichen Ausgleichsansprüchen im Innenverhältnis bei Mehr-Akteurs-Konstellationen, etwa zwischen dem Entwickler und dem Verlag. 

Die derzeit beobachtbaren wissenschaftlichen Diskurse, die Rufe nach Klarheit und die teils alarmistisch formulierten Behauptungen, hier entstünden Robotertexte in einem rechtsfreien Raum, existieren wohl vor allem deswegen, weil hier Aspekte des aktuellen Rechtsrahmens mit der sicherlich weiterhin erforderlichen gesellschaftlichen Debatte darüber, welche medienethischen Normen wir in Zukunft haben möchten oder sollten, vermengt wird – z. B. die Frage nach einer Kennzeichnungspflicht automatisch erstellter Beiträge.
 
TL;DR 

Der bestehende Ordnungsrahmen für eine medienrechtliche Haftung ist in den meisten Fällen ausreichend, eine personenbezogene Verantwortlichkeit für (rechtsverletzende) Äußerungen ist wegen des Konzepts der medienspezifischen Verbreiterhaftung auch bei Roboterjournalismus herstellbar. Dadurch stellen sich Fragen der Haftung von Algorithmen oder KI als eigene Rechtsperson im Medienrecht regelmäßig nicht. Das Ergebnis steht im Einklang mit der wichtigen gesellschaftlichen Funktion von journalistischer Berichterstattung und den dadurch bedingten hohen Anforderungen an die Erfüllung journalistischer Sorgfaltspflichten.

 
Referenzen

Weitere Artikel

mehr anzeigen

Newsletter

Infos über aktuelle Projekte, Veranstaltungen und Publikationen des Instituts.

NEWSLETTER ABONNIEREN!