Die Behandlung algorithmischer Kommunikate im deutschen Verfassungsrecht
Jede App, jede Website, jede Suchanfrage greift auf Algorithmen zurück. Felix Krupar widmet sich in seiner Dissertation der rechtlichen Einordnung solcher algorithmischer Kommunikate.
Im Kern jeder App, jedes Programms und jeder Website stecken algorithmische Operationen, die deren Verhalten, Aussehen und Funktionsweisen bestimmen. Trotz dieser Allgegenwärtigkeit ist der rechtliche Umgang mit den Ergebnissen algorithmischer Berechnungen bisher geprägt von Unsicherheit. Denn obwohl ein Algorithmus nur eine Aneinanderreihung von Rechenoperationen und sein Ergebnis somit ähnlich einer Tatsache sein sollte, scheint manchem Ergebnis eines Algorithmus eine meinungsähnliche Aussage anzuhaften. Wie relevant und gleichzeitig abstrakt diese Problematik rechtlich bereits ist, lässt sich exemplarisch an zwei Fällen verdeutlichen: Der BGH-Entscheidung zu Google’s Autocomplete-Funktion sowie den Entscheidungen rund um das Bewertungsportal Yelp. In beiden Fällen stritten die Parteien um die Ausgabe algorithmischer Berechnungen, durch die sich die Kläger in ihren Persönlichkeitsrechten verletzt sahen. Die Urteile divergieren aber sowohl im Ergebnis als auch in ihrer Argumentation erheblich. Da die Rechtsprechung bisher eine klare Linie vermissen lässt und die Forschung das Thema weitgehend ausspart, scheint es geboten, sich intensiver mit der Thematik zu beschäftigen. Die Dissertation versucht sich der Problematik aus verfassungsrechtlicher Sicht anzunähern.
Grobziel der Arbeit ist es, einen aus rechtlicher Sicht stringenten Umgang mit den verschiedenen Formen algorithmischer Kommunikation zu erarbeiten. Grundsätzlich bezeichnet man als Algorithmus „[...] eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen.“. Folglich muss bei selber Ausgangslage und selber Eingabe bei einem Algorithmus stets dasselbe Ergebnis folgen. Logisch erschiene daher der Schluss, dass jede Ausgabe eines Algorithmus stets nur eine Tatsache sein kann. Es gibt – noch – keinen unabhängig denkenden Algorithmus, der gleich einem Menschen seine eigenen Gedanken strukturiert, um sich so eine „persönliche Meinung“ zu bilden und zu eigen zu machen. Jedes Ergebnis eines Algorithmus ist gleich der Lösung zu einer Rechenaufgabe wie 1+1= 2 stets rekonstruierbar. Bestes Beispiel ist ein Primzahl-Algorithmus, dessen einzige Aufgabe es ist, aus einer Reihe von Zahlen alle Primzahlen zu extrahieren. Das Ergebnis und somit die Ausgabe des Algorithmus ist stets eine Tatsache. Primzahl ist Primzahl und so keiner Wertung durch den Betrachter zugänglich.
Je komplizierter ein Algorithmus wird, je mehr Variablen er berücksichtigt, je mehr Konstanten oder Parameter von Menschenhand hinzugefügt werden, umso mehr rückt er in einen Bereich, in dem selbst der Programmierer des Algorithmus das Ergebnis nicht vorhersehen kann und das Endergebnis mehr und mehr einer Meinung gleichen kann. Die rechtliche Relevanz der Einordnung ergibt sich aus den Eigenheiten des deutschen Äußerungsrechts. So ist bereits unklar, ob überhaupt eine rechtlich relevante Äußerung vorliegt, wenn die Aussage nicht oder nur mittelbar durch einen Menschen getroffen wurde. Zudem ist die unterschiedliche Behandlung von Tatsachen und Meinungen im deutschen Recht problematisch. Diese zieht sich durch die gesamte Rechtsordnung und führt im Ergebnis zu teilweise gravierende Unterschieden. Tatsachen können im Gegensatz zu Meinungen nur entweder wahr oder unwahr sein. Der Unterschied liegt in der Beziehung zwischen der Äußerung und der Realität. Über Tatsachen kann im Wege einer Beweisaufnahme erkannt werden. Meinungen dagegen können nicht richtig oder falsch sein, lediglich wahrhaftig oder unaufrichtig, überlegt oder unbedacht. Meinungen sind, vereinfacht gesagt, solche Äußerungen, die ein Werturteil enthalten.
Die Rechtsprechung musste sich in überraschend wenig Verfahren mit der rechtlichen Einordnung von Algorithmen und den oben beschriebenen Problemen auseinandersetzen. Im Bewusstsein der Allgemeinheit dürfte, wegen der Gerüchte um die damalige deutsche Bundespräsidenten-Gattin Bettina Wulff, der Fall um Google’s Autocomplete Funktion geblieben sein. Dieser Fall soll exemplarisch untersucht werden, da sich anhand von ihm die Problematik gut erklären und die Relevanz einer Einordnung sichtbar gemacht werden kann. Im Falle AutoComplete enthalten bereits die Vorschläge für Vervollständigungen in geringem Umfang meinungsbildende Tendenzen, Aussagen und weit mehr als die ursprünglich gesuchten Informationen. Augenscheinlich wird der Effekt, sobald man gezielt nach Personen sucht: Die Suche nach Bettina Wulff vervollständigte Google bis zum maßgeblichen Urteil mit Vorschlägen aus dem Rotlichtmilieu. Die Suche nach Tom Cruise wird automatisch mit „scientology“ ergänzt. In einem weiteren Fall, der schließlich vor Gericht, und final vor dem BGH landete, wurde der Name des Klägers mit „betrug“ und „insolvenz“ verknüpft. In finaler Instanz wurde Google zur Unterlassung verurteilt. Im Ergebnis rekurrierte der BGH hier eben nicht auf die Tatsache, dass die o.g. Begriffe häufig im Kontext gesucht wurden, sondern auf die subjektive Information, die dem Suchenden vermittelt wurde. Ob und welche Informationen einer solchen Verknüpfung nun tatsächlich anhaften, welche ihr rechtliche zugewiesen werden können und wem sie zuzurechnen sind, bedarf deswegen einer tieferen Analyse.
Infos zum Projekt
Überblick
Laufzeit: 2015-2017
Forschungsprogramm: FP2 - Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen