Die Rolle von Algorithmen


Viele der Inhalte, die auf Google oder Facebook oder beim Online-Versandhandel angezeigt werden, sind von Computern erstellt und ausgewählt. Menschen haben Abläufe programmiert, die automatisch das anzeigen, wovon geglaubt wird, dass wir es sehen wollen. So finden wir schneller, was wir suchen. Jedoch rücken diese „Algorithmus“ genannten Rechenoperationen nun auch in die Position von Redaktionen und wählen Inhalte aus. Wenn es um Katzenvideos oder Werbung geht, ist das harmlos. Bei der Empfehlung von Nachrichten oder der Interaktionen auf sozialen Plattformen muss ein differenzierter Blick her. Algorithmen werden hier zu „Gatekeepern“ (deutsch: „Torwächtern“), die Inhalte (oft monothematisch) strukturieren. Nutzer*innen bekommen davon nichts mit. Die Neutralität von Algorithmen gibt es nicht. Menschen programmieren diese. Und sie machen dies mit Zielen. Wie uns dies betrifft, erklärt der folgende Text.

Bundesjustizminister Heiko Maas forderte im Jahr 2015: „Kein Mensch darf zum Objekt eines Algorithmus werden”. Diese Forderung ist Teil der Charta der digitalen Grundrechte, die er unter Anderem in der Zeitung Die Zeit (Nr. 50/2015) vorstellte. Aber was ist ein Algorithmus und welche Rolle hat er im Themenfeld Hate Speech und Soziale Medien, wie Facebook und Google?
Es ist recht simpel: Ein Algorithmus löst mathematische Probleme. Webseiten, wie Facebook und Google, nutzen Algorithmen, um Beiträge und Suchergebnisse zu steuern. In der digitalen Welt ist die Frage, welche Ergebnisse eine Suchmaschine vorschlägt, oder welche Beiträge vom eigenen Facebookprofil angezeigt werden, ein mathematisches Problem. Schließlich werden so viele Daten generiert, dass es für Nutzer*innen unmöglich ist, diese alle zu verarbeiten. Onlinedienste sortieren für uns vor und genau das ist die Aufgabe von Algorithmen. Die Google-Suche nach dem Begriff Hate Speech ergibt knapp 70 Millionen Treffer. Es ist offensichtlich, dass kein Mensch in der Lage ist, all diese Treffer zu sichten. Google trifft eine Vorauswahl, es werden acht Ergebnisse auf der ersten Seite angeboten, dazu eine Auswahl an Bildern und alternative Suchvorschläge. Diese Vorauswahl wird von einem Algorithmus generiert. Anhand des Nutzungsverhaltens, das bisher über die IP-Adresse, von der die aktuelle Anfrage kommt, bekannt ist, werden die Treffer angezeigt. Das bisherige Nutzungsverhalten beeinflusst also die angezeigten Suchergebnisse. Das Ziel ist, genau die Ergebnisse anzuzeigen, die die Person sucht. Das erleichtert die Suche im Netz ungemein. Es kann allerdings ebenfalls dazu führen, dass eine Echokammer entsteht, also keine dem eigenen Standpunkt widersprechenden Websites angezeigt werden. Eine Suchmaschine erlangt so die Funktion eines „Gatekeepers”, die gesamte Öffentlichkeit im Netz wird für Nutzer*innen fragmentiert. Ähnliches gilt für Facebook und Amazon. Auch hier kommen Algorithmen zum Einsatz, um Beiträge von Freund*innen oder abonnierten Gruppen bei Facebook im eigenen Profil sichtbar werden zu lassen. Ein Algorithmus entscheidet, welche Beiträge die Person, die vor dem Bildschirm oder Smartphone sitzt, interessiert. Auch die Onlinehandelsplattform Amazon generiert anhand angeschauter Produkte weitere Empfehlungen.

Wo ist das Problem?
Zuerst muss die Frage gestellt werden, ob ein Problem vorliegt. Es ist doch klasse, wenn der Dienst, der genutzt wird, das Internet so strukturiert, dass aus allen zur Verfügung stehenden Informationen diese herausgesucht werden, die für Nutzer*innen interessant sind. Wer häufig Katzenvideos schaut, wird sich über die prominente Platzierung von Katzenvideos in den Suchergebnissen von YouTube freuen, wer KFZ-Teile handelt, freut sich sicherlich über deren Platzierung in den Suchtreffern und so weiter. Die Firmen, die hinter den Webseiten stehen, argumentieren mit Nutzer*innenorientierung. Problematisch wird es in dem Moment, in dem der Algorithmus die Inhalte so strukturiert, dass eben nur noch diese Inhalte angezeigt werden, die völlig kontroversenbefreit und Teil einer (politischen) Debatte sind.
Beispiel Verschwörungstheorie: Es wäre im Sinne des demokratischen Diskurses wünschenswert, wenn Befürworter*innen der Chemtrail-Hypothese auch Informationen der Gegenseite konsumieren. Ein Algorithmus als Gatekeeper verhindert dies oft durch die Vorstrukturierung der Inhalte. Werden über algorithmusgesteuerte Nachrichtenangebote Informationen bezogen, ist die Folge, dass monothematische Nachrichten, am Nutzungsverhalten orientiert, vorsortiert werden, um den Interessen der lesenden Person zu entsprechen. Einseitigkeit ist hier quasi vorprogrammiert. Ebenso bei Facebook: Die Kommentare, die besonders viele Likes haben, werden anderen eher angezeigt, als wenig beachtete. Beiträge, die besonders oft kommentiert werden, werden auch häufiger anderen Nutzer*innen angezeigt. Leider ziehen besonders die emotionalisierenden Beiträge und Kommentare besonders viele Reaktionen (auch Likes) an, was eine prominente Darstellung und große Verbreitung seitens des Algorithmus zur Folge hat. Hate Speech wird so verbreitet und Kontroversen ausgeblendet.

Algorithmen verbieten?
Es ist natürlich Unsinn, ein Verbot von Algorithmen im Netz zu fordern. Nicht nur, dass es technisch, juristisch und praktisch nicht durchsetzbar ist, Algorithmen haben tatsächlich einen großen Nutzen im alltäglichen Gebrauch von Online-Diensten. Daher ist es besser, zu verinnerlichen, dass auch Algorithmen menschengemacht sind; genauso, wie die Inhalte von Facebook-Postings, beispielsweise. Auf der Seite algorithmwatch.org wird diskutiert, welche Rolle Algorithmen haben und wie eine Gesellschaft mit ihnen umgehen kann. Die großen Player der Internet-Welt sehen ihre Algorithmen jedoch als Firmengeheimnisse. Deren Erschaffung hat Investitionen seitens der Unternehmen gefordert und durch das technische Produkt Algorithmus haben sie eine Marktstellung erreicht, die verteidigt wird.

Dennoch ist die Forderung nach Transparenz angebracht. Dort, wo Menschen miteinander in Austausch treten, muss zumindest klar sein, warum sich die Plattform so verhält, wie sie es tut. Nutzer*innen müssen wissen, dass die Sichtbarkeit ihrer Beiträge von einem Algorithmus gesteuert wird und dass die Dinge, die sie zu sehen bekommen ebenfalls durch den Algorithmus zusammengestellt werden. Technik muss nachvollziehbar sein. Gerade dort, wo algorithmische Entscheidungen Einfluss auf menschliches Verhalten haben, muss klar sein, welche „Entscheidungen” der Algorithmus trifft und welche Folgen dies konkret für die betreffende Person hat. Auf jeden Fall soll klar sein, dass auch technische Lösungen durch Algorithmen keinesfalls neutral sind, sie richten sich nach zuvor programmierten Variablen, die redaktionellen Eingriffen gleich kommen, aber deren Funktionen und Arbeitsweisen weitestgehend unbekannt sind.

Weiterführende Informationen:
Algorithmwatch: Was ist ein Algorithmus (technische Erklärung)
Cho, Daegon/Acquisti, Alessandro: The More Social Cues, The Less Trolling? An Empirical Study of Online Commenting Behavior, online unter (englisch): http://www.econinfosec.org/archive/weis2013/papers/ChoWEIS2013.pdf