Beitrag Fraktion DIE LINKE.
- Recommendation Algorithmen Bekanntlich arbeiten Online-Shops wie Amazon oder Contentportale wie YouTube mit automatischen Empfehlungen. Kunden bzw. Nutzern sollen Produkte bzw. Inhalte empfohlen werden, für die sie sich mutmaßlich interessieren. So soll ihr Interesse angeregt werden, was zu weiteren Käufen oder zu einem längeren Verbleib auf der Angebotsseite führen kann. Solche Empfehlungen werden seit Mitte der 90er Jahre von Recommendation Algorithms erstellt, welche mittlerweile sehr komplex sind. Dennoch lassen sich zwei Grundfunktionen unterscheiden, nämlich collaborative filtering und content filtering. Beim collaborative filtering werden zur Erstellung der Empfehlungen user mit anderen usern verglichen: user, die Buch A kauften, kauften auch Buch B. Beim content filtering wird content mit anderem content verglichen: Sie haben Fußballvideo A gesehen, vielleicht interessiert Sie auch Fußballvideo B. Collaborative filtering kann mit zunehmender Zahl der Nutzer sehr rechenaufwändig werden und somit zu einer nicht mehr akzeptablen Verlangsamung des Dienstes führen. Man kann dann zu komplexitätsreduzierenden Mitteln greifen und etwa die Kunden anhand von Cluster Models in verschiedene Segmente einteilen, was offline geschehen kann. Wie jede Komplexitätsreduktion bleibt allerdings auch diese nicht frei von Qualitätsverlusten, die Empfehlungen werden also schlechter. Amazon hat darauf mit seinem Item-to-item-Algorithmus eine Antwort gefunden und sie sich bereits 2001 patentieren lassen : „The service generates the recommendations using a previously-generated table which maps items to lists of ‚similar‘ items. The similarities reflected by the table are based on the collective interests of the community of users.” Ein großer Vorteil des Systems besteht darin, dass die aufwändigste Rechenoperation, die Erstellung der Tabellen, offline vorgenommen werden kann. Sie setzt allerdings voraus, dass der zu vergleichende Content möglichst vollständig mit sauberen Metadaten versehen ist. Dies ist beispielsweise bei YouTube oft nicht der Fall, da es sich hier zu großen Teilen um ugc handelt. YouTube setzte deshalb zunächst auf ein collaborative-filtering-System, das die Ingenieure 2008 in einem Whitepaper beschrieben haben. Der als „adsorption algorithm“ beschriebene Mechanismus ist graphbasiert und bildet das Verhältnis von usern zu Videos etwa so ab wie ein U-Bahn-Plan. Die Haltestellen der Knotenpunkte, an denen sich verschiedene Linien treffen, wären in diesem Bild die Videos, während die Linien selbst das Kundenverhalten abbilden. So wie Haltestellen in der U-Bahn unterschiedlich weit voneinander entfernt liegen, liegen einige Videos dem jeweiligen user sehr nahe, andere weniger. „Empfohlen“ werden sowohl nahe als auch entfernte. Welche der weit entfernten und somit vom Standpunkt des Betrachter aus schlecht vernetzten Videos dem Nutzer vorgeschlagen werden, wird mit Hilfe einer Zufallsoperation errechnet, einem sogenannten Random Walk. Der Algorithmus wandert gewissermaßen das Liniennetz entlang und hält an einem zufälligen Knotenpunkt an. Schaut der user das empfohlene Video daraufhin tatsächlich an, entsteht eine direkte Beziehung, die es vorher nicht gab, und das entsprechende usergenerierte Signal kann wiederum für zukünftige Empfehlungen ausgewertet werden. Man mag hier eine gewisse Verwandtschaft zum in der Google Suche verwendeten PageRank erkennen, welcher ebenfalls auf einem Netz von Verweisen basiert. In der Google-Suche erscheinen bekanntlich häufig verlinkte Seiten besonders weit oben in der Trefferliste. Allerdings ist YouTube keine Suchmaschine und wird auch ganz anders genutzt. Während eine Suchmaschine zum gezielten Auffinden von Informationen dient , besuchen Nutzer Videoportale häufig, um unterhalten zu werden. Dabei kann es eher schädlich sein, wenn das „Programm“ sich von einem Video zum nächsten immer ähnelt und nie etwas Überraschendes passiert. Tatsächlich suchen user bei YouTube unspezifisch nach „Lustigen Videos“ , und im Jahr 2010 basierten 60% aller von der Homepage aus getätigten Klicks auf automatischen Empfehlungen. Angesichts dieser Erkenntnisse hat YouTube versucht, besser auf einen „unarticulated want“ seiner Nutzer zu reagieren und „to keep users entertained and engaged“. Die Zitate entstammen einem Whitepaper von 2010, als die Entwickler auf einer Konferenz ihren neuen Algorithmus vorgestellt haben. Das YouTube Recommendation System basiert demzufolge im Grundsatz nicht mehr auf collaborative filtering, sondern auf einer Kombination von content filtering mit direkten user-Signalen. Es handelt sich also um eine Kombination aus co-visitation counts (welche Videos werden häufig „zusammen“ angesehen, also nacheinander vom selben user angeklickt?) mit Input-Daten (user-Bewertungen, Likes, Kanal-Abonnements etc.) „Overall we find that co-visitation based recommendation performs at 207% of the baseline Most View page“, resümieren die Entwickler. Tatsächlich ist 2010 auch eine wissenschaftliche Arbeit zu dem Schluss gekommen, dass die Bereicherung des Adsorption-Algorithmus mit content-basierten Vergleichen zu einer höheren Qualität der automatischen Empfehlungen führen würde. Leider stand dem Autor jedoch der Datenpool von YouTube nicht zur Verfügung. Welche gesellschaftliche Relevanz haben Empfehlungsalgorithmen? Während Targeting bei Online-Shops schlimmstenfalls zu einer Belästigung der user führen kann, stellt sich die Sache bei Content-Portalen anders dar. Dass diese in der Regel nicht redaktionell betreut werden, wird bisweilen als Befreiung von der Bevormundung durch Redakteure und Content-Manager gesehen, als Ermächtigung der user/produser. Während die Welt der Massenmedien eine hierarchisch kontrollierte gewesen sei, habe online jeder die Möglichkeit, eigenen Content zu publizieren und dafür Aufmerksamkeit zu gewinnen. Im Bereich der Unterhaltung entspricht dem der Glaube, es könne heutzutage jeder ein Publikum finden. Obwohl indes der digitale Wandel in diesem Sinne unbestreitbar Chancen eröffnet hat, wäre es naiv, den Einfluss der Algorithmen auf die Auswahl des wahrgenommenen Contents zu unterschätzen. Offenbar stellen sich Fragen der Chancengleichheit. Wie reagieren Empfehlungsalgorithmen, wenn ihnen nicht genügend Daten zur Verfügung stehen, beispielsweise weil es sich um einen neuen user handelt? Die Antwort verblüfft wenig: Sie empfehlen ein Potpourri aus besonders populärem Content. Populärer Content hat also durch diese Algorithmen die Chance, noch populärer zu werden, während unpopulärer Content es schwerer hat, sich durchzusetzen. Der Effekt kann zusätzlich verstärkt werden. So hat Steven Wittens mit empirischen Tests, rückgreifend auf das Application Programming Interface von YouTube, herausgefunden, dass das Portal zwar bisweilen unpopulären Content als „nächstes Video“ empfiehlt, wenn zuvor ein besonders populärer Content angeboten wurde, jedoch so gut wie nie umgekehrt. Folglich haben schon von vornherein nicht alle Videos dieselbe Chance gesehen zu werden, woraus folgt, dass auch nicht alle dieselbe Chance haben, bewertet oder empfohlen zu werden. Offenbar verstärkt die Technik, die von solchen Portalen eingesetzt wird, im kulturellen Leben einen Stareffekt: Wer schon viel Aufmerksamkeit bekommt, bekommt durch die Portale zusätzliche Unterstützung. Wer wenig Publikum hat, wird zusätzlich ausgeblendet. Entsprechend ist es kein Zufall, dass die meisten der sogenannten „YouTube-Stars“, die in letzter Zeit im Musikbereich von sich reden gemacht haben, zunächst mit Coverversionen bekannter Hits Aufmerksamkeit erregten. Dass user aus Neugier eher auf eine Coverversion eines schon bekannten Musiktitels klicken als auf ein unbekanntes Original, spielt dabei sicher eine Rolle. Der eigentliche Grund ist jedoch, dass der Empfehlungsalgorithmus, der für einen hohen Anteil der Aufmerksamkeit verantwortlich ist, grundsätzlich solchen Content bevorzugt, der sich an bereits existierenden und möglichst populären Content anschließt. Umgekehrt ausgedrückt: Originalität, Neuigkeit wird von Empfehlungsalgorithmen abgestraft. Was ein rein technischer Effekt ist, könnte, so man YouTube als marktbeherrschend ansieht, ein wettbewerbsrechtliches Problem darstellen. Im Hinblick auf die zunehmende Bedeutung entsprechender Portale für das kulturelle Leben und die öffentliche Meinungsbildung stellt es zudem ein Transparenzproblem dar. Für viele Nutzer geht von Contentportalen, die nicht redaktionell betreut werden, noch immer die Suggestion aus, es handele sich um einen ungefilterten Bereich der Öffentlichkeit. Dem ist nicht so. Welche Bewertungen oder Tags beispielsweise zu einem Herabsetzen des Contents im Ranking der Empfehlungen führen, wissen wir genauso wenig, wie wir die Kriterien kennen, nach denen Suchmaschinen ihre Ergebnislisten filtern. Das Phänomen der YouTube-Stars mag man für genauso irrelevant halten wie die zielgerichtete Werbung der Online-Shops. Es ist jedoch ohne Weiteres denkbar, recommendation algorithms auch bei Nachrichtenseiten einzusetzen. Der user würde dann stets solche Nachrichten zu sehen bekommen, die jenen ähneln, für die er sich bei früheren Besuchen der entsprechenden Seite interessiert hat. Diese Perspektive hat Eli Pariser als Filter Bubble beschrieben. Dass sie eintreffen wird, ist nicht unwahrscheinlich: Während die Auflagen von Zeitungen zunehmend sinken, werden Portale wie YouTube oder Google News zunehmend zu den wichtigsten Informationsquellen. Anders als in der traditionellen Medienlandschaft gibt es jedoch keinen Presserat, der über sie wacht. Ihre Algorithmen bleiben geheim, genießen sogar patentrechtlichen Schutz.
Handlungsempfehlungen Medienregulierung im Netz sollte weniger auf eine Kontrolle von Inhalten als von Infrastrukturen technischer Dienste hinauslaufen. Im Sinne der Stärkung demokratischer Öffentlichkeit wäre es sinnvoll, statt Warnhinweis-Modelle zur Bekämpfung von Urheberrechtsverletzungen zu unterstützen, eine Kontrolle der Algorithmen von Diensteanbietern zu erwägen. Hierbei sollte zunächst nicht auf Verbote, sondern auf Transparenzgebote gesetzt werden. Die Kontrolle des Informationsflusses im öffentlichen Raum des Internets darf nicht allein nach Wettbewerbsgesichtspunkten erfolgen, sondern muss auch medien- und gesellschaftspolitische Aspekte berücksichtigen.