Navigation

I do not endorse this content

Über Inhalte in sozialen Netzwerken

Soziale Netzwerke sind eine großartige Sache. Sie ermöglichen inhaltlichen Austausch innerhalb einer großen Gruppe von Menschen. Sie ermöglichen es auch kleinen Teilnehmern, in unserer Medienlandschaft teilzunehmen. Jemand schreibt einen großartigen Blogbeitrag mit Einsichten zu Politik, zu wissenschaftlichen Themen oder einfach zu seiner Lieblings-Roman-Serie – ich erfahre davon wahrscheinlich zuerst über eine Facebook-Seite oder einen Tweet. Jemand veröffentlicht regelmäßig großartig gemachte Videos zu Kunst oder zu Gesprächstaktiken der Rechten in den USA, ich erfahre davon über meine Abos und den Algorithmus bei YouTube.

Allerdings, und das ist nicht erst bekannt, seit die EU-Datenschutzgrundverordnung am 25. Mai in Kraft getreten ist und jeder Dienst, bei dem man sich jemals angemeldet hat, eine Mail zu aktualisierten Datenschutzerklärungen versendet hat: Netzwerke tracken.

Überwachung

Zum einen tun sie das natürlich, um ihr Geschäftsmodell besser durchführen zu können. Soziale Netzwerke und zentralisierte Plattformen für Inhalten von Facebook über Twitter bis YouTube verdienen ihr Geld damit, uns – den Nutzern – Werbung zu zeigen. Das geht natürlich bedeutend effektiver, effizienter und somit gewinnbringender, wenn das Netzwerk mich kennt und die Werbung zu mir passt.1

Zum anderen können nur durch dieses Tracking die Netzwerkeffekte des Netzwerks auch wirklich funktionieren: Du hast diese Videos gesehen, vielleicht wäre also dieses Video auch etwas für dich. Deine Freunde folgen alle dieser Person hier, vielleicht schreibt sie häufiger Dinge, die auch für dich ganz interessant sind. Dieser Inhalt hier ist gerade sehr beliebt, vielleicht willst du da auch mal einen Blick drauf werfen.

In weiten Teilen ist das ja auch absolut positiv. Mir gefallen gut gemachte Video-Essays – schlag mir mehr davon vor und ich bin glücklich. Es kann aber auch ungewünschte Nebenaspekte haben. Problem A sind da die viel beschworenen Filterblasen: Ich sehe nur, was meine Freunde auch gut finden; unsere Meinungen verstärken sich innerhalb dieses eingeschränkten Kreises wie in einer Echokammer, die langsam den Kontakt zur Realität verliert. Doch um diesen Aspekt soll es heute nicht gehen.

Vielmehr möchte ich heute über das exakt gegenteilige Problem sprechen: Was ist eigentlich mit Inhalten, die ich überhaupt nicht gut finde? Ein paar Beispiele: Zur Recherche für den Neologismus schaue ich mir auf YouTube Vorträge von Kreationisten an. Um mich politisch zu informieren, schaue ich auch Reden von AfD-Politikern in der Originalquelle auf YouTube. Ich folge Donald Trump auf Twitter. Und es ist absolut wichtig, dass so etwas geht, denn das ist genau der Ausbruch aus der Filterblase, wie ich sie als Problem A beschrieben habe.

Nur leider entstehen jetzt zwei ungewollte Konsequenzen, die darauf basieren, dass diese Inhalte, wenn ich sie anschaue, genau so behandelt werden wie Inhalte, denen ich inhaltlich zustimme, die ich gut finde.

Werbung

Punkt 1: Werbung. Der Werbealgorithmus von Facebook, YouTube oder Twitter erstellt auf Basis der von mir angeschauten Videos ein Profil mit meinen Interessen – auch, wenn es sich gar nicht um meine tatsächlichen Interessen handelt. Lande ich in einer algorithmisch erstellten Rechte-Ideologie-Interessengruppe, wenn ich zu viele AfD-Videos schaue? Bei Twitter kann man in den Einstellungen seine Werbe-Zielgruppen anschauen und siehe da, neben Softwareentwicklung und Comedy tauchen da auch Donald Trump und seine frühere Fernsehshow The Apprentice auf.

Das führt dann auch dazu, dass mir der Weiterleitungsalgorithmus von YouTube unreflektiert immer neue Videos vorschlägt, über die ich mich ärgere oder die gar nicht mehr relevant sind, weil meine Recherche zu dem Thema vorbei ist. All das passiert, ohne das ich aktiv mit dem Inhalt interagiert habe – ich habe ihn nur passiv konsumiert!

Wichtig ist hierbei, dass sich dieses Teilproblem durch geschickte Modellierung der Algorithmen lösen lässt. Gerade bei Werbung können Google oder Facebook ja in der Regel durchaus erkennen, dass eine rechte Interessengruppe bei mir absoluter Unsinn ist, und sich entsprechende Werbung dann gleich sparen, weil sie erfolglos sein wird. Das ist ja schließlich genau in ihrem Interesse. Bei den Algorithmen, die mir vorschlagen, was ich als nächstes Schauen soll, ist das nur bedingt so: Ob mir jetzt gefällt, was ich sehe, oder ob mir das komplett zuwider geht und ich es schaue, um mich darüber aufzuregen – solange ich den Inhalt betrachte und damit weiter auf der Plattform bleibe, ist das Google, Facebook und Twitter absolut egal.

Als mündiger Bürger ist das für mich auch nicht so schlimm. Personalisierte Direktwerbung kann ich dank DSGVO inzwischen abschalten,2 ich kann die Spuren im Großen und Ganzen dadurch wieder entfernen, dass ich den Incognito-Modus meines Browsers verwende, und wenn ich mich nicht mehr in einer Spirale schlechter Nachrichten bewegen möchte, schalte ich den Computer aus und mache eine Radtour oder treffe mich mit Freunden.

Reichweite

Für wesentlich schlimmer halte ich Punkt 2: Reichweite. Im Internet ist Reichweite das A und O. Wenn ich meine Armbanduhr abfotografiere und auf Instagram poste, kriege ich dafür höchstens ein müdes Lächeln; tut das jedoch ein Influencer mit vielen tausend Followern, kann er davon sehr gut leben – durch sogenannte Affiliate-Links zu Amazon, bei der ein Teil des über sie generierten Umsatzes an den Influencer geht, oder gleich über explizite Partnerschaften mit bestimmten Marken. Je mehr Menschen mir folgen, meine Posts sehen und „liken“, desto mehr Geld kann ich dafür verlangen, dass jemand „durch mich“ wirbt.

Auf YouTube gibt es sogar mit monetarisierten Videos die Möglichkeit, als Ersteller von Videos direkt an der von YouTube vermarkteten und gezeigten Werbung mitzuverdienen. Einerseits ist das großartig, weil es wieder kleineren Anbietern von Inhalten bei der Deckung der Produktionskosten hilft. Andererseits hat es aber auch schon zu Problemen geführt, als Werbetreibenden auf YouTube im letzten Jahr aufgefallen ist, dass Werbung für ihre Marken neben teils extremistischen Inhalten gezeigt wird, woraufhin YouTube seine Richtlinien drastisch ändern musste.

Und wieder kann ich rein passiv nur durch das Betrachten der Inhalte dafür sorgen, dass die Reichweite und damit der Wert von Inhalten steigt, die ich eigentlich in keinster Weise unterstützen möchte. Ich schaue ein AfD-Video, der Zähler der „Views“ steigt, und mehr und mehr Menschen kriegen es in einer steigende Spirale vorgeschlagen. Ein Video wird viral, obwohl ich eigentlich genau das Gegenteil wollte. Der Incognito-Modus meines Browsers hilft hier nicht. Übrigens auch kein „Dislike“-Button oder ähnliches, der unter das Motto „auch schlechte Publicity ist Publicity“ fällt – ich bin in View-, Bewertungs- und auch Kommentarzahl mit eingeschlossen, egal ob meine verkündete Meinung positiv oder negativ ist.

Allerdings muss eins ganz klar sein: Ich will keinesfalls Inhalte verbieten oder zensieren,3 denn alles in allem sind solche Plattformen und Netzwerke ein wichtiges und wertvolles Werkzeug zur Recherche und Quellenanalyse für Journalisten und interessierte, mündige Bürger.

Kontrolle

Was ich aber will, ist Kontrolle.

Ich möchte sagen können: Ich stimme diesem Inhalt nicht zu; ich finde falsch, was hier passiert; ich finde das moralisch verwerflich; ich unterstütze das nicht.

Das Englische hat eine Formulierung, die hier meiner Meinung nach am besten passt: I do not endorse this content.

Und wenn ich das sage, dann will ich nicht getrackt werden. Ich will nicht nur, dass das nachher nicht mehr auf mich direkt zurückfällt – ich will nicht mehr in der Zahl der Clicks auftauchen. Nicht mehr Teil der Reichweite dieser Menschen sein. Ich will nicht, dass Geld von der Werbung, die ich schauen muss, an die Macher fließt. Soll YouTube das Geld komplett behalten, von mir aus. In einer Zeit, in der passives Schauen schon eine Unterstützung darstellt, will ich genau das aktiv verhindern können.

Wohlgemerkt ich, nicht jemand drittes, nicht Google, Facebook oder Twitter, aber auch keine Behörde oder irgendein Gesetz. Ich als mündiger Bürger. Wenn dann jemand aus dem rechten Spektrum linke oder liberale Inhalte nicht unterstützen will, ist das genauso sein gutes Recht, wie das meine, ihm keine zusätzliche Reichweite zu geben.

Ich weiß nicht, wie man das technisch im Detail umsetzen würde. Gerade bei ausufernden Kommentarspalten mit wechselseitig auftretenden, stark polarisierten Positionen sehe ich das als Herausforderung. Ich weiß nicht, wie man das Konzept von großen zentralisierten Netzwerken und Plattformen auf kleine, dezentrale Stellen wie Blogs u. Ä. übertragen könnte.

Ich weiß nur eins: Die Inhalte, die ich gut finde, möchte ich unterstützen können – das geht ja auch dank Werbung, Klickzahlen und Diensten wie Patreon einwandfrei. Und bei denen, bei denen das eben nicht so ist, bei Inhalten, die ich gerade nicht unterstütze, möchte ich umgekehrt die Möglichkeit haben, das nicht zu tun.

Das sollte doch möglich sein.


  1. Wobei diese Profilbildung zur Direktwerbung dank DSGVO inzwischen ja eine explizite Einwilligung seitens des Nutzers benötigt. ↩︎

  2. Wenn auch meist tief versteckt in den Einstellungen. ↩︎

  3. Das sollte nur in Ausnahmefällen und mit einem gerichtlichen Beschluss möglich sein. ↩︎


Titelbild: Thierry Ehrmann (CC BY 2.0)
Ebenfalls erschienen im Neologismus 18-05

Mehr lesen