Meinungs-Bubble mit Algorithmen:Digitale Wege aus der Filterblase
von Peter Welchering
|
Die Algorithmen von Google, Youtube & Co. liefern uns Clips oder Posts, die unserer Meinung entsprechen sollen. So entstehen Meinungsblasen. Doch sie lassen sich vermeiden.
Viele Menschen in Filterblasen von Google oder Youtube sind anfällig für Manipulation.
Quelle: AP
Immer gleiche Meinungen verstärken Intoleranz
Facebook wertet das Surfverhalten der Nutzerinnen und Nutzer sogar noch akribischer aus. Das heißt, die Webseiten, die ich aufrufe und mir anschaue, werden mit aufwändigen Routinen analysiert. Daraus werden meine thematischen Vorlieben und letztlich meine weltanschauliche Präferenz berechnet.
Das ist gefährlich. Denn wenn jemand nur noch mit gleichlautenden Meinungen und Informationen versorgt wird, nimmt er abweichende Ansichten nicht mehr zur Kenntnis. Offene Gesellschaften leben aber von der Debatte über strittige Punkte. Und das Problem geht noch weiter: Es werden nicht nur abweichende Positionen nicht mehr wahrgenommen, sondern andere Meinungen sogar massiv bekämpft - bis hin zu Hate Speech.
Trump gewann eine Wahl mit Meinungsblasen
Der US-Präsidentenwahlkampf von Donald Trump im Jahr 2016 hat genau auf diesen Filterblasen aufgesetzt. Eigens entwickelte Propaganda-Algorithmen haben individuelle Botschaften an die potenziellen Trump-Wähler geschickt.
Ergab das Online-Profiling auf Basis von Facebook-Daten zum Beispiel, dass ein Wähler Muslime nicht mag, er aber unsicher ist, ob Trump auch hart genug gegen Muslime vorgehen wird, wurde ihm ein passgenauer Text zugeschickt, in dem ihm die Politik Trumps gegen Muslime erläutert wurde, die genau der Vorstellung dieses Wählers entsprachen.
Menschen in Filterblasen anfällig für Manipulation
Ein Wähler, der die Krankenversicherung Obama Care zurückgedreht haben wollte, erhielt entsprechende Mails und Posts in seiner Timeline. Die bestätigten ihm, dass Trump genau die Bestimmungen von Obama Care zurücknehmen würde, die ihm nicht passten. Wer als Stahlarbeiter oder Angestellter in der Montanindustrie um seinen Arbeitsplatz bangte, der bekam die Ankündigung Donald Trumps auf sein Smartphone, dass er 25 Millionen Jobs schaffen würde.
Dabei spielt es keine Rolle, ob diese Wahlversprechen realistisch sind oder ob das Blaue vom Himmel gelogen wird. Es geht darum, dem Wähler genau das zu versprechen, was er erwartet. Wer in einer Filterblase lebt, ist für solche Manipulation anfällig.
Selbstverstärkungs-Effekte sorgen für Gewinn
Google, Facebook & Co. verdienen genau damit ihr Geld. Zum einen mit Direktmarketing-Kampagnen, weil die Leute in den Filterblasen leicht zu beeinflussen sind. Zum anderen, weil der Selbstverstärkungs-Effekt die Nutzerinnen und Nutzer länger auf ihrer Seite hält, also dafür sorgt, dass mehr Werbung verkauft wird.
Und die Abrufzahlen steigen, denn die Netz-Surfer werden nach diesem Selbstverstärkungs-Effekt süchtig. Nutzerinnen und Nutzer etwa von Twitter oder Google können aber einiges dagegen tun:
- Erstens auf alternative Social-Media-Plattformen ausweichen und alternative Suchmaschinen nutzen, die Ihre Nutzerinnen und Nutzer nicht ausspähen und eine Meinungsblase aufbauen.
- Zweitens lassen sich die Algorithmen einer Suchmaschine wie Google oder einer Social-Media-Plattform wie Twitter auch mal in die Irre führen. Macht man das, kriegt die Meinungsblase, die die Algorithmen aufbauen, sofort Risse.
Alternative Plattformen gegen Filterblasen
Bei Twitter zum Beispiel hat der Algorithmus anhand der Tweets und der darin enthaltenen angeklickten Links sowie anhand der Follower eine Meinungspräferenz berechnet. Wenn der Nutzer nun ganz bewusst Leuten einer ganz anderen Meinungspräferenz folgt und deren Tweets liest, analysiert der Algorithmus das und gewichtet die Präferenz neu.
Dem Nutzer werden also Beiträge jenseits der bisherigen Blase angezeigt. Die Algorithmen von Facebook, Google und anderen Plattformen lassen sich auf ähnliche Weise beeinflussen.