„Enthebt diesen Idiot von Präsident des Amtes!“ fordert Twitteruser „@ResidentOfFL“ am 25. Oktober. Der Link im Tweet führt auf eine Website, in der die amerikanische Rechte Stimmung macht. Dieses Mal geht es speziell um vermeintliche Enthüllungen rund um Hillary Clintons E-Mail-Skandal und das, was der POTUS (also der President Of The United States, Barack Obama) darüber wusste. Man könnte das als typische Stimmungsmache in diesem sehr speziellen US-amerikanischen Wahlkampf sehen, allerdings: „@ResidentOfFL“ ist kein Mensch, sondern ein Roboter. Das vermutet zumindest Philip Howard, Professor am Oxford Internet Institute. Dort beschäftigt sich Howard mit einem neuen Phänomen der digitalen Welt: sogenannten Social-Bots.
Bots kommt von Roboter
Natürlich sitzen keine Roboter aus Metall vor irgendwelchen Rechnern. Als Bot wird autonom agierende Software bezeichnet; Programme also, die sich selbst steuern, die keinen Menschen brauchen, der sie unmittelbar lenkt. Social-Bots treiben sich in sozialen Netzwerken herum, geben dort vor menschliche Nutzer zu sein und nehmen so Einfluss auf die Diskussionen im Netz. Im US-Wahlkampf sind sowohl pro-Trump-, aber auch pro-Clinton-Bots insbesondere auf Twitter unterwegs. Wer diese Bots allerdings programmiert hat und nun kontrolliert, ist unklar.
Was treiben die Bots in den Netzwerken?
Social-Bots verbreiten Nachrichten, geben durch schiere Masse an Retweets oder Likes bestimmten, häufig politisch gefärbten Inhalten großes Gewicht. Bots sorgen so dafür, dass bestimmte Themen in Trending-Statistiken auftauchen, was wiederum zusätzliche Aufmerksamkeit generiert und sogar dazu führen kann, dass Themen aus den Netzwerken in klassische Medien schwappen. Und Bots folgen anderen Accounts, was wiederrum auf menschliche Nutzer zurückwirken kann. Denn Accounts mit vielen Followern vertrauen wir eher, schreiben ihnen Relevanz zu.
Meinungen würden zwar nicht direkt durch Bots manipuliert, schreibt Professor Simon Hegelich von der Hochschule für Politik München in einer Kurzstudie, aber: „Wenn beispielsweise durch Bots massenhaft extreme Inhalte in einem Diskussionskontext (beispielsweise eine Facebook-Gruppe oder ein thematischer Hashtag) verbreitet werden, dann wird dies in der Regel dazu führen, dass sich gemäßigte Personen aus diesem Diskussionszusammenhang zurückziehen. Personen, die eine radikal konträre Position zu den Bot-Nachrichten haben, fühlen sich herausgefordert, gegen diese Inhalte vorzugehen, was wiederum Personen, die die von den Bots verbreitete Meinung teilen, auf die Barrikaden bringt.“ Die Folge: ein aufgeheiztes Diskussionsklima, in dem sachliche Argumente kaum noch Gehör finden.
Nicht leicht zu erkennen
Es ist sehr schwierig, nachzuweisen, ob es sich bei einen bestimmten Account um einen Bot handelt. Das liegt in der Natur der Sache: die Accounts sollen ja so menschlich wie möglich wirken. Für Twitter-Bots gibt es immerhin ein paar Anhaltspunkte:
-
-
-
Forscher haben bislang im Nachhinein ganze Bot-Kampagnen nachweisen können: Social-Bots verbreiteten im Ukrainekonflikt sehr geschickt Propaganda einer rechtsextremen ukrainischen Gruppierung. Einige Experten haben den Verdacht, dass staatliche Stellen in Russland an Social-Bots arbeiten. Während der Brexit-Kampagne verbreiteten Bots auf Twitter vor allem Tweets mit den Hashtags des Leave-Lagers, in dem sich die Befürworter eines Austritts Großbritanniens aus der EU gesammelt hatten.
Digitales Kommunikationssystem am Boden?
Die Social-Bots treten in einer Zeit des medialen Aufruhrs auf die digitale Bühne. Gerade nehmen mehrere problematische Entwicklungen rasant an Fahrt auf: wir diskutieren vermehrt über sogenannte Fiterblasen und Echokammern. Durch die Algorithmen insbesondere der sozialen Netzwerke, aber auch durch personalisierte Suchergebnisse leben wir zunehmend in unserer eigenen kleinen Welt. Darin werden unsere bestehenden Ansichten und Meinungen immer wieder bestätigt: Uns werden Nachrichten und Posts angezeigt, die das belegen, was wir eh immer schon wussten. Wie stark sich dieser Effekt auf die Meinungsbildung großer Personengruppen auswirkt, ist wissenschaftlich momentan allerdings noch nicht belegbar. Zeitgleich nutzen immer mehr menschliche Propagandisten und Claqueure die neuen (Nachrichten-)Plattformen wie Facebook, Twitter oder andere Netzwerke um Falschinformationen zu verbreiten. Während viele Nutzer solche Informationen aus halbseidenen Quellen durch Likes und Kommentare weiter verbreiten, erodiert das Vertrauen in die klassischen Medien.
Ergebnis all dieser Entwicklungen ist möglicherweise eine gespaltene Gesellschaft: wenn es schon keine Fakten mehr gibt, auf deren Grundlage sich politische Probleme diskutieren lassen – wie soll sich dann ein Konsens finden lassen? Wenn Propagandisten, egal ob Mensch oder Maschine, Debatten manipulieren – wie soll eine Gesellschaft konstruktiv über offene Fragen diskutieren? Die Demokratie ist auf eine funktionierende Öffentlichkeit angewiesen.
Drei Ideen, wie wir besser mit der neuen, unübersichtlichen Medienwelt umgehen können:
- Kritisch sein! Fragen Sie sich, aus welcher Quelle eine Information stammt. Ist sie zuverlässig?
- Offen sein! Wir alle hören lieber das, was unsere Weltsicht bestätigt. Dabei sollten wir auch anderen Meinungen gegenüber offen bleiben.
- Flexibel sein! Wo holen Sie sich Ihre Nachrichten her? Nur von Facebook? Nur von einem Fernsehsender? Informieren Sie sich auch auf professionellen Nachrichtenseiten, die Sie sonst vielleicht nicht besuchen oder in der Zeitung.