Social-Media-Studie

Wie AfD-Anhänger und Identitäre Facebook manipulieren

Die Mitglieder der Facebook-Gruppe #Ichbinhier mischen sich in Diskussionen ein, die von Rechtextremen gekapert sind und beteiligen sich. Sie wollen damit Diskussionen wieder in geregelte Bahnen lenken. Ihre eigenen Kommentare markieren sie mit dem Hashtag #Ichbinhier

Die Studie zeigt: Lediglich fünf Prozent der Accounts sind für 50 Prozent der Likes bei Hass-Kommentaren auf Facebook verantwortlich. Innerhalb dieser lautstarken Minderheit findet sich sogar noch ein extrem aktiver Kern: Ein Prozent der Profile sind demnach für 25 Prozent der Likes verantwortlich.

Die Nutzer dieser Profile agieren oft gemeinsam und sind generell deutlich aktiver als normale Nutzer. Das gilt allerdings nur für Diskussionen, in denen Hass-Inhalte auffallen - bei anderen Themen sind diese Accounts weitestgehend passiv. Die meisten der bei Hass-Inhalten hochaktiven Accounts lassen sich als Anhänger von AfD und der rechtsextremen "Identitären Bewegung" identifizieren.

IT-Experte Philip Kreißel wertete für die Studie in Kooperation mit dem Institute for Strategic Dialogue in London 3.000 Veröffentlichungen und 18.000 Kommentare auf Facebook im Januar 2018 zu Beiträgen von Bild, Focus-Online, Kronen-Zeitung, Spiegel-Online, tagesschau.de, Welt sowie ZDF heute aus. "Rechte Gruppierungen versuchen, gezielt die Facebook-Algorithmen zu manipulieren. Dazu einigen sie sich auf Uhrzeiten und Hashtags, um diese in die TopTrends zu katapultieren", so Julia Ebner vom Institute for Strategic Dialogue gegenüber dem NDR.

Die Kampagnen auf den Medienseiten würden mit zahlreichen gefälschten Accounts von rechtsextremen Kreisen koordiniert zu bestimmten Uhrzeiten durchgeführt. Das führe dazu, dass diese den Online-Diskurs bestimmen können. Für diese Aktionen werden auch Accounts unter falschen Namen angelegt, um damit gezielt Einschüchterungs- oder Hasskampagnen gegen ihre Gegner zu führen, so die Wissenschaftlerin.

"Was wir in den Statistiken beobachten, ist vor allem eine monumentale Täuschung", urteilt Philip Kreißel. Anderen Nutzern und den Administratoren der Medienseiten, aber auch dem News-Algorithmus von Facebook werde vorgegaukelt, dass bestimmte Themen eine große Öffentlichkeit beschäftigen, so der IT-Experte. Tatsächlich handele es sich nur um eine lautstarke Minderheit. Ihr komme die Funktionsweise von Facebook entgegen. Denn polarisierende Debatten, die oft erst durch koordinierte Aktionen ausgelöst werden, erhielten durch den Facebook-Algorithmus eine höhere Reichweite als sachliche Diskussionen. Die Wissenschaftler haben sich in ihrer Studie vor allem auf sogenannte Hass-Postings konzentriert. Kommentare, in denen vermeintlich real existierende Nutzer gegen Themen oder Personen hetzen. Wenn Artikel und Themen Hass-Kommentare auf sich ziehen, haben sie durchschnittlich dreimal so viele Kommentare wie Artikel ohne Hass. IT-Experte Kreißel entwickelte zur Analyse einen 'Hate-Finder'. Dieses Instrument identifiziert Profile, die Hass-Kommentare oft liken, und beobachtet, wo diese wieder aktiv werden.

Die Gefahr sei, dass andere Nutzer und Politiker sowie Medienmacher glauben könnten, die Kommentarspalten seien repräsentativ für die Stimmung in der Bevölkerung. Kreißel und Ebner empfehlen, dass Medien die Diskussionen zu ihren Inhalten moderierten. Kreißel betont, dass die politische Ausrichtung von aktiven Profilen bei moderierten Diskussionen eher ausgeglichen sei. Ohne Moderation finde man bis zu 100 Prozent mehr rechtsradikale, oft extrem aktive Accounts in den Kommentarspalten.

Der Informatiker selbst engagiert sich in der Facebook-Gruppe #Ichbinhier zur Homepage dieses Unternehmes Relation Browser . Die Mitglieder der Facebook-Gruppe #Ichbinhier mischen sich in Diskussionen ein, die von Rechtextremen gekapert sind und beteiligen sich. Sie wollen damit Diskussionen wieder in geregelte Bahnen lenken. Ihre eigenen Kommentare markieren sie mit dem Hashtag "#ichbinhier", um kenntlich zu machen, dass man zu dieser Gruppe gehört.