Nur wenige Software-Roboter können offenbar mit künstlich produzierten Posts und Likes Stimmungen und Meinungen in Sozialen Medien deutlich beeinflussen. Bereits eine geringe Anzahl von zwei bis vier Prozent "Social Bots" reiche aus, damit sich Netzwerk-Teilnehmer in einer kontroversen Diskussion lieber still verhielten und Vertretern anderer Meinungen das Feld überließen, erklärten Forscher der Universität Duisburg-Essen am 11. Februar. Informatiker und Projektleiter Björn Ross verwies auf das Ergebnis eines virtuellen Experiments, das ein Netzwerk mit 1.000 virtuellen Akteuren simulierte.

Effekt der "Schweigespirale"

Durch die Platzierung von Bots steige in einem Netzwerk mit einem hälftigen Anteil zweier Meinungslager die Wahrscheinlichkeit von 50 Prozent auf zwei Drittel, dass sich die von den Robotern unterstützte Meinung durchsetzt, wie die Forscher erklärten. Begünstigt von dem bekannten Effekt der "Schweigespirale", der Menschen mit einer Minderheitenmeinung eher schweigen lässt, entstehe ein falscher Eindruck zur Stimmungslage.

Wie stark Bots in der Lage seien, Themen künstlich nach vorne zu bringen, Debatten zu verfälschen oder gar politische Wirkung zu entfalten, hänge nicht nur von der Qualität ihrer Programmierung ab, erklärten die Forscher. Auch komme es darauf an, wie viele Verbindungen es zwischen den Mitgliedern eines sozialen Mediums gebe und an welcher Stelle des Netzwerks die Bots platziert würden.

Noch seien Social Bots nicht so vollkommen, dass sie sich nicht erkennen lassen, hieß es. Doch wahrscheinlich würden sie nach und nach optimiert, auch für wenig wünschenswerte Zwecke wie Täuschungen. "Und dann wären Software-Roboter tatsächlich eine Gefahr für die Demokratie", warnte Ross.