Experten sehen in sogenannten Social Bots ein immer größeres Problem für Soziale Netzwerke. Wie schätzen Sie die Situation ein?
Die Situation für die Sozialen Netzwerke ist sehr ernst. Das Hauptproblem ist die Skalierbarkeit von Bots. Wenn ich ein Programm habe, das EINEN Account autonom steuern kann, dann kann dieses Programm eben auch eine Millionen Accounts steuern. Es besteht daher tatsächlich die Gefahr, dass die Sozialen Netzwerke durch Bots geflutet werden.
In Medienberichten ist die Rede von Bots, die persönliche Bewertungen bis hin zu politischen Kommentaren abgeben. Wie „menschlich“ verhalten sich die Bots inzwischen?
Es gibt zwei Tendenzen, die die Bots immer menschlicher werden lassen. Zum einen entwickeln die Bot-Master (also die Programmierer) Algorithmen, die es den Sozialen Netzwerken schwer machen, die Bots zu erkennen. Heutzutage haben Bots einen geregelten Tagesablauf, sie posten auch nicht mehr als normale Nutzer und sie senden hauptsächlich Inhalte, die auch echte Menschen senden würden (also z. B. Katzenfotos). Der zweite Trend ist KI (künstliche Intelligenz). Da geht es darum, Aufgaben, die normalerweise ein Mensch für den Bot erledigen müsste, zu automatisieren. Das ist zunächst die Generierung von Inhalten. Moderne Bots können selbstständig neue Sätze generieren und das zunehmen sogar sinnvoll. Aber auch Entscheidungsregeln, z. B. wem gefolgt wird, fallen in diesen Bereich.
Wie lassen sich Social Bots für den Normal-Nutzer von echten Menschen unterscheiden?
Das wird leider immer schwieriger. Die Sozialen Netzwerke, aber auch wir Wissenschaftler, setzen da auf Datamining, also hochkomplexe statistische Verfahren, die aber auch fehleranfällig sind. Dem normalen Nutzer kann man nur raten, Informationen aus dem Netz immer zu hinterfragen, auch wenn man sie vielleicht hundertfach liest. Gleichzeitig ist aber kein System perfekt: Wenn die Bots Menschen imitieren, ist das immer "irgendwie komisch". Es ist ratsam, der eigenen Intuition zu trauen und wenn ein Bild merkwürdig ist, wenn Texte seltsam sind oder wenn eine Konversation konfus erscheint, sollte man vorsichtig sein.
Im berühmten Fall der Microsoft-KI Tay, ließ sich das Programm relativ leicht durch Nutzer manipulieren und musste wegen moralisch bedenklicher Äußerungen zurückgezogen werden. Wie lassen sich derartige Auswüchse verhindern?
Ich finde die Kritik an Tay ein bisschen unfair. Alle wussten, dass Tay ein Bot ist und es haben sich viele Leute einen Spaß daraus gemacht, diesen Bot zu manipulieren. Nicht Tay war das Problem, sondern die Nutzer, die nichts Besseres zu tun haben, als Rassismus und Hetze im Internet zu verbreiten. Das heißt aber nicht, dass das System nicht funktioniert hätte. Was passiert eigentlich mit den Tays, von denen niemand weiß, dass es Bots sind?