Weil es in den sozialen Medien so viel Desinformation über den Krieg Russlands gegen die Ukraine gebe, befasst sich Tagesschau-Faktenfinderin Marleen Wiegmann mit der Frage, ob KI dabei helfen könnte, wegzuzensieren, was maßgebliche Leute für Desinformation halten. Sie schreibt:
„Desinformation auf Social-Media-Plattformen zu finden, ist wie die Nadel im Heuhaufen zu suchen – eine nicht endende Aufgabe. Künstliche Intelligenz könnte hier helfen.“
Mit ihrem verunglückten Bild von der Nadel im Heuhaufen, macht die Faktenfinderin unfreiwillig ein Problem mit ihrer Argumentation deutlich. Falschinformation und Desinformation hat es schon immer gegeben und wird es immer geben. Die Frage ist, von wie vielen sie empfangen und auch noch geglaubt wird, und warum. Desinformation, die man suchen muss „wie die Nadel im Heuhaufen“ liefert eher keine Rechtfertigung für eine Zensurkampagne.
Der Beitrag erläutert weiter:
„Damit KI Desinformation erkennen kann, wird sie mit Datensätzen trainiert. Die Datensätze werden von Menschen angelegt und mit ihnen lernt die KI, was als Desinformation gilt und was nicht.“
Hier drängt sich die Frage geradezu auf, wer mit welchen Datensätzen bestimmt, was die Wahrheit ist. Bei einem Thema wie einem Krieg, in dem die eigene Seite so-gut-wie-Kriegspartei ist, ist das eine Frage, die schwerlich auf unverfängliche Weise überzeugend beantwortet werden kann. Wie man es dreht und wendet, es wird immer darauf hinauslaufen, dass die Kriegspropaganda der eigenen Seite als Wahrheit gilt und die der anderen Seite als Desinformation.
Aber Wiegmann versucht das gar nicht erst, sondern belässt es dabei, unsere Nasen dankenswerterweise darauf gestoßen zu haben.
Stattdessen biegt sie flugs zu weicheren Kriterien ab. Desinformation lasse sich anhand von unterschiedlichen Merkmalen erkennen, erfahren wir. Hilfreich könne KI sein, „die in der Lage ist, Stimmungen, also Emotionen bis hin zu Meinungsäußerungen zu erkennen“.
Wir haben also keine inhaltliche Klärung, was Desinformation ist, beziehungsweise wer darüber bestimmt, aber wir können feststellen, was wahrscheinlich Desinformation ist, indem wir analysieren, in welchem Tonfall sie vorgetragen wird. Ist dieser übermäßig kritisch, wird es wohl problematisch und man kommt leicht aufs Desinformations-Radar. Gelassene, dem Regierungsnarrativ entsprechende Äußerungen dürften kein Problem bekommen, auch wenn dieses Narrativ falsch ist.
Aber künstliche Intelligenz kann noch mehr:
„KI kann auch (…) die Reaktionen auf einen Post analysieren. Mit einer Resonanzanalyse wird gezeigt, ob User auf Inhalte neutral reagieren, sie kritisieren oder bestätigen.“
Das soll wohl bedeuten, dass es für die Frage, ob etwas Desinformation ist, darauf ankommt, wie die User reagieren. Erstaunlich. Wenn man allerdings umfassende Steuerung des Meinungsbilds auf den sozialen Medienplattformen anstrebt, wird schon ein Schuh draus.
Wir erfahren auch noch:
„Desinformation ist kaum definierbar. Die Definition ist von so vielen Faktoren abhängig, zum Beispiel politischen oder religiösen Ansichten, dass eine einheitliche oder standardisierte Kennzeichnung kaum möglich ist.“
Was hier als Problem für KI präsentiert wird, ist ein generelles Problem für die Festlegung von Wahrheit, das Geschäftsmodell der Faktenchecker. Bei komplexen, umstrittenen Themen ist die Festlegung was Wahrheit ist, eine Anmaßung mit totalitären Zügen. Als Lösung des Problems wird präsentiert, die KI nur zuarbeiten und den Menschen entscheiden zu lassen, was den „Falsch“-Stempel bekommen soll und zensiert wird, und was ungehindert verbreitet werden darf. Aber das verlagert das Problem, bei umstrittenen Themen festzulegen, was die Wahrheit ist, nur auf eine andere Instanz, die genauso wenig in der Lage ist, es objektiv zu lösen.
Schließlich wurde schon so manches, was die Faktenchecker als Desinformation diskreditiert hatten, später als wahrscheinlich wahr eingestuft, wie zuletzt die Theorie, dass das Corona-Virus aus einem Labor stammt, oder wurde wahr, wie die These, dass eine Impfpflicht kommen werde.
Die Agenda dahinter
Mit dem Einsatz von KI bei der Kontrolle der sozialen Medien würde Deutschland etwas umsetzen, was nach einem Resolutionsentwurf des Direktoriums der Weltgesundheitsorganisation (WHO) zur Pflicht werden soll: der Einsatz von verhaltenswissenschaftlichen Erkenntnissen für die Manipulation der öffentlichen Meinung im Sinne des WHO- und Regierungsnarrativs in der Gesundheitspolitik.
Diese Manipulationsagenda wird bereits zielstrebig vorangetrieben. Wie umfassend die WHO jetzt schon in NSA-Manier die sozialen Medien ausspäht und deren Nutzer beeinflusst und manipuliert, habe ich bereits verschiedentlich dargelegt. Parallel dazu laufen derzeit unter Beteiligung von Verhaltensiwssenschaftlern und sozialen Medienplattformen Feldexperimente, die das noch viel weiter treiben.
Eines davon beinhaltet einen Twitter-Account, der „Fehlinformationen zum Thema Gesundheit im englischsprachigen Twitter kontinuierlich verfolgt und den Empfängern dieser Fehlinformationen Gegennachrichten zukommen lässt, mit dem Ziel, die Nutzer zu motivieren, der Quelle nicht zu folgen“. Es gibt auch ein großes gemeinsames Projekt mit Youtube, um experimentell zu ermitteln, „wie man den Menschen am besten helfen kann, zwischen richtigen und falschen Gesundheitsinformationen zu unterscheiden“. Was richtig und was falsch ist, bestimmt wohlgemerkt die WHO (Motto: Uns gehört die Wissenschaft).
Für solche Projekte der umfassenden Steuerung der Interaktion auf sozialen Medien braucht man unbedingt künstliche Intelligenz. Mit Faktenchecking hat das nur noch am Rande zu tun.
Antijournalistisch nenne ich das real existierende Faktencheckergewerbe übrigens, weil ich es für eine Aufgabe von Journalisten halte, den Mächtigen auf die Finger zu schauen, nicht Kritik an den Mächtigen zu delegitimieren. Das sollte doppelt für öffentlich-rechtliche Journalisten gelten, die sich „staatsfern“ ans Revers heften.