
Forscher warnen vor KI-Schwärmen als neue Bedrohung für Demokratie
Baseljetzt
Tausende KI-gesteuerte Online-Personas, die soziale Netzwerke unterwandern und die Meinungen von Menschen beeinflussen: Im Fachmagazin «Science» warnt ein internationales Forschungsteam vor bösartigen «KI-Schwärmen», die demokratische Prozesse gefährden könnten.
Die Warnung kommt von über 20 internationalen Expertinnen und Experten aus Informatik, Psychologie, Politikwissenschaft und Netzwerkforschung. Darunter auch Frank Schweitzer von der ETH Zürich.
Was nach Science-Fiction klingt, beschreiben die Fachleute als neue Eskalationsstufe im Informationskrieg. Moderne KI-Systeme hätten neue Werkzeuge geschaffen, um Überzeugungen und Verhalten von Menschen im grossen Massstab zu beeinflussen.
Grosse Sprachmodelle (LLM) und autonome Agenten könnten heute enorme Mengen an überzeugend formulierten, menschenähnlichen Inhalten erzeugen. Werden sie zu kollaborativen KI-Schwärmen verbunden – also zu Netzwerken KI-gesteuerter Personas mit Identität und Gedächtnis -, können sie soziale Dynamiken täuschend echt nachbilden und Online-Gemeinschaften vergleichsweise leicht infiltrieren.
Ein permanenter Wettkampf
Anders als klassische Social-Media-Bots agieren sie nicht nach starren Skripten. Sie passen ihr Verhalten laufend an, lernen aus Reaktionen und imitieren menschliche Kommunikation überzeugend. Für gewöhnliche Nutzerinnen und Nutzer ist es damit zunehmend schwierig zu erkennen, ob sie es mit einem KI-Schwarm zu tun haben. «Es reicht nicht mehr, eine einzelne Quelle von Falschinformation zu identifizieren», erklärte Schweitzer auf Anfrage der Nachrichtenagentur Keystone-SDA.
Derzeit versuchen Plattformen und Forschende, solche Schwärme anhand von Verhaltensmustern zu erkennen. Hinweise können etwa sein, dass eine bestimmte Falschinformation leicht variiert über zahlreiche Kanäle verbreitet wird oder dass Minderheitspositionen auffällig stark unterstützt werden. Doch dieser Ansatz gerät dem Experten zufolge an seine Grenzen. «Da KI-Schwärme lernen, sich wie soziale Gruppen zu präsentieren, ist ihre Identifizierung eine sehr komplexe Aufgabe», so Schweitzer. Es handle sich um einen permanenten Wettlauf zwischen Erkennung und Anpassung.
Falscher Konsens wird fabriziert
Besonders problematisch ist laut den Expertinnen und Experten die Fähigkeit solcher Schwärme, einen künstlichen Konsens zu erzeugen. Indem viele scheinbar unabhängige Stimmen dieselbe Position vertreten, entsteht der Eindruck breiter gesellschaftlicher Zustimmung. Psychologische Forschung zeigt, dass Menschen ihre Meinungen stark an wahrgenommenen sozialen Normen ausrichten.
KI-Schwärme könnten diesen Mechanismus gezielt ausnutzen: Sie platzieren Botschaften in verschiedenen Milieus, passen Tonfall und Argumente an kulturelle Kontexte an und verstärken sich gegenseitig durch Likes, Kommentare und Weiterverbreitung. Das Resultat ist keine offene Desinformation, sondern eine subtile Verschiebung dessen, was als «Mehrheitsmeinung» erscheint.
Wie verwundbar ist die Schweiz?
Betroffen seien grundsätzlich alle modernen Demokratien, in denen öffentliche Meinungsbildung politischen Einfluss habe.
Stimmbürgerinnen und Stimmbürger in der Schweiz seien es aber gewohnt, sich regelmässig mit komplexen Sachfragen auseinanderzusetzen. Zudem würden Informationen nicht nur über soziale Netzwerke verbreitet, sondern auch über klassische Medien, das SRF, überregionale Zeitungen, Botschaften des Bundesrates und die offiziellen Abstimmungsunterlagen. «Damit ist die Möglichkeit einer umfassenden Einflussnahme von aussen eingeschränkt – vorausgesetzt, die verschiedenen Informationskanäle werden auch genutzt», sagt Schweitzer.
Gezielte Beeinflussung von Volksabstimmungen sei prinzipiell möglich, werde aber umso schwieriger, je höher die Stimmbeteiligung, je vielfältiger die Informationsquellen und je kompetenter die Bürgerinnen und Bürger im Umgang mit politischen Inhalten seien. Schweitzer rät den Schweizerinnen und Schweizern daher, das Problem einer möglichen Manipulation ernstzunehmen, sich möglichst umfassend in verschiedenen Medien zu informieren und sich an Abstimmungen zu beteiligen.
Neue Risiken für eine ohnehin fragile Öffentlichkeit
Um diese Gefahr möglichst abzuwenden, plädieren die Experten für eine pragmatische, mehrschichtige Abwehr: Manipulation nicht komplett verhindern, sondern teurer, riskanter und sichtbarer machen, koordiniert durch ein dezentrales «AI Influence Observatory» aus Forschung und Zivilgesellschaft.
In der Studie betonen die Experten, dass diese Entwicklung auf ein bereits geschwächtes demokratisches Informationsökosystem trifft. Polarisierung, sinkendes Vertrauen in Medien und Institutionen sowie algorithmisch gesteuerte Aufmerksamkeitsökonomien haben die öffentliche Debatte demnach anfällig gemacht. KI-Schwärme wirken hier wie ein Beschleuniger.
Hinzu kommt ein langfristiges Risiko: Die massenhafte Produktion synthetischer Inhalte kann das Internet selbst verändern. Werden solche Inhalte von Suchmaschinen und KI-Systemen erfasst, fliessen sie in Trainingsdaten ein. Falsche oder manipulierte Narrative könnten so dauerhaft in zukünftige KI-Modelle eingeschrieben werden. (sda/jwe)
Mehr dazu
Feedback für die Redaktion
Hat dir dieser Artikel gefallen?
Kommentare
Dein Kommentar
Mit dem Absenden dieses Formulars erkläre ich mich mit der zweckgebundenen Speicherung der angegebenen Daten einverstanden. Datenschutzerklärung und Widerrufshinweise
Kommentare lesen?
Um Kommentare lesen zu können, melde dich bitte an.


spalen
umso wichtiger wäre ein fundierter unterricht an den schulen in medienkompetenz!
ebenso wichtig ist auch eines der grundlegendensten handwerkszeuge von historikern: die quellenkritik!
und nicht zu vergessen, der gesunde menschenverstand