top of page

Hybride Bedrohungen im Cyberraum: Schutz demokratischer Prozesse vor Desinformation und Deep Fakes

Die Münchner Sicherheitskonferenz (MSC) ist seit Jahren eine zentrale Plattform für internationale sicherheitspolitische Debatten. Wie auch schon in den vergangenen beiden Jahren fand im Rahmen der MSC auch 2025 wieder das Side-Event im Salon Luitpold statt. Das Thema – Bedrohungen im Cyberraum. Moderiert von Dr. Jennifer Pernau (Microsoft Deutschland) unterhielten sich unsere CEO & Gründerin, Dr. Katharina Schüller, und Veronika Söllner (IABG) über die wachsende Gefahr von Deep Fakes, Desinformation und gezielten Angriffen auf demokratische Prozesse.

Warum ist das Thema so brisant?

Hybride Bedrohungen, die sowohl digitale als auch physische Angriffe umfassen, haben das Potenzial, Gesellschaften und Demokratien in ihren Grundfesten zu erschüttern. Gerade in Wahljahren zeigt sich dies besonders deutlich: Nation-State-Actors aus China, Russland und dem Iran betreiben mit aufwendigen Kampagnen gezielt Meinungsmache und beeinflussen Wahlen. Schon im Jahr 2023 wurde im Salon Luitpold im Rahmen der MSC unter dem Titel "Did we lose Africa" über den massiven Einsatz russischer Bots zur Beeinflussung der öffentlichen Meinung afrikanischer Staaten bei einer UN-Abstimmung zum Ukrainekrieg diskutiert. 

Ein weiteres aktuelles Beispiel: Nach dem Anschlag in München verbreiteten sich in sozialen Netzwerken binnen Minuten Falschmeldungen und manipulierte Videos. Alternativmedien griffen diese auf und verbreiteten Sensationsmeldungen, die wenig mit der Realität zu tun hatten. Das Resultat – Rasante Verbreitung und Shitstorms gegen Minderheiten und Qualitätsmedien. Dieser Vorfall zeigt erneut, wie dringend Medienkompetenz und kritisches Denken gefördert werden müssen.

Lösungsansätze: Was können wir tun?

  1. Data Literacy und kritisches Denken fördern

    Bildung und Sensibilisierung sind entscheidend, um Menschen für Desinformation zu wappnen. Bereits in Schulen sollten kritische Medienkompetenz und Datenkompetenz stärker vermittelt werden.

  2. AI-Governance und internationale Kooperation

    Um klare ethische und regulatorische Rahmenbedingungen für KI und Cybersicherheit zu schaffen, bedarf es verstärkter Zusammenarbeit zwischen Staaten und Institutionen.

  3. Tech-Giganten in die Verantwortung nehmen

    Plattformen müssen Mechanismen zur Eindämmung digitaler Gewalt und Desinformation entwickeln, ohne dabei die Meinungsfreiheit zu unterdrücken.

  4. Hybride Bedrohungen systemisch analysieren

    Die Methoden zur Analyse hybrider Bedrohungen müssen alle Ebenen umfassen – von technologischen Aspekten bis hin zu geopolitischen Dynamiken.

Die Rolle der KI: Gefahr oder Chance?

Ein zentraler Punkt der Diskussion war der doppelte Einsatz von KI: Sie kann sowohl von Angreifern als auch von Verteidigern genutzt werden. Doch wie stellen wir sicher, dass KI demokratische Werte stärkt?

  • KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert werden. Verzerrte oder unzureichende Datensätze führen zu diskriminierenden Algorithmen.

  • Forschungsprojekte wie Gender Shades konnten aufzeigen, dass aufgrund mangelnder Datenbasis sogar Algorithmen des alltäglichen Lebens, wie beispielsweise zur Gesichtserkennung, diskriminierende Entscheidungen fällen.

  • KI-Systeme müssen fair und reproduzierbar sein, doch es gibt bislang keine allgemein akzeptierte Definition von "Fairness". Ist ein Algorithmus fair, wenn er die Welt abbildet, wie sie ist, oder wenn er unsere normative Vorstellung von Gerechtigkeit widerspiegelt? 

Die Probleme befinden sich demnach auf vielen Ebenen. Sei es der Mangel an Definitionen von Grundbegriffen wie „Fairness“ oder eines einheitlichen Verständnisses von demokratischen Werten. Sei es die fehlende Möglichkeit zur Operationalisierung dieser Aspekte sowie die Darstellung der Komplexität und Diversität unserer Welt in Daten. Von „fairen“ Systemen kann erst die Rede sein, wenn die nötigen Rahmenbedingungen geschaffen wurden. 

Regulierung und Verantwortung

Auch Tech-Giganten tragen Verantwortung: Die gezielte Verbreitung von Hasskampagnen und Fake News trifft oft besonders Frauen und marginalisierte Gruppen. Doch digitale Gewalt ist nicht das einzige Problem – auch strukturelle Diskriminierung durch Algorithmen bleibt eine Herausforderung. Der EU AI Act fordert daher, dass Betreiber von KI-Systemen die notwendige Kompetenz ihrer Nutzer:innen sicherstellen müssen. Dabei geht es weniger um die Kompetenz, der KI die richtigen Prompts zu liefern. Vielmehr müssen die vom System generierten Ergebnisse auf informativer und ethischer Ebene kritisch betrachtet und hinterfragt werden können. 

Frankreich zeigt, wie es gehen kann: Bereits seit 2018 verfolgt das Land eine nationale KI-Strategie und betrachtet nicht nur technologische, sondern auch ethische und regulatorische Aspekte. Der bewusste Einsatz von KI wird zudem auch zu Verteidigungszwecken gefördert. Damit ist das Land trotz geringeren Budgets schneller und fortschrittlicher als andere Europäische Staaten. 

Fazit: Bildung als zentrales Element der Cybersicherheit

Der Schutz demokratischer Prozesse beginnt mit Bildung und Aufklärung. Kritisches Denken, Medienkompetenz und Data Literacy sind der Schlüssel, um Desinformation und hybride Bedrohungen effektiv entgegenzutreten. Nur durch internationale Kooperation, regulatorische Rahmenbedingungen und verantwortungsvolle Technologienutzung können wir unsere Demokratie langfristig schützen.

 
bottom of page