Generative KI zwischen demokratischer Ermächtigung und algorithmischer Verzerrung: Herausforderungen und Chancen künstlicher Intelligenz für Demokratie und Gesellschaft.
Seitdem ab dem Winter 2022/2023 die großen KI-Sprachmodelle[1] wie ChatGPT, Midjourney oder Gemini der breiten Öffentlichkeit zugänglich und bewusst wurden, haben diese begonnen, unsere digitale Realität tiefgreifend zu verändern. Die eigentliche Revolution lag dabei nicht allein in der technischen Leistungsfähigkeit dieser Systeme, sondern in der Art und Weise, wie wir mit ihnen interagieren: mit Sprache. Zum ersten Mal ließ sich eine komplexe Technologie nicht nur per Sprache bedienen, sondern im Dialog erschließen: Unser ursprünglichstes Werkzeug der Weltaneignung wurde zur Bedienungshilfe maschineller Intelligenz. Sprachsteuerung gab es zwar schon zuvor, doch nie war das Ausmaß an responsiver Tiefe, Kontextverständnis und Anpassung an die Nutzer:innen so durchdringend.
Was früher Programmierkenntnisse, informatisches Fachwissen und technische Schnittstellen erforderte, gelingt heute über ein simples Gespräch. Die Barriere in der Interaktion zwischen Menschen und Maschinen wurde so nicht nur kleiner; sie verschwindet im Dialog. Wir schreiben Texte und Codes, lassen Bilder generieren, analysieren Daten, planen Debatten, entwickeln Konzepte oder entwerfen einfach mehr oder weniger lustige Memes. Die Möglichkeiten der generativen KI sind heute bereits für Millionen Nutzer:innen selbstverständlich und sie durchdringen zunehmend Bildungswesen, Arbeitswelt, Wissenschaft und Öffentlichkeit.
Diese rasante Verbreitung sprachbasierter KI-Modelle birgt kaum abschätzbare Potenziale. In Bildung und Wissenschaft ermöglichen sie einen individualisierten, niedrigschwelligen Zugang zu Wissen, indem beispielsweise Schüler:innen mit der richtigen Anleitung komplexe Inhalte auf ihrem eigenen Niveau verstehen können. Forscher:innen ermöglicht KI, Experimente schneller zu planen, Muster in großen Datenmengen zu erkennen und Hypothesen effizienter zu prüfen. Komplexeste Inhalte lassen sich kontextgerecht für unterschiedliche Zielgruppen aufbereiten – je nach Vorwissen, Interessen oder Anwendungsbedarf. Auch in anderen Bereichen, etwa der psychosozialen Versorgung, eröffnen sich neue Perspektiven, zum Beispiel für ältere oder erkrankte Menschen, die unter Einsamkeit leiden oder monatelang auf einen Therapieplatz warten. Zwar ersetzt KI (noch) keine professionelle therapeutische Behandlung, doch sie kann dort, wo das Gesundheitssystem überlastet ist, stabilisieren, überbrücken und entlasten. Zugleich wird spekuliert, dass KI in Zukunft entscheidende Beiträge zur Lösung globaler Herausforderungen leisten könnte: etwa bei der Entwicklung neuer Wirkstoffe angesichts der Zunahme von Antibiotikaresistenzen, der Beschleunigung medizinischer Forschung oder der Entwicklung von Maßnahmen im Kampf gegen die Klimakatastrophe.
Auch für unser politisches Zusammenleben eröffnen sich mit modernen KI-Systemen neue Perspektiven, vorausgesetzt, sie werden transparent, inklusiv und verantwortungsvoll eingesetzt. KI kann Debatten zugänglicher machen, Informationen verständlicher aufbereiten und Bürger:innen helfen, sich überhaupt erst in gesellschaftliche Prozesse einzubringen. In einer Zeit, in der politische Kommunikation zunehmend im digitalen Raum stattfindet, könnte sie zum Katalysator für Aufklärung und Partizipation werden; und damit auch dazu beitragen, das Vertrauen in demokratische Institutionen und Verfahren wieder und weiter zu stärken. Angesichts der zunehmenden Polarisierung politischer Debatten liegt hierin ein bedeutsames demokratisches Potenzial von KI-Systemen.
Neben dieser kaum absehbaren Fülle an Chancen bringen KI-Anwendungen jedoch eine Reihe von Risiken mit sich, die besser nicht unbeachtet bleiben sollten: Dieselben Werkzeuge, von denen manche erwarten, dass sie nicht weniger als die Welt retten werden, lassen sich ebenso gut für Lügen und Manipulation mit maximaler Reichweite nutzen: Gezielte Bild- und Videomanipulationen erlauben mit Deepfakes ein neues Level von Täuschung; automatisierte Textgeneratoren streuen Lügen in einer Geschwindigkeit, die bestehende Kontrollmechanismen überfordert. Persönlichkeitsrechte sind akut bedroht, wenn KI dazu eingesetzt wird, reale Personen in frei erfundenen Kontexten darzustellen und so gezielt Einfluss auf die öffentliche Meinung zu nehmen. Und all das betrifft lediglich die missbräuchliche Nutzung von KI. Hinzu kommen bedeutende ethische Fragen: etwa zum enormen Energieverbrauch der KI-Rechenzentren, zu den sozialen Folgen einer KI-getriebenen Arbeitswelt oder zur Herkunft und Fehleranfälligkeit jener Daten, mit denen diese Modelle trainiert werden.
Besonders brisant sind die systemischen Verzerrungen in den Trainingsdaten vieler KI-Modelle. Da diese auf riesigen, oft unkontrollierten Textmengen aus dem Internet basieren, spiegeln sie bestehende Vorurteile, Diskriminierungen und Machtstrukturen wider; und sie sind in der Lage, diese mit hoher Präzision zu reproduzieren. So entstehen KI-Modelle, die marginalisierte Gruppen benachteiligen, rassistische Narrative verstärken oder sexistische Zuschreibungen normalisieren; oft ohne dass sich Nutzer:innen dessen bewusst sind. Wer KI für die liberale Demokratie einsetzen will, muss verstehen, dass auch Algorithmen blinde Flecken haben und lediglich so objektiv sind wie die Daten, mit denen sie trainiert werden.
Wie die politische Instrumentalisierung von KI auf Staatsebene aussehen kann, zeigte das chinesische KI-Modell DeepSeek, das im Frühjahr 2024 systematisch Fragen zum politischen Status Taiwans im Sinne der Pekinger Staatspropaganda beantwortete. Die De-facto-Souveränität Taiwans wurde dabei geleugnet, Präsidentin Tsai Ing-wen (bzw. ihre Nachfolge) nicht als legitime Führung genannt; stattdessen wurde Taiwan als „chinesische Provinz“ dargestellt.1 Diese Form algorithmischer Auslassung ist kein Zufall, sondern das Ergebnis bewusster politischer Rahmung: KI wird hier nicht nur als Technologie entwickelt, sondern als machtstrategisches Instrument. In autoritären Kontexten wird sie so zur digitalen Machtmaschine der Regierung, mit potenziell globaler Wirkung.
Ein besonders drastisches Beispiel für die Risiken unkontrollierter KI-Kommunikation gab es im Juli 2025 auf der Plattform X, als der von Elon Musks Firma entwickelte Chatbot Grok antisemitische Aussagen reproduzierte. In einem Nutzerdialog behauptete Grok unter anderem, Menschen mit jüdischen Nachnamen verbreiteten „anti-weiße Narrative“ und nannte Adolf Hitler als geeignete politische Figur, um diesem angeblichen Problem zu begegnen. Diese zutiefst verstörenden Antworten gingen auf eine kurzfristige Änderung im Befehlssystem zurück, die Grok für 16 Stunden anfällig für extremistische Inhalte aus Nutzerbeiträgen machte.2 Der Vorfall macht deutlich, wie dünn die Grenze zwischen KI-gestützter Dialogfähigkeit und algorithmisch verstärkter Radikalisierung ist, insbesondere dann, wenn Plattformen wie X redaktionelle Verantwortung durch Code ersetzen.
Unser Scheitern an den Möglichkeiten moderner KI liegt also nahe: Seit der Jahrtausendwende und damit der großflächigen Verbreitung privater Internetanschlüsse erleben wir, wohin es führt, wenn digitale Umwälzungen unreflektiert und ohne medienpädagogisches Hintergrundwissen in gesellschaftliche Strukturen einschlagen. Soziale Netzwerke, die einst als Hoffnung auf globale Vernetzung gefeiert wurden, haben sich in Teilen zu Brutstätten von Polarisierung, Hass und antidemokratischer Organisation gewandelt. Der Messenger-Dienst Telegram etwa spielte während der Corona-Pandemie eine zentrale Rolle bei der Verbreitung rechtsextremer Verschwörungserzählungen, diente als organisatorisches Rückgrat für radikalisierte „Querdenker“-Gruppen und wurde 2022 zur Koordination des geplanten Umsturzes durch das sogenannte Reichsbürger-Netzwerk genutzt, inklusive Aufrufen zur Erstürmung des Bundestags.3
Vor diesem Hintergrund wirkt die kürzlich neu aufgeflammte Debatte4 über eine Altersgrenze von 16 Jahren für soziale Netzwerke nicht nur nachvollziehbar, sondern symptomatisch für ein tieferliegendes Problem: Statt pauschale Altersbeschränkungen zu diskutieren, sollte die Politik endlich rationale und langfristig tragfähige Konzepte zur Förderung digitaler Mündigkeit entwickeln. Es braucht die verbindliche Verankerung von Medienkompetenz in der schulischen Ausbildung, und zwar nicht nur als Randthema im Informatikunterricht, sondern als integralen Bestandteil demokratischer Bildung. Jugendliche brauchen keine Bevormundung in Form von schwer durchsetzbaren Altersbeschränkungen, sondern die aktive Befähigung, um sich souverän im digitalen Raum zu bewegen: kritisch, kreativ, informiert. Wenn KI-gestützte Inhalte unsere Informationsräume prägen, darf die Fähigkeit, sie einzuordnen, kein Privileg sein, sondern muss eine Grundkompetenz werden, die allen zugänglich ist.
Wie jede Technologie ist KI nicht gut oder böse, sondern sie ist zunächst einmal neutral. Es sind ihre Einsatzzwecke, die entscheiden, ob sie demokratische Prozesse stärkt oder untergräbt. Und genau hier liegt die Verantwortung von Gesellschaft, Politik und Bildungseinrichtungen: Frühzeitige Aufklärung über Möglichkeiten, Grenzen und ethische Fragen von KI ist keine Option, sondern eine demokratische Notwendigkeit. Wir brauchen Räume, in denen Menschen lernen, KI zu verstehen, und sich gegen ihren Missbrauch zu wappnen. Deshalb ist jetzt der Moment für einen kritischen, gestaltenden Umgang mit KI-Anwendungen. Nicht mit Angst, sondern mit Wachsamkeit. Nicht technikfeindlich, sondern menschenfreundlich. Daher ist es an uns, die gesellschaftlichen Rahmenbedingungen zu schaffen, unter denen KI ein Werkzeug der Aufklärung – und nicht der Entfremdung – wird.
Quellen
- Dixon, M. (2025). An act of erasure – DeepSeek and the disappearance of Taiwan. Taiwan Insight. Online. https://taiwaninsight.org/2025/03/12/an-act-of-erasure-deepseek-and-the-disappearance-of-taiwan
- Greis, F. (2025). Warum Grok plötzlich Hitler lobte. Golem. Online: https://www.golem.de/news/xai-entschuldigt-sich-warum-grok-ploetzlich-hitler-lobte-2507-198042.html
- Heyn, L. (2025). On Querdenken, Reichsbürger and the Patriotic Union: Exploring the Formation of an Anti-Government Extremist Network in Germany. Perspectives on Terrorism. Online: https://www.jstor.org/stable/27372138
- Beham, S. & Willems, J. F. Jugendliche und Politik im Zwiespalt. tagesschau.de. Online: https://www.tagesschau.de/inland/gesellschaft/jugendliche-kinder-social-media-tiktok-100.html
[1] Künstliche Intelligenz umfasst weit mehr Technologien und Anwendungsfelder als die genannten generativen Modelle. Um den Rahmen dieses Beitrags übersichtlich zu halten, sind mit „Künstlicher Intelligenz“ – kurz: KI – im Folgenden ausschließlich jene Anwendung gemeint, bei der auf Basis geschriebener oder gesprochener Eingaben (sogenannter Prompts) Inhalte generiert werden: etwa Texte, Bilder oder Videos. Solche Systeme stehen mittlerweile einer breiten Öffentlichkeit zur Verfügung – sei es als Webanwendungen (z. B. ChatGPT, Perplexity, Midjourney), als Plug-Ins (etwa Microsoft Copilot) oder als interaktive Schnittstellen auf kommerziellen Webseiten (z. B. Chatbots).