Die algorithmische Unsichtbarkeit entsteht nicht durch aktive Unterdrückung, sondern durch strukturelle Nicht-Beachtung. Plattformalgorithmen sind darauf optimiert, Aufmerksamkeit zu binden und Verweildauer zu maximieren. Inhalte, die diesem Ziel dienen, werden priorisiert – alles andere rutscht in die unteren Feed-Bereiche oder wird gar nicht erst angezeigt.
Dieses System begünstigt bestimmte Arten von Inhalten: emotional aufgeladene, kontroverse, einfach konsumierbare. Wie eine Studie der Bertelsmann-Stiftung zeigt, beziehen 74 Prozent der jungen Menschen ihre politischen Informationen bereits aus Social Media1.
In diesen Räumen dominiert nicht argumentative Tiefe, sondern affektive Resonanz – das, was sich in 60 Sekunden fesseln lässt.
Gleichzeitig entstehen parallele Wirklichkeiten: Während traditionelle Medien noch nach publizistischen Prinzipien arbeiten (Relevanz, Überprüfung, Einordnung), regieren in algorithmisch kuratierten Feeds andere Maßstäbe (Reichweite, Reaktion, Rhythmus). Zwei Öffentlichkeiten existieren nebeneinander, die sich kaum noch berühren – eine Entwicklung, die den gesellschaftlichen Diskurs fragmentiert.
Die politischen Konsequenzen: Von der Demokratie zur Plattformokratie?
Die Auswirkungen dieser Transformation sind tiefgreifend. Die Demokratie, argumentiert Medienwissenschaftlerin Charlotte Echterhoff, sei „vom Aussterben bedroht“ durch den „desolaten Zustand der Öffentlichkeit“2.
Digitale Plattformen seien dabei nicht bloß technische Infrastrukturen, sondern politische Ordnungsakteure, deren Algorithmen die kuratierende Funktion eines normativ handelnden Journalismus ersetzen.
Ohne demokratische Legitimation oder Kontrolle organisieren diese Algorithmen Öffentlichkeiten nicht nur spaltend – sie begünstigen aktiv Themen, die sich für Spaltung eignen. Populistische Vereinfachungen, identitätspolitische Zuspitzungen und emotionale Aufreger verbreiten sich „per Design“ besser als differenzierte Analysen. Lügen – als sogenannte Fake News – werden zu ebenbürtiger Grundlage für Meinungsbildung neben recherchierten Informationen.
Die Marktmachtkonzentration verschärft dieses Problem: Fünf Plattform-Unternehmen (Google, Amazon, Alphabet, Microsoft, Apple) konzentrieren 98,8 Prozent der Internetnutzung auf ihre Angebote3.
Diese „digitale Oligarchie“ bestimmt damit, welche Informationen wir als Gesellschaft teilen – ohne demokratische Rechenschaftspflicht.
Widerstand und Gestaltung: Wie wir eine menschenzentrierte Öffentlichkeit zurückgewinnen können
Gegen diese Entwicklungen formiert sich zunehmend Widerstand auf mehreren Ebenen:
1. Regulatorische Ansätze
Mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) hat die Europäische Union erste regulatorische Instrumente geschaffen, um Transparenz, Nutzerrechte und Interoperabilität zu stärken. Diese Gesetze setzen wichtige Signale, reichen aber allein nicht aus, um die strukturelle Plattformdominanz aufzubrechen.
Vordenker wie Martin Andrée schlagen weitergehende Maßnahmen vor: volle Outlink-Freiheit für Creator, die Trennung von Kanal und Inhalt, sowie offene Standards und Interoperabilität4.
Solche Regelungen würden Nutzern mehr Souveränität geben und Konkurrenz zu den Tech-Giganten begünstigen.
2. Alternative Plattformdesigns
Ein vielversprechender Ansatz ist das Konzept „demokratischer Algorithmen“. Statt Millionen individualisierter Konsumwelten („More of the same“) könnten Empfehlungssysteme bewusst Begegnungen mit Gegenpositionen ermöglichen („Some of the other“).
3. Medienbildung und kritische Kompetenz
Letztlich liegt entscheidende Verantwortung bei der Förderung von Medienkompetenz. Wie der Journalist Simon Hurtz warnt, darf dies jedoch nicht zu generellem Misstrauen führen, das auch authentische journalistische Berichterstattung infrage stellt5.
Vielmehr braucht es differenzierte Fähigkeiten: Quellen kritisch zu prüfen, algorithmische Logiken zu verstehen und bewusst aus Filterblasen auszubrechen.
Fazit: Die formalisierte Öffentlichkeit und ihr menschliches Gegengewicht
Wir leben heute nicht in einer weniger freien, sondern in einer stärker formalisierten Öffentlichkeit. Was sich nicht in verarbeitbare Signale übersetzen lässt, wird unsichtbar – unabhängig von seiner realen Bedeutung.
Fußnoten
- Bertelsmann Stiftung (2023). Jugend und Politik in der Digitalität.
↩ - Echterhoff, Charlotte (2022). Demokratie in Zeiten algorithmischer Öffentlichkeit.
↩ - Konzentrationsdaten basierend auf Analysen des Bundeskartellamts und der EU-Kommission (2023).
↩ - Andrée, Martin (2021). Plattform-Ökologie: Wege aus der digitalen Oligarchie.
↩ - Hurtz, Simon (2023). Vertrauen in Medien: Warum pauschaler Misstrauen schadet.
↩
