Warum Social Media uns radikaler, intoleranter und unglücklicher macht

Algorithmen auf Social Media setzen auf unsere niedersten Instinkte, um uns am Bildschirm zu halten – und machen uns dabei enger, radikaler, unglücklicher. Und jetzt mischt auch noch die KI mit. Doch es gibt Auswege.
Von Nicolai Franz
Zwei Frauen schauen auf ihre Smartphones

Zweihundert Millisekunden. Mehr Zeit braucht unser Hirn nicht, um ein Video auf dem Handy für gut oder schlecht zu befinden. Social-Media-Konzerne nutzen das immer geschickter aus: Sie spülen uns bevorzugt Inhalte in den Feed, die emotional packen – nicht solche, die wahr, ausgewogen oder hilfreich sind.

Bei jedem neuen Post geschieht im Gehirn eine ganze Kaskade an neurologischen Prozessen: Der visuelle Cortex analysiert Farben, Gesichter, Bewegung. Die Informationen werden dann blitzschnell an die Amygdala weitergeleitet, unsere Emotions- und Alarmzentrale: Ist das interessant? Empörend? Bedrohlich? Langweilig? Die Amygdala entscheidet fast in Echtzeit. Erst danach übernehmen andere Netzwerke: Aufmerksamkeitssysteme lenken den Blick auf den Inhalt, und das Belohnungssystem prüft, ob es sich lohnt, weiterzuschauen. Falls ja, wird der Botenstoff Dopamin ausgeschüttet – ein Signal für Motivation und Erwartung. Das erhöht die Wahrscheinlichkeit, dass wir das Video weiter anschauen. Liken. Kommentieren. Oder ob wir es eben wegwischen.

Genau auf diese Reaktionen sind algorithmische Feeds optimiert: Sie lernen sekündlich, welche Inhalte gerade bei uns Interesse, Freude oder Wut auslösen. Soziale Netzwerke, vor allem Instagram, X und Tiktok setzen dabei auf „variable rewards“, also variable Belohnung. Inhalte, die wir als besonders beglückend empfinden, kommen manchmal erst nach zehn Videos. Oder nach zwei. Oder nach fünf. Die Forschung nennt das den „Slot-Machine-Effekt“: Wie beim Glücksspielautomaten weiß man nie, wann der nächste Gewinn kommt. Das Gehirn erwartet ständig, dass der nächste Inhalt der beste sein könnte. Der Algorithmus hält seine Nutzer wie Glücksspieler am Bildschirm.

Ob ein Post wahr ist, ob er ausgewogen, fair, sachlich oder konstruktiv ist, zählt nicht. Sondern nur die Frage: Wie wird der Nutzer den Inhalt finden? Alles, was seine Aufmerksamkeit nicht bindet, ist schlecht fürs Geschäft, weil dann keine Werbung eingeblendet werden kann.

Emotion zählt, sonst nichts

Die Tech-Konzerne schweigen weitgehend darüber, wie ihre Algorithmen funktionieren. Immerhin hat Elon Musks Netzwerk X seinen Algorithmus im Januar 2026 offengelegt – zumindest teilweise. PRO hat den Code unter die Lupe genommen. Herzstück ist das Modul „Phoenix“. Es analysiert den Nutzer mithilfe der KI „Grok“ bis ins Kleinste: sein bisheriges Verhalten, seine Inter­essen, die Inhalte, die er gut oder schlecht fand. Aus all diesen Informationen prophezeit „Phoenix“, wie der Nutzer auf den Post wohl reagieren würde. Und zwar hoffentlich mit „Engagement“ – also indem der Nutzer einen Post liket, teilt oder kommentiert. Andere große Plattformen funktionieren ähnlich. Emotion zählt, sonst nichts. Seriöser Journalismus oder differenzierte, gar zweifelnde Posts bleiben dabei auf der Strecke: zu langweilig.

„Wer mehr Social Media nutzt, hat tendenziell weniger Vertrauen in Medien und Politik und denkt stärker in Lagern.“

Philipp Lorenz-Spreen

Social Media wird dadurch zum Schlachtfeld um Aufmerksamkeit: Junge Frauen filmen sich beim Weinen, sendungsbewusste Aktivisten schreien mit weit aufgerissenen Augen ihre Thesen in die Kamera, Populisten links wie rechts teilen Videoschnipsel, die ihren politischen Gegner aussehen lassen wie der Staatsfeind Nummer Eins – und das berührende Tierbaby-Video darf natürlich auch nicht fehlen. Soziale Medien werden durch immer ausgeklügeltere Algorithmen zu reißerischen Boulevard-Medien unserer Zeit. Was macht diese Dauer-Emotionalisierung mit der Gesellschaft?

Der Komplexitätsforscher Philipp Lorenz-Spreen von der TU Dresden untersucht seit Jahren, wie Social-Media-Algorithmen öffentliche Debatten verändern. In einer Forschungsarbeit wertete sein Team 496 Studien aus. Das Ergebnis ist eindeutig: „In der Großzahl der Studien finden wir Zusammenhänge: Wer mehr Social Media nutzt, hat tendenziell weniger Vertrauen in Medien und Politik und denkt stärker in Lagern“, sagt Lorenz-Spreen im Gespräch mit PRO.

Für populistische Parteien sind Soziale Medien die perfekten Werkzeuge. Heidi Reichinnek führte die Linke 2025 fast im Alleingang aus dem Umfragetief in den Bundestag. Ihr Erfolgsrezept: emotionale, schnelle Videos gegen soziale Ungleichheit und gegen Reiche. Attacke statt Argumente. Für Tiktoks Algorithmus ein Traum: Reichinneks Videos gingen regelmäßig viral, sie erreichte Millionen Menschen, vor allem junge.

Die Wahrhaftigkeit leidet

Die AfD setzt auf Social Media noch stärker auf negative Gefühle. So gut wie alle Posts zielen darauf ab, einen Keil zwischen Regierung, Medien und Volk zu treiben, indem die Partei Zorn gegenüber alle möglichen Gruppen und Personen befeuert: Muslime, den Bundeskanzler, die Ukraine, die EU. Mit Erfolg: Obwohl sie zum Beispiel auf X nur etwas mehr Follower hat als die CDU, erzielt sie ein Vielfaches ihrer Reichweiten. Auf Tiktok ist das Bild noch deutlicher. Knalliges kommt an.

Die eigentliche Gefahr liegt aber tiefer: Wenn Plattformen vor allem das belohnen, was emotional zündet, leidet nicht nur die Debattenkultur. Sondern auch die Wahrhaftigkeit. Algorithmen machen Menschen nicht direkt zu Radikalen oder Extremisten, so der Forscher Lorenz-Spreen. Aber sie verändern die Informationsumgebung – und damit die Wahrscheinlichkeit, welche Stimmen besonders laut werden.

Welche Inhalte besonders viel Aufmerksamkeit erzeugen, lasse sich aus der Psychologie gut erklären. Menschen reagierten besonders stark auf negative Informationen, Bedrohungen oder Konflikte. Auch Botschaften, die stark auf Gruppengegensätze setzten – etwa das Schema „wir gegen sie“ – erzielten besonders hohe Aufmerksamkeit.

Algorithmen als „Strukturen der Sünde“

Die Plattformen selbst stellten sich gern als neutrale Vermittler dar und argumentierten, letztlich entscheide nur das Verhalten der Nutzer darüber, welche Inhalte erfolgreich seien. Lorenz-Spreen fordert, dass Plattformanbieter ihre Algorithmen offenlegen.

Die katholische Moraltheologin Anna Scheid von der Duquesne University in Pittsburgh, Pennsylvania, hat für Algorithmen eine andere Bezeichnung: „Strukturen der Sünde“.  Den Begriff prägte Papst Johannes Paul II. 1987, er meinte damit gesellschaftliche Systeme, die aus persönlichen Sünden entstehen und wiederum neue Sünden befördern. Zwei sündhafte Grundhaltungen würden solche Strukturen erzeugen: die ausschließliche Gier nach Profit und das Verlangen nach Macht um, anderen den eigenen Willen aufzuzwingen.

Wie Social-Media-Algorithmen die Wirklichkeit verengen

1.  Algorithmus schlägt Content vor: vor allem emotionalen (Empörung, Angst, Begeisterung)2.  Nutzer reagiert auf Content (anschauen, weiterscrollen, liken, kommentieren)

3.  Algorithmus lernt mit jeder Aktion dazu, was dem Nutzer gefällt

4.  Die vorgeschlagenen Inhalte werden mit der Zeit immer einseitiger, radikaler, emotionaler

5.  Der Blick des Nutzers auf die Welt verengt sich

Die Theologin Scheid erkennt diese „Strukturen der Sünde“ in digitalen Plattformen wieder. Aus Profitgier hätten Tech-Konzerne Algorithmen entwickelt, mit denen sie Nutzer süchtig machen, und sie würden es bewusst in Kauf nehmen, dass sie Empörung und Desinformation verstärken. Am Ende seien dadurch Demokratie, Sicherheit und Frieden in Gefahr. Kritisch sieht die Theologin auch, dass die Plattformen den Blick der Nutzer auf die Wirklichkeit bewusst verzerren, weil jeder „einen eigenen Ausschnitt aus der Realität präsentiert bekommt, der nur ein Ausschnitt der objektiven Wirklichkeit ist“.

Wenn Algorithmen die einzelnen Nutzer immer besser mit dem versorgen, was sie hören und sehen wollen, werden sie immer weniger von abweichenden Meinungen belästigt – stattdessen werden sie bestärkt. Dabei geht es bei weitem nicht nur um Politik, sondern um alle Bereiche des Lebens: Wissenschaft, Beziehungen, Glaube, Gesundheit. Eine Biologieprofessorin, die aus intellektueller Redlichkeit vorsichtig formuliert, kann sich in Sozialen Medien schwerer durchsetzen als ein Hobbybiologe, der im Brustton der Überzeugung wissenschaftliche Themen erklärt, weil er sich im Netz dazu „weitergebildet“ hat.

ADHS auf Tiktok: Schwere Mängel

Wenn Menschen sich über bestimmte Themen auf Social Media informieren, bekommen sie also kein umfassendes Bild – sondern nur den Ausschnitt, der ihnen höchstwahrscheinlich den nächsten Dopamin-Kick beschert. Die Folge: Sie werden sich ihrer Positionen sicherer, obwohl sie häufig eher einseitig informiert werden. Weil sie hören, was sie hören wollen.

Besonders gut zu beobachten ist das beim Thema mentale Gesundheit. Auf Plattformen wie Tiktok und Instagram kursieren unzählige Videos über ADHS, Autismus, Traumata, Transgender oder „toxische Beziehungen“. Sie kommen teils von echten Experten, aber auch von Influencern mit eher oberflächlichem Wissen, dafür aber großem Kommunikationstalent.

Wie sehr Reichweite und fachliche Qualität auseinanderklaffen, zeigt eine 2025 in „Plos One“ veröffentlichte Studie der Psychologin Vasileios Karasavva und Kollegen. Sie analysierten die 100 meistgesehenen Tiktok-ADHS-Videos – zusammen fast eine halbe Milliarde Aufrufe. Ergebnis: Weniger als 50 Prozent der enthaltenen Aussagen waren fachlich korrekt.

In mehr als 95 Prozent der Videos wurde nicht darauf hingewiesen, dass die Aussagen nicht auf alle Menschen mit ADHS zutreffen oder auch auf Menschen ohne ADHS zutreffen können, schreiben die Autoren: „Einige Content-Ersteller verfolgen möglicherweise einfach das Ziel, ihre persönlichen, idiosynkratischen Sichtweisen und eigenen Erfahrungen zu teilen, die sie mit ADHS in Verbindung bringen.“

Die Dosis macht das Gift

Die Psychologin Esther Bockwyt, Autorin des Buchs „Alles toxisch, oder was?“, sieht diese Entwicklung kritisch. In der Psychologie sei es nämlich oft wesentlich weniger eindeutig, als Mental-­Health-Influencer auf Social Media suggerieren. Zwar findet sie es grundsätzlich gut, dass auf Social Media bestimmte psychische Erkrankungen nicht mehr das Stigma von früher haben – und dass Betroffene Hilfe bekommen.

Aber: „Die Dosis macht das Gift“, gibt sie in einem Interview der „Welt“ zu bedenken. Bockwyt erkennt in den Botschaften von Influencern einen „Dreiklang der Pop-Psychologie“: „Hör auf, weh zu tun; gib mir, was ich will; mach mich stärker!“ Das spreche auch „primitive und narzisstische Bedürfnisse“ an. Insgesamt werde das Selbst aufgewertet – und die Mitmenschen im eigenen Umfeld abgewertet. Psychologische Themen im Netz werden zur Identitätskulisse: Ohne es zu wissen, suchten Nutzer nicht mehr nach der Wahrheit über sich selbst, sondern nach Bestätigung. Algorithmen liefern sie. Und beeinflussen, ohne dass wir es merken, immer stärker auch die intimsten Bereiche, wie wir glauben, hoffen – und auch lieben.

Der kanadische Informatiker George Shao hat sich die Mühe gemacht, die Reddit-Untergruppe „relationshipadvice“ (Beziehungsratschläge) zu untersuchen. Reddit ist eine stark wachsende Plattform, in denen sich Nutzer meist anonym austauschen. Zum Beispiel eben, um sich von anderen Menschen anonym Tipps für ihre Probleme in der Paarbeziehung zu holen. Mithilfe einer aufwendigen Datenanalyse untersuchte Shao, welche Art Tipps in den fünf Millionen Posts und 52 Millionen Kommentaren zwischen 2009 und 2024 wie häufig genannt wurden. Immer seltener bekamen Menschen in Beziehungsproblemen Tipps, wie sie Beziehung retten können: Ratschläge wie „offen kommunizieren“, „Raum und Zeit geben“ oder auch „Kompromisse eingehen“ brachen in dem Zeitraum jeweils fast um die Hälfte ein, während „Grenzen setzen“ immer häufiger geraten wurde.

Mit Abstand am stärksten, von 29 auf fast 48 Prozent aller Ratschläge, stieg aber ein anderer: „Beziehung beenden“. Natürlich ist die Analyse nur ein Ausschnitt aus der Digitalwelt. Aber ein wichtiger. Denn Reddit-Foren werden seit einem großen Update von Google bevorzugt in den Suchergebnissen angezeigt. Und ChatGPT und Co. nutzen Reddit zum Training der eigenen Sprachmodelle. Selbst wer nie auf Reddit war, kann diese Denkweise am Ende trotzdem wieder hören: in Google-Suchergebnissen, in Social-Media-Diskursen, womöglich sogar im Gespräch mit einer KI.

Macht Social Media glücklich?

Instagram und Co. versorgen uns permanent mit Glückshormonen. Aber macht uns das auch glücklich? Nein, sagt der jüngst erschienene „World Happiness Report“: Demnach macht hohe Social-Media-Nutzung sogar unglücklich. Das heißt aber nicht, dass digitale Plattformen immer unglücklich machen. Whatsapp und – in Teilen – Facebook, könnten sogar hilfreich sein, solange man sie dazu nutze, mit Anderen in Kontakt zu kommen. Aber: „Algorithmische Plattformen wie X, Instagram und Tiktok sind mit negativen Effekten verbunden, vor allem im Blick auf emotionale und psychische Gesundheit.“

KI-Systeme werden zunehmend zu einer Art digitalem Gegenüber, zu einer Person, der man vertrauen kann, weil sie viel weiß und Erfahrung hat. Ein Trugschluss. Denn tatsächlich verbergen sich hinter ChatGPT, Gemini und Claude rein statistische Modelle: Sie berechnen, welches Wort am wahrscheinlichsten als nächstes kommt. Wie gut sie darin sind, hängt von ihren Trainings ab. Eine große Rolle spielt dabei der Prompt: Wie man in die KI hineinruft, so ähnlich schallt es heraus. Das kann jeder testen, der die KI mit einem in Whatsapp ausgetragenen Konflikt füttert, und zwar in zwei unabhängigen Chats. Im einen gibt man sich als Person A aus, in dem anderen als Person B, jeweils mit der Frage: „Habe ich mich in dieser Diskussion richtig verhalten?“. Mit hoher Wahrscheinlichkeit beginnt die KI mit Bauchpinseln: „Ich sehe deine Verletzung, und du hast versucht, dich sehr fair zu verhalten. Es ist verständlich, dass du dich von Person B verletzt fühlst.“ Im umgekehrten Fall gibt sie Person A recht. Echten Widerspruch äußern die meisten KIs selten, sobald der Nutzer persönlich betroffen ist.

Auch auf Social Media spielen KI-generierte Inhalte eine immer größere Rolle. Algorithmen filtern die Welt, die KI erschafft sie: passgenau, plausibel, emotional treffend. Und im Zweifel frei erfunden: Hungernde Kinder, die es nicht gibt. Pferde beim Skispringen. Gefälschte Kriegs-Videos. Alles, was uns bewegt, ist gut. Kaum eine Plattform tut wirklich etwas gegen die massenhaften Fakes. Es sind schlicht zu viele.

Vertrauen wird wichtiger

Das führt zu einem Dilemma. Denn nie zuvor hatten Menschen so leichten Zugang zu so viel Information. Und noch nie war es schwerer, Wahrheit von Lüge zu unterscheiden, Wunsch von Wirklichkeit, Meinung von Fakten. Wem kann man da überhaupt noch glauben?

„Ganz neu ist das Problem nicht“, sagt Christian Sterzik, Leiter der Stabsstelle Digitalisierung der Evangelischen Kirche in Deutschland. „Schon in der Reformationszeit wurde die Öffentlichkeit durch Holzschnitte und Pamphlete manipuliert.“ Neu sei aber die technische Qualität und Leichtigkeit, mit der sich Bilder, Videos und andere Inhalte heute erzeugen ließen. Gerade deshalb komme es in Zukunft stärker auf „vertrauenswürdige Marken“ an. Medienhäuser oder auch einzelne Personen könnten Vertrauen aufbauen, weil hinter ihnen Menschen stünden, „die sich auch verantworten müssen“. Solche Marken und Netzwerke, so Sterzik, könnten helfen, die Verunsicherung ein Stück weit zu begrenzen.

Vor diesem Hintergrund zeichne sich eine Verschiebung ab, argumentiert der Forscher Lorenz-Spreen. In einer Medienwelt, in der Inhalte immer leichter manipuliert oder künstlich erzeugt werden könnten, würden Reputation und Glaubwürdigkeit einer Quelle immer wichtiger. Mit anderen Worten: In Zukunft könnte weniger entscheidend sein, was gesagt wird. Sondern vor allem, wer es sagt. Man glaubt, wem man vertraut.

Die katholische Theologin Anna Scheid belässt es nicht bei der Diagnose digitaler „Strukturen der Sünde“, die am Ende Wahrheit und Frieden schreddern. Stattdessen fordert sie eine „Kultur der Begegnung“: Schluss mit digitaler Selbstbestätigung. Dafür Begegnung mit echten Menschen, die uns bereichern, aber auch herausfordern, irritieren, korrigieren. Menschen, die Gott uns ins Leben stellt. Und nicht der Algorithmus.

Der Artikel ist erstmals in der Ausgabe 2/2026 des Christlichen Medienmagazins PRO erschienen. Das Heft können Sie hier kostenlos bestellen.

Helfen Sie PRO mit einer Spende
Bei PRO sind alle Artikel frei zugänglich und kostenlos - und das soll auch so bleiben. PRO finanziert sich durch freiwillige Spenden. Unterstützen Sie jetzt PRO mit Ihrer Spende.

Ihre Nachricht an die Redaktion

Sie haben Fragen, Kritik, Lob oder Anregungen? Dann schreiben Sie gerne eine Nachricht direkt an die PRO-Redaktion.

PRO-App installieren
und nichts mehr verpassen

So geht's:

1.  Auf „Teilen“ tippen
2. „Zum Home-Bildschirm“ wählen