Bereits die Gründungsgeschichte von Facebook ist skandalumwittert, wie der Film „The Social Network“ im Jahr 2010 zeigte. Nach der Übernahme des Messenger-Dienstes WhatsApp und der Social-Media-Plattform Instagram entstand der Großkonzern, der 2021 in Meta umbenannt wurde. Als börsennotiertes Unternehmen liegt Metas Fokus auf Wachstum und Profit. Dazu müssen die Nutzer:innen möglichst viel Zeit auf den Plattformen verbringen, damit sie mehr Werbung ausgespielt bekommen. Meta verdient Milliarden mit Werbung, die den Nutzern möglichst zielgenau gezeigt wird. Dafür sorgen Algorithmen, die das Verhalten, die Interessen und demografischen Daten der Nutzer individuell analysieren und dementsprechend Inhalte bereitstellen. „Für Werbetreibende ist das natürlich interessant, weil es deutlich weniger Streuverluste gibt als bei herkömmlichen Werbekampagnen“, erklärt Götz Schartner vom Verein Sicherheit im Internet, einem der Mitveranstalter von SpardaSurfSafe.
Diesem Interesse, möglichst viel mit Werbeschaltungen zu verdienen, entgegen steht das Bedürfnis der User nach Sicherheit, vor allem in Hinblick auf Hassrede, Desinformation und die psychische Gesundheit. „Hier kann Meta durchaus aktiv werden und derartige Inhalte sperren – doch das tut das Unternehmen nicht, zumindest nicht in dem Maße, in dem es möglich und sinnvoll wäre“, führt Schartner weiter aus. Hintergrund dieser Aussage sind Enthüllungen von Frances Haugen, einer ehemaligen Mitarbeiterin von Meta und Whistleblowerin, die bereits 2021 darlegte, dass der Konzern bekannte Probleme nicht löst, um seine Gewinne nicht zu gefährden.
Auch mittlerweile bekannt gewordene, unternehmensinterne Untersuchungen werden gerne ignoriert. Diese hatten festgestellt, dass Instagram Jugendlichen, insbesondere Mädchen, schaden kann, indem die exzessive Nutzung der Plattform die psychische Gesundheit gefährdet. Wie Frances Haugen berichtete, erhöhe Instagram bei einigen jungen Menschen die Gefahr von Essstörungen oder schlechter Selbstwahrnehmung. Das liege daran, dass auf der Plattform häufig perfekte (und oft unrealistische) Bilder von Models, Influencern oder anderen Nutzer:innen gezeigt würden. Jugendliche vergleichen sich dann mit diesen scheinbar perfekten Leben und fühlen sich unglücklich oder weniger wert.
Das allein wäre für viele Verbraucherschützer bereits Grund genug, die Nutzung der Sozialen Medien einzuschränken oder zumindest gewisse Schutzvorkehrungen zu treffen. Doch Meta macht sich diese Erkenntnisse sogar zunutze, indem Beiträge ausgespielt werden, die genau diese Gefühle verstärken und mit ihnen spielen. „Es reicht, wenn man einmal nach Beiträgen zu Diäten gesucht hat, um den Algorithmus dazu zu bringen, immer neue, ähnliche Inhalte vorzuschlagen. Je mehr man mit diesen interagiert, desto radikaler und extremer werden die Vorschläge, bis hin zur Verherrlichung von Essstörungen oder der Bewerbung von dubiosen Diätpillen“, warnt der Experte.
Ein ebenso großes Problem ist das Thema Desinformation, in den Medien oft auch als Fake News bezeichnet. Insbesondere bei politischen Themen, die die Gesellschaft spalten, Konflikte schüren und die Radikalisierung mancher Nutzer:in befeuern, halten Experten Metas Vorgehen für problematisch. „Jeder kann auf Instagram oder Facebook posten, was er will. Je kontroverser der Inhalt ist, desto schneller verbreitet er sich, da der Algorithmus die Interaktionen der User registriert, seien diese nun positiv oder negativ. So verbreitet er sich immer schneller und das bedeutet für Meta wiederum mehr Klicks und damit mehr Geld“, führt Schartner aus.
Je jünger die Nutzer:innen, desto problematischer ist dieser Mechanismus, denn gerade Kinder und Jugendliche lassen sich leichter beeinflussen als Erwachsene. Sie verfügen noch nicht über das nötige Wissen und die Lebenserfahrung, um Fake News als solche zu erkennen und entsprechend einzuordnen. Gleichzeitig können solche Inhalte Ängste und Unsicherheiten auslösen.
Meta selbst beteuert zwar, dass die Vorwürfe nicht stimmten, doch Experten sehen das anders. Selbst wenn Meta künftig – wie angekündigt – strenger gegen Fake News vorgeht, lässt sich kritisieren, dass das Unternehmen zu langsam handelt und längst nicht alle Möglichkeiten ausnutzt, die ihm zur Verfügung stehen. Umso wichtiger ist es, die Medienkompetenz der Jugendlichen zu stärken – ein Ziel, dem sich die Initiative SpardaSurfSafe seit mehr als 14 Jahren verschrieben hat. Denn wer Fake News erkennt und sich klar macht, wie Algorithmen arbeiten, kann sich der Beeinflussung entziehen und bewusste Entscheidungen treffen.
Über SpardaSurfSafe – eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg
Veranstalter und Träger von SpardaSurfSafe ist die Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, die gemeinsam mit dem Kultusministerium Baden-Württemberg und dem Verein Sicherheit im Internet e. V. das Großprojekt im 14. Jahr durchführt. In Kooperation mit den IT-Sicherheitsexperten der 8com GmbH & Co. KG wurde ein Konzept entwickelt, das die Schüler im Rahmen des Unterrichts im Umgang mit den Neuen Medien aufklärt. „SpardaSurfSafe ist für uns ein Herzensprojekt, das wir mittlerweile in 35 verschiedenen Städten in Baden-Württemberg durchgeführt haben. Über 500.000 Teilnehmer konnten seit dem Start von dem Programm profitieren. Dafür bekommen wir durchweg positives Feedback von den Teilnehmern, ob Schüler, Eltern oder Lehrer“, erklärt Patrick Löffler vom Verein Sicherheit im Internet e. V.
8com GmbH & Co. KG
Europastraße 32
67433 Neustadt an der Weinstraße
Telefon: +49 (6321) 48446-0
Telefax: +49 (6321) 48446-29
http://www.8com.de
Pressereferentin
Telefon: +49 (30) 30308089-14
E-Mail: kraus@quadriga-communication.de
Head of Communications
Telefon: +49 6321 484460
E-Mail: redaktion@8com.de