Die EU-Kommission geht unter dem Digital Services Act zunehmend gegen rechtswidrige Geschäftspraktiken der großen Online-Plattformen vor. Auf TikTok und Instagram folgen Pornhub und das soziale Netzwerk Snapchat. Im Zentrum steht dabei nicht mehr nur die Frage einzelner Inhalte, sondern das Design der Dienste selbst – von Einstellungen zur Privatsphäre bis zur Altersfreigabe.
Die Vorwürfe: Snapchat schützt minderjährige Nutzer:innen nicht vor möglichen Missbrauch durch Erwachsene und gesundheitsschädlichen Produkten. Pornhub und drei weitere Anbieter hindern Minderjährige nach Ansicht der Aufsichtsbehörde nicht ausreichend daran, auf ihre pornographischen Inhalte zuzugreifen.
Die zunehmende Anzahl an DSA-Verfahren gegen große Plattformen – es gibt auch Verfahren gegen Shein, TikTok und Meta (Instagram und Facebook) – markieren eine regulatorische Verschiebung. Der Schutz von Kindern und Jugendlichen im Netz ist nur nur Aufgabe von Eltern und Schulen, sondern zunehmend als strukturelle Verantwortungen der Plattformen selbst.
Was ist der Digital Services Act?
Der „Digital Services Act“, auf deutsch „Gesetz über digitale Dienste“ ist das zentrale Instrument der europäischen Plattformregulierung. Der DSA soll sicherstellen, dass digitale Dienste vertrauenswürdig gestaltet sind und verbraucherschutzrechtliche Standards respektieren. Der DSA verpflichtet Online-Marktplätze und soziale Netzwerke wie Snapchat dazu, Risiken für die Grundrechte der Nutzer:innen zu minimieren, einfache Meldewege für illegale Inhalte und Dienstleistungen anzubieten und diese schnell zu entfernen. Nutzer:innen sollen außerdem besser verstehen können, warum ihnen die Algorithmen der Plattformen bestimmte Inhalte empfehlen oder Werbung anzeigen. Mit dem DSA stärkt die EU ihr bisheriges, vor allem im analogen Geschäftsalltag geltendes Recht zum Verbraucherschutz und rüstet es für das digitale Zeitalter.
Sehr große Plattformen unterstehen der direkten Aufsicht der EU-Kommission und müssen besonders sorgfältig die Risiken prüfen, die sich aus dem Design, der Funktionsweise oder der Nutzung des Dienstes ergeben. Mit mehr als 45 Millionen monatlich aktive Nutzer:innen zählen drei der vier genannten Pornoseiten zu den sehr großen Plattformen. Auch das soziale Netzwerk Snapchat zählt die EU-Kommission mit über 100 Millionen monatlich aktiven Nutzer:innen als sehr große Plattform.
Wie sich die neuen EU-Digitalgesetze auf die Praxis auswirken und welche Anpassungen der Geschäftsmodelle notwendig sind, wird die Rechtspraxis zeigen. Über die Jahre werden Aufsichtsbehörden und Gerichte die neuen Vorschriften mit Leben füllen: Sie entscheiden anhand von Einzelfällen darüber, wie die unbestimmten Rechtsbegriffe auszulegen und auf die digitalen Funktionsweisen digitaler Dienste anzuwenden sind.
Das Verfahren gegen den Messenger-Dienst Snapchat
Snapchat ist eine Messenger-Dienst, über den Nutzer:innen Fotos, kurze Videos und Textnachrichten austauschen können. Die Plattform ist vor allem bei Jugendlichen beliebt und gehörte 2025 neben Whatsapp und Instagram zu den drei wichtigsten Apps. Sie wird von vielen Jungen und Mädchen in Deutschland mindestens einmal täglich verwendet.
In 5 Minuten up to date
1× pro Woche die Top-Themen der letzten sieben Tage und die spannendsten Fundstücke als Newsletter.
Die Kommunikation auf Snapchat ist spontan und flüchtig. Nachrichten verschwinden standardmäßig kurz nach dem Anschauen. Anders als soziale Netzwerke wie Instagram, TikTok oder X (ehemals Twitter) sind Profile auf Snapchat nicht in gleicher Weise sichtbar wie auf Instagram, sondern auf den direkten Kontakt mit Anderen ausgerichtet. Damit ähnelt der Dienst einem Tagebuch, bei dem Nutzer:innen Ausschnitte ihres Lebens temporär mit Freund:innen teilen.
Rechtlicher Maßstab der EU-Kommission
Das Geschäftsmodell von Snapchat gleicht die EU-Kommission nun vor allem mit den Vorgaben in Artikel 28 des DSA ab. Die Vorschrift verpflichtet Plattformen dazu, innerhalb ihres Dienstes für „ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen (...) zu sorgen. Die rechtliche Vorgabe ist im DSA sehr allgemein formuliert. Die Leitlinien zum Jugendschutz von 2025 helfen bei der Konkretisierung, behandeln aber auch nicht alle denkbaren Fragen. Die EU-Kommission prüft jetzt den Sachverhalt und wendet die Vorschriften des DSA auf den konkreten Fall an.
In dem Verfahren gegen Snapchat geht sie dem Verdacht nach, dass die Plattform jugendliche Nutzer:innen in fünf Bereichen möglichen Risiken aussetzt.
1. Selbstauskunft über das Alter auf Snapchat ist unzureichend
Laut den Nutzungsbedingungen bei Snapchat müssen Nutzer:innen mindestens 13 Jahre alt sein. Um dies zu überprüfen, muss man bei der Anmeldung sein Geburtsdatum angeben. Für Jugendliche unter 17 Jahren gibt es besondere Sicherheits- und Datenschutzeinstellungen. Sie können beispielsweise nur mit Accounts kommunizieren, die sich gegenseitig als Freunde akzeptiert haben oder deren Nummer sie auf ihrem Smartphone abgespeichert haben. Diese Sicherheitsmaßnahme reichen aus der Sicht der EU-Kommission nicht aus, um zu verhindern, dass sich auch Kinder auf der Plattform anmelden oder dass junge Nutzer:innen sich älter machen als sie eigentlich sind. Nach den aktuellen DSA-Leitlinien gilt eine reine Selbstauskunft nicht als zuverlässige Altersverifikation.
2. Gefahr von Grooming und dem Anwerben für kriminelle Aktivitäten
Die Kommission vermutet, dass die App Jugendliche nicht ausreichend vor Nutzer:innen mit schädlichen Absichten schützt. Beim sog. Grooming geben sich Erwachsene durch falsche Angaben beim Geburtsdatum auf einer Plattform als Jugendliche aus, um das Vertrauen vermeintlich Gleichaltriger zu gewinnen. Jugendliche können so sexualisierter Gewalt und Ausbeutung ausgesetzt sein. Ein britischer Polizist hat über Jahre hinweg über hundert junger Mädchen auf Snapchat angeschrieben, zu sexualisierten Bildern gedrängt und sie damit erpresst, wie Reuters berichtete. Teilweise werben Täter:innen Minderjährige für illegale Aktivitäten an. Kriminelle Banden in London sollen über Snapchat Jugendliche für Handydiebstähle rekrutieren.
Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.
Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.
3. App lässt Werbung für verbotene oder altersbeschränkte Produkte zu
Laut EU-Kommission schlägt Snapchat minderjährigen Nutzer:innen mitunter illegale oder gesundheitsschädigende Produkte wie Alkohol, Zigaretten oder anderen Drogen vor. Letztes Jahr berichteten mehrere niederländische Gesundheitsorganisationen von einem Parallelmarkt für E-Zigaretten und Nikotinbeutel auf Snapchat. Die Jugendlichen nutzten Codewörter und Emojis, um Schutzmechanismen auf der App zu umgehen und mit Händlern in Kontakt zu treten.
Plattformen müssen solche Inhalte nach dem DSA jedoch so moderieren, dass diese bestenfalls gar nicht erst angezeigt werden. Sollte das doch der Fall sein, müssen Nutzer:innen sie einfach melden können und die Plattform diese dann schnell entfernen. Die Kommission geht nun offenbar davon aus, dass Snapchat hinter den gesetzlichen Vorgaben zurückbleibt.
4. lllegale Inhalte lassen sich schwer melden
Die EU-Kommission vermutet, dass Snapchat die in der App verankerten Mechanismen, um illegale Inhalte zu melden, generell weder leicht zugänglich noch besonders benutzerfreundlich ausgestaltet hat. Genau das müssen digitale Dienste laut DSA jedoch sicherstellen.
Der DSA gibt auch vor, dass App-Nutzer:innen selbst erfahren müssen, wie sie sich gegen die Entscheidungen der Inhaltsmoderation wehren können. Wenn eine Nutzerin beispielsweise einen in ihren Augen unangemessenen Inhalt meldet und Snapchat diesen Hinweis ablehnt, so muss die Plattform diese Entscheidung begründen.
Außerdem muss Snapchat Nutzer:innen darüber aufklären, wie sie intern Beschwerde gegen die Entscheidung der App einlegen können, in welchen Fällen das möglich ist und welche Möglichkeiten es außer einer internen Beschwerde noch gibt. Die Plattform muss nun darlegen, wie sie solche Abläufe genau strukturiert hat.
5. Keine voreingestellten Schutzmechanismen wie es der DSA fordert
Die Kommission hält nicht nur einzelne Schutzfunktionen für zu schwach. Bereits die Werkseinstellungen für Minderjährige weisen offenbar Mängel auf und bleiben hinter dem hohen EU-Standard zurück. Der DSA verlangt, dass digitale Dienste für Minderjährige von Anfang an ein hohes Niveau an Privatsphäre, Sicherheit und Schutz gewährleistet. Dazu gehört, dass Jugendliche die Kontrolle darüber haben, wer sie finden oder kontaktieren kann. Kinder und Jugendliche müssen bei Snapchat offenbar selbst erst aktiv solche Schutzmaßnahmen einschalten. Funktionen wie „Freunde finden“ sind standardmäßig aktiviert. Wenn Kinder und Jugendliche automatisch anderen Nutzer:innen vorgeschlagen werden, erhöht das die Gefahr, von Fremden entdeckt und kontaktiert zu werden.
In 5 Minuten up to date
1× pro Woche die Top-Themen der letzten sieben Tage und die spannendsten Fundstücke als Newsletter.
Auch Funktionen, die eine exzessive Nutzung fördern, sollen auf ein Minimum reduziert oder standardmäßig deaktiviert sein. Darunter fallen zum Beispiel suchtfördernde Einstellungen wie Push-Benachrichtigungen, die Nutzende immer wieder auf die Plattform zurückholen. Im Visier der der EU-Kommission ist möglicherweise auch die Streak-Funktion von Snapchat. Wer täglich in privaten Chats Fotos und Videos an andere Nutzer:innen verschickt, verlängert mit jedem weiteren Tag seine Streaks, auf Deutsch ‚Strähne‘. Nutzer:innen kommen täglich wieder, nicht weil sie etwas brauchen, sondern um ihre Strähnen nicht zu verlieren. Eine belgische Studie hat gezeigt: Je mehr Jugendliche diese Strähnen pflegen, desto stärker ist der Zusammenhang mit problematischer Smartphone-Nutzung.
EU-Kommission muss nun Beweise sammeln
Auslöser für das Snapchat-Verfahren waren Ermittlungen der niederländischen Marktaufsichtsbehörde ACM wegen des Verkaufs von Vapes an Minderjährige. Brüssel wertete das als mögliches strukturelles Risiko der Plattform und weitete die Ermittlungen auf Schutzmaßnahmen für Minderjährige generell aus. Die EU-Kommission wird nun weitere Beweise sammeln. Schon im November 2023 hatte die Behörde Informationen zu Schutzmaßnahmen für Minderjährige verlangt. Im Oktober 2024 folgte eine weitere Anfrage zu den Empfehlungssystemen und den damit einhergehenden Risiken für das Wohlbefinden von Nutzer:innen und die Verbreitung illegaler Inhalte.
Eine Sprecherin des Unternehmens Snap Inc., dem die Snapchat-App gehört, kündigte an, mit der Kommission zusammenzuarbeiten: „Die Sicherheit und das Wohlergehen aller Snapchatter haben für uns oberste Priorität, und unsere Teams arbeiten seit Jahren daran, die Sicherheitsstandards weiter zu verbessern.“
Wichtiger Präzedenzfall für die künftige Rechtspraxis
Mit Snapchat geht die EU-Kommission gegen eine wichtige Online-Plattform vor, die gerade bei jungen Menschen sehr beliebt ist. Das US-Unternehmen ist zwar börsennotiert, aber nicht so groß und mächtig wie die Big-Tech-Unternehmen Meta, Google, Amazon oder Microsoft. Das macht den Gegenwind aus der US-Regierung vermutlich geringer. Das Verfahren wird von weitaus weniger öffentlicher Aufregung begleitet als Maßnahmen gegen X von Elon Musk oder TikTok, der Videoplattform, die bei Wahlentscheidungen eine immer zentralere Rolle spielt. Das kann im besten Fall der Sachlichkeit und Gründlichkeit dienen.
Die rechtlichen Fragen im Snapchat-Verfahren haben es aber zugleich in sich - und könnten einen Präzedenzfall für die gesamte App-Industrie schaffen. Die Digitalwirtschaft wird versuchen, möglichst klare und verbindliche Vorgaben zu umschiffen, und ihr Geschäftsmodell weitgehend zu retten.
Die Frage, wie die Vorschriften des DSA zum Jugendschutz auf Social-Media-Apps genau auszubuchstabieren sind, ist eine der kompliziertesten Fragen für die künftige Rechtsanwendung. Die Big-Tech-Lobby wird ganz genau hinschauen, wie die EU-Kommission nun gegen Snapchat argumentiert und strategisch vorgeht. Für Snapchat ist es die Chance, sich als Vorreiter von jugendgerechten Apps zu positionieren - wenn die Investoren mitmachen. Sollte die EU-Kommission Snapchat aber beispielsweise zu einer bestimmten Form der Altersverifikation verpflichten, hätte das eine Signalwirkung für ganz viele Online-Plattformen.
Das Verfahren gegen Porno-Plattformen
Die Frage der Altersverifikation spielt auch im DSA-Verfahren gegen die Porno-Plattformen Pornhub, Stripchat, XNXX und XVideos eine zentrale Rolle. Die Ermittlungen sind in dem Fall bereits weiter fortgeschritten als bei Snapchat. Die EU-Kommission kommt zu dem vorläufigen Ergebnis, dass die Anbieter gegen das Gesetz über digitale Dienste verstoßen. Maßnahmen wie die Selbstauskunft über das Alter und Inhaltswarnungen reichen nicht aus, um Minderjährige vor dem Zugriff auf pornografische Inhalte zu schützen. Die Versuchung, sich mit einem einfachen Klick auf den „I am 18 years or older“-Button Zugriff auf das gesamte Angebot der Pornoseiten zu verschaffen, ist zu groß.
Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.
Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.
Doch die Rechtsdurchsetzung war bis zum DSA schwierig. Die Landesmedienanstalten sind mit ihrer Forderung nach effektiver Altersverifikation gegenüber Pornhub mit Sitz auf Zypern seit Jahren auf Granit gestoßen - und hoffen nun auch auf ein Machtwort aus Brüssel.
Die EU-Kommission geht nun dem Verdacht nach, dass die Online-Dienste nicht sorgfältig genug untersucht haben, wie Minderjährige auf ihre Seite gelangen, wie sie Sicherheitsmechanismen umgehen und welche Gegenmaßnahmen tatsächlich wirken. Laut EU-Kommission hatten sich die Anbieter vor allem um Reputationsschäden gesorgt, anstatt die Risiken für Nutzer:innen, insbesondere Minderjährige zu prüfen. Die EU-Kommission hat nach dem DSA im Ausnahmefall auch die Option, einzelne Dienste in der EU abzustellen.
Unternehmen droht Geldstrafe von 6 % des weltweiten Umsatzes
Die Vizepräsidentin der EU-Kommission für technologische Souveränität, Sicherheit und Demokratie, Henna Virkkunen, erklärt zu den Verfahren: „In der EU tragen Online-Plattformen eine Verantwortung. Kinder greifen in immer jüngerem Alter auf Inhalte für Erwachsene zu, und diese Plattformen müssen strenge, datenschutzkonforme und wirksame Maßnahmen ergreifen, um Minderjährige von ihren Diensten fernzuhalten.“
Die Porno-Plattformen haben nun die Möglichkeit, die Untersuchungsakten der Kommission einzusehen und auf die Vorwürfe zu antworten. Sollte sich die Bewertung aus Brüssel bestätigen, könnten die Plattformen eine Geldstrafe von bis zu sechs Prozent des weltweiten Umsatzes zahlen müssen.
Eine ähnliche Strafe könnte auch auf die Plattform Snapchat zukommen. Da die Untersuchung gegen das soziale Netzwerk gerade erst gestartet ist, kann es aber noch mehrere Monate dauern, bis die Kommission zu einem vorläufigen Ergebnis kommt.
Anbieter könnten versuchen, mit einer Nachbesserung nach britischem Vorbild auf die Vorwürfe zu reagieren. In Europa hat Großbritannien aktuell eine der strengsten Regelungen. Wer eine pornografische Webseite aufsucht, muss seit letztem Sommer das Alter mit Ausweisdokumenten, Bankdokumenten oder Gesichtsscans nachweisen. Die personenbezogenen Daten werden laut der Plattformen nicht gespeichert. Nachprüfen lässt sich das jedoch nur begrenzt. Sollte die EU-Kommission Plattformen zu strengeren Alterskontrollen verpflichten, dann muss sie jedenfalls auch die hohen Anforderungen des Datenschutzrechts berücksichtigen.
DSA als Regelwerk mit Fokus auf Prävention und Plattformverantwortung
Um Kinder und Jugendliche im Netz besser zu schützen, geht die EU-Kommission aktuell gegen mehrere Plattformen vor. Neben Snapchat laufen auch Verfahren gegen die Kurzvideo-App TikTok und gegen die sozialen Netzwerke Instagram und Facebook, die zum Meta-Konzern von Mark Zuckerberg gehören. Die Dienste stehen vor allem deshalb in der Kritik, weil ihr Design möglicherweise süchtig macht und negative Auswirkungen auf Körper und Psyche haben kann. Der Vorwurf: Sie halten ihre Nutzer:innen so lange auf der Plattform wie möglich, um damit hohe Werbeeinnahmen generieren zu können.
Dass die EU-Kommission in letzter Zeit verstärkt auf den DSA zurückgreift, um gegen große Online-Plattformen vorzugehen, ist ein gutes Zeichen. Es zeigt, dass der Schritt von der Gesetzgebung in die Rechtspraxis endlich vollbracht ist. Dass die EU von ihrem einheitlichen Rechtsrahmen für den Verbraucherschutz im Internet nun verstärkt Gebrauch macht, verdeutlicht außerdem einen grundlegenden Wandel in der Regulierung digitaler Plattformen. Das Wohlbefinden im Netz und die körperlichen und psychischen Auswirkungen von Online-Plattformen auf Nutzer:innen, insbesondere auf Kinder und Jugendliche, wird nicht mehr nur als Frage individueller Medienkompetenz oder elterlicher Aufsicht behandelt, sondern als Frage von Plattformverantwortung und Produktdesign.
Der DSA ist der Versuch, einen Ordnungsrahmen für digitale Geschäftsmodelle zu etablieren, der nicht nur auf die technologische Entwicklung reagiert, sondern Leitplanken für eine gemeinwohlorientierte Datenwirtschaft aufstellt. Im Grundgedanken folgt er der Prämisse, dass es eine präventive Risikogestaltung braucht. Maßnahmen wie das Melden unangemessener Inhalte, Altershinweise oder das nachträgliche Löschen einzelner Beiträge reichen nicht aus, wenn Risiken bereits in die Architektur eines Dienstes eingebaut sind.
Der Regulierungsansatz verschiebt sich damit hin zu einer präventiven Gestaltungspflicht: Plattformen sollen Schutzmechanismen, Transparenz und altersgerechte Voreinstellungen von Beginn an in ihre Dienste integrieren. Dahinter steckt der Zweiklang aus einer Regulierung durch Technikgestaltung „by Design“ und „by Default“.
Dass Brüssel nun mehrere Verfahren gleichzeitig eröffnet und den DSA konsequent anzuwenden versucht, ist eine gute Nachricht. Die EU-Institutionen schließen nicht länger die Augen vor der bewussten Geschäftsentscheidung vieler großer Plattformen, ihre Gewinnmargen und Einflusssphären auf dem Rücken der Verbraucher:innen beständig zu erweitern. Lange haben Anbieter ihre Plattformen exzessiv zur Aufmerksamkeitsbindung und zum Sammeln persönlicher Daten genutzt, um damit möglichst viel Gewinn zu machen. Umso besser, dass die EU-Kommission ihr Verbraucher- und Präventionsorientiertes Regelwerk auch einsetzt. Wenn die Plattformen nicht freiwillig einlenken, sollte sie ihren Forderungen mit hohen Bußgeldern Nachdruck verleihen. Ob ihr das auch unter dem Druck von Big Tech und der Trump-Regierung gelingt, wird die Zukunft zeigen.
In 5 Minuten up to date
1× pro Woche die Top-Themen der letzten sieben Tage und die spannendsten Fundstücke als Newsletter.