Mittwoch, 1. April 2026

Nationale Social Media-Verbote: deutsche Gutachten sehen massive rechtliche Hürden

In der aktuellen Debatte um den Schutz von Minderjährigen im Internet wird immer wieder gefordert, den Zugang zu Social-Media-Plattformen einzuschränken, ein generelles Mindestalter (wie kürzlich in Australien, geplant auch in Österreich, siehe Ministerratsvortrag) einzuführen oder Plattformen bei Verstößen ganz zu verbieten.

Zwei aktuelle Berichte der Wissenschaftlichen Dienste (WD) des Bundestages – Zur Beschränkung und zum Verbot von Social-Media-Plattformen (WD 7 - 3000 - 004/26) sowie zur Altersbegrenzung für soziale Netzwerke (WD 7 - 3000 - 036/25) – zeigen deutlich, dass strenge nationale Regulierungen wohl nur schwierig rechtssicher umsetzbar sind.

Die Kernargumente beider Berichte im Überblick:

  • Absoluter Vorrang des EU-Rechts: Der europäische Digital Services Act (DSA) regelt digitale Vermittlungsdienste EU-weit vollharmonisiert, um einen einheitlichen Binnenmarkt zu schaffen. Nationale Alleingänge für generelle Plattform-Verbote oder starre Altersgrenzen widersprechen diesem Ansatz, da Mitgliedstaaten keine abweichenden oder ergänzenden Vorschriften im vollharmonisierten Bereich erlassen dürfen.
  • Die Hürde des Herkunftslandprinzips:
    Selbst wenn Deutschland strenge Gesetze verabschieden würde, liefen diese weitgehend ins Leere. Für Diensteanbieter gilt das Herkunftsland- bzw. Sitzlandprinzip. Da die meisten großen Netzwerke (wie Meta, TikTok oder X) ihren europäischen Hauptsitz in Irland haben, unterliegen sie primär den EU-Vorgaben und irischem Recht – und nicht den deutschen Behörden.
  • Sperrungen nur als “Ultima Ratio”: Der DSA sieht kein generelles, unbefristetes Verbot von Plattformen vor. Vorübergehende Zugangssperren sind nur als allerletztes Mittel zulässig, beispielsweise wenn eine andauernde Zuwiderhandlung eine Straftat darstellt, die das Leben oder die Sicherheit von Personen bedroht.
  • Jugendschutz ist bereits integriert: Große Plattformen sind durch den DSA bereits EU-weit zu strukturellen Jugendschutzmaßnahmen verpflichtet, wozu auch Werkzeuge zur Altersüberprüfung gehören. Zusätzliche, abweichende Vorgaben durch deutsches Recht (wie etwa über das Jugendschutzgesetz) werden durch das EU-Recht überlagert.
  • Kollision mit Grund- und Kinderrechten: Ein pauschales staatliches Verbot für jüngere Nutzer greift in das grundgesetzlich geschützte elterliche Erziehungsrecht (Art. 6 Abs. 2 GG) ein, da primär die Eltern entscheiden, welche Medieninhalte sie ihren Kindern zugänglich machen. Zudem würde ein Komplettverbot die in der UN-Kinderrechtskonvention garantierten Rechte auf Information und Teilhabe einschränken.
  • Fokus auf risikobasierte Alternativen: Anstatt auf starre Verbote oder pauschale Altersgrenzen zu setzen, wird im europäischen Rechtsrahmen eher ein risikobasierter Ansatz verfolgt. Im Vordergrund stehen dabei die altersgerechte Gestaltung der Plattformen, die Reduzierung Funktionen, Medienkompetenzförderung sowie strukturelle Vorsorgemaßnahmen.

Die Berichte der Wissenschaftlichen Dienste machen klar: Wer national Social-Media-Plattformen verbieten oder strikte nationale Altersgrenzen einführen will, scheitert wahrscheinlich am EU-Recht. Der Schutz von Kindern und Jugendlichen im Netz wird wohl primär über europäische Regulierungen wie den DSA (siehe als Argumente für DSA-Verfahren 2 US-Urteile zu Big Tech und Kinderschutz) und präventive Schutzmaßnahmen auf den Plattformen selbst erfolgen (siehe zB ​vzbv-Positionspapier).

Tag(s): Social Media

Freitag, 20. Februar 2026

Ausgewählte Entwicklungen zum Digital Services Act (DSA)

Zwei Jahre nach Inkrafttreten des Digital Services Act (DSA) liegen neue Daten zur Durchsetzung und weitere regulatorische Leitlinien vor. Die folgenden Punkte fassen aktuelle Entwicklungen der Implementierung überblicksartig (ohne Anspruch auf Vollständigkeit) zusammen.

Benennung von WhatsApp als „Very Large Online Platform“ (VLOP)

Die Europäische Kommission hat WhatsApp offiziell als sehr große Online-Plattform (VLOP) im Sinne des DSA eingestuft. Aufgrund einer Nutzerzahl von über 45 Millionen in der EU muss der Dienst nun strengere Auflagen erfüllen. Dazu gehören die Identifizierung und Minderung systemischer Risiken sowie die Bereitstellung detaillierter Transparenzberichte.

Quelle: Commission designates WhatsApp as Very Large Online Platform

Schutz von Minderjährigen und Altersverifikation

Die Kommission hat spezifische Leitlinien veröffentlicht, um den Schutz Minderjähriger auf Online-Plattformen zu verbessern. Diese enthalten technische und organisatorische Maßnahmen zur Risikominderung.

Quelle: Guidelines on the protection of minors

Ergänzend dazu weist eine Publikation von interface auf bestehende Defizite bei der Altersverifikation („Age Assurance Gap“) hin. Es wird analysiert, inwieweit aktuelle technische Lösungen den gesetzlichen Anforderungen des DSA entsprechen und wo weiterhin Lücken bei der effektiven Altersprüfung bestehen.

Quelle: Age Assurance Gap (interface)

Bilanz der Inhaltsmoderation

Nach Angaben der EU-Kommission wurden seit Einführung des DSA rund 50 Millionen Moderationsentscheidungen von Plattformen revidiert. Dies geschah infolge von Nutzerbeschwerden und der Nutzung von internen sowie externen Beschwerdemechanismen, die durch das Gesetz verpflichtend eingeführt wurden.

Quelle: Two years of DSA: 50 million content moderation decisions reversed

Koordinierung der Aufsichtsbehörden

Das Europäische Gremium für digitale Dienste (European Board for Digital Services) kam zu seiner 16. Sitzung zusammen. Gegenstand der Beratungen war die Abstimmung zwischen den nationalen Koordinatoren für digitale Dienste und der Kommission, um eine einheitliche Durchsetzung des DSA in allen Mitgliedstaaten zu gewährleisten. Siehe auch den 1. Bericht zu systemischen Risiken und Gegenmaßnahmen

Quellen: Press statement: European Board for Digital Services 16th meeting

First report of the European Board for Digital Services in cooperation with the Commission pursuant to Article 35(2) DSA on the most prominent and recurrent systemic risks as well as mitigation measures

Einleitung von Verfahren und Durchsetzungsmaßnahmen

Die Europäische Kommission hat mehrere förmliche Verfahren zur Prüfung von Verstößen gegen den DSA eingeleitet. Diese betreffen unter anderem die Sorgfaltspflichten beim Umgang mit illegalen Inhalten und die Transparenz von Werbesystemen.

Details zu den einzelnen Verfahren:


Tag(s): DSA