Neues EU-Gesetz: Digital Services Act sorgt für einheitlichen Jugendschutz

News

Seit dem 17. Februar gibt es europaweit einheitliche Anforderungen an den Kinder- und Jugendmedienschutz auf Online-Plattformen. Die EU-Kommission überwacht Online-Dienste mit sehr vielen NutzerInnen innerhalb der EU, also große soziale Netzwerke wie Instagram und TikTok, Messenger wie WhatsApp und Suchmaschinen wie Google, und überprüft, ob die neuen Regelungen eingehalten werden. Das bedeutet für Familien: Auf internationale Unternehmen wird mehr Druck ausgeübt, effektive Schutzmaßnahmen anzubieten und Informationen transparent für Erwachsene und Kinder bereitzustellen.

Eine Teenagerin sitzt auf dem Bett und tippt in ihr Smartphone. Sie hat bunte Nägel und lange, schwarze Haare.
Cottonbro Studio/Pexels

Die bei Kindern und Jugendlichen beliebtesten Plattformen und meistgenutzten Angebote im Internet werden von globalen Unternehmen betrieben: Google gehört dem US-amerikanischen Großkonzern Alphabet, TikTok gehört der chinesischen Firma Bytedance und der US-Konzern Meta betreibt unter anderem Instagram und WhatsApp. Die Durchsetzung deutscher Jugendschutzvorgaben war deshalb bisher gar nicht so leicht. Im Verhältnis zu den weltweiten Nutzungszahlen fallen die deutschen NutzerInnen nicht allzu stark ins Gewicht und es ist schwer, politisch Druck auf die Unternehmen auszuüben.

Seit dem 17. Februar sieht das für Deutschland und alle übrigen EU-Länder anders aus: Ein gemeinsames Gesetz zur Regulierung digitaler Dienste schafft europaweit einheitliche Regelungen zum Schutz der NutzerInnen und sorgt für mehr Durchsetzungskraft gegenüber den Plattformbetreibern. Durch den Digital Services Act (DSA) stehen internationalen Online-Diensten mit durchschnittlich 45 Millionen NutzerInnen pro Monat innerhalb der EU, also soziale Netzwerken wie Instagram und TikTok, Messenger wie WhatsApp und Suchmaschinen wie Google, jetzt unter der Aufsicht der EU-Kommission. Sie überprüft, ob die neuen Regelungen eingehalten werden. Für Eltern ist das deshalb gut, weil die gebündelte Kraft aller EU-Staaten hinter dem neuen Gesetz steht – das bewegt auch internationale Unternehmen dazu, die Vorgaben umzusetzen.

Schutz von Kindern und Jugendlichen im Digital Services Act

Der DSA enthält neben allgemeinen Anforderungen und Regelungen für Online-Plattformen auch spezifische Bestimmungen, die explizit auf den Schutz von Kindern und Jugendlichen abzielen.

  • Kindgerechte AGB
    Plattformen, die sich „in erster Linie” an Minderjährige richten oder überwiegend von ihnen genutzt werden, sind dazu verpflichtet, die Nutzungsbedingungen und potenziellen Einschränkungen für die Nutzung so zu erklären, dass Minderjährige sie verstehen können. Diese Verpflichtung steht im Einklang mit der kinderrechtlichen Perspektive des DSA.
  • Effektive Vorsorgemaßnahmen
    Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, müssen angemessene und verhältnismäßige Maßnahmen ergreifen, um die Privatsphäre, Sicherheit und den Schutz von Minderjährigen innerhalb ihres Dienstes zu gewährleisten. Der genaue Umfang dieser Maßnahmen wird im DSA nicht explizit festgelegt. Die Europäische Kommission kann aber Leitlinien herausgeben, um die Anbieter bei der Umsetzung der Vorsorgemaßnahmen zu unterstützen.

  • Keine personalisierte Werbung
    Personalisierte Werbung darf Kindern und Jugendlichen nicht angezeigt werden, wenn sie mithilfe von Nutzungsprofilen erstellt wurde, die auf personenbezogenen Daten basieren. Diese Bestimmung gilt, wenn die Plattformbetreiber ausreichende Gewissheit haben, dass die betreffenden NutzerInnen minderjährig sind.

EU-Kommission hat erste Verfahren eingeleitet

Die Europäische Kommission hat bereits ein formelles Verfahren gegen TikTok eingeleitet, um zu prüfen, ob das soziale Netzwerk gegen den DSA verstößt. Dabei geht es neben den Jugendschutzmaßnahmen auch darum wie TikTok die Risiken eingrenzt, die durch das süchtig machende Design der App entstehen können.

Im Verfahren wird überprüft, wie wirksam die von TikTok verwendeten Tools zur Altersüberprüfung sind, die den Zugang Minderjähriger zu ungeeigneten Inhalten verhindern sollen. Ebenfalls im Fokus stehen die Standard-Datenschutzeinstellungen für Minderjährige und die Funktionsweise der Empfehlungssysteme: TikTok ist durch den DSA dazu verpflichtet, angemessene Maßnahmen zum Schutz der Privatsphäre, Sicherheit und des Schutzes von Minderjährigen zu ergreifen.

Aus dem Design des TikTok-Systems ergeben sich auch Risiken für das körperliche und geistige Wohlbefinden von Heranwachsenden. Algorithmen bestimmen, welche Inhalte den NutzerInnen auf Basis ihrer Interessen und Sehgewohnheiten angezeigt werden. Das kann Verhaltenssüchte fördern und andere negative Auswirkungen auf die NutzerInnen haben. Der DSA verpflichtet Plattformen wie TikTok, diese Risiken zu bewerten und zu verringern.

Darüber hinaus hat die EU-Kommission die großen Suchmaschinen Google und Bing sowie die sozialen Netzwerke Facebook, Instagram, Snapchat, TikTok, YouTube und X aufgefordert, Informationen dazu vorlegen, wie sie Risiken im Zusammenhang mit generativer Künstlicher Intelligenz (KI) eindämmen.