Eine gesetzliche Altersgrenze für soziale Medien wie Snapchat, TikTok und WhatsApp? Was in der öffentlichen Diskussion um eine neue Altersverifikations-App der EU wie eine gute Lösung aussieht, um Kinder und Jugendliche besser vor Gefahren im digitalen Raum zu schützen, halten IT-Sicherheitsexperten für keine gute Lösung.
Kindgerecht und zugleich reguliert
Pauschale Verbote sieht ein internationales Team von Wissenschaftlern kritisch, das unter Leitung des Digitalrechtsexperten Urs Gasser von der Technischen Universität München (TUM) einen umfassenden Ansatz unter dem Titel „Digital safety for children – Better design instead of blanket bans“ (externer Link) entwickelt hat.
Die Expertinnen und Experten beschäftigen sich darin detailliert mit der Frage, wie sich ein kindgerechtes App-Design sinnvoll mit Medienbildung und gesetzlicher Regulierung verbinden lässt. Gasser fasst das Ergebnis zusammen: „Wir brauchen Smart Design und Smart Regulation der Plattformen.“
Keine Evidenz für den Nutzen starrer Altersgrenzen
Bislang fehlt der Nachweis, dass App-Verbote tatsächlich datenschutzkonform funktionieren und den Jugendschutz in sozialen Medien tatsächlich verbessern. Es könnte für Kinder und Jugendliche sogar noch gefährlicher werden, wenn sie aufgrund eines Verbots statt auf TikTok und Co. in völlig unregulierten Bereichen des Internets, etwa auf Gaming-Plattformen oder unter falscher Altersangabe, chatten.
Das zeigten auch erste Erfahrungen mit der Altersgrenze von 16 Jahren in Australien (externer Link). Deshalb haben zuletzt 400 internationale Expertinnen und Experten in einem offenen Brief (externer Link) vor einer pauschalen Altersgrenze für soziale Medien gewarnt.
TUM-Experte: KI ermöglicht neue konstruktive Lösungen
Statt pauschaler Verbote soll die Gestaltung von Apps und Algorithmen den Schutz von Kindern und Jugendlichen in der digitalen Welt verbessern. Digitalrechtsexperte Gasser nennt verschiedene Bereiche, die tatsächlich den Jugendschutz verbessern könnten.
Dazu zählen technische Lösungen wie beispielsweise neue KI-Programme, die lokal auf dem Handy aktiviert werden können: Sogenannte On-Device-Interventionen, bei denen beispielsweise Fotos zunächst nur verpixelt gezeigt werden und die Nutzer selbst entscheiden können, ob sie die Bilder aufgrund ihrer Herkunft für ungefährlich halten oder besser verpixelt lassen, weil es unerwünschte Schockbilder sein könnten.
Apps sollen bei riskanter Nutzung geeignete Schutzmechanismen aktivieren
Die Technologie für flexiblere Sicherheitsmaßnahmen sei auch bei den Plattformen selbst bereits vorhanden, so könnten die Betreiber ihre Algorithmen so programmieren, dass Jugendliche nicht mehr in Endlosschleife bestimmte Inhalte sehen, etwa extreme Fitness- oder Schönheitsideale, deren Dauerkonsum ihr Risiko für ein negatives Selbstbild, Depression oder Magersucht erhöht. Es gebe die Möglichkeit, bei einer zu langen oder nächtlichen Nutzung den Konsum zu stoppen: Etwa mithilfe von Warnbannern, die sich nicht mehr wegklicken lassen, oder durch die ständige Wiederholung bereits bekannter Inhalte.
Entscheidend ist zudem, dass es altersgerechte, einfache Meldesysteme für unerwünschte Inhalte gibt. Dazu könnten sich beispielsweise interaktive Chatbots anbieten, die schnell und wirksam einen Warnhinweis entgegennehmen und an die Plattformbetreiber weiterleiten. Neben Programmempfehlungen und Filtern, die Eltern und Kindern die Chance bieten, altersgerechte Apps zu identifizieren, halten Experten auch ein Feedbackangebot mit Informationen und Hilfsangeboten bei unangenehmen Erlebnissen für wichtig.
Medienbildung stärkt digitale Kompetenzen
Sinnvoller als reine Altersbegrenzung ist ein konstruktiver Ansatz, der das Recht von Kindern und Jugendlichen auf Teilhabe an der digitalen Welt und ihrer Gestaltung stärkt. Gasser betont: Wichtig sei, die Jugendlichen und ihre Erfahrungen ernst zu nehmen und in die gemeinsame Entscheidung von Eltern und Kindern einzubinden, welche Apps und welche Schutzeinstellungen sie auf ihrem Smartphone nutzen sollten.
Die Kompetenzen junger Menschen in der Nutzung von Apps und beispielsweise das Risikobewusstsein, was Datenschutz, Persönlichkeitsrechte oder auch Fakenews betrifft, sind individuell sehr unterschiedlich und nicht nur an das Lebensalter geknüpft. Wichtig sei deshalb die Chance, schrittweise im sicheren Raum, etwa dem Schulunterricht, zu lernen, wie es gelinge, wichtige Erfahrungen in der digitalen Welt zu sammeln. Auch Schulungen für Eltern und Lehrkräfte seien eine notwendige Voraussetzung dafür, dass die Gesellschaft mit der rasanten Entwicklung Schritt halten kann.
Gesetzliche Vorgaben für Plattformbetreiber sind wichtig
Regulatorische Ansatzpunkte für die Politik sind laut Gasser auch verbindliche, jugendschutzgerechte Design-Standards für Apps, die beispielsweise den Missbrauch durch Erwachsene verhindern. Und gesetzliche Vorgaben, die Unternehmen für vorhersehbare Risiken von Apps verantwortlich machen.

