– Das Deutsche Kinderhilfswerk lehnt pauschale Social-Media-Verbote für Kinder und Jugendliche ab.
– Stattdessen fordert es risikoorientierte Lösungen und eine Stärkung der Medienkompetenz.
– Die Organisation plädiert dafür, die Ergebnisse einer eingesetzten Expertenkommission abzuwarten.
Deutsches Kinderhilfswerk fordert konstruktiven Umgang mit Social Media und Kinderrechten
Das Deutsche Kinderhilfswerk veröffentlicht am 22. Februar 2026 eine Stellungnahme zur aktuellen Debatte um Social-Media-Verbote für Kinder und Jugendliche. In der Mitteilung betont die Organisation die Notwendigkeit risikoorientierter Lösungsansätze, die sowohl rechtlich als auch technisch umsetzbar sind, um Kinderrechte zu schützen, ohne ihre digitale Teilhabe einzuschränken.
Aus Sicht des Vereins sind pauschale Einschränkungen kontraproduktiv. Kai Hanke, Geschäftsführer des Deutschen Kinderhilfswerks, erklärt: „Es ist wichtig, dass die Regierungsparteien zu dem von Ministerin Prien gesetzten Fahrplan stehen und die eigens eingesetzte Expertenkommission ihre Arbeit machen lassen. Es braucht Lösungen, mit denen risikofördernde Praktiken von Plattformen unterbunden werden und zudem skalierbare Schutzmöglichkeiten für unterschiedliche Altersgruppen, ohne grundsätzlich in die Teilhabemöglichkeiten von Kindern und Jugendlichen einzugreifen.“ Zudem betont er die Gefahr, dass reine Ausschlussstrategien dazu führen, dass Kinder und Jugendliche versuchen, Umgehungswege zu finden, wodurch sie noch schlechter geschützt würden.
Die Organisation fordert, statt einer vollständigen Ausschließung lieber Angebote zu schaffen, die altersgerecht sind und die Medienkompetenz stärken. Laut Hanke müsse auch eine stärkere Verantwortungsübernahme von Social-Media-Anbietern erreicht werden: „Das muss sich auch in einer stärkeren Verantwortungsübernahme von Social-Media-Anbietern niederschlagen, einem Regulierungsrahmen, der diese Verantwortungsübernahme im Sinne der Kinder und Jugendlichen verbindlich macht.“
Zudem macht das Deutsche Kinderhilfswerk auf die Erkenntnisse aus Großbritannien und Australien aufmerksam, die zeigen, dass ausschlussorientierte Strategien vor allem dazu führen, dass Kinder und Jugendliche alternative Wege suchen, um Social Media zu nutzen. Die Organisation fordert daher, junge Menschen beim sicheren Zugang zur digitalen Welt zu unterstützen, statt sie auszuschließen: „Wichtig ist vielmehr, jungen Menschen ihrem Alter entsprechende Onlineangebote zu bieten, statt sie komplett von der digitalen Welt auszuschließen.“
Das umfassende Ziel sei es, eine nachhaltige Strategie zu entwickeln, die Medienbildung und Verantwortungsübernahme gleichermaßen in den Mittelpunkt stellt. Kai Hanke fasst zusammen: „Es braucht Lösungen, mit denen risikofördernde Praktiken von Plattformen unterbunden werden und zudem skalierbare Schutzmöglichkeiten für unterschiedliche Altersgruppen, ohne grundsätzlich in die Teilhabemöglichkeiten von Kindern und Jugendlichen einzugreifen.“ Damit setzt sich das Deutsche Kinderhilfswerk für kindgerechte, verantwortungsvolle digitale Angebote ein, die die Rechte aller Kinder wahren und ihre Gesellschaftsbeteiligung sichern.
Nutzung und Risiken sozialer Medien bei Kindern: Aktueller Forschungsstand und problematische Muster
Die Nutzung sozialer Medien hat für Kinder und Jugendliche erheblichen Einfluss auf ihre Entwicklung und den Alltag. Studien zeigen, dass viele junge Nutzerinnen viel Zeit in digitalen Plattformen verbringen – eine Entwicklung, die zunehmend in den Fokus von Eltern, Lehrkräften und Experten rückt. Nach einer Studie der Krankenkasse DAK verbringen 10- bis 17-Jährige in Deutschland werktags über 2,5 Stunden mit TikTok, Instagram und Co., und am Wochenende knapp 4 Stunden.
Diese Zahlen verdeutlichen die Dringlichkeit, das Verhalten junger Menschen im Internet sorgfältig zu beobachten. Problematisch daran ist, dass suchtähnliches Nutzungsverhalten häufig mit mentaler Erschöpfung, Konzentrationsschwierigkeiten und sozialer Isolation verbunden ist. Empfehlungen zur Förderung von Medienkompetenz und technischen Schutzmechanismen sollen dazu beitragen, Risiken zu minimieren. Kontinuierliche Forschung empfiehlt, Kinder und Jugendliche beim verantwortungsvollen Umgang mit sozialen Medien zu unterstützen und Plattformen in die Pflicht zu nehmen, verantwortungsvolle Nutzer*innen zu fördern sowie ihre Verantwortung für den Kinderschutz ernst zu nehmen.
Politische Vorschläge, wissenschaftliche Empfehlungen und internationale Maßnahmen im Überblick
Die Diskussion um den Schutz von Kindern und Jugendlichen in den sozialen Medien ist vielfältig und international geprägt. Während in Deutschland Parteien unterschiedliche Positionen vertreten, betont die Wissenschaft die Notwendigkeit eines ganzheitlichen Ansatzes. Internationale Beispiele und Maßnahmen runden das Bild ab.
Parteipolitische Forderungen in Deutschland
Parteien in Deutschland diskutieren über den Schutz jüngerer Nutzer in sozialen Netzwerken. Die Debatten umfassen Forderungen nach Altersbeschränkungen und speziellen Schutzmaßnahmen.*
Wissenschaftliche Empfehlungen: Fokus auf altersgerechte Nutzung
Wissenschaftliche Institutionen empfehlen, soziale Medien altersgerecht zu gestalten und Schutzmaßnahmen für junge Nutzer zu verstärken.*
EU-weite Vorschläge und internationale Beispiele
Auf europäischer Ebene gibt es Vorschläge, den Schutz junger Internetnutzer durch Mindestalterregelungen zu verbessern.*
Fazit
Der Vergleich zeigt, dass politische Forderungen unterschiedlich ausfallen, Wissenschaftler einen vorsichtigen, altersgerechten Zugang empfehlen und Europa sowie einzelne Staaten konkrete Maßnahmen ergreifen. Für nachhaltigen Schutz ist es wichtig, eine Balance zwischen Schutzmaßnahmen und der freien digitalen Teilhabe junger Menschen zu finden und technologische sowie rechtliche Lösungen stärker umzusetzen.
Handlungsoptionen zum Schutz von Kindern in sozialen Medien: Chancen und Risiken
Viele politische Maßnahmen zur Begrenzung des Zugangs zu sozialen Medien für Kinder zielen auf eine Altersabschätzung ab. Welche Maßnahmen werden derzeit vorgeschlagen?
- Altersgestaffelte Zugangsregelungen: Kein Account für unter 13-Jährige, 13-15-Jährige nur mit elterlicher Zustimmung (Quelle: Deutschlandfunk, Stand: 2026)*.
- Gesetzliche Altersgrenze von 14 Jahren: Einführung eines verbindlichen Mindestalters (Quelle: Deutschlandfunk, Stand: 2026)*.
- Spezielle Plattformversionen für 14–16-Jährige: Angebot von altersgerechten Versionen mit eingeschränkten Funktionen (Quelle: Deutschlandfunk, Stand: 2026)*.
- EU-weites Mindestalter 16 Jahre: Einheitliche Referenz für alle Mitgliedsstaaten (Quelle: Deutschlandfunk, Stand: 2026)*.
Einschätzung: Reine Ausschlussstrategien können problematische Umgehungsversuche fördern, die den Schutz verschlechtern.
Um Kinder wirkungsvoll zu schützen, ist es notwendig, auf altersgerechte Angebote, verantwortungsvolle Plattformgestaltung und Medienbildung zu setzen. Möglichst restriktive Maßnahmen allein reichen nicht aus und können die digitale Teilhabe einschränken.
Ausblick: Handlungsempfehlungen für Eltern, Politik und Pädagoginnen
Der aktuelle Weg in der Debatte um Social-Media-Verbote zeigt, dass pauschale Einschränkungen kaum zum gewünschten Schutz für Kinder und Jugendliche beitragen. Stattdessen ist es entscheidend, auf wissenschaftlich fundierte Lösungen zu setzen, die den hohen Anforderungen der Kinderrechte gerecht werden. Für Eltern, Pädagoginnen und politische Akteure bleibt die Empfehlung, auf eine ausgewogene, abwägende Strategie zu setzen. Die Zielrichtung liegt darin, Kinder in ihrer digitalen Entwicklung zu unterstützen, technische Lösungen umzusetzen und Verantwortung bei Plattformen zu verankern, statt sie pauschal auszuschließen.*
Die nachfolgenden Informationen und Aussagen stammen aus einer Pressemitteilung des Deutschen Kinderhilfswerkes e.V.
Weiterführende Quellen:
- „Nach einer Studie der Krankenkasse DAK verbringen 10- bis 17-Jährige in Deutschland werktags über 2,5 Stunden mit TikTok, Instagram und Co., am Wochenende knapp 4 Stunden; mehr als jeder Vierte zeigt problematisches, suchtähnliches Nutzungsmuster (Stand: 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
- „CDU-Bundesparteitag in Stuttgart sprach sich für gesetzliche Altersgrenze von 14 Jahren für soziale Netzwerke aus (Stand: 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
- „SPD-Bundestagsfraktion fordert Verbot für Kinder unter 14 Jahren, für 14-16-Jährige spezielle Plattformversionen (Stand: 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
- „Nationale Akademie der Wissenschaften Leopoldina empfiehlt: Keine Accounts für unter 13-Jährige, 13-15-Jährige nur mit elterlicher Zustimmung, Netzwerke für 13-17-Jährige altersgerecht gestalten (Stand: 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
- „Europäisches Parlament schlägt EU-weites Mindestalter von 16 Jahren für soziale Medien vor (Stand: 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
- „Albanien sperrte TikTok Zugang knapp ein Jahr, aufgehoben Anfang Februar 2026 nach Eskalation zu Todesfall (Stand: Februar 2026).“ – Quelle: https://www.deutschlandfunk.de/social-media-verbot-kinder-jugendliche-bundesregierung-tiktok-instagram-100.html
6 Kommentare
‚Die Verantwortung der Social-Media-Anbieter‘ ist ein wichtiger Punkt! Wie kann man diese Verantwortung konkret umsetzen? Vielleicht sollten wir auch darüber nachdenken, wie Eltern dabei unterstützen können.
Ich finde es wichtig, dass Kinder nicht einfach ausgeschlossen werden von der digitalen Welt. Aber wie können wir sicherstellen, dass sie geschützt sind? Ich würde gerne wissen, was die Experten dazu sagen.
Es ist beunruhigend zu hören, dass viele Jugendliche so viel Zeit in sozialen Medien verbringen. Ich frage mich, ob die Schulen genug tun, um Medienkompetenz zu fördern? Was denkt ihr darüber?
Die Idee, dass Kinder und Jugendliche altersgerechte Angebote brauchen, klingt sinnvoll. Aber was genau meint man mit ‚altersgerecht‘? Gibt es dazu schon konkrete Vorschläge? Ich denke, wir müssen das dringend diskutieren.
Ich stimme dir zu, Philipp. Es wäre hilfreich zu wissen, welche Plattformen als ‚altersgerecht‘ angesehen werden und wie diese Inhalte ausgewählt werden. Haben wir da schon Beispiele aus anderen Ländern?
Ich finde es gut, dass das Deutsche Kinderhilfswerk sich für einen risikoorientierten Ansatz einsetzt. Verbote können oft mehr schaden als nutzen. Wie denkt ihr über die Medienkompetenz? Sollte die nicht mehr gefördert werden?