Schrift:
Ansicht Home:
Netzwelt

WhatsApp, Instagram und Co.

Jugendschützer halten viele Apps für nicht kindgerecht

Cybermobbing, sexuelle Belästigung, Abzocke: Wenn Kinder surfen, sind sie oft ungeschützt. Ein neuer Bericht von jugenschutz.net will über die größten Gefahren aufklären.

Getty Images

Kind mit Smartphone (Symbolbild)

Von
Freitag, 14.09.2018   18:05 Uhr

Wer die App TikTok auf sein Smartphone herunterlädt, bekommt eine vage Beschreibung von dem, was ihn erwarten könnte: Nutzer könnten Musikvideos drehen und so "spannende und unvergessliche Momente einfangen", die sie dann "in einer globalen Video Community" teilen. So verspricht es die Beschreibung im Google PlayStore. Harmlos hört sich das an, freigegeben ist die App ab zwölf Jahren. Mehr als zehn Millionen User hat TikTok - besonders bei Kindern und Jugendlichen ist die App beliebt, die vor kurzem mit Musical.ly fusionierte. Doch offenbar ist nicht alles so harmlos, wie es auf den ersten Blick erscheint.

Auf der Plattform finden sich auch Fälle von Cybermobbing und Sexismus, von denen Kinder und Jugendliche betroffen sind. Das Video eines Mädchens kommentiert ein Nutzer etwa so: "Zeig Deine kleinen Brüste." Das Mädchen ist vielleicht zehn Jahre alt.

Friedemann Schindler, Leiter von jugendschutz.net, sieht täglich ähnliche Beispiele. Jugendschutz.net überprüft als gemeinsame Initiative von Bund und Ländern Verstöße gegen den Kinder- und Jugenschutz im Netz. "Besonders im Bereich der sexuellen Ausbeutung von Kindern haben wir im vergangenen Jahr eine deutliche Zunahme von Hinweisen registriert", sagt Schindler.

"Natürlich nutzen Kinder die App weiterhin"

Zwar seien die Zahlen nicht repräsentativ. Alarmierend sei trotzdem: Auch Monate nachdem jugendschutz.net einen Missbrauch melde, sei dieser oft noch online. "In einem von fünf Fällen erreichen wir keine schnelle Löschung", so Schindler. So auch im Fall des oben genannten Kommentars - zwei Monate nach der Meldung sei er noch immer abrufbar gewesen, so Schindler.

jugendschutz.net

Friedemann Schindler

Das besondere Schutzbedürfnis von Kindern und Jugendlichen im Internet werde auch an anderer Stelle kaum beachtet. Um die neue Datenschutzgrundverordnung (DSGVO) umzusetzen, habe WhatsApp das Mindestalter auf 16 Jahre erhöht. "Das wird aber nicht kontrolliert. Bei der Anmeldung muss man nur ein Häkchen setzen. Natürlich nutzen Kinder die App weiterhin", sagt Schindler.

Gleiches gelte für Instagram. "Ein Sechstel der 11-13-Jährigen nutzt laut Kinder-Medien-Studie die App", sagt Schindler. Die App, mit der Nutzer Fotos auf ihrem Profil öffentlich teilen, biete ein hohes Potenzial für Mobbing. "Ein Ansatz wäre, die Grundeinstellung der Profile so zu verändern, dass persönliche Informationen nicht öffentlich sichtbar werden", so der Medienexperte. So hätten junge Nutzer die Möglichkeit, gezielt auszuwählen, wer ihre Fotos sehen kann.

"Wir haben für Mobbing und Belästigung keine Toleranz"

Auf Seiten der App-Anbieter bemüht man sich, das Interesse am Kinder- und Jugendschutz deutlich zu machen. "WhatsApp sorgt sich sehr um die Sicherheit seiner Nutzer", sagt ein Sprecher in einer Stellungnahme gegenüber SPIEGEL ONLINE. "Wir haben für Mobbing und Belästigung keine Toleranz", meldet auch Instagram. Zu dem Vorschlag Schindlers, eine gesonderte App der Dienste nur für Kinder einzuführen, sagen beide Unternehmen nichts. Instagram stelle aber seit neuestem Eltern einen Ratgeber zur Verfügung - vorerst allerdings auf Englisch.

Auch TikTok sei sich der Verantwortung bewusst, die es für seine oft jungen Nutzer habe, so eine Sprecherin. "Unsere Nutzer werden ermutigt, Inhalte auf respektvolle Art zu erstellen und zu teilen." Einen Jugendschutzbeauftragten habe das Unternehmen nicht. Jedoch gebe es ein englischsprachiges Sicherheitscenter, in dem sich Eltern und Kinder informieren könnten - eine deutsche Version sei ebenfalls in Planung.

Diese Maßnahmen reichen für Friedemann Schindler nicht aus - auch wenn sie ein Schritt in die richtige Richtung seien. "Bei der Einstufung, welche Apps für Kinder geeignet sind, müssen alle Risiken berücksichtigt werden." Zurzeit funktioniere etwa die Bestimmung der Altersgrenze über einen Fragenkatalog, den das Unternehmen selbst ausfülle. Eine Untersuchung von 100 Apps aus den Top-Listen des Google Play Stores habe ergeben, dass die meisten zu niedrig eingestuft seien.

Mehr als die Hälfte der gesichteten Apps bräuchten demnach eine höhere Altersgrenze - bei den Apps, die im Play Store als gänzlich unbedenklich eingestuft wurden und somit eine Altersbegrenzung von null Jahren hatten, waren es gar zwei von drei. Dabei geht es nicht nur um die Gefahr einer möglichen Belästigung. Sondern etwa auch darum, ob die zunächst kostenlosen Apps die Kinder zu teuren In-App-Käufen animieren oder zu viele Daten sammeln.

Verwandte Artikel

Mehr im Internet

Artikel

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH
TOP