Categories
IT/Tech

Erwachsenes Online-Alter, das von einem Drittel der acht- bis 17-jährigen Social-Media-Nutzer verwendet wird

Einer neuen Studie zufolge hat ein Drittel der Social-Media-Nutzer zwischen acht und 17 Jahren das Online-Alter eines Erwachsenen, weil sie sich mit einem falschen Geburtsdatum anmelden.

Das Problem des falschen Alters bedeutet, dass junge Benutzer in Großbritannien einem größeren Risiko ausgesetzt sind, schädlichen oder nicht jugendfreien Inhalten ausgesetzt zu werden, da Plattformen davon ausgehen, dass sie älter sind, als sie tatsächlich sind.

Die Mehrheit der Kinder zwischen acht und 17 Jahren, die soziale Medien nutzen, hat laut einer von Ofcom, der Kommunikationsaufsichtsbehörde, in Auftrag gegebenen Studie ein eigenes Profil auf mindestens einer der Hauptplattformen.

„Wenn ein Kind selbst ein falsches Alter angibt, um Zugang zu sozialen Medien oder Online-Spielen zu erhalten, wird mit zunehmendem Alter auch sein angegebenes Benutzeralter. Dies bedeutet, dass sie einem größeren Risiko ausgesetzt sein könnten, online auf alterswidrige oder schädliche Inhalte zu stoßen“, sagte Ofcom.

Die Regulierungsbehörde fügte hinzu, dass einige Plattformen, sobald ein Benutzer 16 oder 18 Jahre alt ist, Funktionen einführen, die jüngeren Benutzern nicht zur Verfügung stehen, wie z. B. Direktnachrichten oder die Möglichkeit, Inhalte für Erwachsene anzuzeigen.

Die Studie umfasste sechs der führenden Plattformen – TikTok, Snapchat, Twitter und YouTube – die alle eine Altersgrenze von 13 Jahren haben über, während fast die Hälfte der Kinder in der gleichen Altersgruppe ein Benutzeralter von 16 oder älter hat.

Die beliebteste Seite bei allen Acht- bis 17-Jährigen war YouTube, gefolgt von TikTok. Die Mehrheit der Befragten hatte ihr Kontoprofil selbst erstellt.

Das Online-Sicherheitsgesetz, das noch vor Weihnachten durch das Parlament gehen soll, schreibt eine Sorgfaltspflicht zum Schutz von Kindern vor schädlichen Inhalten vor. Die Untersuchung des Todes von Molly Russell, einer 14-Jährigen, die sich 2017 das Leben nahm, nachdem sie schädliche Inhalte auf Plattformen angesehen hatte.

Ein Experte für Internetsicherheit beschrieb die Studie, die auf einer Umfrage von Yonder Consulting unter mehr als 1.000 jungen Social-Media-Nutzern basiert, als ein Signal von Ofcom an Technologieunternehmen, dass es weiß, wo es Fehler in ihrem Betrieb gibt.

„Dies ist ein Warnschuss für Plattformen, dass Ofcom weiß, was mit diesen Diensten los ist“, sagte William Perrin, ein Treuhänder des Carnegie UK Trust.

Gemäß dem Online-Sicherheitsgesetz sind Plattformen verpflichtet, Kinder daran zu hindern, auf schädliche Inhalte – wie Selbstmord- und Selbstverletzungsmaterial – zuzugreifen, und zwar mit Systemen, die strenge Altersüberprüfungen beinhalten könnten. Im Rahmen eines im Rahmen des Gesetzentwurfs erforderlichen Risikobewertungsprozesses wird Ofcom dann entscheiden, ob der Ansatz der einzelnen Plattformen zur Altersüberprüfung gründlich genug ist.

Ein Sprecher der von Molly Russells Familie gegründeten Molly Rose Foundation sagte: „Eine wirksame Regulierung durch das Online-Sicherheitsgesetz kann nicht zu früh kommen. Die Ofcom-Untersuchung zeigt, dass Social-Media-Anbieter eine grundlegende Fürsorgepflicht verletzen, indem sie Kindern ab acht Jahren den Zugang zu ihren Plattformen ermöglichen. Sie haben sich als unfähig erwiesen, die Fähigkeit ihrer Plattformen zu kontrollieren, unsere Kinder mit beunruhigenden und schädlichen Inhalten zu verbinden, was zu tragischen Ergebnissen führte.“

Der Sprecher fügte hinzu: „Hätten in Mollys Fall die entsprechenden Altersprüfungen durchgeführt worden, wäre ihr möglicherweise ein ganzes Jahr erspart geblieben, schädlichen Inhalten ausgesetzt zu sein.“

Ofcom veröffentlichte auch Forschungsergebnisse, die zeigen, dass Kinder eine „Selbsterklärung“-Methode zur Alterssicherung für Social-Media-Plattformen bevorzugen, während Eltern häufig eine „elterliche Bestätigung“ bevorzugen, bei der sie das Alter eines Kontoinhabers bestätigen.

YouTube, das sich im Besitz von Google befindet, ermöglicht es Kindern unter 13 Jahren, Konten unter Aufsicht der Eltern oder Erziehungsberechtigten zu eröffnen, und bietet die separate YouTube Kids-Plattform an, während TikTok über eine Altersgrenze verfügt, bei der Personen ihr vollständiges Geburtsdatum eingeben müssen.

Ein Snapchat-Sprecher sagte: „Die Altersüberprüfung ist eine branchenweite Herausforderung, und wir sind in laufenden Gesprächen mit anderen Unternehmen und politischen Entscheidungsträgern über konsistente und effektive Lösungen.“