Bekommt TikTok die Kontrolle der Inhalte in den Griff?

TikTok gehört zweifelsohne zu den populärsten Social Networks dieser Zeit. Die App verbreitet sich rasant und weltweit, vor allem auch in Asien. Dort haben es amerikanische oder europäische Plattformen meist ungleich schwerer überhaupt eine nennenswerte Beachtung zu finden. Nicht so bei TikTok, schließlich wurde es in China entwickelt und gehört dort zum großen ByteDance-Konzern. Schon diese Bekanntheit genügte, um auf eine große Nachfrage zu stoßen. Die asiatische Vorliebe für Musikvideos und Karaoke-Gesang beschleunigte die Verbreitung. Zunächst war TikTok nämlich als Plattform für kurze Musik-Clips gestartet. Heute ist das soziale Netzwerk mit allen Themen vertreten und bedient verschiedenste Zielgruppen, von der Enkelin bis zu Oma. Zumindest nach Meinung einer populären Werbekampagne. Doch speziell in Europa, aber auch in den USA, gerät TikTok immer wieder in Kritik, vor allem wenn es um das Thema Datenschutz und den Umgang mit den Nutzer*innen geht. Viele Inhalte sind für junge Menschen nicht geeignet und die Filterung von teils strafrechtlich relevanten Inhalten funktioniert bisher nicht immer zuverlässig. Wie auch bei tausenden von Inhalten, die jede Minute neu hochgeladen werden. Doch damit soll bald Schluss sein. In Zukunft sollen nämlich die Nutzer*innen selbst zusätzliche Meldemöglichkeiten von kritischen Inhalten bekommen, die im weiteren Verlauf in speziellen Teams von Fachleuten geprüft werden. 

Update zur Erfüllung des Digital Services Act kommt noch im August 2023 

Die Europäische Union hat mit dem Digital Services Act (DSA, übersetzt etwa: Gesetz über digitale Dienste) die Regulierung von Plattformen bezüglich deren Inhalte festgelegt. TikTok will dieser Verpflichtung bis zum 28. August 2023 nachkommen und die notwendigen Funktionen via Update in den Apps bereitstellen. 

Über seinen Newsroom teilte TikTok inzwischen mit, man habe mit den Vorbereitungen auf den Digital Services Act begonnen und plane dazu umfassende neue Funktionen zu dessen Erfüllung. In den kommenden Wochen werden dazu neue und zusätzliche Meldeoption eingeführt, damit Nutzer*nnen verdächtige oder kritische Inhalte melden können. Dies gilt auch für Werbung, bei denen jedoch eine Vorprüfung erfolgt. Dennoch kann auch Werbung auf einige Menschen verstörend wirken oder für bestimmte Altersgruppen nicht geeignet sein. Zusätzlich wird TikTok einen Leitfaden veröffentlichen, in dem die verschiedenen Inhalte und Kategorien erläutert werden. Üblicherweise sollen die User*innen dabei erkennen, wann es sich um eine Hassrede oder um eine Belästigung handeln könnte oder eben welche Inhalte doch noch den Gemeinschaftsrichtlinien entsprechen. 

Mehr Jugendschutz für junge Nutzer*innen

In Zukunft will TikTok mit neuen Maßnahmen dem Jugendschutz einen höheren Stellenwert einräumen. Oft kam es hier zu Kritik, weil auch sehr junge Nutzer*innen zwischen 13 und 16 Jahren Inhalte zu sehen bekamen, die nicht für diese Altersgruppe geeignet waren. Grundsätzlich ist zwar eine Nutzung erst ab 13 Jahren erlaubt und auch dann nur unter Zustimmung der Erziehungsberechtigten, es mangelte bisher jedoch an wirksamen Kontrollen. Selbst auf dem Schulhof ist TikTok bekanntermaßen weit verbreitet, sogar bei unter 13-Jährigen. Diese sehr junge Gruppe reagiert besonders sensibel auf Inhalte, die nicht für dieses Alter geeignet sind. Daher wird der Anbieter in Zukunft keine personalisierte Werbung mehr an unter 18-Jährige ausspielen, deren Nutzerverhalten aus anderen Quellen übernommen wurden. Vielmehr sollen Jugendliche selbst die Werbeinhalte nach Interesse wählen bzw. einschränken können. Damit wurde noch kein prüfbarer Weg der Alterskontrolle vorgeschlagen, hierbei mangelt es aber bei den meisten der bekannten Plattformen an einer wirksamen Umsetzung. 

TikTok Jugendschutz
TikTok möchte junge User*innen künftig besser schützen

TikTok setzt auf "Melden und prüfen" 

Wer Inhalte als Verstoß meldet, wird aus einer Liste von Kategorien den Grund der Meldung aussuchen können. Dabei werden sexuelle Inhalte, Hassrede, Belästigung oder auch andere kriminelle Handlungen auswählbar sein. Dies ist bei anderen sozialen Netzwerken inzwischen längst üblich.  Wenn die Nutzer*innen verdächtige Inhalte melden, werden diese zunächst anhand der Community-Richtlinien verglichen und dann weltweit entfernt, sofern sie klar gegen diese Richtlinien verstoßen. Wie groß hierbei ein gewisser Spielraum bleibt, ist abzuwarten. Unerwünschte Inhalte sind nicht immer auch rechtswidrig und was den einen stört, kann für andere ein akzeptabler Inhalt sein. Möglicherweise wird nicht jede Meldung auch zur Zufriedenheit der Meldenden getroffen und die freie Meinungsäußerung lässt Raum für Interpretationen. 

Einspruch bleibt möglich

Sollte es daher nötig sein, soll ein eigenes Team aus geschulten Moderator*innen und Rechtsexpert*innen prüfen, ob der gemeldete Inhalt den Gemeinschaftsrichtlinien entspricht. Sollte dies nicht der Fall sein, wird der Zugriff in dem betreffenden Land eingeschränkt. Dabei will TikTok sowohl die Person informieren, die den Inhalt veröffentlicht hat, als auch die Personen, die ihn gemeldet haben. Üblicherweise häufen und überschneiden sich Meldungen zu ähnlichen, kontroversen Inhalten. Mehrfache Meldungen müssen zunächst abgeglichen werden, was Entscheidungen verzögern, aber auch beschleunigen kann. Gegen Entscheidungen aus dem Team haben sowohl Content-Ersteller*innen als auch Melder*innen die Möglichkeit, einen Widerspruch einzulegen. Damit werden die Inhalte erneut geprüft, vorzugsweise von einem anderen Team, und neue Erkenntnisse, die sich aus dem Widerspruch ergeben, werden in die Entscheidung aufgenommen. Wie wirkungsvoll sich dieser recht komplexe Ablauf später in der Praxis bewährt, bleibt abzuwarten. 

TikTok Einspruch
Content-Ersteller*innen können Widerspruch einlegen, wenn ihre Inhalte gemeldet werden

Mit Druck zu mehr Schutz

In Europa gelten andere Regeln, was den Schutz der Privatsphäre und die Sicherheit von Nutzer*innen in einer Community anbelangt. Dies erfährt nun auch ein chinesisches Netzwerk wie TikTok und will damit den Anforderungen und Regulierung im DSA (Digital Service Act) der Europäischen Union in Zukunft noch besser gerecht werden. Besonders in einem Social Network mit vielen jugendlichen Nutzer*innen, deren Altersangaben in manchen Fällen nicht der Realität entsprechen, werden Entscheidungen zum Schutze dieser speziellen Gruppe und aller anderen immer wichtiger. Das Update soll zum 28. August 2023 ausgeführt werden, die entsprechenden AGBs werden bereits laufend angepasst, zu erkennen am Aktualisierungsstatus:
https://www.tiktok.com/community-guidelines/de-de/overview/

Sie interessieren sich für die Weiterbildung Social Media Manager (IHK)? Hier finden Sie alle Informationen zu dem Lehrgang.

Informationsbröschüre zum Download

Laden Sie sich jetzt die Informationsbroschüre in PDF-Format zur Weiterbildung “Social Media Manager (IHK) herunter: