Digitale Gewalt

Wie können Videos aus den sozialen Medien entfernt werden?

Bunt, schrill und laut: Dafür ist TikTok bekannt. Wer nicht aufpasst, den zieht der raffinierte Algorithmus in seinen Bann und lässt ihn stundenlang nicht mehr los. Mehr als eine Milliarde Menschen weltweit nutzen die App, Tendenz steigend. Social Media macht Spaß – kann aber auch sehr verletzend sein.

Foto: Tim Hufnagl

Stellen Sie sich vor, Sie scrollen entspannt durch TikTok, wollen sich amüsieren – und plötzlich sehen Sie Ihr eigenes Gesicht in einem Video, das Sie beleidigt und verhöhnt. Eine Horrorvorstellung! Die wichtige Frage: Wie kann dieses Video wieder gelöscht werden? Welche Möglichkeiten gibt es? Das wollte die Redaktion des WEISSEN RINGS von Medienrechtler Christian Solmecke wissen. Seine Antworten lesen Sie hier.

Was können Nutzerinnen und Nutzer tun, wenn ein Video über sie in sozialen Medien wie TikTok landet und sie möchten, dass es verschwindet?

Wenn ein Video über mich beispielsweise auf TikTok hochgeladen wurde und ich möchte, dass es wieder verschwindet, gibt es mehrere Möglichkeiten. Zunächst sollte man das Video melden. Nach dem Digital Services Act (DSA) sind Plattformen verpflichtet, aktiv zu werden, sobald sie Kenntnis von rechtswidrigen Inhalten erlangen. Zudem kann man – falls bekannt – den Uploader des Videos auffordern, es zu löschen.

Sollte das Melden nicht helfen, sollte man sich einen Anwalt suchen. Dieser kann erneut außergerichtlich das soziale Netzwerk anschreiben und einen Anspruch sowohl gegen TikTok als auch gegen den Uploader auf Löschung geltend machen. Sollte die Plattform weiterhin nicht reagieren, kann gerichtlich eine einstweilige Verfügung beantragt werden.

Was können Nutzerinnen und Nutzer tun, wenn jemand sie in einem Video öffentlich beleidigt?

Die Beleidigung stellt nach Strafgesetzbuch eine Straftat dar, die sogar eine Freiheitsstrafe von bis zu einem Jahr begründen kann. Zudem handelt es sich um eine Persönlichkeitsrechtsverletzung. Wer in einem Video auf Plattformen wie TikTok beleidigt wird, sollte das Video melden und zudem einen Strafantrag stellen, damit die Polizei auch ermitteln kann.

Außerdem können zivilrechtliche Schritte wie ein Antrag auf einstweiligen Rechtsschutz eingereicht werden, um die weitere Verbreitung des Videos zu verhindern. Darüber hinaus kommen je nach der Intensität der Beleidigung und der daraus resultierenden Ehrverletzung Schadenersatzansprüche in Betracht, die man dann in einem Klageverfahren geltend machen kann.

Macht es einen Unterschied, wenn die- oder derjenige keinen Namen nennt, die Person aber dennoch identifizierbar ist?

Auch wenn ich im Video namentlich nicht genannt bin, ist das Verbreiten von Bildaufnahmen eine Persönlichkeitsrechtsverletzung in der Form des Rechts am eigenen Bild. Dafür genügt es, wenn bestimmte Merkmale oder Umstände im Video dazu ausreichen, mich einem Bekanntenkreis erkennbar zu machen, unabhängig von der Namensnennung.

Sollte auch der Name im Video genannt werden, verstärkt dies lediglich die Persönlichkeitsrechtsverletzung, was für spätere Schadenersatzansprüche relevant werden kann. Die zusätzliche Namensnennung erhöht außerdem die sogenannte Eilbedürftigkeit, die eine wesentliche Voraussetzung für den Erlass einer einstweiligen Anordnung darstellt.

Welche Verpflichtungen haben Plattformen wie TikTok gegenüber ihren Nutzerinnen und Nutzern? Wie stellen die Anbieter sicher, dass Menschen nicht andere in ihren Videos beleidigen und beschimpfen?

Plattformen wie TikTok müssen den Digital Services Act (DSA) einhalten und sind danach verpflichtet, ihre Nutzerinnen und Nutzer bestmöglich zu schützen. So müssen sie zum Beispiel einfache Möglichkeiten für die User einrichten, Inhalte melden zu können. Nachdem Inhalte gemeldet wurden, sind die Plattformen verpflichtet, diese auf Rechtsverstöße zu überprüfen, um so die Nutzerinnen und Nutzer vor beispielsweise Beleidigungen oder Hass im Netz zu schützen – so auch auf TikTok. 

Wenn sie hier nicht reagieren, haften sie zumindest auf Unterlassung und müssen sich vor Gericht verantworten. Außerdem setzen die großen Plattformen auch Filter und andere Technologien ein, um Inhalte, die gegen geltendes Recht oder Nutzungsbedingungen verstoßen könnten, identifizieren und löschen zu können. Dies ist aber keine zwingende Vorgabe des DSA, sondern nur eine Option.

Christiane Fernbacher