Ansich gut, aber dieses Konzept "muss strafbares löschen" halte ich trotzdem irgendwie für Scheiße, weil das ja impliziert, dass normale Bürger bzw Unternehmen auf einmal über Strafbarkeit entscheiden müssen, was eigentlich ein Thema für die Justiz ist.
Lies nochmal genau den Artikel - Facebook hat von sich aus die Inhalte gelöscht. Dann gab es ein anderes Urteil, welches Facebooks Nutzungsbedingungen für ungültig erklärt hat und dann ist der feine Herr auf die Idee gekommen, dass man ja klagen könnte, weil die ungültigen Nutzungsbedingungen ja keine Löschung erlauben würden, weil sie ja ungültig sind. Daraufhin hat das Gericht völlig verständlicherweise erklärt, dass Facebook auch Sachen löschen muss, wenn sie halt strafbar sind.
Alles gut, am Urteil hab ich nichts auszusetzen. Ich hab mich auf das angesprochene Konzept bezogen. Vielleicht hätte ich deutlicher machen sollen, dass ich nur ein mit dem Urteil verwandtes Thema aufgreife, und nicht direkt das Urteil.
So hart würde ich es nicht sehen, aber die Gesetzeslage bringt Unternehmen in Zugzwang, im Zweifel eher zu überregulieren, weil die Strafen für zu lasches Eingreifen höher sind, als die Strafen für zu hartes Eingreifen. Zumal im Fall von "zu lasch" halt der Staat dein Gegner ist und bei "zu hart" nur irgendeine kleine unbedeutende zivile Person, die sich vermutlich nichtmal einen Rechtsstreit leisten kann (oder will).
Es geht hier ja aber nicht mehr nur um standardmäßige Foren-Moderation, um hart oder lasch, oder um Nutzungsbedingungen. Sondern um eine rechtliche Beurteilung der Inhalte auf Basis der deutschen Gesetze. Hierauf basierend wird ein Urteil gefällt und entsprechend gehandelt. Das klingt für mich nach einer Form von Gericht.
Der richtige Weg wäre das Facebook (oder jemand anders der es sieht) das Kommentar der Polizei meldet, wenn der Verdacht besteht es könnte rechtswidrig sein, und sich dann an Anweisungen von Polizei/Staatsanwaltschaft/Gericht hält.