Die „Trust and Safety“-Abteilung in Berlin war bisher für die Plattform-Sicherheit zuständig: Sie entfernte gewaltverherrlichende, pornografische oder falsche Inhalte oder versah sie mit Warnhinweisen. Künftig sollen künstliche Intelligenz und externe Subunternehmer diese Aufgaben übernehmen.
Kritiker schlagen Alarm: Ein langjähriger Moderator warnte gegenüber VRT NWS, dass bereits jetzt gefährliche Trends oft zu spät gestoppt würden – künftig drohe noch mehr unsichere Inhalte. Auch der KI-Experte Olivier Cauberghs äußerte Bedenken: Algorithmen könnten subtile Formen von Hassrede, etwa über Emojis, Codewörter oder Musik, nicht zuverlässig erkennen.
Ver.di und Experten sehen in der Entscheidung ein gefährliches Signal: Immer mehr soziale Netzwerke würden ihre Moderationsteams verkleinern – mit potenziell gravierenden Folgen für die Nutzerinnen und Nutzer. (belga/ag)

Kommentare
Kommentar verfassen
0 Comment
Sie müssen angemeldet sein, um zu kommentieren.
AnmeldenRegistrieren