Dossier
Anfang Mai 2023 hat sich die erste Content Moderators Union Afrikas in Nairobi/Kenia gegründet. Content Moderator*innen prüfen Inhalte, die von künstlicher Intelligenz oder auch auf Social Media Plattformen wie TikTok, Facebook und Instagram aufgespürt und verarbeitet werden. Dabei geht es um menschenfeindliche und erniedrigende sowie gewaltvolle und traumatisierende Inhalte, die die Prüfer*innen bei der Sichtung selbst oft krank machen. Diese Inhalte werden markiert, damit sie gelöscht und von KI als gefährlich erkannt werden. Diese Arbeit ist wie die meiste gesundheitsschädliche Arbeit in den
globalen Süden, in dem Fall u.a. nach Kenia ausgelagert. Die Kolleg*innen erhalten nur etwa zwischen 1,50 und 2,20 Dollar die Stunde. Seit 2019 versuchen sie sich zu organisieren. Das Subunternehmen Sama hat nun viele Kolleg*innen entlassen, die Facebook und Co. auf Weiterzahlung der Löhne verklagen wollen – siehe weitere Infos dazu und NEU:
Proteste bei Sama in Kenia: „Die Moderation von Inhalten ist ein einzigartiger Job, der eine psychiatrische Betreuung rund um die Uhr erfordert“ – und sie nicht bekommt weiterlesen »