»
Frankreich »
»
»
Frankreich »
»
»
Frankreich »
»

Social Scoring in Frankreich: 15 zivilgesellschaftliche Gruppen klagen gegen stigmatisierenden Sozialhilfe-Algorithmus zur „sozialen Bewertung“

Frankreich: Diskriminierung, Undurchsichtigkeit: Vereine klagen gegen den Algorithmus der CafNGOs kritisieren das System als diskriminierend, weil es vor allem ärmere Menschen ins Visier nehme. Jetzt klagen sie vor Gericht. In Frankreich beziehen Millionen Menschen Sozialhilfe aus der Caisses d’Allocations Familiales (CAF). Die „Familienausgleichskasse“ zahlt etwa Zulagen oder Wohngeld an einkommensschwache Familien. Mit solchen Zahlungen einher geht allerdings auch eine (teil-) automatische Risikobewertung von Empfänger-Familien. Ein Algorithmus entscheidet anhand von personenbezogenen Daten regelmäßig, ob ein vermeintliches Risiko einer Überzahlung vorliegen könnte. Eine Koalition aus 15 Nichtregierungsorganisationen geht nun vor Gericht gegen dieses System vor. Angeführt von der französischen NGO La Quadrature du Net externer Link (LQDN) haben sie Klage beim obersten Verwaltungsgericht externer Link in Frankreich, dem Conseil d’État, eingereicht…“  Beitrag von Ben Bergleiter vom 22. Oktober 2024 bei Netzpolitik.org externer Link und mehr daraus/dazu:

  • Weiter aus dem Beitrag von Ben Bergleiter vom 22. Oktober 2024 bei Netzpolitik.org externer Link: „… In der Klage kritisieren die Organisationen die rücksichtslose Nutzung von personenbezogenen Daten und werfen der französischen Behörde einen Verstoß gegen das Anti-Diskriminierungsgesetz vor. „Dieses System steht in direktem Widerspruch zu Menschenrechtsstandards und verletzt das Recht auf Gleichheit und Nichtdiskriminierung sowie das Recht auf Privatsphäre“, sagt Agnès Callamard, Generalsekretärin von Amnesty International. (…) Faktoren, die das vermeintliche Risiko steigen lassen, sind demnach etwa ein geringes Einkommen, Arbeitslosigkeit oder instabile Beschäftigungsverhältnisse. Auch wer in einer „benachteiligten“ Nachbarschaft lebt oder einen großen Teil des Einkommens für Miete ausgibt, muss mit einem höheren Wert rechnen. Diese Faktoren prüft das System monatlich bei allen Empfänger:innen und vergibt einen „Verdächtigkeitswert“. Je höher der Wert einer Person, desto öfter wird sie von Behörden kontrolliert. Menschen, die in armen und prekären Verhältnissen leben, geraten somit vermehrt ins Visier von behördlichen Kontrollen. „Das ist eine doppelte Bestrafung“, kritisiert Bastien Le Querrec, Rechtsberater bei La Quadrature du Net. Der Algorithmus sei Ausdruck einer Politik der Verfolgung der Ärmsten. (…) Die im August dieses Jahres in Kraft getretene KI-Verordnung der EU soll den Einsatz solcher (teil-) automatischen Entscheidungssysteme im sozialen Bereich stark reglementieren. Social-Scoring-Systeme sind in der EU eigentlich ganz verboten. Doch da die Definition solcher Systeme in der Verordnung vage gehalten ist, bleiben den Mitgliedsstaaten Schlupflöcher offen. Bei den Verhandlungen um die KI-Verordnung hatte Frankreich, aber auch Deutschland, mehrmals blockiert externer Link, um die Regulierung von KI-Systemen einzuschränken.“

Siehe auch:

Kurzlink: https://www.labournet.de/?p=223883
nach oben