Kurzthese
Mit diesem Projekt möchten wir vermitteln, wie soziale Ungerechtigkeiten in ADM-Systemen reproduziert werden, und wichtige Wissenschaftlerinnen vorstellen, die deren kritische Betrachtung vorantreiben.
Beschreibung
Disclaimer/CW: In diesem Video werden Rassismus, Sexismus, Transfeindlichkeit und Klassismus thematisiert.
Ein Video von Nushin Yazdani und José Rojas.
(CC BY-NC-SA 2.0)
Machine-Learning-Systeme sind in unserem Alltag schon längst allgegenwärtig. Immer häufiger werden menschliche Entscheidungen an vermeintlich intelligente Maschinen ausgelagert, um Arbeitsprozesse zu vereinfachen und effizienter zu gestalten. Diese Maschinen erkennen nicht nur Gesichter, sie sortieren auch Bewerbungen, beeinflussen Gerichtsprozesse, bestimmen, wer einen Kredit bekommen sollte, entscheiden über Polizeieinsätze und kontrollieren Grenzübergänge. Und immer öfter fällt auf, dass sie dabei rassistische, sexistische oder andere diskriminierende Entscheidungen treffen.
Algorithmische Entscheidungssysteme, die über Menschen entscheiden, verstärken häufig soziale Ungerechtigkeit oder schaffen ganz neue Möglichkeiten der Unterdrückung. Dies ist auch deshalb ein Problem, weil sich die Gestalter*innen dieser Systeme oftmals hinter der vermeintlichen Neutralität der Technik verstecken. Was es umso schwieriger macht, sie überhaupt in Frage zu stellen.
Konzept und Inhalt: Nushin Yazdani | nushinyazdani.com
Illustrationen: José Rojas | @jose_illustration
Animationen: Jan Schulz | @jaschu_illustration
Sprecherinnen: Alice Hasters und Maximiliane Häcke | @feuerundbrot
Lektorat: Julian Dörr
Dieser Film wurde im Rahmen der gleichstellungsfördernden Maßnahmen des Professorinnenprogramms II an der FH Potsdam realisiert. Vielen Dank an Sandra Cartes, Constanze Langer und das Team der FH Potsdam.
Inspiriert von der Arbeit vieler großartiger Wissenschaftler*innen und Aktivist*innen, z.B. Joy Buolamwini, Lauren Rhue, Timnit Gebru, Mimi Onuoha & Mother Cyborg, Kimberlé Crenshaw, Mutale Nkonde, Dr. Nakeema Stefflbauer u.a.