Bearbeiten Sie Aufgabe 1. oder 2. Tragen Sie sich hierfür in diesem GoogleDocs mit ihren Initialen ein. Achten Sie darauf, dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten.
1. YouTube, die Radikalisierungsmaschine?
1. a) Erstellen Sie mit Hilfe einer temporären Email-Adresse (M08-1: Algorithmen) ein neues Benutzerkonto auf YouTube.
1. b) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen?
1. c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 „Radikalisierung durch YouTube“
Können Sie die Forschungsergebnisse aufgrund Ihrer eigenen Erfahrung bestätigen? Wo widersprechen Sie?
ODER
2. Facebook & Twitter: Künstlich? Intelligent? Rassistisch?
2. a) Spielen Sie dieses 10-minütige Online-Spiel https://www.survivalofthebestfit.com/.
Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt.
2. b) Lesen Sie den Beitrag von Johannes Filter 2020 „Warum automatisierte Filter rassistisch sind“
2. c) Schauen sie sich den Ausschnitt des Videos „Das unsichtbare Rassismus-Problem von Twitter und Co.“ von Minute 07:04 bis Minute 14:08 an.
Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten).
2. d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen.
Literaturquellen zu 2. d)
Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/
Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https://arxiv.org/pdf/1905.12516.pdf
Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf