Benutzer-Werkzeuge

Webseiten-Werkzeuge


oer:virale-gesellschaftskonstruktionen:lerneinheit:algorithmen

Dies ist eine alte Version des Dokuments!


LE08: Algorithmen & Rassismus

Diese Sitzung widmet sich den von großen Social Media Plattformen wie Facebook, Twitter oder YouTube eingesetzten Algorithmen, sowie deren Verortung und Bedeutung in einem rassistisch strukturierten Gesellschaftssystem. Wir werden uns der Frage stellen, inwiefern die Algorithmen von Social Media Plattformen neutral agieren können.

Inhalte der Lerneinheit

  • Neutralität von Algorithmen
  • Radikalisierungspotenzial von Empfehlungsalgorithmen
  • Rassistische Bias in Erkennungsalgorithmen

Materialien

Lernergebnisse & Kompetenzen

Nach Abschluss dieser Lerneinheit können Sie…

  • die Wirkungsweisen und -mächtigkeiten von derzeit eingesetzten Algorithmen auf Social Media Plattformen anhand ausgewählter Beispielen kritisch reflektieren.
  • nachvollziehen, wie sich gesellschaftliche, d.h. auch rassistische, Muster in technischen Strukturen reproduzieren können.

Neutrale Plattformen?

Eine der Grundideen des World Wide Webs, das in den 1990er Jahren entwickelt wurde, war die Schaffung eines offenen, für jedermann zugänglichen Kommunikationssystems, frei von zentraler Kontrolle durch Regierungen oder Industrie (Jakubowicz 2017, 43). Von der Werbeindustrie wurde das Internet damals als “place where we can communicate mind-to-mind, where there is no race, no gender, no infirmities… only minds” (Daniels 2018, 62) angepriesen. Doch das Ideal eines „race-less“ Internet blieb Utopie. Der Schöpfer des World Wide Webs, Tim Berners-Lee, erkannt an, dass sein Traum der freien Kommunikation aller, politischen Hass aktiv re- und mitproduziert (Berners-Lee 2017). Die Tech-Industrie ist sich dieser Verantwortung bisher nur unzureichend bewusst, da sie Rassismus meist als „Fehler“ im System, statt als grundlegenden Bestandteil des Systems versteht (Daniels 2018, 64). Demnach sind und werden (unbewusste) Vorstellungen von „Rasse“ in digitalen Strukturen (z.B. Video-Spiele, Drop-Down Menüs, Plattform-Designs, Web-Browser …) mit eincodiert (Daniels 2018; Matamoros-Fernández 2017), bspw. wenn Weiße als Normtypus für Programmierungen herangezogen werden. Rassismus wird so gleichzeitig reproduziert und neu hervor gebracht.

Social Media Plattformen stellen zum einen selbst ein Design dar, in das Rassismus eingebaut sein kann. Zum anderen setzen sie eine Vielzahl von Technologien, wie bspw. Algorithmen, ein, die ebenfalls rassistische Imaginationen in ihren Programmierungen tragen können. Diese auf impliziten (rassistischen) Normen basierenden Algorithmen entscheiden mit, was wir auf Plattformen sehen und was nicht, wen wir sehen und wen nicht, was „trendet“ und was nicht. Sie sortieren und (re)organisieren Inhalte und strukturieren damit auch unsere gesellschaftliche Realität (Gillespie, 2015). „Demzufolge sind digitale Plattformen „Intermediäre“, das heißt Mittler, die zwischen den Erzeuger*innen der Inhalte auf der einen und den Leser*innen und Zuschauer*innen auf der anderen Seite stehen. […] Bei der großen Zahl von Nutzer*innen, die Marktführer wie Facebook oder YouTube haben, muss man davon ausgehen, dass diese Dienste einen bedeutenden Teil der Medienöffentlichkeit darstellen. Somit wird ein signifikanter Teil der Öffentlichkeit durch [algorithmische Entscheidungssysteme] (mit-)gesteuert.“ (Algorithm Watch 2019, S. 34).

Im Mittelpunkt dieser Lerneinheit steht also die Frage, inwiefern Rassismus den auf Plattformen eingesetzten Algorithmen inhärent ist und welche Konsequenzen damit verbunden sein können.

Literatur

AlgorithmWatch (2019). Atlas der Automatisierung. Automatisierte Entscheidungen und Teilhabe in Deutschland. https://atlas.algorithmwatch.org/wp-content/uploads/2019/07/Atlas_der_Automatisierung_von_AlgorithmWatch.pdf

Berners-Lee, T. (2017). 'Tim Berners-Lee: I invented the web. Here are three things we need to change to save it', The Guardian. https://www.theguardian.com/technology/2017/mar/11/tim-berners-lee-web-inventor-save-internet

Daniels, J. (2018). The algorithmic rise of the „alt-right“. In: Contexts 17:1, S. 60–65. https://journals.sagepub.com/doi/pdf/10.1177/1536504218766547

Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479

Jakubowicz, A. (2017). Alt_Right White Lite: trolling, hate speech and cyber racism on social media. Cosmopolitan Civil Societies: an Interdisciplinary Journal. 9(3), 41-60. http://dx.doi.org/10.5130/ccs.v9i3.5655

Matamoros-Fernández, A. (2017). Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube, Information, Communication & Society, 20:6, 930-946, DOI: 10.1080/1369118X.2017.1293130

Basislektüre

Dobusch, L. (2019). Radikalisierung durch YouTube? Großzahlige Studie zur Empfehlung rechtsextremer Inhalte. https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/

ODER

Filter, J. (2020). Warum automatisierte Filter rassistisch sind. https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/

Hungry Minds

Matamoros-Fernández, A. (2017). Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube, Information, Communication & Society, 20:6, 930-946, DOI: 10.1080/1369118X.2017.1293130

Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479

oer/virale-gesellschaftskonstruktionen/lerneinheit/algorithmen.1632834829.txt.gz · Zuletzt geändert: 2021/09/28 15:13 von stezi