Diese Sitzung widmet sich den von großen Social Media Plattformen wie Facebook, Twitter oder YouTube eingesetzten Algorithmen sowie deren Verortung und Bedeutung in einem rassistisch strukturierten Gesellschaftssystem. Wir werden uns der Frage stellen, inwiefern die Algorithmen von Social Media Plattformen neutral agieren können.
Nach Abschluss dieser Lerneinheit können Sie…
Eine der Grundideen des World Wide Webs, das in den 1990er-Jahren entwickelt wurde, war die Schaffung eines offenen, für jedermann zugänglichen Kommunikationssystems, frei von zentraler Kontrolle durch Regierungen oder Industrie (Jakubowicz 2017, 43). Von der Werbeindustrie wurde das Internet damals als “place where we can communicate mind-to-mind, where there is no race, no gender, no infirmities… only minds” (Daniels 2018, 62) angepriesen. Doch das Ideal eines „race-less“ Internet blieb Utopie. Der Schöpfer des World Wide Webs, Tim Berners-Lee, erkannt an, dass sein Traum der freien Kommunikation aller politischen Hass aktiv re- und mitproduziert (Berners-Lee 2017). Die Tech-Industrie ist sich dieser Verantwortung bisher nur unzureichend bewusst, da sie Rassismus meist als „Fehler“ im System, statt als grundlegenden Bestandteil des Systems versteht (Daniels 2018, 64). Demnach sind und werden (unbewusste) Vorstellungen von „Rasse“ in digitalen Strukturen (z. B. Video-Spiele, Drop-Down Menüs, Plattform-Designs, Web-Browser …) mit eincodiert (Daniels 2018; Matamoros-Fernández 2017), bspw. wenn Weiße als Normtypus für Programmierungen herangezogen werden. Rassismus wird so gleichzeitig reproduziert und neu hervorgebracht.
Social Media Plattformen stellen zum einen selbst ein Design dar, in das Rassismus eingebaut sein kann. Zum anderen setzen sie eine Vielzahl von Technologien wie bspw. Algorithmen, ein die ebenfalls rassistische Imaginationen in ihren Programmierungen tragen können. Diese auf impliziten (rassistischen) Normen basierenden Algorithmen entscheiden mit, was wir auf Plattformen sehen und was nicht, wen wir sehen und wen nicht, was „trendet“ und was nicht. Sie sortieren und (re)organisieren Inhalte und strukturieren damit auch unsere gesellschaftliche Realität (Gillespie, 2015). „Demzufolge sind digitale Plattformen „Intermediäre“, das heißt Mittler, die zwischen den Erzeuger*innen der Inhalte auf der einen und den Leser*innen und Zuschauer*innen auf der anderen Seite stehen. […] Bei der großen Zahl von Nutzer*innen, die Marktführer wie Facebook oder YouTube haben, muss man davon ausgehen, dass diese Dienste einen bedeutenden Teil der Medienöffentlichkeit darstellen. Somit wird ein signifikanter Teil der Öffentlichkeit durch [algorithmische Entscheidungssysteme] (mit-)gesteuert.“ (Algorithm Watch 2019, S. 34).
Im Mittelpunkt dieser Lerneinheit steht also die Frage, inwiefern Rassismus den auf Plattformen eingesetzten Algorithmen inhärent ist und welche Konsequenzen damit verbunden sein können.
Literatur
AlgorithmWatch (2019). Atlas der Automatisierung. Automatisierte Entscheidungen und Teilhabe in Deutschland. https://atlas.algorithmwatch.org/wp-content/uploads/2019/07/Atlas_der_Automatisierung_von_AlgorithmWatch.pdf
Berners-Lee, T. (2017). 'Tim Berners-Lee: I invented the web. Here are three things we need to change to save it', The Guardian. https://www.theguardian.com/technology/2017/mar/11/tim-berners-lee-web-inventor-save-internet
Daniels, J. (2018). The algorithmic rise of the „alt-right“. In: Contexts 17:1, S. 60–65. https://journals.sagepub.com/doi/pdf/10.1177/1536504218766547
Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479
Jakubowicz, A. (2017). Alt_Right White Lite: trolling, hate speech and cyber racism on social media. Cosmopolitan Civil Societies: an Interdisciplinary Journal. 9(3), 41-60. http://dx.doi.org/10.5130/ccs.v9i3.5655
Matamoros-Fernández, A. (2017). Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube, Information, Communication & Society, 20:6, 930-946, DOI: 10.1080/1369118X.2017.1293130
Dobusch, L. (2019). Radikalisierung durch YouTube? Großzahlige Studie zur Empfehlung rechtsextremer Inhalte. https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/
ODER
Filter, J. (2020). Warum automatisierte Filter rassistisch sind. https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/
Matamoros-Fernández, A. (2017). Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and YouTube, Information, Communication & Society, 20:6, 930-946, DOI: 10.1080/1369118X.2017.1293130
Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479
Diese Lerneinheit wurde von Laura Chihab erstellt und erstmals im Seminar #teachingracism: Rassismuskritik, soziale Netzwerke und geographische Bildung (WS 20/21) eingesetzt. Die Integration der Lerneinheit in die ViGeBi OER erfolgte mit dem freundlichen Einverständnis der Autorin.