Benutzer-Werkzeuge

Webseiten-Werkzeuge


oer:virale-gesellschaftskonstruktionen:lerneinheit:algorithmen

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
oer:virale-gesellschaftskonstruktionen:lerneinheit:algorithmen [2021/09/28 15:13]
stezi [Lernergebnisse & Kompetenzen]
oer:virale-gesellschaftskonstruktionen:lerneinheit:algorithmen [2022/07/20 09:48] (aktuell)
ismus
Zeile 1: Zeile 1:
 ===== LE08: Algorithmen & Rassismus ===== ===== LE08: Algorithmen & Rassismus =====
  
-Diese Sitzung widmet sich den von großen Social Media Plattformen wie Facebook, Twitter oder YouTube eingesetzten Algorithmensowie deren Verortung und Bedeutung in einem rassistisch strukturierten Gesellschaftssystem. Wir werden uns der Frage stellen, inwiefern die Algorithmen von Social Media Plattformen neutral agieren können. +Diese Sitzung widmet sich den von großen Social Media Plattformen wie Facebook, Twitter oder YouTube eingesetzten Algorithmen sowie deren Verortung und Bedeutung in einem rassistisch strukturierten Gesellschaftssystem. Wir werden uns der Frage stellen, inwiefern die Algorithmen von Social Media Plattformen neutral agieren können. 
  
 ==== Inhalte der Lerneinheit ==== ==== Inhalte der Lerneinheit ====
Zeile 21: Zeile 21:
  
   * die Wirkungsweisen und -mächtigkeiten von derzeit eingesetzten Algorithmen auf Social Media Plattformen anhand ausgewählter Beispielen kritisch reflektieren.   * die Wirkungsweisen und -mächtigkeiten von derzeit eingesetzten Algorithmen auf Social Media Plattformen anhand ausgewählter Beispielen kritisch reflektieren.
-  * nachvollziehen, wie sich gesellschaftliche, d.h. auch rassistische, Muster in technischen Strukturen reproduzieren können.+  * nachvollziehen, wie sich gesellschaftliche, d. h. auch rassistische, Muster in technischen Strukturen reproduzieren können.
  
  
Zeile 28: Zeile 28:
 ==== Neutrale Plattformen? ==== ==== Neutrale Plattformen? ====
  
-Eine der Grundideen des World Wide Webs, das in den 1990er Jahren entwickelt wurde, war die Schaffung eines offenen, für jedermann zugänglichen Kommunikationssystems, frei von zentraler Kontrolle durch Regierungen oder Industrie (Jakubowicz 2017, 43). Von der Werbeindustrie wurde das Internet damals als “place where we can communicate mind-to-mind, where there is no race, no gender, no infirmities… only minds” (Daniels 2018, 62) angepriesen. Doch das Ideal eines „race-less“ Internet blieb Utopie. Der Schöpfer des World Wide Webs, Tim Berners-Lee, erkannt an, dass sein Traum der freien Kommunikation allerpolitischen Hass aktiv re- und mitproduziert (Berners-Lee 2017). Die Tech-Industrie ist sich dieser Verantwortung bisher nur unzureichend bewusst, da sie Rassismus meist als „Fehler“ im System, statt als grundlegenden Bestandteil des Systems versteht (Daniels 2018, 64). Demnach sind und werden (unbewusste) Vorstellungen von „Rasse“ in digitalen Strukturen (z.B. Video-Spiele, Drop-Down Menüs, Plattform-Designs, Web-Browser …) mit eincodiert (Daniels 2018; Matamoros-Fernández 2017), bspw. wenn Weiße als Normtypus für Programmierungen herangezogen werden. Rassismus wird so gleichzeitig reproduziert und neu hervor gebracht.+Eine der Grundideen des World Wide Webs, das in den 1990er-Jahren entwickelt wurde, war die Schaffung eines offenen, für jedermann zugänglichen Kommunikationssystems, frei von zentraler Kontrolle durch Regierungen oder Industrie (Jakubowicz 2017, 43). Von der Werbeindustrie wurde das Internet damals als “place where we can communicate mind-to-mind, where there is no race, no gender, no infirmities… only minds” (Daniels 2018, 62) angepriesen. Doch das Ideal eines „race-less“ Internet blieb Utopie. Der Schöpfer des World Wide Webs, Tim Berners-Lee, erkannt an, dass sein Traum der freien Kommunikation aller politischen Hass aktiv re- und mitproduziert (Berners-Lee 2017). Die Tech-Industrie ist sich dieser Verantwortung bisher nur unzureichend bewusst, da sie Rassismus meist als „Fehler“ im System, statt als grundlegenden Bestandteil des Systems versteht (Daniels 2018, 64). Demnach sind und werden (unbewusste) Vorstellungen von „Rasse“ in digitalen Strukturen (z. B. Video-Spiele, Drop-Down Menüs, Plattform-Designs, Web-Browser …) mit eincodiert (Daniels 2018; Matamoros-Fernández 2017), bspw. wenn Weiße als Normtypus für Programmierungen herangezogen werden. Rassismus wird so gleichzeitig reproduziert und neu hervorgebracht.
  
-Social Media Plattformen stellen zum einen selbst ein Design dar, in das Rassismus eingebaut sein kann. Zum anderen setzen sie eine Vielzahl von Technologienwie bspw. Algorithmen, eindie ebenfalls rassistische Imaginationen in ihren Programmierungen tragen können. Diese auf impliziten (rassistischen) Normen basierenden Algorithmen entscheiden mit, was wir auf Plattformen sehen und was nicht, wen wir sehen und wen nicht, was „trendet“ und was nicht. Sie sortieren und (re)organisieren Inhalte und strukturieren damit auch unsere gesellschaftliche Realität (Gillespie, 2015). „Demzufolge sind digitale Plattformen „Intermediäre“, das heißt Mittler, die zwischen den Erzeuger*innen der Inhalte auf der einen und den Leser*innen und Zuschauer*innen auf der anderen Seite stehen. […] Bei der großen Zahl von Nutzer*innen, die Marktführer wie Facebook oder YouTube haben, muss man davon ausgehen, dass diese Dienste einen bedeutenden Teil der Medienöffentlichkeit darstellen. Somit wird ein signifikanter Teil der Öffentlichkeit durch [algorithmische Entscheidungssysteme] (mit-)gesteuert.“ (Algorithm Watch 2019, S. 34).+Social Media Plattformen stellen zum einen selbst ein Design dar, in das Rassismus eingebaut sein kann. Zum anderen setzen sie eine Vielzahl von Technologien wie bspw. Algorithmen, ein die ebenfalls rassistische Imaginationen in ihren Programmierungen tragen können. Diese auf impliziten (rassistischen) Normen basierenden Algorithmen entscheiden mit, was wir auf Plattformen sehen und was nicht, wen wir sehen und wen nicht, was „trendet“ und was nicht. Sie sortieren und (re)organisieren Inhalte und strukturieren damit auch unsere gesellschaftliche Realität (Gillespie, 2015). „Demzufolge sind digitale Plattformen „Intermediäre“, das heißt Mittler, die zwischen den Erzeuger*innen der Inhalte auf der einen und den Leser*innen und Zuschauer*innen auf der anderen Seite stehen. […] Bei der großen Zahl von Nutzer*innen, die Marktführer wie Facebook oder YouTube haben, muss man davon ausgehen, dass diese Dienste einen bedeutenden Teil der Medienöffentlichkeit darstellen. Somit wird ein signifikanter Teil der Öffentlichkeit durch [algorithmische Entscheidungssysteme] (mit-)gesteuert.“ (Algorithm Watch 2019, S. 34).
  
 Im Mittelpunkt dieser Lerneinheit steht also die Frage, inwiefern Rassismus den auf Plattformen eingesetzten Algorithmen inhärent ist und welche Konsequenzen damit verbunden sein können. Im Mittelpunkt dieser Lerneinheit steht also die Frage, inwiefern Rassismus den auf Plattformen eingesetzten Algorithmen inhärent ist und welche Konsequenzen damit verbunden sein können.
Zeile 68: Zeile 68:
  
 Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479 Gillespie, T. (2015). Platforms Intervene. In: Social Media + Society, 1(1), 1-2. DOI:10.1177/2056305115580479
 +
 +
 +
 +
 +
 +//Diese Lerneinheit wurde von Laura Chihab erstellt und erstmals im Seminar [[https://foc.geomedienlabor.de/doku.php?id=courses:studierende:l:s-rassismus:description|#teachingracism: Rassismuskritik, soziale Netzwerke und geographische Bildung]] (WS 20/21) eingesetzt. Die Integration der Lerneinheit in die ViGeBi OER erfolgte mit dem freundlichen Einverständnis der Autorin.// 
  
oer/virale-gesellschaftskonstruktionen/lerneinheit/algorithmen.1632834829.txt.gz · Zuletzt geändert: 2021/09/28 15:13 von stezi