Benutzer-Werkzeuge

Webseiten-Werkzeuge


oer:virale-gesellschaftskonstruktionen:arbeitsblatt:ab08-1

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen Revision Vorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
oer:virale-gesellschaftskonstruktionen:arbeitsblatt:ab08-1 [2021/09/27 07:56]
stezi
oer:virale-gesellschaftskonstruktionen:arbeitsblatt:ab08-1 [2021/11/04 17:10] (aktuell)
stezi
Zeile 1: Zeile 1:
 ===== AB08-1: Algorithmen & Rassismus ===== ===== AB08-1: Algorithmen & Rassismus =====
 +==== Aufgabenstellung ====
  
 Bearbeiten Sie Aufgabe 1. oder 2. Tragen Sie sich hierfür in diesem [[|GoogleDocs]] mit ihren Initialen ein. Achten Sie darauf, dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten. Bearbeiten Sie Aufgabe 1. oder 2. Tragen Sie sich hierfür in diesem [[|GoogleDocs]] mit ihren Initialen ein. Achten Sie darauf, dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten.
  
-** 
-__ 1. YouTube, die Radikalisierungsmaschine?__** 
  
 +__ 1. YouTube, die Radikalisierungsmaschine?__
  
-**1. a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[oer:virale-gesellschaftskonstruktionen:material:m08-1|M08-1: Algorithmen]]) ein neues Benutzerkonto auf YouTube.**+ 
 +1. a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[oer:virale-gesellschaftskonstruktionen:material:m08-1|M08-1: Algorithmen]]) ein neues Benutzerkonto auf YouTube.
  
   * Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“.   * Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“.
Zeile 13: Zeile 14:
   * Algorithmus verfolgen: Dokumentieren Sie ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.   * Algorithmus verfolgen: Dokumentieren Sie ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.
  
-**1. b) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen?**+1. b) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen?
  
-**1. c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/|„Radikalisierung durch YouTube“]]** +1. c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/|„Radikalisierung durch YouTube“]]
  
  
Zeile 23: Zeile 24:
 ODER ODER
  
-**__2. Facebook & Twitter: Künstlich? Intelligent? Rassistisch?__**+__2. Facebook & Twitter: Künstlich? Intelligent? Rassistisch?__
  
  
-**2. a) Spielen Sie dieses 10-Minütige Online-Spiel https://www.survivalofthebestfit.com/.** +2. a) Spielen Sie dieses 10-minütige Online-Spiel https://www.survivalofthebestfit.com/.
  
 Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt. Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt.
  
-**2. b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/|„Warum automatisierte Filter rassistisch sind“]]** +2. b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/|„Warum automatisierte Filter rassistisch sind“]] 
  
-**2. c) Schauen sie sich den Ausschnitt des Videos [[https://www.youtube.com/watch?v=flzruiqVsBU|„Das unsichtbare Rassismus-Problem von Twitter und Co.“]] von Minute 07:04 bis Minute 14:08 an.** +2. c) Schauen sie sich den Ausschnitt des Videos [[https://www.youtube.com/watch?v=flzruiqVsBU|„Das unsichtbare Rassismus-Problem von Twitter und Co.“]] von Minute 07:04 bis Minute 14:08 an.
  
 Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten).
  
-**2. d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. +2. d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. 
-**+
  
  
oer/virale-gesellschaftskonstruktionen/arbeitsblatt/ab08-1.1632722213.txt.gz · Zuletzt geändert: 2021/09/27 07:56 von stezi