courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2021/01/04 16:44] – leofuc | courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2024/01/26 15:28] (aktuell) – maob | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
- | ===== AB10-1: Neutrale Plattformen? | + | ===== AB11-1: Neutrale Plattformen? |
- | __YouTube, die Radikalisierungsmaschine? | + | **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https:// |
- | **1a) Tragen sie sich in folgendem GoogleDocs auf Seite zwei mit ihren Initialen ein.** | + | ** |
+ | __ 1) YouTube, die Radikalisierungsmaschine? | ||
- | Achten Sie darauf dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten: | ||
- | https:// | + | **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses:studierende: |
- | **1b) Erstellen | + | |
+ | * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. | ||
+ | | ||
- | | + | **1b) Analysieren |
- | | + | |
- | * Algorithmus verfolgen: Dokumentieren Sie ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos | + | |
- | **1c) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen? | + | **1c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https:// |
- | + | ||
- | **1d) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https:// | + | |
Zeile 25: | Zeile 23: | ||
ODER | ODER | ||
- | __Facebook | + | **__2) Facebook |
- | **2a) Tragen sie sich in folgendem GoogleDocs auf Seite zwei mit ihren Initialen ein.** | ||
- | Achten Sie darauf dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten: | + | **2a) Spielen Sie dieses 10-Minütige Online-Spiel [[https:// |
- | https://docs.google.com/ | + | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, |
- | **2b) Spielen | + | **2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/ |
- | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, | + | **2c) Schauen sie sich den Ausschnitt des Videos [[https:// |
- | + | ||
- | **2c) Lesen Sie den kurzen Beitrag von Johannes Filter 2020 [[https:// | + | |
- | + | ||
- | **2d) Schauen sie sich den Ausschnitt des Videos [[https:// | + | |
Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). | Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). | ||
- | **2e) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. | + | **2d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. |
** | ** | ||
+ | |||
+ | |||
+ | |||
+ | ---- | ||
+ | // | ||
- | //Literaturquellen zu 2d) | + | // |
- | + | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. | |
- | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https:// | + | // |
- | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https:// | + | // |
+ | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. | ||
+ | // | ||
- | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https:// | + | // |
+ | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. | ||
// | // | ||
courses/studierende/l/s-rassismus/arbeitsblatt/ab10-1.1609775050.txt.gz · Zuletzt geändert: 2021/01/04 16:44 von leofuc