Benutzer-Werkzeuge

Webseiten-Werkzeuge


courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2021/01/04 16:44] leofuccourses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2024/01/26 15:28] (aktuell) maob
Zeile 1: Zeile 1:
-===== AB10-1: Neutrale Plattformen? =====+===== AB11-1: Neutrale Plattformen? =====
  
-__YouTube, die Radikalisierungsmaschine?__+**Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit|GoogleDocs]] auf Seite zwei mit Ihren Initialen ein. **
  
-**1aTragen sie sich in folgendem GoogleDocs auf Seite zwei mit ihren Initialen ein.**+** 
 +__ 1YouTube, die Radikalisierungsmaschine?__**
  
-Achten Sie darauf dass max. 5 Personen (in Gruppe 1) und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten: 
  
-https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit+**1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses:studierende:l:s-rassismus:material:m10-2|M10-2: Neutrale Plattformen]]) ein neues Benutzerkonto auf YouTube.**
  
-**1b) Erstellen Sie mit Hilfe einer temporären Email-Adresse (M10-1:  Erstellung einer temporären Mailadresse für Social Media-Kanäleein neues Benutzerkonto auf YouTube.**+  Suchen Sie den YouTube Kanal „kulturlabor“. Starten Sie mit dem Video „„Richtig rechte Comics!“. 
 +  * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. 
 +  Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.
  
-  Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“. +**1bAnalysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnteWarum wurden Ihnen genau diese Videos bzwGruppen vorgeschlagen und keine anderen?**
-  Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (auch gerne „lautlos“ im Hintergrund). Dann klicken Sie weiter (1. Klicken Sie auf die erste Empfehlung2. Klicken Sie auf die zweite Empfehlung usw.). Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. +
-  * Algorithmus verfolgenDokumentieren Sie ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.+
  
-**1c) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen?** +**1c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/|„Radikalisierung durch YouTube“]]** 
- +
-**1d) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/|„Radikalisierung durch YouTube“]]** +
  
  
Zeile 25: Zeile 23:
 ODER ODER
  
-__Facebook & Twitter: Künstlich? Intelligent? Rassistisch?__+**__2) Facebook & Twitter: Künstlich? Intelligent? Rassistisch?__**
  
-**2a) Tragen sie sich in folgendem GoogleDocs auf Seite zwei mit ihren Initialen ein.**  
  
-Achten Sie darauf dass max. 5 Personen (in Gruppe 1und maximal 3 Personen (in Gruppe 2) eine Aufgabe bearbeiten+**2aSpielen Sie dieses 10-Minütige Online-Spiel [[https://www.survivalofthebestfit.com/ | Link zum Spiel]].** 
  
-https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit+Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt
  
-**2b) Spielen Sie dieses 10-Minütige Online-Spiel https://www.survivalofthebestfit.com/.** +**2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/|„Warum automatisierte Filter rassistisch sind“]]** 
  
-Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt. +**2c) Schauen sie sich den Ausschnitt des Videos [[https://www.youtube.com/watch?v=flzruiqVsBU|„Das unsichtbare Rassismus-Problem von Twitter und Co.“]] von Minute 07:04 bis Minute 14:08 an.** 
- +
-**2c) Lesen Sie den kurzen Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/|„Warum automatisierte Filter rassistisch sind“]]**  +
- +
-**2d) Schauen sie sich den Ausschnitt des Videos [[https://www.youtube.com/watch?v=flzruiqVsBU|„Das unsichtbare Rassismus-Problem von Twitter und Co.“]] von Minute 07:04 bis Minute 14:08 an.** +
  
 Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten).
  
-**2e) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen.+**2d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen.
 ** **
  
  
  
 +
 +
 +
 +----
  
  
  
  
 +//Literaturquellen zu 2d)//
  
  
-//Literaturquellen zu 2d)  +//  
-  +Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. [[https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/ | Link zum Text]] 
-Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/+//
  
-Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https://arxiv.org/pdf/1905.12516.pdf+// 
 +Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. [[https://arxiv.org/pdf/1905.12516.pdf | Link zum PDF]] 
 +//
  
-Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf+// 
 +Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. [[https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf | Link zum PDF]]
 // //
  
courses/studierende/l/s-rassismus/arbeitsblatt/ab10-1.1609775050.txt.gz · Zuletzt geändert: 2021/01/04 16:44 von leofuc