Benutzer-Werkzeuge

Webseiten-Werkzeuge


courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2022/12/12 14:58] stezicourses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2024/01/26 15:28] (aktuell) maob
Zeile 1: Zeile 1:
-===== AB10-1: Neutrale Plattformen? =====+===== AB11-1: Neutrale Plattformen? =====
  
 **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit|GoogleDocs]] auf Seite zwei mit Ihren Initialen ein. ** **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit|GoogleDocs]] auf Seite zwei mit Ihren Initialen ein. **
Zeile 9: Zeile 9:
 **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses:studierende:l:s-rassismus:material:m10-2|M10-2: Neutrale Plattformen]]) ein neues Benutzerkonto auf YouTube.** **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses:studierende:l:s-rassismus:material:m10-2|M10-2: Neutrale Plattformen]]) ein neues Benutzerkonto auf YouTube.**
  
-  * Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“.+  * Suchen Sie den YouTube Kanal „kulturlabor“. Starten Sie mit dem Video „„Richtig rechte Comics!“.
   * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon.   * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon.
   * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.   * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren.
Zeile 26: Zeile 26:
  
  
-**2a) Spielen Sie dieses 10-Minütige Online-Spiel https://www.survivalofthebestfit.com/.** +**2a) Spielen Sie dieses 10-Minütige Online-Spiel [[https://www.survivalofthebestfit.com/ | Link zum Spiel]].** 
  
 Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt.  Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt. 
Zeile 53: Zeile 53:
  
 //  // 
-Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/+Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. [[https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/ | Link zum Text]]
 // //
  
 // //
-Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https://arxiv.org/pdf/1905.12516.pdf+Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. [[https://arxiv.org/pdf/1905.12516.pdf | Link zum PDF]]
 // //
  
 // //
-Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf+Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. [[https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf | Link zum PDF]]
 // //
  
courses/studierende/l/s-rassismus/arbeitsblatt/ab10-1.1670853513.txt.gz · Zuletzt geändert: 2022/12/12 14:58 von stezi