===== AB11-1: Neutrale Plattformen? ===== **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https://docs.google.com/document/d/1bAvnqL5DuQHDl9VOwQ4MxFpmOMySrZ5oEV8XES3D0u0/edit|GoogleDocs]] auf Seite zwei mit Ihren Initialen ein. ** ** __ 1) YouTube, die Radikalisierungsmaschine?__** **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses:studierende:l:s-rassismus:material:m10-2|M10-2: Neutrale Plattformen]]) ein neues Benutzerkonto auf YouTube.** * Suchen Sie den YouTube Kanal „kulturlabor“. Starten Sie mit dem Video „„Richtig rechte Comics!“. * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren. **1b) Analysieren Sie, welchen Parametern der Empfehlungsalgorithmus gefolgt sein könnte: Warum wurden Ihnen genau diese Videos bzw. Gruppen vorgeschlagen und keine anderen?** **1c) Lesen Sie den Beitrag von Leonhard Dobusch 2019 [[https://netzpolitik.org/2019/radikalisierung-durch-youtube-grosszahlige-studie-zur-empfehlung-rechtsextremer-inhalte/|„Radikalisierung durch YouTube“]]** Können Sie die Forschungsergebnisse aufgrund Ihrer eigenen Erfahrung bestätigen? Wo widersprechen Sie? ODER **__2) Facebook & Twitter: Künstlich? Intelligent? Rassistisch?__** **2a) Spielen Sie dieses 10-Minütige Online-Spiel [[https://www.survivalofthebestfit.com/ | Link zum Spiel]].** Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, wie diskriminierend wirkende „bias“ (Neigungen, Vorurteile) sich in Algorithmen einschreibt. **2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https://netzpolitik.org/2020/warum-automatisierte-filter-rassistisch-sind/|„Warum automatisierte Filter rassistisch sind“]]** **2c) Schauen sie sich den Ausschnitt des Videos [[https://www.youtube.com/watch?v=flzruiqVsBU|„Das unsichtbare Rassismus-Problem von Twitter und Co.“]] von Minute 07:04 bis Minute 14:08 an.** Hier werden Erkenntnisse aus mehreren Studien, die rassistische „bias“ in Erkennungsalgorithmen erforschen, zusammengefasst (s. Quellen unten). **2d) Ihre Spielerfahrung und aktuelle Studienergebnisse in Betracht ziehend: Analysieren Sie, wo genau die Ursachen rassistischer Algorithmen liegen. ** ---- //Literaturquellen zu 2d)// // Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. [[https://algorithmwatch.org/en/story/automated-moderation-perspective-bias/ | Link zum Text]] // // Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. [[https://arxiv.org/pdf/1905.12516.pdf | Link zum PDF]] // // Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. [[https://homes.cs.washington.edu/~msap/pdfs/sap2019risk.pdf | Link zum PDF]] //