courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
| Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
| courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2022/12/12 14:50] – stezi | courses:studierende:l:s-rassismus:arbeitsblatt:ab10-1 [2025/09/29 14:00] (aktuell) – Externe Bearbeitung 127.0.0.1 | ||
|---|---|---|---|
| Zeile 1: | Zeile 1: | ||
| - | ===== AB10-1: Neutrale Plattformen? | + | ===== AB11-1: Neutrale Plattformen? |
| **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https:// | **Bearbeiten Sie Aufgabe 1) ODER 2). Tragen Sie sich hierfür in diesem [[https:// | ||
| Zeile 9: | Zeile 9: | ||
| **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses: | **1a) Erstellen Sie mit Hilfe einer temporären Email-Adresse ([[courses: | ||
| - | * Suchen Sie den YouTube Kanal „Malenki“. Starten Sie mit dem Video „Multikultipropaganda für Kids“. | + | * Suchen Sie den YouTube Kanal „kulturlabor“. Starten Sie mit dem Video „„Richtig rechte Comics!“. |
| * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. | * Algorithmus füttern: Lassen Sie die Videos bis zum Ende durchlaufen (gerne „lautlos“ im Hintergrund und über die Woche verteilt). Dann klicken Sie weiter: 1. Klicken Sie auf die erste Empfehlung, 2. Klicken Sie auf die zweite Empfehlung usw. Liken Sie mindestens ein Video davon. Kommentieren Sie mindestens ein Video davon. | ||
| * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren. | * Algorithmus verfolgen: Dokumentieren Sie Ihren Klickpfad mit Nummer und dem jeweiligen Titel des Videos bis zu Video 8. Dokumentieren Sie ebenfalls, welche Videos Sie liken oder kommentieren. | ||
| Zeile 26: | Zeile 26: | ||
| - | **2a) Spielen Sie dieses 10-Minütige Online-Spiel https:// | + | **2a) Spielen Sie dieses 10-Minütige Online-Spiel |
| - | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, | + | Es führt in die Thematik (rassistischer) Diskriminierung durch Künstliche Intelligenz (auch AI / Artificial Intelligence) ein und demonstriert, |
| **2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https:// | **2b) Lesen Sie den Beitrag von Johannes Filter 2020 [[https:// | ||
| Zeile 53: | Zeile 53: | ||
| // | // | ||
| - | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. https:// | + | Kayser-Bril (2020). Automated moderation tool from Google rates People of Color and gays as “toxic”. |
| // | // | ||
| // | // | ||
| - | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. https:// | + | Davidson et al. (2019). Racial Bias in Hate Speech and Abusive Language Detection Datasets. |
| // | // | ||
| // | // | ||
| - | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. https:// | + | Sap et al. (2019). The Risk of Racial Bias in Hate Speech Detection. |
| // | // | ||
courses/studierende/l/s-rassismus/arbeitsblatt/ab10-1.1670853041.txt.gz · Zuletzt geändert: 2025/09/29 14:09 (Externe Bearbeitung)
