Sommersemester 2019
Fairness und Diskriminierungsfreiheit
aus Sicht von Ethik und Informatik
Veranstaltungstyp: | Seminar |
---|---|
Zielgruppe: | Master Informatik: Seminar (S) oder Schlüsselqualifikation (SQ) Master EUKLID |
Umfang: | 2 SWS / 3 ECTS |
Termine: | 24.04.2019, 11.30 – 13.00 Uhr in Raum 110 (Gebäude 30.91), Kick-Off-Veranstaltung 17.06.2019, 10.30 – 13.00 Uhr in Raum 010 (Gebäude 50.34), Mid-Term-Treffen 26.07.2019, 09.45 – ca. 18.00 Uhr in Raum 252 (Gebäude 50.34), Blocktag 30.09.2019, Abgabe der Ausarbeitung 15.10.2019, 09.45 – 11.15 Uhr in Raum 010 (Gebäude 50.34), Freiwillige Abschlussdiskussion |
Veranstaltungsnr.: | 5012075 |
Lehrstühle: | Anwendungsorientierte Formale Verifikation Kryptographie und Sicherheit Praktische Philosophie |
Lehrkräfte: |
Prof. Dr. Bernhard Beckert |
ILIAS-Kurs: | Link |
Anmeldung: | Bei Fragen zum Seminar oder zur Anmeldung wenden Sie sich bitte an Michael Kirsten. |
Platzvergabe: | Reihenfolge nach Eingang der Anmeldung |
Hintergrund
Wenn Sie in ein Geschäft oder eine Behörde gehen und ein dortiger Angestellter sich allein aufgrund Ihrer Nationalität, Ihres Geschlechts oder Ihres ethnischen Hintergrundes weigert, Sie zu bedienen, so sind Sie Opfer einer widerrechtlichen Diskriminierung geworden.
Aber was, wenn eine Bank oder eine Behörde aufgrund eines – oberflächlich betrachtet – diskriminierungsfreien Algorithmus‘ entscheidet und sich bei genauerer Prüfung herausstellt, dass die Negativentscheidungen einen überproportionalen Anteil von Leuten betreffen, die – genau wie Sie – bestimmte geschützte Merkmale (protected characteristics) tragen?
Solche Fälle sind oftmals nicht einfach zu beurteilen.
Eine Prognosesoftware für die Rückfallwahrscheinlichkeit von Straftätern (PRS) hat in den USA deutlich mehr falsche Positive für black
defendants und deutlich mehr falsche Negative für white defendants produziert. Ob dies einen Fall von widerrechtlicher oder moralisch
falscher Diskriminie-
rung darstellt, wurde in der Fachliteratur kontrovers erörtert. So ist argumentiert worden, dass unterschiedliche
einschlägige und plausible Stan-
dards für Fairness inkompatibel sind (Chouldechova 2017). Wie lässt sich in solchen Fällen ohne
Willkür entscheiden, ob eine Prozedur diskriminierend ist oder nicht?
Ist es beispielsweise diskriminierend, wenn eine Lungenklinik grundsätzlich keine Raucherinnen und Raucher anstellt oder wenn Leute, die als
weniger hübsch empfunden werden, weniger verdienen als Leute, die als hübscher gelten (Lippert-Rasmussen 2015,2017)?
Lässt sich von Diskriminierung sprechen, ohne dass jemand die Absicht hat oder hatte, Leute aufgrund geschützter Merkmale zu benachteiligen?
Themenbereich
Kann ein Algorithmus überhaupt gegen die Diskriminierungsfreiheit verstoßen? Wann ist eine algorithmische Entscheidung unfair oder fair bzw. diskriminierend oder nicht-diskriminierend? Kann ein sinnvoller Algorithmus überhaupt nicht-diskriminierend sein? Wie entstehen unfaire Vorurteile bei Algorithmen und wie kann man sie entfernen oder abschwächen? Wie sind solche Entscheidungen gesellschaftlich zu bewerten? Unter welchen Bedingungen stellt eine ungleiche Behandlung verschiedener Leute Diskriminierung dar?
Solche und verwandte Fragestellungen möchten wir hier vertieft behandeln und dabei Studierenden ermöglichen, über den Rand der Disziplin Informatik hinaus zu blicken und Themen am Schnittpunkt der Bereiche der theoretischen Informatik sowie der praktischen Philosophie auf reale (informatisch-) gesellschaftliche Probleme anzuwenden. Das Seminar wird interdisziplinär veranstaltet und richtet sich vorrangig an Studierende der Informatik mit Interesse an der Verbindung philosophisch-ethischer und formal-logischer Fragestellungen mit Anwendung auf das praktische Problem der Diskriminierung durch maschinell-gelernte Entscheidungsverfahren.
Unter Ethik verstehen wir die systematische Analyse sowie argumentative Begründung oder Zurückweisung von präskriptiven Sätzen und wertenden Ausdrücken. Beispiele für Ausdrücke, die im allgemeinen Sprachgebrauch eine Negativwertung vermitteln, sind Gutmensch, menschenverachtend oder Diskriminierung. Beispiel für einen präskriptiven Satz ist: "Die Software Y ist diskriminierend gegenüber X-Men und muss daher verboten werden!"
Mögliche Themen sind unter Anderem:
- Diskriminierungsprobleme real-eingesetzter maschineller Lernverfahren
- Techniken, Diskriminierung in Algorithmen aufzuspüren
- Verschiedene formale Fairnessdefinitionen und -modelle, sowie deren Unterschiede
- Methoden zur Vermeidung von Diskriminierung in maschinell-gelernten Entscheidungsverfahren
- Maßnahmen, Unfairness und Diskriminierung in maschinellen Lernverfahren abzumildern oder zu entfernen
- Ethische Betrachtungen zu Fairness und Diskriminierungsfreiheit
Ablauf
Das Seminar findet als Blockveranstaltung an einem Tag (siehe oben) in der letzten Vorlesungswoche statt. Innerhalb der Vorlesungszeit finden außerdem ein Kick-Off-Treffen (erste Vorlesungswoche) sowie ein Mid-Term-Treffen (Mitte Juni) statt. Wir bitten um frühzeitige Anmeldung. Die Themenvergabe erfolgt in der ersten Vorlesungswoche nach Reihenfolge der eingegangenen Anmeldungen.
Aufgabenstellung
Für das Seminar werden von allen Teilnehmenden für eine erfolgreiche Teilnahme folgende Leistungen erwartet:
- Selbstständiges Erarbeiten der Inhalte des gewählten Themas auf Basis einer Auswahl von Einstiegspapieren. In regelmäßigen Treffen mit einem/r betreuenden wissenschaftlichen Mitarbeiter/in erhalten Sie hierbei die nötige Unterstützung.
- Auswahl und Gliederung der Inhalte, die in Ihrem Seminarvortrag präsentiert werden sollen.
- Kurze Vorstellung Ihrer Gliederung im Plenum.
- Entscheidung, wie Sie die Inhalte präsentieren wollen.
- Erstellung der Folien für Ihren Seminarvortrag und gegebenenfalls weiterer Materialien.
- Dreißminütiger Seminarvortrag im Plenum gefolgt von einer etwa fünfzehnminütigen Diskussion.
- Nach dem Vortrag: Verfassen einer etwa zehnseitigen Ausarbeitung, die die wesentlichen Inhalte Ihres Vortrags zusammenfassend darstellt.
Folien und Materialien
Themenliste
# | Thema | Betreuung | Studiengang |
---|---|---|---|
1. | Discrimination in the Philosophical Debate | Prof. Schefczyk | EUKLID / SQ |
2. | Discrimination as a Legal Term | Prof. Schefczyk | EUKLID / SQ |
3. | Racial Profiling | Prof. Schefczyk | EUKLID / SQ |
4. | Examples and Reasons for Unwanted Algorithmic Discrimination | Prof. Beckert | INFORMATIK |
5. | Formalizing Fairness and Non-Discrimination | Prof. Beckert | INFORMATIK |
6. | Techniques to Discover and Evaluate Algorithmic Discrimination | Michael Kirsten | INFORMATIK |
7. | Counterfactual Fairness | Jonas Schiffl | INFORMATIK |
8. | Trade-Offs and the Cost of Fairness | Jonas Schiffl | INFORMATIK |
9. | Algorithmic Fairness and Social Equality (Economic Models) | Michael Kirsten | INFORMATIK |
10. | Causal Reasoning for Fairness | Michael Kirsten | INFORMATIK |
11. | Approximate Fair Treatment and Sanitizing Classifiers | Alexander Koch | INFORMATIK |
12. | Composition of Approximate Fair Treatment | Alexander Koch | INFORMATIK |