Project

Back to overview

Socially acceptable AI and fairness trade-offs in predictive analytics

English title Socially acceptable AI and fairness trade-offs in predictive analytics
Applicant Heitz Christoph
Number 187473
Funding scheme NRP 77 Digital Transformation
Research institution Institut für Datenanalyse und Prozessdesign ZHAW Zürcher Hochschule für Angewandte Wissenschaften
Institution of higher education Zurich University of Applied Sciences - ZHAW
Main discipline Philosophy
Start/End 01.06.2020 - 31.05.2024
Approved amount 619'808.00
Show all

All Disciplines (3)

Discipline
Philosophy
Applied psychology
Information Technology

Keywords (7)

Machine learning; Participatory design; Ethics; ML based decision making; Artificial Intelligence; Fairness; Human Ressource Management

Lay Summary (German)

Lead
Künstliche Intelligenz, die bei wichtigen Entscheidungen involviert ist, soll sozialverträglich sein. Zu diesem Zweck schaffen Fachleute aus Ethik, Informatik und Management ein «Fairness Lab», um den interdisziplinären Austausch und entsprechende Ausbildung von Fachleuten zu ermöglichen.
Lay summary
Porträt/Projektbeschrieb: 

Wird künstliche Intelligenz (KI) eingesetzt, z.B. bei Personalentscheidungen in Unternehmen, kann dies zu sozialer Ungerechtigkeit führen. Ziel des interdisziplinären Projektes ist die Entwicklung einer Methodik, mit der faire KI-Anwendungen geschaffen werden können. Diese unterstützt den Diskurs von Stakeholdern, wie KI in konkreten Anwendungsfällen sozialverträglich ausgestaltet werden kann. Sie erlaubt es zudem, Software-Entwickler in ethischen Themen auszubilden.
 
Das Projekt verbindet philosophische, technische und sozialwissenschaftliche Fragestellungen: Was bedeutet Fairness? Wie wird Fairness wahrgenommen? Wie kann Fairness in KI implementiert werden? Das Projekt verbindet so den ethischen Diskurs über KI mit der technologischen Umsetzung von KI.

Hintergrund / Ausgangslage: 
Im Bereich der  künstliche Intelligenz (KI) greifen datenbasierte Entscheidungssysteme  zunehmend in die soziale Lebenswelt von Menschen ein. Dies wirft die Frage auf, wie diese Systeme kompatibel mit gesellschaftlichen Normen in Bezug auf Fairness und Gerechtigkeit gestaltet werden können. Die konkrete Ausgestaltung solcher Systeme erfordert eine reflektierte Verknüpfung von Ethik, Technologie und sozialen Entscheidungsprozessen. 

Ziele:
Im Zentrum der Methodik steht das “Fairness-Lab”. Dies ist eine IT- Umgebung, mit der die Fairness-Auswirkungen von KI-Anwendungen sichtbar gemacht und gestaltet werden können. Entwickler können so in einen Dialog mit Anwendern und Betroffenen treten, um gemeinsam eine sozialverträgliche Lösung zu entwerfen. Firmen können damit gesellschaftlich akzeptierte und ethisch verantwortbare Algorithmen schaffen. Die Methodik wird mit konkreten Anwendungsfällen aus dem Personalwesen getestet.

Bedeutung / möglicher Nutzen: 

Durch die konsequente Verknüpfung von ethischen Aspekten (Was bedeutet fair im aktuellen Kontext?), sozialwissenschaftlichen Aspekten (Was wird in welchem Kontext als fair empfunden?) und technologischen Aspekten (Wie kann ein definiertes Fairness-Konzept implementiert werden?) soll ein praxistaugliches Instrument zur Unterstützung eines Fairness-by-Design-Ansatzes entstehen. Damit leistet das Projekt einen konkreten Beitrag zur Förderung von fairer und sozial akzeptierter KI.
 


Direct link to Lay Summary Last update: 04.02.2020

Responsible applicant and co-applicants

Employees

Project partner

Publications

Publication
Group Fairness: Independence Revisited
Räz Tim (2021), Group Fairness: Independence Revisited, in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 129-137, Association for Computing Machinery, New York, NY, USA129-137.
On the Moral Justification of Statistical Parity
Hertweck Corinna, Heitz Christoph, Loi Michele (2021), On the Moral Justification of Statistical Parity, in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 747-757, Association for Computing Machinery, New York, NY, USA747-757.

Collaboration

Group / person Country
Types of collaboration
Kyiv School of Economics Ukraine (Europe)
- in-depth/constructive exchanges on approaches, methods or results
ZHAW Human Resources Switzerland (Europe)
- in-depth/constructive exchanges on approaches, methods or results
- Industry/business/other use-inspired collaboration
Swiss Alliance for Data-Intensive Services (data+service) Switzerland (Europe)
- Industry/business/other use-inspired collaboration
European Center for Living Technologies (ECTL), Univ. of Venice - Project AI4EU Italy (Europe)
- in-depth/constructive exchanges on approaches, methods or results
- Publication
- Exchange of personnel
Anu Masso Estonia (Europe)
- in-depth/constructive exchanges on approaches, methods or results
- Publication
- Exchange of personnel
ZHAW School of Engineering - Bachelor program Switzerland (Europe)
- in-depth/constructive exchanges on approaches, methods or results
- Research Infrastructure
- Exchange of personnel
Politecnico di Milano Italy (Europe)
- in-depth/constructive exchanges on approaches, methods or results
- Publication
- Exchange of personnel
ZHAW Continuing Education Switzerland (Europe)
- Industry/business/other use-inspired collaboration

Communication with the public

Communication Title Media Place Year
Talks/events/exhibitions Digitale Transformation: Wie fair sind Algorithmen? German-speaking Switzerland 2021
New media (web, blogs, podcasts, news feeds etc.) Rassismus vorprogrammiert? – Chancen und Risiken von Algorithmen Podcast von GRA und GMS German-speaking Switzerland 2021
New media (web, blogs, podcasts, news feeds etc.) Website des Projektes International 2021

Associated projects

Number Title Start Funding scheme
167208 Big Data or Big Brother? - Big Data HR Control Practices and Employee Trust 01.03.2017 NRP 75 Big Data
167218 Between Solidarity and Personalization - Dealing with Ethical and Legal Big Data Challenges in the Insurance Industry 01.04.2017 NRP 75 Big Data
199183 Blurred Team Boundaries: Multiple Team Membership in Open Source Software Development Teams 01.08.2021 Return CH Postdoc.Mobility

Abstract

Fairness and non-discrimination are basic requirements for socially acceptable implementations of AI, as these are basic values of our society. However, the relation between statistical fairness concepts, the fairness perception of human stakeholders, and principles discussed in philosophical ethics is not well understood. The objective of our project is to develop a methodology to facilitate the development of fairness-by-design approaches for AI-based decision-making systems. The core of this methodology is the “Fairness Lab”, an IT environment for understanding, explaining and visualizing the fairness implications of a ML-based decision system. It will help companies to build socially accepted and ethically justifiable AI applications, educate fairness to students and developers, and support informed political decisions on regulating AI-based decision making. Conceptually, we integrate statistical approaches from computer science and philosophical theories of justice and discrimination into interdisciplinary theories of predictive fairness. With empirical research, we study the fairness perception of different stakeholders for aligning the theoretical approach. The utility of the Fairness Lab as a tool for helping to create “fairer” applications will be assessed in the context of participatory design. With respect to application areas, we focus on employment and education. Our project makes a significant contribution to the understanding of fairness in the digital transformation and to promoting improved conditions for the deployment of fair and socially accepted AI.
-