Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/87310
Title: Assessing the Fairness of Intelligent Systems
Other Titles: Avaliação da Fairness de Sistemas Inteligentes
Authors: Valentim, Inês Filipa Rente
Orientador: Lourenço, Nuno António Marques
Antunes, Nuno Manuel dos Santos
Keywords: Aprendizagem Computacional; Discriminação; Fairness; Sistemas Inteligentes; Tomada de Decisão; Decision Making; Discrimination; Fairness; Intelligent Systems; Machine Learning
Issue Date: 8-Jul-2019
Project: info:eu-repo/grantAgreement/EC/H2020/777154/EU 
Serial title, monograph or event: Assessing the Fairness of Intelligent Systems
Place of publication or event: DEI-FCTUC
Abstract: Atualmente, os sistemas de software baseados em modelos de Aprendizagem Computacional são ubíquos, sendo muitas vezes usados em cenários que afetam diretamente a vida das pessoas. Consequentemente, surgem diversas preocupações sociais e legais, nomeadamente que as decisões suportadas pelos resultados dos modelos possam levar ao tratamento menos favorável de alguns indivíduos, com base em atributos como raça, idade, ou sexo. Na realidade, a fairness é uma das propriedades que os sistemas devem possuir para que cumpram legislação atual, tal como o Regulamento Geral sobre a Proteção de Dados da UE.O objetivo principal deste trabalho é avaliar a fairness de sistemas baseados em modelos de Aprendizagem Computacional, em problemas de classificação. A preparação e o pré-processamento de dados são fulcrais em qualquer pipeline de Aprendizagem Computacional, sendo que era necessário estudar o seu efeito em termos de fairness. Nesta perspetiva, avaliámos o impacto do encoding de atributos categóricos, a remoção do atributo sensível dos dados de treino, e mecanismos de amostragem, como random undersampling e random oversampling. A influência do algoritmo de aprendizagem foi também tida em conta, sendo avaliadas Árvores de Decisão e Random Forests. Medimos a fairness em diferentes etapas do pipeline para compreender os fatores com maior impacto nesta propriedade.Os resultados mostram que fazer uma amostragem de acordo com o output esperado e optar por Random Forests em vez de Árvores de Decisão tende a ter efeitos negativos na fairness. Embora a remoção do atributo sensível dos dados de treino elimine a discriminação direta, os modelos são ainda assim capazes de explorar associações entre este atributo e os restantes, sendo que algumas vezes as classificações acabam mesmo por ser mais injustas que os próprios dados. Desta forma, é necessário que as organizações estejam cientes deste compromisso entre desempenho e fairness, avaliando-o de forma cuidada.
Nowadays, software systems based on Machine Learning models are ubiquitous, often being used in scenarios that directly affect people's lives. Consequently, societal and legal concerns arise, namely that decisions supported by the models' outputs may lead to the unfair treatment of individuals, based on attributes like race, age, or sex. In fact, fairness is one of the properties systems must have to be compliant with current legislation, namely the EU General Data Protection Regulation.The main objective of this work is to assess the fairness of software systems based on Machine Learning models in classification scenarios. Data preparation and pre-processing are key on any Machine Learning pipeline, and their effect on fairness needed to be studied in detail. Thus, we assessed the impact of the encoding of the categorical features, the removal of the sensitive attribute from the training data, as well as sampling methods, such as random undersampling and random oversampling. The influence of the learning algorithm was also considered, with an initial evaluation of Decision Trees and Random Forests. Fairness was measured at different stages of the pipeline to understand the procedures with the most impact on it.Our results show that performing sampling with respect to the true labels and opting for Random Forests over Decision Trees often has a negative effect on fairness. Although removing the sensitive attribute from the training data prevents incurring in direct discrimination, the models are often still able to explore associations between this attribute and the remaining features, with the resulting classifications sometimes even being more unfair than the data. As a result, organisations must be aware of and carefully assess the trade-off between classification performance and fairness.
Description: Dissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia
URI: https://hdl.handle.net/10316/87310
Rights: openAccess
Appears in Collections:UC - Dissertações de Mestrado

Files in This Item:
File Description SizeFormat
DISSERTATION.pdf2.13 MBAdobe PDFView/Open
Show full item record

Page view(s) 50

445
checked on Apr 23, 2024

Download(s) 50

862
checked on Apr 23, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons