Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/98004
DC FieldValueLanguage
dc.contributor.advisorRibeiro, Bernardete Martins-
dc.contributor.advisorSilva, Catarina Helena Branco Simões da-
dc.contributor.authorFaria, Tiago Alves-
dc.date.accessioned2022-02-02T23:03:14Z-
dc.date.available2022-02-02T23:03:14Z-
dc.date.issued2021-11-03-
dc.date.submitted2022-02-02-
dc.identifier.urihttps://hdl.handle.net/10316/98004-
dc.descriptionDissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractMétodos deep-learning, como redes neurais convolucionais e recorrentes, têm-se tronado nos algoritmos padrão numa vasta gama de sectores de actividade. No entanto, a aplicabilidade em várias aplicações críticas, por exemplo, políticas públicas, sistemas de segurança, diagnósticos de saúde e detecção de fraude, tem enfrentado alguns obstáculos devido à falta de interpretabilidade destes modelos.A interpretabilidade tem sido um foco de investigação desde o início da concepção de modelos de a, isto deve-se ao facto de que a elevada precisão e abstracção destes modelos trazerem o problema da caixa negra o que por sua vez leva ao problema da precisão vs interpretabilidade. Este aspecto também é importante devido a problemas de fiabilidade, um modelo que não inspire confiança é um modelo que dificilmente será utilizado. Estas questões surgem frequentemente em cenários reais de aplicação, onde os utilizadores finais não são facilmente convencidos da fiabilidade destes modelos caixa negra. A existência de modelos tendenciosos (biased) é um exemplo claro deste problema. Com a crescente utilização de modelos inteligentes como parte de sistemas de recomendação e social scoring, os preconceitos sociais presentes nos dados utilizados na formação destes modelos tornaram-se num problema global recorrente que precisa de ser abordado. Quando estes modelos são alimentados com estes preconceitos implícitos durante o a fase de treino, aprendem também a ser preconceituosos, propagando e agravando potencialmente o problema a longo prazo. Definindo o contexto no sector de serviços financeiros, se um banco decidir adoptar um modelo de aprendizagem máquina para classificar a solvabilidade de um candidato, e utilizar dados históricos do banco, enquanto estes candidatos foram previamente aprovados ou negados por seres humanos, o modelo pode exibir padrões de preconceito contra géneros ou etnias. O trabalho na interpretabilidade visa mitigar problemas como este ao permitir a abertura de modelos de caixa negra. Ao compreender o raciocínio subjacente a uma determinada decisão, não só compreenderemos melhor o processo de tomada de decisão passado das entidades que os utilizam, como também seremos capazes de mitigar os preconceitos futuros, bem como aumentar a confiança nas decisões apoiadas pelos modelos.Os resultados mostram que a transferência de conhecimento pode ser utilizada para melhorar a precisão de modelos mais interpretáveis como árvores decisão e, em certos contextos, permite que estes substituam os modelos deep-learning.Em alguns casos o modelo para o qual o conhecimento está a ser transferido dadas as suas diferenças durante o treino pode ter capacidades diferentes, por exemplo, um recall, mantendo o mesmo F-score, o que permite a criação de um conjunto de modelos de modo a obter o melhor de ambas as partes.por
dc.description.abstractDeep learning methods, as convolutional and recurrent neural networks, are becoming standard go-to algorithms for a wide range of activity sectors. However, applicability in several critical applications, e.g. public policy, security/safety systems, health diagnosis, and fraud detection, has faced some hurdles due to lack of model interpretability. Interpretability has been a focus of research since the beginning of Deep Learning because the high accuracy and high abstraction bring the black-box problem, i.e. the accuracy vs interpretability problem. This aspect is also of importance because of trustworthiness issues, i.e. a model that is not trusted is a model that will not be used. These issues often arise in real application scenarios, where end-users are not easily convinced of the reliability of the black-box model. The existence of biased algorithms is a clear example of this problem.With the increased use of intelligent models as part of recommendation systems and social scorings, social biases present in the data used to train these models have made it a recurrent global problem that needs to be addressed. When algorithms are fed these implicit biases they learn how to be biased too, potentially propagating and escalating the problem in the long run. Setting the context on financial services, if a bank decides to adopt a \acrfull{ml} algorithm to classify the creditworthiness of an applicant, and uses bank historical data, when applicants were approved or denied by humans, the algorithm may display patterns of bias against gender or ethnicity. Works on interpretability aim to mitigate problems like this by opening these black-box models. If we can understand the reasoning behind a certain decision not only we will better understand the past decision-making process of the entities using these models, but we will also be able to mitigate future biases as well as increase trust in the decisions supported by the models.Results show that knowledge transfer can be used to improve more interpretable models accuracy and in certain contexts allows for complete substitution of the DNN model in place of a more interpretable model like a decision-tree. It is also shown than in certain experiments the model to which the knowledge is being transferred too has different capabilities e.g. higher recall while keeping same F-score, which allows for the creation of a model ensemble in order to get the best of both parts.eng
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectinteligência artificialpor
dc.subjectinterpretabilidadepor
dc.subjectárvores de decisãopor
dc.subjectpreconceitopor
dc.subjectaprendizagem máquinapor
dc.subjectartificial inteligenceeng
dc.subjectinterpretabilityeng
dc.subjectdecision-treeeng
dc.subjectbiaseng
dc.subjectmachine learningeng
dc.titleFinancial interpretability with intelligent methods understanding intelligent decisionmaking systems with knowledge transfereng
dc.title.alternativeFINANCIAL INTERPRETABILITY WITH INTELLIGENT METHODS UNDERSTANDING INTELLIGENT DECISIONMAKING SYSTEMS WITH KNOWLEDGE TRANSFERpor
dc.typemasterThesis-
degois.publication.locationDEI- FCTUC-
degois.publication.titleFINANCIAL INTERPRETABILITY WITH INTELLIGENT METHODS UNDERSTANDING INTELLIGENT DECISIONMAKING SYSTEMS WITH KNOWLEDGE TRANSFEReng
dc.peerreviewedyes-
dc.identifier.tid202921417-
thesis.degree.disciplineInformática-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Informática-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.degree.grantorID0500-
uc.contributor.authorFaria, Tiago Alves::0000-0001-6575-1268-
uc.degree.classification18-
uc.degree.presidentejuriFurtado, Pedro Nuno San-Bento-
uc.degree.elementojuriRibeiro, Bernardete Martins-
uc.degree.elementojuriAbreu, Pedro Manuel Henriques da Cunha-
uc.contributor.advisorRibeiro, Bernardete Martins::0000-0002-9770-7672-
uc.contributor.advisorSilva, Catarina Helena Branco Simões da-
item.openairetypemasterThesis-
item.fulltextCom Texto completo-
item.languageiso639-1en-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
Disserta__o_Mestrado_Tiago_Alves_Faria.pdf3 MBAdobe PDFView/Open
Show simple item record

Page view(s)

70
checked on Jul 16, 2024

Download(s)

121
checked on Jul 16, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons