Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/114233
DC FieldValueLanguage
dc.contributor.advisorTeixeira, César Alexandre Domingues-
dc.contributor.advisorMartins, Pedro José Mendes-
dc.contributor.authorPinto, Mauro Filipe da Silva-
dc.date.accessioned2024-03-26T11:33:26Z-
dc.date.available2024-03-26T11:33:26Z-
dc.date.issued2023-01-12-
dc.date.submitted2024-03-26-
dc.identifier.urihttps://hdl.handle.net/10316/114233-
dc.descriptionTese de Doutoramento em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractA previsão de crises epilépticas é um problema de análise e classificação de janelas consecutivas ao longo do tempo. Os métodos existentes, que usam o sinal electroencefalográfico, contêm maioritariamente modelos de Machine Learning (ML}. Como estes lidam com dados multidimensionais, tornam-se caixas negras, não oferecendo confiança aos clínicos em decisões de alto risco. Apesar de décadas de investigação, poucos dispositivos chegaram a um ensaio clínico ou foram comercializados onde, abordagens mais recentes (como redes neuronais) acabam por não ser totalmente exploradas. A ausência de explicações para modelos considerados caixas negras, especialmente quando estes falham, aumenta o cepticismo dos clínicos.O principal objectivo desta tese é desenvolver soluções que permitam uma melhor comunicação para equipas multidisciplinares que trabalhem em previsão de crises epilépticas, o que requereu o trabalho conjunto de domínios da engenharia, como processamento de sinal e ML, com ferramentas das ciências sociais. Usaram-se os dados electroencefalográficos de escalpe da base de dados EPILEPSIAE. Esta tese divide-se em três contribuições principais.A primeira contribuição é um estudo sociológico onde, com base na literatura, se tentou encontrar as barreiras sociais existentes na área de previsão de crises. Usaram-se duas ferramentas: Teoria Fundamentada, que permitiu desenvolver hipóteses a partir dos dados recolhidos, e Teoria Actor-Rede, que considerou o papel activo da tecnologia ao moldar configurações sociais. Obteve-se uma rede social que descreve o ecossistema desta área de investigação, propondo-se directrizes para acelerar o processo de aceitação clínica de modelos matemáticos. A conclusão mais relevante é: apesar de ser necessário explicar os modelos, estes não precisam de ser intrinsecamente interpretáveis. É possível desenvolver modelos com um certo grau de complexidade, desde que consigam explicar as suas decisões de forma humanamente compreensível. Devido ao cepticismo e motivos baseados numa legislação ainda vaga, muitos investigadores advogam o uso exclusivo de modelos interpretáveis, o que pode limitar a performance e o potencial desta tecnologia. Esta contribuição mostra um caminho possível, através da explicabilidade, para permitir a aplicação clínica de modelos computacionalmente mais complexos.A segunda contribuição é uma metodologia evolucionária de previsão de crises que devolve um modelo de regressão logística interpretável. Esta metodologia identifica o melhor conjunto de cinco preditores enquanto procura o período pré-ictal e considera o conforto do doente. Ao fornecer conhecimento especializado para cada doente e generalizado para todos os doentes, pode contribuir para um melhor entendimento acerca do processo de geração de crises e das decisões de cada modelo. Testou-se esta metodologia quase-prospectivamente em dados contínuos, pertencentes a 93 doentes que sofrem de vários tipos de epilepsias focais e generalizadas. Esta metodologia teve significância estatística para 32% dos doentes através de uma análise surrogate, e foi comparada com um método de controlo baseado na literatura (pré-processamento, extracção de características, classificação, pós-processamento). Os resultados evidenciam a necessidade de desenvolver diferentes metodologias para diferentes modelos.A terceira contribuição consistiu na avaliação de explicabilidade de modelos por parte de especialistas em ML e epilepsia. Desenvolveram-se três metodologias de ML: uma regressão logística, um sistema de voto de 15 Support Vector Machines, e um sistema de voto de três Redes de Convolução Neuronais. Testaram-se as metodologias quase-prospectivamente em 40 doentes. Seleccionaram-se doentes com alta e baixa performance para se desenvolverem explicações acerca dos respectivos modelos. Estas explicações foram apresentadas, em entrevista, a cientistas de dados que trabalham em problemas clínicos e a clínicos de um centro de epilepsia refractária. Da análise das entrevistas, resultaram cinco lições para melhorar a comunicação de modelos de ML. A descoberta mais significativa foi que o objectivo da explicabilidade não é só explicar as decisões do sistema, mas melhorar a metodologia em si. Foi ainda importante reforçar que, apesar de se terem utilizado preditores clinicamente intuitivos e conhecidos do estado da arte juntamente com modelos simples, foi difícil interpretar os resultados e obter conhecimento acerca das dinâmicas cerebrais. Pode-se atingir um aumento da explicabilidade ao desenvolverem-se, em paralelo, sistemas que lidem explicitamente com mudanças nas dinâmicas cerebrais que ajudem a obter uma definição mais completa do problema.Como estas contribuições usaram dados de monitorização pré-cirúrgica, os resultados obtidos deverão ser interpretados como uma prova de conceito. Estas metodologias deverão ser replicadas com dados de longa duração da vida real.por
dc.description.abstractSeizure prediction concerns a multidimensional time-series problem that typically performs continuous sliding window analysis and classification. Current state-of-the-art methods using the electroencephalogram signal are based on Machine Learning (ML) models that are mainly black boxes, weakening the trust of clinicians for high-risk decisions. Despite decades of research, few devices/systems underwent clinical trials and/or are commercialised, where these do not use the most recent approaches, such as neural networks, to their full potential. The absence of explanations for black-box models, especially when they fail, makes researchers and clinicians question and mistrust their use, thus raising scepticism. The main objective of this thesis is to make a step forward concerning more effective communication within multidisciplinary teams, which required the joint work of engineering domain techniques, such as signal processing and ML, with tools from social sciences. The analysed patient data comprises scalp recordings provided by the EPILEPSIAE database. This thesis comprises three main contributions.The first is a sociological study of this research field. Based on the literature, a qualitative study was made to find social barriers concerning the clinical application of seizure prediction algorithms. Two tools were used: while Grounded Theory allows the draw of hypotheses from data, Actor-Network Theory considers that technology shapes social configurations and interests. A social network was obtained, describing this research field ecosystem and proposing research guidelines for clinical acceptance. The most relevant conclusion is the need for model explainability, but not necessarily intrinsically interpretable models. Due to general scepticism, patient safety reasons, and purposely vague legislation on black-box algorithms for high-risk decisions, many authors advocate using only transparent models, limiting their performance and potential. Nevertheless, according to the study conducted in this thesis, researchers may develop robust prediction models, including black-box systems, to some extent, as long as they can deliver human-comprehensible explanations. This contribution highlights a path, by using model explainability, on how to allow the use of more computationally robust models.The second contribution is an evolutionary seizure prediction framework whose output is a logistic regression model. The framework identifies the best set of five features (widely explored in the literature) while automatically searching for the preictal period and accounting for patient comfort. It provides patient-specific and patient-general interpretable insights, which might be helpful in better understanding seizure generation processes and explaining the algorithm's decisions. This methodology was quasi-prospectively tested on continuous data, comprising recordings from 93 patients with several types of focal and generalised epilepsies. Performed above chance was achieved for 32% of patients. The results were compared with a seizure surrogate predictor and a control method based on a typical ML pipeline (pre-processing, feature extraction, classification, and post-processing). The obtained findings may evidence the need for patient-specific methodologies.The third contribution is the evaluation of model explainability by data scientists and epilepsy specialists. Three ML methodologies containing different model transparency levels were developed: a logistic regression, an ensemble of fifteen Support Vector Machines, and an ensemble of three Convolutional Neural Networks. Each methodology was quasi-prospectively evaluated in 40 patients. Patients with high and low performances were chosen to develop explanations. These were presented, during interviews, to data scientists working in healthcare and clinicians from an epilepsy refractory centre. The interviews were analysed and resulted in five lessons leading to better communication of ML models from researchers to clinicians. The most significant finding was that the goal of explainability is not merely to explain the system's decisions but to improve the system itself by questioning the assumptions it is based on. It is hard to understand and interpret brain dynamics even using simple models with state-of-the-art features. In this study, it was possible to conclude that designing several models that explicitly deal with changes in signal dynamics helps develop a complete problem formulation and improve explainability.Since these contributions used data from pre-surgical monitoring conditions, the obtained findings should be interpreted as proofs of concepts. These methodologies must be replicated in studies using ultra-long-term recordings which concern real-life conditions.eng
dc.description.sponsorshipFCT-
dc.description.sponsorshipFCT-
dc.description.sponsorshipFCT-
dc.language.isoeng-
dc.relationinfo:eu-repo/grantAgreement/FCT/3599-PPCDT/PTDC/EEI-EEE/5788/2020/PT-
dc.relationinfo:eu-repo/grantAgreement/FCT/6817 - DCRRNI ID/UIDP/00326/2020/PT-
dc.relationinfo:eu-repo/grantAgreement/FCT/POR_CENTRO/SFRH/BD/139757/2018/PT-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectEpilepsiapor
dc.subjectPrevisão de crisespor
dc.subjectElectroencefalogramapor
dc.subjectExplicabilidadepor
dc.subjectMachine Learningpor
dc.subjectEpilepsyeng
dc.subjectSeizure Predictioneng
dc.subjectElectroencephalogrameng
dc.subjectExplainabilityeng
dc.subjectMachine Learningeng
dc.titleTowards the interpretation of Machine Learning seizure prediction modelseng
dc.title.alternativeEm direcção à interpretação de modelos de Machine Learning para previsão de crisespor
dc.typedoctoralThesis-
degois.publication.locationDepartamento de Engenharia Informática da Faculdade de Ciências e Tecnologia da Universidade de Coimbra-
degois.publication.titleTowards the interpretation of Machine Learning seizure prediction modelseng
dc.peerreviewedyes-
dc.identifier.tid101706707-
dc.subject.fosCiências da engenharia e tecnologias::Engenharia electrotécnica, electrónica e informática-
thesis.degree.disciplineEngenharia Informática-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.nameDoutoramento em Engenharia Informática-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.degree.grantorID0500-
uc.contributor.authorPinto, Mauro Filipe da Silva::0000-0002-9359-4324-
uc.degree.classificationAprovado com Distinção e Louvor-
uc.degree.presidentejuriCunha, Paulo José Osório Rupino da-
uc.degree.elementojuriKuhlmann, Levin-
uc.degree.elementojuriQuyen, Michel Le Van-
uc.degree.elementojuriCardoso, Jaime dos Santos-
uc.degree.elementojuriTeixeira, César Alexandre Domingues::0000-0001-9396-1211-
uc.degree.elementojuriLourenço, Nuno António Marques::0000-0002-2154-0642-
uc.contributor.advisorTeixeira, César Alexandre Domingues::0000-0001-9396-1211-
uc.contributor.advisorMartins, Pedro José Mendes::0000-0002-3630-7034-
item.openairetypedoctoralThesis-
item.fulltextCom Texto completo-
item.languageiso639-1en-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
Appears in Collections:UC - Teses de Doutoramento
Files in This Item:
File SizeFormat
PhDThesis.pdf13.43 MBAdobe PDFView/Open
Show simple item record

Page view(s)

23
checked on Jul 17, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons