Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/97987
Title: Deep Learning para Segmentação e Classificação Automática de Sons Respiratórios Adventícios
Other Titles: Deep Learning for Segmentation and Automatic Classification of Adventitious Breathing Sounds
Authors: Lebreiro, Ana Sofia Besteiro
Orientador: Paiva, Rui Pedro Pinto de Carvalho e
Keywords: Features Engineering; Segmentação; Classificação; Sons Respiratórios Adventícios; Aprendizagem Profunda; Features Engineering; Segmentation; Classification; Adventitious Respiratory Sounds; Deep Learning
Issue Date: 10-Nov-2021
Serial title, monograph or event: Deep Learning para Segmentação e Classificação Automática de Sons Respiratórios Adventícios
Place of publication or event: DEI- FCTUC
Abstract: As patologias do foro respiratório são das mais mortíferas em todo o mundo. A maioria dos pacientes com doenças respiratórias possuem uma respiração caraterizada pela existência de sons adventícios, como sibilâncias e fervores, ao longo do ciclo respiratório.Neste trabalho propomos estudar a aplicabilidade de arquiteturas de aprendizagem profunda para classificar e segmentar automaticamente sons adventícios (sibilâncias e fervores) e sons normais existentes nos ciclos respiratórios dos pacientes. Serão avaliadas diversas arquiteturas de aprendizagem profundas como CNN, LSTM e outras variantes, assim como modelos clássicos SVM e KNN, em conjunto com técnicas de processamento de som, de forma a criar modelos otimizados, tanto em ambientes controlados como em ambientes reais de operação.Na fase de classificação de eventos pré segmentados manualmente, compararam-se abordagens clássicas de feature engineering e machine learning, e modelos de classificação de aprendizagem profunda com diferentes tipos de features de entrada. A metodologia adotada passou por um pré-processamento dos ficheiros de áudio através da filtragem do som de forma a concentrar a análise na gama de frequências relevantes para o estudo. A partir do som filtrado foram extraídas features para construir diferentes conjuntos de dados a aplicar nos classificadores. De forma a conhecer melhor os dados e a proceder-se a uma seleção de features, foi realizada uma análise exploratória. A seleção foi realizada a partir de dois algoritmos distintos para compreender o desempenho dos classificadores com diferentes features evitando redundância de dados. Os classificadores foram avaliados segundo a base de dados Respiratory Sound Database, calculando várias métricas estatísticas. O classificador CNN alcançou um resultado máximo 81% de accuracy e 81% de sensibilidade superando os classificadores clássicos com resultados máximos de 76,17%. Na fase de segmentação automática e classificação, foram explorados diversos mecanismos para aplicar a segmentação sonora, prosseguindo para uma classificação frame a frame com vista a identificar a localização temporal dos eventos adventícios. A avaliação desta fase foi realizada a diferentes níveis: frame a frame detetando 48,4% das frames de sibilâncias e 50,1% de fervores, por evento e por paciente.
Respiratory pathologies are among the deadliest in the world. Most patients with respiratory diseases have a breathing characterized by adventitious sounds, such as wheezes and crackles, throughout the respiratory cycle.In this work we propose to study the applicability of deep learning architectures to automatically classify and segment adventitious sounds (wheezes and crackles) and normal sounds existing in patients' breathing cycles. Several deep learning architectures such as CNN, LSTM and other variants will be evaluated, as well as some classical models, i.e., SVM and KNN, together with sound processing techniques, in order to create optimized models, both in controlled environments and in real-life operation scenarios.In the phase of event classification of manually segmented events, classical feature engineering and machine learning approaches were compared against deep learning classification models with different types of input features. The methodology adopted involved the pre-processing of audio files through sound filtering, in order to focus the analysis on the range of frequencies relevant to the study. From some filters, resources were extracted to build different datasets to be applied to the classifiers. In order to better understand the data and proceed with a selection of resources, an exploratory analysis was performed. The selection was carried out using two different algorithms to understand the performance of the classifiers with different features, avoiding data redundancy. The classifiers were evaluated using the Respiratory Sound Database, calculating various statistical metrics. The best results obtained by the CNN classifier were 81% accuracy and 81% recall, beating the classic classifiers which obtained maximum results of 76,17%In the automatic segmentation and classification phase, several mechanisms were explored to perform sound segmentation, proceeding to a frame-by-frame classification in order to identify the temporal location of adventitious events. The evaluation of this phase was carried out at different levels: frame by frame, which detected 48,4% of the wheezes frames and 50,1% of the crackles, by event and by patient.
Description: Dissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia
URI: https://hdl.handle.net/10316/97987
Rights: openAccess
Appears in Collections:UC - Dissertações de Mestrado

Files in This Item:
File Description SizeFormat
MSc Tese Sofia Lebreiro (final).pdf6.45 MBAdobe PDFView/Open
Show full item record

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons