Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/86257
DC FieldValueLanguage
dc.contributor.advisorCaramelo, Francisco José Santiago Fernandes Amado-
dc.contributor.advisorSilva, Joaquim Norberto Cardoso Pires da-
dc.contributor.authorLavado, Diana Martins-
dc.date.accessioned2019-03-27T23:24:23Z-
dc.date.available2019-03-27T23:24:23Z-
dc.date.issued2018-09-28-
dc.date.submitted2019-03-27-
dc.identifier.urihttps://hdl.handle.net/10316/86257-
dc.descriptionTrabalho de Projeto do Mestrado Integrado em Engenharia Biomédica apresentado à Faculdade de Ciências e Tecnologia-
dc.description.abstractO principal objetivo desta dissertação de mestrado é classificar e localizar os instrumentos cirúrgicos presentes numa bandeja desorganizada, assim como realizar o raciocínio para resolver oclusão por forma a determinar qual o instrumento que deverá ser retirado em primeiro lugar. Estas tarefas pretendem ser uma parte integrante de um sistema complexo apto a separar instrumentos cirúrgicos após a sua desinfeção, de modo a montar kits cirúrgicos e, esperançosamente, otimizar o tempo despendido pelos enfermeiros em salas de esterilização, para que se possam dedicar a tarefas mais complexas.Inicialmente, várias abordagens clássicas foram testadas para obter modelos 2D para cada tipo de instrumento cirúrgico, tal como canny edges, otsu’s threshold e watershed algorithm. A ideia era colocar códigos “2D data matrix” nos instrumentos cirúrgicos e, sempre que o código fosse detetado, o respetivo modelo seria adicionado a um mapa virtual, que seria posteriormente analisado para determinar qual o instrumento situado no topo, através da comparação com a imagem original. Todavia, devido a dificuldades na aquisição de um software específico, foi usada uma abordagem moderna, recorrendo à rede neuronal de deep learning YOLO (“you only look once”).De modo a treinar as redes neuronais foi elaborado um dataset, que foi posteriormente publicado, em conjunto com as respetivas “labels” das imagens, assim como uma divisão apropriada em grupo de teste e de treino. No total, 5 redes neuronais YOLOv2 foram treinadas: 1 para deteção e classificação de objetos e 1 para o resolver a oclusão relativa a cada tipo de instrumento (perfazendo um total de 4). Relativamente à deteção de objetos foi também realizada validação cruzada, assim como treinada a rede YOLOv3.Uma aplicação de consola que aplica o algoritmo proposto foi também desenvolvida, em que o primeiro passo é correr o detetor de objetos com redes treinadas quer de YOLOv2 ou de YOLOv3, seguido pela ordenação das deteções por ordem decrescente de percentagem de confiança. Posteriormente, as deteções correspondentes às duas percentagens de confiança mais elevadas são escolhidas, e as respetivas redes neuronais de raciocínio para resolver oclusão são implementadas. Finalmente, a melhor combinação de percentagens de confiança entre a deteção de objetos e o raciocínio de oclusão determina qual o instrumento cirúrgico que deverá ser removido em primeiro lugar do tabuleiro desorganizado.por
dc.description.abstractThe main goal of this master dissertation is to classify and localize surgical tools in a cluttered tray, as well as perform occlusion reasoning to determine which tool should be removed first. These tasks are intended to be a part of a multi-stage robotic system able to sort surgical tools after disinfection, in order to assembly surgical kits and, hopefully, optimizing the nurses time in sterilization rooms, so that they can focus on more complex tasks.Initially, several classical approaches were tested to obtain 2D templates of each type of surgical tool, such as canny edges, otsu’s threshold and watershed algorithm. The idea was to place 2D data matrixes codes onto the surgical tools and whenever the code was detected, the respective template would be added to a virtual map, which would be posteriorly be assessed and determined which tool was on top by comparison with the original image. However, due to difficulties in acquiring a specific software, a modern approach was used instead, resorting to the YOLO (“you only look once”) deep learning neural network.In order to train the neural networks, a dataset was built, which was then published, along with the respective labels of the data and appropriate division into train and test groups. In total, 5 YOLOv2 neural networks were trained: 1 for object detection and classification and 1 for occlusion reasoning of each instrument (making a total of 4). Regarding object detection, it was also performed cross-validation, as well as trained the YOLOv3 network.A console application that applies the proposed algorithm was also developed, in which the first step is to run the object detector with either the trained YOLOv2 or YOLOv3 network, followed by sorting the detections in a decrescent order of confidence score. Afterward, the detections correspondent to the two higher confidence scores are chosen and the respective occlusion reasoning neural networks are run. Finally, the best combination of confidence scores between object detection and occlusion reasoning determines the surgical tool to be removed first from the cluttered tray.eng
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectDeep Learningpor
dc.subjectRobóticapor
dc.subjectYOLOv2por
dc.subjectYOLOv3por
dc.subjectVisão Computacionalpor
dc.subjectDeep Learningeng
dc.subjectRoboticseng
dc.subjectYOLOv2eng
dc.subjectYOLOv3eng
dc.subjectComputer Visioneng
dc.titleSorting Surgical Tools from a Clustered Tray - Object Detection and Occlusion Reasoningeng
dc.title.alternativeSeparação de Instrumentos Cirúrgicos Desorganizados numa Bandeja – Deteção e Resolução de Oclusãopor
dc.typemasterThesis-
degois.publication.locationDEM, IBILI-
degois.publication.titleSorting Surgical Tools from a Clustered Tray - Object Detection and Occlusion Reasoningeng
dc.peerreviewedyes-
dc.identifier.tid202206360-
thesis.degree.disciplineEngenharia Biomédica-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado Integrado em Engenharia Biomédica-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Física-
uc.degree.grantorID0500-
uc.contributor.authorLavado, Diana Martins::0000-0001-8159-7344-
uc.degree.classification19-
uc.degree.presidentejuriAraújo, Rui Alexandre de Matos-
uc.degree.elementojuriSilva, Joaquim Norberto Cardoso Pires da-
uc.degree.elementojuriSimões, José Basílio Portas Salgado-
uc.contributor.advisorCaramelo, Francisco José Santiago Fernandes Amado-
uc.contributor.advisorSilva, Joaquim Norberto Cardoso Pires da-
item.openairetypemasterThesis-
item.fulltextCom Texto completo-
item.languageiso639-1en-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
crisitem.advisor.deptFaculty of Sciences and Technology-
crisitem.advisor.parentdeptUniversity of Coimbra-
crisitem.advisor.researchunitICBR Coimbra Institute for Clinical and Biomedical Research-
crisitem.advisor.parentresearchunitFaculty of Medicine-
crisitem.advisor.orcid0000-0002-0015-8604-
crisitem.advisor.orcid0000-0002-2504-0645-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
Tese-Diana_VersaoFinal.pdf6.82 MBAdobe PDFView/Open
Show simple item record

Page view(s) 20

799
checked on Jul 17, 2024

Download(s) 20

2,766
checked on Jul 17, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons