Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/102980
DC FieldValueLanguage
dc.contributor.advisorLobo, Jorge Nuno de Almeida e Sousa Almada-
dc.contributor.authorAzevedo, José Pedro Araújo-
dc.date.accessioned2022-10-17T22:02:33Z-
dc.date.available2022-10-17T22:02:33Z-
dc.date.issued2022-09-28-
dc.date.submitted2022-10-17-
dc.identifier.urihttps://hdl.handle.net/10316/102980-
dc.descriptionDissertação de Licenciatura em Engenharia Eletrotécnica e de Computadores apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractA detecção de objetos é uma tarefa crucial que possui várias aplicações, incluindo veículos autônomos, segurança e inúmeras aplicações em fábricas e cidades inteligentes. A maioria destas aplicações usa dispositivos IoT, o problema com edge devices é seu possuirem baixo poder computacional e serem limitados pelo baixo consumo de energias. Como resultado, uma percentagem significativa de sua computação é realizada na cloud e, deste modo, há sempre um atraso nestas soluções, e a maioria delas utiliza grande poder computacional, promovendo alto consumo de energia. Para melhorar esse aspecto, é necessário realizar alguma computação localmente, fornecendo soluções rápidas, de baixo custo e energeticamente eficientes.A solução proposta envolve a implementação de Redes Neuronais NN YOLOv3,v4,v5 em GPUs e CPUs (simulando cloud computing) e em FPGAs (simulando edge computing ). As implementações foram testadas utilizando o dataset COCO, envolvendo um total de 14 modelos de redes neuronais. Nestas implementações, o consumo de energia foi medido, permitindo comparações precisas dos modelos mais eficientes em termos de energia nos diferentes tipos de hardware. Estas implementações visam alcançar um equilíbrio entre precisão e eficiência energética, levando em consideração soluções computacionalmente leves.Para realizar a inferência na FPGA, foram utilizadas duas frameworks, Pynq e Vitis-Ai. Devido à sua complexidade, a paralelização não foi realizada na framework Pynq, no entanto, foi possível atingir 1,23 FPS e atingir 0,09 frames/joule. A paralelização na framework Vitis-AI permitiu atingir 57,93 FPS e 2.25 frames/joule.Por fim, foram desenvolvidos modelos de detecção de objetos que operam em tempo real (mais de 30 FPS em GPU e FPGA), alcançando 2,25 frames/joule em implementações na FPGA e 1.31 frames/joule em implementações de GPU, respectivamente.Comparando as implementações mais eficientes em FPGA e GPU, a FPGA é 1.78 vezes mais eficiente.por
dc.description.abstractObject detection is a crucial task that has multiple applications, including autonomous vehicles, security, agriculture and many applications in manufacturing and smart cities. The majority of these applications use IoT devices, the problem with these edge devices is their limited computing power and limited energy resources. As a result, a significant percentage of their computing is performed in the cloud, and as a result, there is always a delay in these solutions, and many of them consume a significant amount of computational power, resulting in high energy consumption. To improve this aspect, it is necessary to perform some computing locally, providing fast, low-cost and energy-efficient solutions.The proposed solution focuses on implementing YOLOv3,v4,v5 NN in GPUs and CPUs (simulating cloud computing) and on FPGAs (simulating edge computing). The implementations were tested using the COCO dataset, involving a total of 14 NN models. In these implementations, energy consumption was measured, allowing for precise comparisons of the most energy-efficient models across different types of hardware.These implementations aim to achieve a balance between accuracy and energy efficiency by taking into account computationally lightweight solutions.To perform inference on the FPGA, two frameworks, Pynq and Vitis-Ai, were used. Due to its complexity, parallelization was not performed in the Pynq framework, however, it was possible to achieve 1.23 FPS while achieving 0.09 frames/joule. Parallelization within the Vitis-AI framework allowed for the achievement of 57.93 FPS at 2.25 frames per joule.Finally, object detection models that operate in real time (more than 30 FPS on GPU and FPGA) have been developed, achieving 2.25 frames/joule on FPGA implementations and 1.31 frames/joule on GPU implementations, respectively. Comparing the most efficient FPGA implementation to the most efficient GPU implementation, the FPGA is 1.78 times more efficient.eng
dc.description.sponsorshipOutro - Instituto de Sistemas e Robótica-
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectFPGApor
dc.subjectIoTpor
dc.subjectYOLOpor
dc.subjectDeteção de objetospor
dc.subjectEdge Computingpor
dc.subjectFPGAeng
dc.subjectIoTeng
dc.subjectYOLOeng
dc.subjectObject Detectioneng
dc.subjectEdge Computingeng
dc.titleYOLO Neural Networks On Reconfigurable Logic For Vehicle Traffic Controlleng
dc.title.alternativeRedes Neuronais YOLO Em Lógica Reconfigurável para Controlo de Trânsito de Veículospor
dc.typemasterThesis-
degois.publication.locationDEEC-
degois.publication.titleYOLO Neural Networks On Reconfigurable Logic For Vehicle Traffic Controlleng
dc.peerreviewedyes-
dc.identifier.tid203077776-
thesis.degree.disciplineEngenharia Electrotécnica e de Computadores-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameLicenciatura em Engenharia Eletrotécnica e de Computadores-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Eng. Electrotécnica e de Computadores-
uc.degree.grantorID0500-
uc.contributor.authorAzevedo, José Pedro Araújo::0000-0001-6008-9412-
uc.degree.classification16-
uc.degree.presidentejuriFernandes, Gabriel Falcão Paiva-
uc.degree.elementojuriLobo, Jorge Nuno de Almeida e Sousa Almada-
uc.degree.elementojuriSantos, Mário João Simões Ferreira dos-
uc.contributor.advisorLobo, Jorge Nuno de Almeida e Sousa Almada::0000-0001-6857-0737-
item.openairetypemasterThesis-
item.fulltextCom Texto completo-
item.languageiso639-1en-
item.grantfulltextopen-
item.cerifentitytypePublications-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
Dissertation_José_Azevedo_15_09_22.pdf7.16 MBAdobe PDFView/Open
Show simple item record

Page view(s)

259
checked on Jul 16, 2024

Download(s)

259
checked on Jul 16, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons