Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/92561
DC FieldValueLanguage
dc.contributor.advisorMachado, Fernando Jorge Penousal Martins-
dc.contributor.advisorLourenço, Nuno António Marques-
dc.contributor.authorCarvalho, Pedro Filipe Gomes Ramos de-
dc.date.accessioned2021-01-14T23:07:40Z-
dc.date.available2021-01-14T23:07:40Z-
dc.date.issued2020-07-07-
dc.date.submitted2021-01-14-
dc.identifier.urihttps://hdl.handle.net/10316/92561-
dc.descriptionDissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologia-
dc.description.abstractA escolha de uma boa taxa de aprendizagem é fulcral para o bom treino e performance de Redes Neuronais. Atualmente, existem imensos métodos automáticos que facilitam a busca por uma boa taxa de aprendizagem. Apesar de estas técnicas serem eficazes e produzirem bons resultados ao longo do anos, são soluções generalistas i.e. não tem em conta as caracteristica de uma rede especifica. Dado isto, os possivéis beneficios de optimizar a taxa de aprendizagem para uma topologia de rede especifica permanece inexplorados. Como redes neuronais são sistemas complexos com muitos componentes inderdependentes, não é possivel para um humano inferir como é que um optimizador pode ser especializado para uma certa topologia. Apesar disso, técnicas de optimização heuristica como Algoritmos Evolucionários podem ser utilizados para procurar optimizadores personalizados que funcionem bem para uma arquitetura de rede neuronal especifica.Neste trabalho propomos o AutoLR, um sistema que utiliza Evolução Gramatical Estruturada para evoluir optimizadores de taxas de aprendizagem. Duas versões deste sistema são implementadas para dois tipos de optimizadores. O AutoLR Dinâmico é utilizado para evoluir optimizadores estáticos e dinâmicos. O melhor optimizador dinâmico evoluido tem melhor performance que o optimizador de controlo estabelecido e utiliza algumas técnicas encontradas na literatura. Apesar do LRD atingir bons resultados, os optimizadores evoluidos por este sistema só tem em consideração a taxa de aprendizagem anterior e a época de treino atual. De modo a superar estas limitações desenvolvemos um novo método chamado AutoLR Adaptativo. Esta versão do sistema evolui optimizadores adaptativos que tem acesso a mais informação sobre o treino. Estes optimizadores são capazes de afinar a taxa de aprendizagem para cada peso da rede individualmente, o que os faz geralmente mais eficazes. O optimizador adaptativo evoluido mais notável é capaz de competir com os melhores métodos do estado da arte, conseguindo até superá-los em alguns casos. Por último, o sistema foi capaz de descobrir um novo optimizador, ADES. Tanto quanto sabemos não existem optimizadores adaptativos na literatura que sejam semelhantes ao ADES.por
dc.description.abstractThe choice of a proper learning rate is paramount for good Artificial Neural Network training and performance. Currently, a plethora of state of the art automatic methods exist that make the search for a good learning rate easier, called Learning Rate Optimizers. While these techniques are effective and have yielded good results over the years, they are general solution i.e. they do not take into account the characteristics of a specific network. As a result, the possible benefits of the optimization of learning rate for specific network topologies remains largely unexplored. Since neural networks are complex systems with many interdependent components it is not possible for humans to infer how an optimizer can be specialized for a certain network topology. Nevertheless, heuristic optimization techniques such as Evolutionary Algorithms can be used to search for custom optimizers that work well for specific network architectures.In this work we propose AutoLR, a framework that uses Structured Grammatical Evolution to evolve learning rate optimizers. Two versions of this system are implemented for different types of optimizers. Dynamic AutoLR is used to evolve static and dynamic learning rate optimizers. The best evolved dynamic optimizer outperforms the established baseline and utilizes some techniques found in the literature. Even though DLR achieved good results the optimizers evolved by this system only take into account the previous learning rate and current training epoch. In order to overcome these limitations we devised a new method called Adaptive AutoLR. This version of the system evolves adaptive optimizers that have access to more information about training. These optimizers are able to fine tune a different learning rate for each network weight which makes them generally more effective. The most notable evolved adaptive optimizer is able to perform on par with the best state of the art methods, even outperforming them in some scenarios. Furthermore, the system was able to automatically discover a novel optimizer, ADES. To the best of our knowledge, no adaptive optimizers present in the literature are similar to ADES.eng
dc.language.isoeng-
dc.rightsopenAccess-
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/-
dc.subjectRedes Neuronais Artificiaispor
dc.subjectEvolução Gramatical Estruturadapor
dc.subjectOptimização da Taxa de Aprendizagempor
dc.subjectArtificial Neural Networkeng
dc.subjectStructured Grammatical Evolutioneng
dc.subjectLearning Rate Optimizationeng
dc.titleEvolving Learning Rate Schedulerseng
dc.title.alternativeEvolving Learning Rate Schedulerspor
dc.typemasterThesis-
degois.publication.locationDEI-FCTUC-
degois.publication.titleEvolving Learning Rate Schedulerseng
dc.peerreviewedyes-
dc.identifier.tid202521206-
thesis.degree.disciplineInformática-
thesis.degree.grantorUniversidade de Coimbra-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Informática-
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.degree.grantorID0500-
uc.contributor.authorCarvalho, Pedro Filipe Gomes Ramos de::0000-0003-3845-4617-
uc.degree.classification18-
uc.degree.presidentejuriCardoso, Alberto Jorge Lebre-
uc.degree.elementojuriLourenço, Nuno António Marques-
uc.degree.elementojuriAbreu, Pedro Manuel Henriques da Cunha-
uc.contributor.advisorMachado, Fernando Jorge Penousal Martins-
uc.contributor.advisorLourenço, Nuno António Marques::0000-0002-2154-0642-
item.grantfulltextopen-
item.fulltextCom Texto completo-
item.openairetypemasterThesis-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.cerifentitytypePublications-
crisitem.advisor.researchunitCISUC - Centre for Informatics and Systems of the University of Coimbra-
crisitem.advisor.parentresearchunitFaculty of Sciences and Technology-
crisitem.advisor.orcid0000-0002-6308-6484-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
FinalReportCoverPedro Carvalho.pdf2.91 MBAdobe PDFView/Open
Show simple item record

Page view(s)

165
checked on Apr 24, 2024

Download(s)

102
checked on Apr 24, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons