Fechar
Metadados

@PhDThesis{Gouvêa:2016:MéCoOt,
               author = "Gouv{\^e}a, {\'E}rica Josiane Coelho",
                title = "M{\'e}todos convergentes de otimiza{\c{c}}{\~a}o global 
                         baseados no vetor q-gradiente",
               school = "Instituto Nacional de Pesquisas Espaciais (INPE)",
                 year = "2016",
              address = "S{\~a}o Jos{\'e} dos Campos",
                month = "2016-05-18",
             keywords = "otimiza{\c{c}}{\~a}o global, q-c{\'a}lculo, vetor q-gradiente, 
                         converg{\^e}ncia, global optimization, q-calculus, q-gradient 
                         vector, convergence.",
             abstract = "O vetor q-gradiente {\'e} um q-an{\'a}logo do vetor gradiente 
                         cl{\'a}ssico baseado na derivada de Jackson, com a propriedade de 
                         reduzir ao gradiente cl{\'a}ssico quando o par{\^a}metro q tende 
                         a 1. O primeiro m{\'e}todo baseado nesses conceitos {\'e} o 
                         m{\'e}todo q-G, uma generaliza{\c{c}}{\~a}o do m{\'e}todo da 
                         m{\'a}xima descida para problemas de otimiza{\c{c}}{\~a}o 
                         global cont{\'{\i}}nuos, e que retorna a sua vers{\~a}o 
                         cl{\'a}ssica quando q \$\rightarrow\$ 1. A proposta do 
                         m{\'e}todo q-G {\'e} definir a sua dire{\c{c}}{\~a}o de busca 
                         a partir do vetor q-gradiente da fun{\c{c}}{\~a}o objetivo. Essa 
                         dire{\c{c}}{\~a}o juntamente com estrat{\'e}gias apropriadas 
                         para a obten{\c{c}}{\~a}o do par{\^a}metro q, necess{\'a}rio 
                         para calcular o vetor q-gradiente, e o tamanho do passo fornecem 
                         ao m{\'e}todo q-G mecanismos para escapar de m{\'{\i}}nimos 
                         locais por meio de uma transi{\c{c}}{\~a}o suave entre busca 
                         global e busca local ao longo do procedimento iterativo. Este 
                         trabalho apresenta uma extens{\~a}o desse estudo, com o 
                         desenvolvimento de novas q-vers{\~o}es, onde no limite, q 
                         \$\rightarrow\$ 1, retomem suas vers{\~o}es cl{\'a}ssicas. 
                         Foram desenvolvidas uma q-vers{\~a}o do m{\'e}todo dos 
                         gradientes conjugados de Fletcher e Reeves, denominado m{\'e}todo 
                         q-GC e duas q-vers{\~o}es dos m{\'e}todos quase-Newton, 
                         m{\'e}todo q-BFGS e m{\'e}todo q-DFP, generaliza{\c{c}}{\~o}es 
                         dos m{\'e}todos de Broyden-Fletcher-Goldfarb-Shanno e 
                         Davidon-Fletcher-Powell, respectivamente. Assim como o m{\'e}todo 
                         q-G, esses m{\'e}todos s{\~a}o implementados de tal forma que o 
                         processo de busca muda gradualmente de busca global no 
                         in{\'{\i}}cio do procedimento iterativo, para busca local no 
                         final do procedimento iterativo. Al{\'e}m disso, 
                         perturba{\c{c}}{\~o}es gaussianas s{\~a}o usadas em algumas 
                         itera{\c{c}}{\~o}es para garantir a converg{\^e}ncia desses 
                         m{\'e}todos para o extremo global em um sentindo 
                         probabil{\'{\i}}stico. As q-vers{\~o}es com prova de 
                         converg{\^e}ncia foram comparadas com as suas vers{\~o}es 
                         cl{\'a}ssicas e com outros m{\'e}todos, incluindo uma 
                         estrat{\'e}gia evolutiva com matriz de covari{\^a}ncia adaptada 
                         (CMA-ES), uma varia{\c{c}}{\~a}o da busca aleat{\'o}ria 
                         controlada (CRS2-LM), um m{\'e}todo de ponto interior que usa 
                         derivadas por diferen{\c{c}}as finitas (IPOPT), um m{\'e}todo de 
                         busca direta de Nelder-Mead e outra estrat{\'e}gia evolutiva 
                         (ISRES), totalizando 13 m{\'e}todos diferentes. As 
                         compara{\c{c}}{\~o}es foram realizadas para 27 
                         fun{\c{c}}{\~o}es testes de 10 dimens{\~o}es bem conhecidas na 
                         literatura. No geral, os resultados mostraram que os m{\'e}todos 
                         baseados no vetor q-gradiente s{\~a}o competitivos e promissores, 
                         especialmente quando aplicados aos problemas de 
                         otimiza{\c{c}}{\~a}o multimodal. Al{\'e}m disso, os 
                         m{\'e}todos tamb{\'e}m foram aplicados em dois problemas 
                         complexos de otimiza{\c{c}}{\~a}o e os resultados mostraram a 
                         viabilidade de seu uso em problemas de dif{\'{\i}}cil 
                         solu{\c{c}}{\~a}o. ABSTRACT: The q-gradient vector is a 
                         q-analogue of the classical gradient vector based on the Jackson's 
                         derivative with the property of reducing the classical gradient 
                         when the parameter q tends to 1. The first method based on these 
                         concepts is the q-G method, a generalization of the steepest 
                         descent method to continuous global optimization problems, and it 
                         returns to its classical version when q \$\rightarrow\$ 1. The 
                         proposal of the q-G method is to define the search direction from 
                         the q-gradient vector of the objective function. This direction 
                         to- gether with appropriate strategies for obtaining the parameter 
                         q necessary for calculating the q-gradient vector, and the step 
                         length provide the q-G method mechanisms to escape local minima by 
                         a smooth transition between global search and local search during 
                         the iterative procedure. This work presents an extension of this 
                         study, with the development of the new q-versions where the limit 
                         q \$\rightarrow\$ 1, returns its classical versions. We 
                         developed a q-version of the Fletcher-Reeves conjugate gradient 
                         method, called q-CG method and two q-versions of the quasi-Newton 
                         methods, called q-BFGS and q-DFP methods, generalizations of the 
                         methods of Broyden-Fletcher-Goldfarb-Shanno and Davidon-Fletcher- 
                         Powell, respectively. As the q-G method, the methods are 
                         implemented such that the search process gradually shifts from 
                         global search at the beginning of the iterative procedure to the 
                         local search at the end of the iterative procedure. Moreover, 
                         gaussian perturbations are used in some iteration to guarantee the 
                         convergence of the methods to the global minimum in a 
                         probabilistic sense. We compare the convergent q-versions with 
                         their classical versions and with other methods, including CMA-ES, 
                         a variant of Controlled Random Search, Controlled Random Search 
                         with Local Mutation (CRS2-LM), an inte- rior point algorithm 
                         (IPOPT), another evolution strategy (ISRES), and the Nelder-Mead 
                         direct search method, amounting 13 different methods. The 
                         comparisons were performed to 27 well-known test problems in the 
                         literature. In general, the methods based on the q-gradient vector 
                         are competitive and promising, especially when applied to 
                         multimodal optimization problems. Moreover, the methods were 
                         applied to two complex optimization problems and the results 
                         showed the feasibility of their use in to solve hard problems.",
            committee = "Carvalho, Solon Ven{\^a}ncio de (presidente) and Ramos, Fernando 
                         Manuel (orientador) and Soterroni, Aline Cristina (orientadora) 
                         and Stephany, Stephan and Doescher, Erwin and Salles Neto, Luiz 
                         Leduino de",
           copyholder = "SID/SCD",
         englishtitle = "Convergent methods of global optimization based on the q-gradient 
                         vector",
             language = "pt",
                pages = "111",
                  ibi = "8JMKD3MGP3W34P/3LJADHP",
                  url = "http://urlib.net/rep/8JMKD3MGP3W34P/3LJADHP",
           targetfile = "publicacao.pdf",
        urlaccessdate = "25 nov. 2020"
}


Fechar