Convergence globale d’une nouvelle méthode du gradient

No Thumbnail Available
Date
2013
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
Dans ce mémoire nous présentons une nouvelle méthode du gradient à mémoire utilisée pour l’optimisation sans contrainte, en particulier pour les problèmes de grande taille. La première idée de cette méthode fût proposée par Miele et Cantrell (1969) ainsi que Cragg et Levy (1969). On commence par montrer que cette nouvelle méthode génère une direction de descente et qu’elle converge globa lement si les conditions de Wolfe faibles sont satisfaites. Nos résultats numé riques démontrent que la méthode est efficace dans certains problèmes test standards si on y inclut un bon choix de paramètres.
Description
Keywords
Citation