Convergence globale d’une nouvelle méthode du gradient
No Thumbnail Available
Date
2013
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
Dans ce mémoire nous présentons une nouvelle méthode du gradient à
mémoire utilisée pour l’optimisation sans contrainte, en particulier pour les
problèmes de grande taille.
La première idée de cette méthode fût proposée par Miele et Cantrell
(1969) ainsi que Cragg et Levy (1969). On commence par montrer que cette
nouvelle méthode génère une direction de descente et qu’elle converge globa lement si les conditions de Wolfe faibles sont satisfaites. Nos résultats numé riques démontrent que la méthode est efficace dans certains problèmes test
standards si on y inclut un bon choix de paramètres.