Convergence globale d’une nouvelle méthode du gradient

dc.contributor.authorBOUDIAR SALEM
dc.date.accessioned2023-02-20T09:50:54Z
dc.date.available2023-02-20T09:50:54Z
dc.date.issued2013
dc.description.abstractDans ce mémoire nous présentons une nouvelle méthode du gradient à mémoire utilisée pour l’optimisation sans contrainte, en particulier pour les problèmes de grande taille. La première idée de cette méthode fût proposée par Miele et Cantrell (1969) ainsi que Cragg et Levy (1969). On commence par montrer que cette nouvelle méthode génère une direction de descente et qu’elle converge globa lement si les conditions de Wolfe faibles sont satisfaites. Nos résultats numé riques démontrent que la méthode est efficace dans certains problèmes test standards si on y inclut un bon choix de paramètres.
dc.identifier.urihttps://dspace.univ-annaba.dz//handle/123456789/1984
dc.language.isofr
dc.titleConvergence globale d’une nouvelle méthode du gradient
dc.typeThesis
dspace.entity.type
Files
Original bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
BOUDIAR-Salem.pdf
Size:
1.97 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.71 KB
Format:
Item-specific license agreed to upon submission
Description: