Second-Order Step-Size Tuning of SGD for Non-Convex Optimization

Abstract In view of a direct and simple improvement of vanilla SGD, this paper presents a fine-tuning of its step-sizes in the mini-batch case. For doing so, one estimates curvature, based on a local quadratic model and using only noisy gradient approximations. One obtains a new stochastic first-ord...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Castera, Camille [verfasserIn]

Bolte, Jérôme

Févotte, Cédric

Pauwels, Edouard

Format:

E-Artikel

Sprache:

Englisch

Erschienen:

2022

Schlagwörter:

Non-convex optimization

Deep learning

Stochastic optimization

Adaptive methods

Mini-batch algorithms

Anmerkung:

© The Author(s), under exclusive licence to Springer Science+Business Media, LLC, part of Springer Nature 2021

Übergeordnetes Werk:

Enthalten in: Neural processing letters - Dordrecht [u.a.] : Springer Science + Business Media B.V, 1994, 54(2022), 3 vom: 26. Jan., Seite 1727-1752

Übergeordnetes Werk:

volume:54 ; year:2022 ; number:3 ; day:26 ; month:01 ; pages:1727-1752

Links:

Volltext

DOI / URN:

10.1007/s11063-021-10705-5

Katalog-ID:

SPR047130369

Nicht das Richtige dabei?

Schreiben Sie uns!