Accelerated Bregman proximal gradient methods for relatively smooth convex optimization

Abstract We consider the problem of minimizing the sum of two convex functions: one is differentiable and relatively smooth with respect to a reference convex function, and the other can be nondifferentiable but simple to optimize. We investigate a triangle scaling property of the Bregman distance g...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Hanzely, Filip [verfasserIn]

Richtárik, Peter [verfasserIn]

Xiao, Lin [verfasserIn]

Format:

E-Artikel

Sprache:

Englisch

Erschienen:

2021

Schlagwörter:

Convex optimization

Relative smoothness

Bregman divergence

Proximal gradient methods

Accelerated gradient methods

Übergeordnetes Werk:

Enthalten in: Computational optimization and applications - New York, NY [u.a.] : Springer Science + Business Media B.V., 1992, 79(2021), 2 vom: 07. Apr., Seite 405-440

Übergeordnetes Werk:

volume:79 ; year:2021 ; number:2 ; day:07 ; month:04 ; pages:405-440

Links:

Volltext

DOI / URN:

10.1007/s10589-021-00273-8

Katalog-ID:

SPR043960413

Nicht das Richtige dabei?

Schreiben Sie uns!