On the superiority of PGMs to PDCAs in nonsmooth nonconvex sparse regression

Abstract This paper conducts a comparative study of proximal gradient methods (PGMs) and proximal DC algorithms (PDCAs) for sparse regression problems which can be cast as Difference-of-two-Convex-functions (DC) optimization problems. It has been shown that for DC optimization problems, both General...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Nakayama, Shummin [verfasserIn]

Gotoh, Jun-ya

Format:

Artikel

Sprache:

Englisch

Erschienen:

2021

Schlagwörter:

Proximal gradient method

DC algorithms

Proximal alternating linearized minimization

D-stationary points

Critical points

Anmerkung:

© The Author(s), under exclusive licence to Springer-Verlag GmbH, DE part of Springer Nature 2021

Übergeordnetes Werk:

Enthalten in: Optimization letters - Springer Berlin Heidelberg, 2007, 15(2021), 8 vom: 03. März, Seite 2831-2860

Übergeordnetes Werk:

volume:15 ; year:2021 ; number:8 ; day:03 ; month:03 ; pages:2831-2860

Links:

Volltext

DOI / URN:

10.1007/s11590-021-01716-1

Katalog-ID:

OLC2077017899

Nicht das Richtige dabei?

Schreiben Sie uns!