Efficient Perturbation Inference and Expandable Network for continual learning

Although humans are capable of learning new tasks without forgetting previous ones, most neural networks fail to do so because learning new tasks could override the knowledge acquired from previous data. In this work, we alleviate this issue by proposing a novel Efficient Perturbation Inference and...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Du, Fei [verfasserIn]

Yang, Yun [verfasserIn]

Zhao, Ziyuan [verfasserIn]

Zeng, Zeng [verfasserIn]

Format:

E-Artikel

Sprache:

Englisch

Erschienen:

2022

Schlagwörter:

Continual learning

Dynamic networks

Class incremental learning

Uncertainty inference

Übergeordnetes Werk:

Enthalten in: Neural networks - Amsterdam : Elsevier, 1988, 159, Seite 97-106

Übergeordnetes Werk:

volume:159 ; pages:97-106

DOI / URN:

10.1016/j.neunet.2022.10.030

Katalog-ID:

ELV009155317

Nicht das Richtige dabei?

Schreiben Sie uns!