A Universal Approximation Theorem for Mixture-of-Experts Models

The mixture-of-experts (MoE) model is a popular neural network architecture for nonlinear regression and classification. The class of MoE mean functions is known to be uniformly convergent to any unknown target function, assuming that the target function is from a Sobolev space that is sufficiently...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Hien D Nguyen [verfasserIn]

Luke R Lloyd-Jones

Geoffrey J McLachlan

Format:

Artikel

Sprache:

Englisch

Erschienen:

2016

Schlagwörter:

Neurosciences

Theorems

Estimating techniques

Approximations

Mathematical models

Neural networks

Übergeordnetes Werk:

Enthalten in: Neural computation - Cambridge, Mass. : MIT Press, 1989, 28(2016), 12, Seite 2585-2593

Übergeordnetes Werk:

volume:28 ; year:2016 ; number:12 ; pages:2585-2593

Links:

Volltext
Link aufrufen

DOI / URN:

10.1162/NECO_a_00892

Katalog-ID:

OLC1989106781

Nicht das Richtige dabei?

Schreiben Sie uns!