Multimodal video retrieval with CLIP: a user study

Abstract Recent machine learning advances demonstrate the effectiveness of zero-shot models trained on large amounts of data collected from the internet. Among these, CLIP (Contrastive Language-Image Pre-training) has been introduced as a multimodal model with high accuracy on a number of different...
Ausführliche Beschreibung

Gespeichert in:
Autor*in:

Alpay, Tayfun [verfasserIn]

Magg, Sven

Broze, Philipp

Speck, Daniel

Format:

E-Artikel

Sprache:

Englisch

Erschienen:

2023

Schlagwörter:

Video retrieval

Self-supervised learning

CLIP

Anmerkung:

© The Author(s) 2023

Übergeordnetes Werk:

Enthalten in: Information Retrieval Journal - Dordrecht [u.a.] : Springer Science + Business Media B.V., 1999, 26(2023), 1-2 vom: 29. Sept.

Übergeordnetes Werk:

volume:26 ; year:2023 ; number:1-2 ; day:29 ; month:09

Links:

Volltext

DOI / URN:

10.1007/s10791-023-09425-2

Katalog-ID:

SPR053248678

Nicht das Richtige dabei?

Schreiben Sie uns!