Definition
Ein Embedding ist ein hochdimensionaler Vektor — typischerweise 256 bis 3072 Dimensionen — der die semantische Bedeutung eines Inhalts darstellt. Texte mit ähnlicher Bedeutung erzeugen Embeddings, die im Vektorraum nahe beieinander liegen. Embeddings ermöglichen semantische Suche, Empfehlungen, Klassifizierung und den Abrufschritt in RAG.
Beispiel
Zwei Produktbeschreibungen für "blaue Laufschuhe" und "azurblaue Sportschuhe" würden Embeddings erzeugen, die sehr nahe sind, obwohl sich die Wörter kaum überschneiden.
Wie Vedwix das verwendet
Wir benchmarken mehrere Embedding-Modelle pro Projekt — text-embedding-3-large, voyage-3, gte — weil das richtige Modell von der Domäne abhängt.
Sie arbeiten an einem Projekt rund um Embedding?
Embedding.
Beschreiben Sie Ihr Projekt in drei Sätzen oder weniger.
Projekt starten