Definição
Um embedding é um vetor de alta dimensão — tipicamente de 256 a 3072 dimensões — que representa o significado semântico de um conteúdo. Textos com significado similar produzem embeddings que estão próximos no espaço vetorial. Os embeddings impulsionam busca semântica, recomendações, classificação e a etapa de recuperação no RAG.
Exemplo
Duas descrições de produtos para "tênis de corrida azuis" e "calçados atléticos azul-celeste" produziriam embeddings muito próximos, mesmo que as palavras mal se sobreponham.
Como a Vedwix usa isto
Comparamos vários modelos de embedding por projeto — text-embedding-3-large, voyage-3, gte — porque o modelo certo depende do domínio.
Trabalhando em um projeto de Embedding?
Embedding.
Descreva seu projeto em três frases ou menos.
Iniciar um projeto