Vector Search

La vector search è il processo computazionale di ricerca dei k vettori archiviati in un dataset che sono più simili a un dato vettore di query. È il meccanismo di recupero che connette una query utente (o un task di agente) al contenuto rilevante in una knowledge base, rendendolo il nucleo operativo dei sistemi di ricerca semantica e Retrieval Augmented Generation.

Come Funziona

La vector search opera su una collezione di embedding pre-calcolati archiviati in un database vettoriale. Il processo per una singola query:

  1. Embedding della query — la query di input viene passata attraverso lo stesso modello di embedding usato per indicizzare la knowledge base, producendo un vettore di query.
  2. Ricerca per vicini approssimati — il database trova i vettori archiviati la cui cosine similarity (o altra metrica di distanza) rispetto al vettore di query è più alta.
  3. Ranking — i risultati vengono classificati per punteggio di similarità; i top-k vengono restituiti.

La ricerca esatta k-NN calcola la similarità tra il vettore di query e ogni vettore archiviato. È precisa ma scala quadraticamente con la dimensione del dataset — impraticabile oltre decine di migliaia di vettori.

La ricerca per vicini approssimati (ANN) usa strutture di indicizzazione (HNSW — Hierarchical Navigable Small World graphs; IVF — Inverted File Index) per ridurre lo spazio di ricerca e restituire risultati in tempi inferiori al millisecondo, con un piccolo trade-off di accuratezza configurabile. I sistemi di produzione usano quasi sempre ANN.

Vector Search vs. Ricerca per Parole Chiave

Dimensione Ricerca per parole chiave Vector search
Base di corrispondenza Sovrapposizione di termini esatti o stemmati Similarità semantica
Gestisce sinonimi No
Gestisce parafrasi No
Gestisce termini di entità esatti Forte Più debole
Velocità su larga scala Veloce (indice invertito) Veloce (ANN)

Nessun metodo è universalmente superiore — ecco perché il recupero ibrido li combina entrambi.

Casi d'Uso Comuni

  • Pipeline RAG — recuperare i chunk più rilevanti da una knowledge base prima della generazione del modello linguistico.
  • Ricerca prodotti — restituire prodotti simili per concetto a una query in linguaggio naturale.
  • Matching candidati — trovare profili semanticamente simili a una descrizione del ruolo.
  • Rilevamento anomalie — identificare record i cui vettori sono lontani da tutti i cluster noti.

Termini Correlati

L'Approccio di Knowlee

Ogni decisione degli agenti in Knowlee inizia con un passaggio di vector search contro il knowledge graph: il task corrente dell'agente viene embeddato e i segnali degli account più rilevanti vengono recuperati prima di qualsiasi generazione. L'indicizzazione HNSW mantiene la latenza di recupero sotto i 10ms anche su account grandi con migliaia di segnali indicizzati. Questo ancora ogni output degli agenti a dati attuali e specifici anziché alla conoscenza generalizzata del modello. L'effetto moltiplicatore più ampio di questa architettura è descritto in The Enterprise Knowledge Graph Moat.