Vector Search
La vector search è il processo computazionale di ricerca dei k vettori archiviati in un dataset che sono più simili a un dato vettore di query. È il meccanismo di recupero che connette una query utente (o un task di agente) al contenuto rilevante in una knowledge base, rendendolo il nucleo operativo dei sistemi di ricerca semantica e Retrieval Augmented Generation.
Come Funziona
La vector search opera su una collezione di embedding pre-calcolati archiviati in un database vettoriale. Il processo per una singola query:
- Embedding della query — la query di input viene passata attraverso lo stesso modello di embedding usato per indicizzare la knowledge base, producendo un vettore di query.
- Ricerca per vicini approssimati — il database trova i vettori archiviati la cui cosine similarity (o altra metrica di distanza) rispetto al vettore di query è più alta.
- Ranking — i risultati vengono classificati per punteggio di similarità; i top-k vengono restituiti.
La ricerca esatta k-NN calcola la similarità tra il vettore di query e ogni vettore archiviato. È precisa ma scala quadraticamente con la dimensione del dataset — impraticabile oltre decine di migliaia di vettori.
La ricerca per vicini approssimati (ANN) usa strutture di indicizzazione (HNSW — Hierarchical Navigable Small World graphs; IVF — Inverted File Index) per ridurre lo spazio di ricerca e restituire risultati in tempi inferiori al millisecondo, con un piccolo trade-off di accuratezza configurabile. I sistemi di produzione usano quasi sempre ANN.
Vector Search vs. Ricerca per Parole Chiave
| Dimensione | Ricerca per parole chiave | Vector search |
|---|---|---|
| Base di corrispondenza | Sovrapposizione di termini esatti o stemmati | Similarità semantica |
| Gestisce sinonimi | No | Sì |
| Gestisce parafrasi | No | Sì |
| Gestisce termini di entità esatti | Forte | Più debole |
| Velocità su larga scala | Veloce (indice invertito) | Veloce (ANN) |
Nessun metodo è universalmente superiore — ecco perché il recupero ibrido li combina entrambi.
Casi d'Uso Comuni
- Pipeline RAG — recuperare i chunk più rilevanti da una knowledge base prima della generazione del modello linguistico.
- Ricerca prodotti — restituire prodotti simili per concetto a una query in linguaggio naturale.
- Matching candidati — trovare profili semanticamente simili a una descrizione del ruolo.
- Rilevamento anomalie — identificare record i cui vettori sono lontani da tutti i cluster noti.
Termini Correlati
L'Approccio di Knowlee
Ogni decisione degli agenti in Knowlee inizia con un passaggio di vector search contro il knowledge graph: il task corrente dell'agente viene embeddato e i segnali degli account più rilevanti vengono recuperati prima di qualsiasi generazione. L'indicizzazione HNSW mantiene la latenza di recupero sotto i 10ms anche su account grandi con migliaia di segnali indicizzati. Questo ancora ogni output degli agenti a dati attuali e specifici anziché alla conoscenza generalizzata del modello. L'effetto moltiplicatore più ampio di questa architettura è descritto in The Enterprise Knowledge Graph Moat.