Passa al contenuto principale

Esempi end-to-end

Questa documentazione è stata tradotta automaticamente e può contenere errori. Non esitare ad aprire una Pull Request per suggerire modifiche.

Includiamo diversi esempi end-to-end utilizzando LlamaIndex.TS nel repository.

Controlla gli esempi di seguito o provale e completale in pochi minuti con i tutorial interattivi di Github Codespace forniti da Dev-Docs qui:

Motore di chat

Leggi un file e chatta al riguardo con il LLM.

Indice vettoriale

Crea un indice vettoriale e interrogalo. L'indice vettoriale utilizzerà le embedding per recuperare i nodi più rilevanti in cima k. Per impostazione predefinita, il valore di k è 2.

Crea un indice di elenco e interrogalo. Questo esempio utilizza anche il LLMRetriever, che utilizzerà LLM per selezionare i migliori nodi da utilizzare durante la generazione della risposta.

Salva / Carica un indice

Crea e carica un indice vettoriale. La persistenza su disco in LlamaIndex.TS avviene automaticamente una volta creato un oggetto di contesto di archiviazione.

Indice vettoriale personalizzato

Crea un indice vettoriale e interrogalo, configurando anche il LLM, il ServiceContext e il similarity_top_k.

OpenAI LLM

Crea un OpenAI LLM e utilizzalo direttamente per la chat.

Llama2 DeuceLLM

Crea un Llama-2 LLM e utilizzalo direttamente per la chat.

"

SubQuestionQueryEngine

Utilizza il SubQuestionQueryEngine, che suddivide le query complesse in diverse domande e quindi aggrega una risposta tra le risposte a tutte le sotto-domande.

"

Moduli a basso livello

Questo esempio utilizza diversi componenti a basso livello, che eliminano la necessità di un motore di interrogazione effettivo. Questi componenti possono essere utilizzati ovunque, in qualsiasi applicazione, o personalizzati e sottoclassificati per soddisfare le tue esigenze.