Nhảy tới nội dung

Ví dụ từ đầu đến cuối

Tài liệu này đã được dịch tự động và có thể chứa lỗi. Đừng ngần ngại mở một Pull Request để đề xuất thay đổi.

Chúng tôi bao gồm một số ví dụ từ đầu đến cuối sử dụng LlamaIndex.TS trong kho lưu trữ

Hãy xem các ví dụ dưới đây hoặc thử chúng và hoàn thành chúng trong vài phút với hướng dẫn tương tác Github Codespace được cung cấp bởi Dev-Docs tại đây:

Bộ máy trò chuyện

Đọc một tệp và trò chuyện về nó với LLM.

Chỉ số Vector

Tạo một chỉ số vector và truy vấn nó. Chỉ số vector sẽ sử dụng nhúng để lấy các nút liên quan nhất hàng đầu k. Mặc định, k hàng đầu là 2.

"

Chỉ mục Tóm tắt

Tạo một chỉ mục danh sách và truy vấn nó. Ví dụ này cũng sử dụng LLMRetriever, sẽ sử dụng LLM để chọn các nút tốt nhất để sử dụng khi tạo câu trả lời.

"

Lưu / Tải một Chỉ mục

Tạo và tải một chỉ mục vector. Việc lưu trữ vào đĩa trong LlamaIndex.TS xảy ra tự động khi một đối tượng ngữ cảnh lưu trữ được tạo ra.

"

Chỉ số Vector Tùy chỉnh

Tạo một chỉ số vector và truy vấn nó, đồng thời cấu hình LLM, ServiceContextsimilarity_top_k.

OpenAI LLM

Tạo một OpenAI LLM và sử dụng nó trực tiếp để trò chuyện.

"

Llama2 DeuceLLM

Tạo một Llama-2 LLM và sử dụng nó trực tiếp cho cuộc trò chuyện.

"

SubQuestionQueryEngine

Sử dụng SubQuestionQueryEngine, nó chia các truy vấn phức tạp thành nhiều câu hỏi nhỏ, sau đó tổng hợp phản hồi từ các câu trả lời của tất cả các câu hỏi con.

"

Các mô-đun cấp thấp

Ví dụ này sử dụng một số thành phần cấp thấp, loại bỏ nhu cầu sử dụng một công cụ truy vấn thực tế. Các thành phần này có thể được sử dụng ở bất kỳ đâu, trong bất kỳ ứng dụng nào, hoặc tùy chỉnh và phụ lớp để đáp ứng nhu cầu của riêng bạn.