一、一句话定位
二、核心能力(极简版)
三、与 LangChain 的区别(一句话)
四、典型场景
五、代码演示
1. 安装
pip install llama-index llama-index-llms-openai python-dotenv
2. 最简示例:本地文档 + 检索问答
import os
from dotenv import load_dotenv
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.llms.openai import OpenAI
# 加载 OpenAI Key
load_dotenv()
# 1. 读取文档(把 .txt/.md 放在 data 文件夹里)
documents = SimpleDirectoryReader("data").load_data()
# 2. 构建向量索引
index = VectorStoreIndex.from_documents(documents)
# 3. 创建查询引擎
query_engine = index.as_query_engine(
llm=OpenAI(model="gpt-3.5-turbo", temperature=0)
)
# 4. 提问
response = query_engine.query("这份文档主要讲了什么?")
print(response)
3. 使用步骤
- 在项目里新建文件夹
data - 把你的文档放进去(支持 txt、md、pdf 等)
- 运行代码,直接问文档内容
4. 超简对比(帮你不混淆)
- LlamaIndex:专注数据索引 + RAG,文档问答最快最简单
- LangChain:专注流程、Agent、多工具
- Scikit-learn:传统机器学习
- PyTorch:深度学习
LlamaIndex 对接 豆包 / 通义千问 / 文心一言的完整可运行代码,最新版语法,复制就能用。
0. 统一安装
pip install llama-index llama-index-llms-dashscope llama-index-llms-ernie bot-sdk
1. 对接 字节豆包(Doubao) LlamaIndex 版
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.llms.doubao import Doubao
# 1. 加载文档
documents = SimpleDirectoryReader("data").load_data()
# 2. 豆包 LLM
llm = Doubao(
model="doubao-lite",
api_key="你的豆包 API Key",
temperature=0.1
)
# 3. 构建索引 & 查询引擎
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(llm=llm)
# 4. 提问
response = query_engine.query("这份文档讲了什么?")
print(response)
2. 对接 阿里通义千问(Qwen)
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.llms.dashscope import DashScope, DashScopeModels
documents = SimpleDirectoryReader("data").load_data()
llm = DashScope(
model_name=DashScopeModels.QWEN_TURBO,
api_key="你的通义 API Key",
temperature=0.1
)
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(llm=llm)
response = query_engine.query("文档里的核心观点是什么?")
print(response)
3. 对接 百度文心一言(ERNIE Bot)
from llama_index.core import SimpleDirectoryReader, VectorStoreIndex
from llama_index.llms.ernie import Ernie
documents = SimpleDirectoryReader("data").load_data()
llm = Ernie(
model_name="ernie-3.5",
api_key="你的文心 API Key",
secret_key="你的文心 Secret Key",
temperature=0.1
)
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine(llm=llm)
response = query_engine.query("总结这份文档")
print(response)
4. 超简总结(你记这个就够)
- LlamaIndex = 专门做 RAG 文档问答
- 上面三段代码唯一区别就是换个 LLM 类
- 全部支持:
- PDF / TXT / MD / DOCX
- 向量检索
- 本地文档 → 私有知识库
数据统计
数据评估
关于LlamaIndex特别声明
本站蜜蜂导航提供的LlamaIndex都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由蜜蜂导航实际控制,在2026年2月11日 下午1:24收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,蜜蜂导航不承担任何责任。
相关导航
暂无评论...
