使用教程
欢迎使用灵犀(Lumina),我们完全兼容OpenAI的使用方式。
您可以直接使用OpenAI SDK或 诸如LangChain、LlamaIndex等项目,您只需替换base_url为 http://api.simonsun.vip/v1 即可。
快速开始
- 申请 API 密钥
- 通过 curl调用
- 通过 SDK调用
- 通过 LangChain调用
- 通过 LlamaIndex调用
通过 curl 调用
1
2
3
4
5
6
7
8
9
10
11
12
13
curl http://api.simonsun.vip/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer 您申请的API密钥" \
-d '{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "Say this is a test!"
}
]
}'
通过 SDK调用
1
2
3
4
5
6
7
8
from openai import OpenAI
client = OpenAI(
# defaults to os.environ.get("OPENAI_API_KEY")
api_key="您申请的API密钥",
base_url="http://api.simonsun.vip/v1"
)
通过 LangChain调用
1
2
3
4
5
6
7
8
9
10
11
12
13
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
model="gpt-4o",
base_url="http://api.simonsun.vip/v1",
api_key="您申请的API密钥"
)
response = llm.invoke("Say this is a test!")
print(response.content)
)
通过 LangChain 以及 LlamaIndex调用LLM以及Embedding向量
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
from langchain_openai import ChatOpenAI
from llama_index.embeddings.openai import OpenAIEmbedding
from llama_index.core import Settings
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
llm = ChatOpenAI(
model="gpt-4o",
base_url="http://api.simonsun.vip/v1",
api_key="您申请的API密钥"
)
embeddings = OpenAIEmbedding(
embed_batch_size=10,
model="text-embedding-3-small",
dimensions=EMBEDDING_DIM,
api_base="http://api.simonsun.vip/v1",
api_key="您申请的API密钥L"
)
Settings.llm = llm
Settings.embed_model = embeddings
常见问题(FAQ)
API 调用失败的可能原因
- 无效的 API 密钥:检查密钥是否正确,确保未包含多余空格。
- 余额不足:在 管理中心 页面查看使用额度。
- 网络问题:检查防火墙或代理设置。
如何计算 API 费用
- 费用按 每千 token 计费(输入 + 输出)。
- 查看实时定价:价格
如何提高生成结果质量?
- 优化提示词(Prompt):明确任务要求(如指定输出格式)。
- 调整参数:降低 temperature 提高确定性,增加 max_tokens 允许更长输出。
- 使用系统消息:通过 role: "system" 设定上下文规则。