在 OpenRouter 上接入 Ling
OpenRouter 提供 OpenAI 兼容的统一入口:你只需要把 base_url 指向 OpenRouter,并在请求中使用 OpenRouter 的 API Key,即可通过同一套 SDK/HTTP 调用多家模型。
你需要准备什么
前往 OpenRouter 获取:
- 一个 OpenRouter API Key
- 从 OpenRouter 的模型列表中找到百灵模型对应的 model id
重要:OpenRouter 的 model 字段通常需要填写 OpenRouter 的模型标识(而不是百灵原生模型名)。请以 OpenRouter 控制台/模型页展示的 id 为准。
统一配置(推荐用环境变量)
export OPENAI_BASE_URL=https://openrouter.ai/api/v1
export OPENAI_API_KEY=${OPENROUTER_API_KEY}OpenRouter 还建议你在请求中附加站点信息(用于统计与风控),常见为:
HTTP-Referer: 你的站点或项目地址X-Title: 你的应用名称
不同 SDK 对这两个头的设置方式不同,下面会给出示例。
调用 Ling(文本对话)
把 model 换成你在 OpenRouter 上看到的 Ling 模型 id(示例用占位符)。
Python
import os
from openai import OpenAI
client = OpenAI(
base_url=os.environ.get("OPENAI_BASE_URL", "https://openrouter.ai/api/v1"),
api_key=os.environ["OPENAI_API_KEY"],
)
resp = client.chat.completions.create(
model="inclusionai/ling-2.6-flash:free", # <- 用 OpenRouter 上的实际 id 替换
messages=[
{"role": "system", "content": "你是一个专业、简洁的中文助手。"},
{"role": "user", "content": "用 5 条要点介绍一下如何写出可维护的 API 文档。"},
],
extra_headers={
"HTTP-Referer": "https://your.site",
"X-Title": "Your App Name",
},
)
print(resp.choices[0].message.content)调用 Ring(推理 / 代码)
Ring 的调用方式不变:关键是选对 Ring 对应的 OpenRouter model id。
Python
import os
from openai import OpenAI
client = OpenAI(
base_url=os.environ.get("OPENAI_BASE_URL", "https://openrouter.ai/api/v1"),
api_key=os.environ["OPENAI_API_KEY"],
)
resp = client.chat.completions.create(
model="inclusionai/ling-2.6-flash:free", # <- 用 OpenRouter 上的实际 id 替换
messages=[
{"role": "user", "content": "给定一个字符串 s,返回其所有回文子串的数量。请给出 O(n^2) 解法并解释思路。"},
],
extra_headers={
"HTTP-Referer": "https://your.site",
"X-Title": "Your App Name",
},
)
print(resp.choices[0].message.content)常见问题
为什么我用百灵原生模型名会报错?
因为 OpenRouter 的 model 通常要求填写它自己的模型标识(如 provider/model 形式)。请到 OpenRouter 的模型列表中复制对应 id,再粘贴到 model 字段。
返回 401/403 怎么排查?
- 确认你用的是 OpenRouter API Key
- 确认环境变量
OPENAI_BASE_URL=https://openrouter.ai/api/v1 - 确认所选模型在你的 OpenRouter 账号下可用(权限/余额/地区等)
Was this page helpful?
Last updated on