Skip to Content

在 OpenClaw 中使用

OpenClaw  是一款支持自定义 LLM 提供方的 AI 编程助手。通过将其 API 端点指向蚂蚁百灵,即可在 OpenClaw 中直接使用 Ling 模型完成代码补全、生成、解释等任务。


你需要准备什么


配置步骤

运行以下命令启动交互式配置向导:

openclaw onboard

按照提示依次完成以下步骤:

选择 Custom Provider 作为模型提供商
◇ Model/auth provider │ Custom Provider
填写 https://api.ant-ling.com/v1 作为 API Base URL
◇ API Base URL │ https://api.ant-ling.com/v1
选择 Paste API key now 作为 API Key 输入方式
◇ How do you want to provide this API key? │ Paste API key now
前往 API 控制台 创建并复制令牌
◇ API Key (leave blank if not required) │ <YOUR_API_KEY>
选择 OpenAI-compatible 作为接口兼容模式
◇ Endpoint compatibility │ OpenAI-compatible
填写模型 ID,示例值是 Ling-2.6-flash,可以按需改成 Ling-2.6-1TLing-2.5-1TRing-1T
◇ Model ID │ Ling-2.6-flash
验证成功,填写 Endpoint ID 和可选的模型别名,配置即完成
◇ Verification successful. ◇ Endpoint ID │ ant-ling ◇ Model alias (optional) │ Ling-2.6-flash Configured custom provider: ant-ling/Ling-2.6-flash

常见问题

连接失败 / 401 错误

  • 确认已在API 控制台 创建令牌且令牌处于有效状态
  • 确认 Base URL 填写为 https://api.ant-ling.com/v1(末尾无多余斜杠)

模型名称填写错误

模型名区分大小写,请确保与文档一致,例如 Ling-2.6-flash 而非 ling-2.6-flash

响应速度慢

建议启用流式输出(Stream)选项,以获得更快的响应体验。


相关链接

Was this page helpful?
Last updated on