在 OpenClaw 中使用
OpenClaw 是一款支持自定义 LLM 提供方的 AI 编程助手。通过将其 API 端点指向蚂蚁百灵,即可在 OpenClaw 中直接使用 Ling 模型完成代码补全、生成、解释等任务。
你需要准备什么
配置步骤
运行以下命令启动交互式配置向导:
openclaw onboard按照提示依次完成以下步骤:
选择
Custom Provider 作为模型提供商◇ Model/auth provider
│ Custom Provider填写
https://api.ant-ling.com/v1 作为 API Base URL◇ API Base URL
│ https://api.ant-ling.com/v1选择
Paste API key now 作为 API Key 输入方式◇ How do you want to provide this API key?
│ Paste API key now前往 API 控制台 创建并复制令牌
◇ API Key (leave blank if not required)
│ <YOUR_API_KEY>选择
OpenAI-compatible 作为接口兼容模式◇ Endpoint compatibility
│ OpenAI-compatible填写模型 ID,示例值是
Ling-2.6-flash,可以按需改成 Ling-2.6-1T、Ling-2.5-1T 或 Ring-1T◇ Model ID
│ Ling-2.6-flash验证成功,填写 Endpoint ID 和可选的模型别名,配置即完成
◇ Verification successful.
│
◇ Endpoint ID
│ ant-ling
│
◇ Model alias (optional)
│ Ling-2.6-flash
Configured custom provider: ant-ling/Ling-2.6-flash常见问题
连接失败 / 401 错误
- 确认已在API 控制台 创建令牌且令牌处于有效状态
- 确认 Base URL 填写为
https://api.ant-ling.com/v1(末尾无多余斜杠)
模型名称填写错误
模型名区分大小写,请确保与文档一致,例如 Ling-2.6-flash 而非 ling-2.6-flash。
响应速度慢
建议启用流式输出(Stream)选项,以获得更快的响应体验。
相关链接
Was this page helpful?
Last updated on