快速开始
你可以直接使用 OpenAI SDK 接入蚂蚁百灵 API,或通过 HTTP 请求进行标准调用,实现无缝迁移。
通过 SDK 接入
Python
1. 安装 OpenAI SDK
pip install openai2. 调用 API
from openai import OpenAI
client = OpenAI(
base_url="https://api.ant-ling.com/v1/",
api_key="YOUR_API_KEY"
)
response = client.chat.completions.create(
model="Ling-2.6-1T",
# 推荐使用百灵最新模型————Ling-2.6-1T/Ling-2.6-flash
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你好,请介绍一下蚂蚁百灵大模型"}
],
max_tokens=1000
)
print(response.choices[0].message.content)3. 示例输出
蚂蚁百灵(Ant Ling)是蚂蚁集团推出的企业级大模型平台,包含三大模型家族:
1. **Ling(通用模型)**:适用于对话、文本生成、内容创作等场景
2. **Ring(推理模型)**:专注于数学计算、代码生成、逻辑推理等深度思考任务
3. **Ming(全模态模型)**:支持图像、音频、视频的跨模态理解与生成
百灵大模型采用 MoE 架构,在保持高性能的同时实现高效推理,
并通过开源社区 Inclusion AI 分享研究成果。通过 HTTP 请求接入
你也可以直接通过 HTTP 请求调用 API:
curl --request POST \
--url https://api.ant-ling.com/v1/chat/completions \
--header 'Authorization: Bearer YOUR_API_KEY' \
--header 'Content-Type: application/json' \
--data '{
"model": "Ling-2.6-1T",
"stream": true,
"messages": [
{
"role": "user",
"content": "你好,请介绍一下蚂蚁百灵大模型"
}
]
}'流式响应
如需流式输出,只需在请求中添加 stream: true。
Python
response = client.chat.completions.create(
model="Ling-2.6-1T",
messages=[
{"role": "user", "content": "你好"}
],
stream=True
)
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")下一步
Was this page helpful?
Last updated on