Skip to Content
入门与准备快速开始

快速开始

你可以直接使用 OpenAI SDK 接入蚂蚁百灵 API,或通过 HTTP 请求进行标准调用,实现无缝迁移。


通过 SDK 接入

1. 安装 OpenAI SDK

pip install openai

2. 调用 API

from openai import OpenAI client = OpenAI( base_url="https://api.ant-ling.com/v1/", api_key="YOUR_API_KEY" ) response = client.chat.completions.create( model="Ling-2.6-1T", # 推荐使用百灵最新模型————Ling-2.6-1T/Ling-2.6-flash messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "你好,请介绍一下蚂蚁百灵大模型"} ], max_tokens=1000 ) print(response.choices[0].message.content)

3. 示例输出

蚂蚁百灵(Ant Ling)是蚂蚁集团推出的企业级大模型平台,包含三大模型家族: 1. **Ling(通用模型)**:适用于对话、文本生成、内容创作等场景 2. **Ring(推理模型)**:专注于数学计算、代码生成、逻辑推理等深度思考任务 3. **Ming(全模态模型)**:支持图像、音频、视频的跨模态理解与生成 百灵大模型采用 MoE 架构,在保持高性能的同时实现高效推理, 并通过开源社区 Inclusion AI 分享研究成果。

通过 HTTP 请求接入

你也可以直接通过 HTTP 请求调用 API:

curl --request POST \ --url https://api.ant-ling.com/v1/chat/completions \ --header 'Authorization: Bearer YOUR_API_KEY' \ --header 'Content-Type: application/json' \ --data '{ "model": "Ling-2.6-1T", "stream": true, "messages": [ { "role": "user", "content": "你好,请介绍一下蚂蚁百灵大模型" } ] }'

流式响应

如需流式输出,只需在请求中添加 stream: true

response = client.chat.completions.create( model="Ling-2.6-1T", messages=[ {"role": "user", "content": "你好"} ], stream=True ) for chunk in response: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="")

下一步

Was this page helpful?
Last updated on