💰 AI 模型价格
Chat Nio 官方站 有两种计费方式。一种是随用随付的弹性计费,一种是订阅计划。
💰 官方站 1 人民币 兑换 10 点数 💰
⭐ API 中转仅支持弹性计费, 不涵盖订阅配额 ⭐
⚠ 其他站点请参阅其站点的信息,与官方站计费无关 ⚠
🎉 全部模型支持 OpenAI API 格式调用 (类似 One API) 🎉
最新的订阅计划配额请前往官方站查看,下列仅列出弹性计费价格:
最低余额限制
为了防止超出余额的部分过多,同时为了防止滥用,Chat Nio 设定了特定模型的最低余额预检,当小于该余额时,不可发起请求。
- ✨ 按次计费模型:单次调用费用
- ✨ Token 计费模型:1K 输入 Token 费用 + 1K 输出 Token 费用
OpenAI / Azure OpenAI
⭐ OpenAI 全部官方模型支持 Function Calling
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
gpt-3.5-turbo (0301, 0613) | 1 元 1 刀 | 0.015 | 0.02 |
gpt-3.5-turbo-1106 | 1 元 1 刀 | 0.01 | 0.02 |
gpt-3.5-turbo-0125 | 1 元 1 刀 | 0.005 | 0.015 |
gpt-3.5-turbo-16k | 1 元 1 刀 | 0.03 | 0.04 |
gpt-4 (0314, 0613) | 1 元 1 刀 | 0.3 | 0.6 |
gpt-4-32k (0314, 0613) | 1 元 1 刀 | 0.6 | 1.2 |
gpt-4-turbo | 3 元 1 刀 | 0.3 | 0.9 |
gpt-4-turbo-preview (1106, 0125) | 1 元 1 刀 | 0.1 | 0.3 |
gpt-4-vision-preview | 1 元 1 刀 | 0.1 | 0.3 |
dall-e-2 | 1 元 1 刀 (512x512) | - | 0.18 / 次 |
dall-e-3 | 1 元 1 刀 (HD 1024x1024) | - | 0.8 / 次 |
gpt-4-v gpt-4-dalle gpt-4-all | 0.1 元一次 | - | 1 / 次 |
gpt-4o | 0.05 元一次 | - | 0.5 / 次 |
azure-gpt-3.5-turbo | 0.4 元 1 刀 (0613) | 0.006 | 0.008 |
azure-gpt-3.5-turbo-16k | 0.4 元 1 刀 (0613) | 0.012 | 0.016 |
azure-gpt-4 (0314, 0613) | 0.8 元 1 刀 | 0.24 | 0.48 |
azure-gpt-4-32k (0314, 0613) | 0.8 元 1 刀 | 0.48 | 0.96 |
azure-gpt-4-turbo-preview (1106, 0125) | 0.8 元 1 刀 | 0.08 | 0.24 |
azure-gpt-4-vision-preview | 0.8 元 1 刀 | 0.08 | 0.24 |
gpt-3.5-free gpt-3.5-16k-free | 1 元 5000 次 (1 点数 500 次) | - | 0.002 / 次 |
模型声明
- GPT-3.5 Free 系列为逆向模型,不保证稳定性。
- 除 GPT-4 0613 模型和逆向模型外,全部支持 Function Calling 调用。
快速接入
除常规标准格式外, Chat Nio 同时适配了更多 Developers Friendly 的调用方式:
- GPT-4 Turbo / GPT-4 Vision Preview 支持 ⭐ 直接在输入框中输入图片 URL / Base64 进行调用 (正则实现, 推荐 URL 中不含空格, 文本内容和 URL 中不要粘连以避免提取错误)。
- DALL-E 系列绘图模型支持 ⭐ Chat Completions 接口 (/v1/chat/completions) 调用。
- GPT-4 DALLE 支持 ⭐ Images 接口 (/v1/images) 调用。
Tip: 除上述格式外同时也同时并优先兼容标准格式,比如 DALL-E 绘图模型优先支持 /v1/images 调用。
Midjourney & SDXL
⭐ 由 Midjourney Proxy Plus 提供支持
模型 | 价格(点数) | 信息 |
---|---|---|
midjourney | 1 / 次 | Relax 模式 (2~5 分钟出图) |
midjourney-fast | 2 / 次 | Fast 模式 (30 秒 ~ 1 分钟出图) |
midjourney-turbo | 4 / 次 | Turbo 模式 (30 秒内出图) |
stable-diffusion | 0.25 / 次 | Stable Diffusion XL (不稳定) |
快速接入
所有绘图模型 API 调用格式兼容:
- ⭐ Images 接口 (/v1/images)
- ⭐ Chat Completions 接口 (/v1/chat/completions)
Anthropic Claude
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
claude-1-100k, claude-1, claude-1.3, cluade-slack (废弃) | 对齐官网计费 | 0.08 | 0.27 |
claude-2, claude-2.1 | 对齐官网计费 | 0.8 | 2.7 |
claude-3-opus-20240229 | 价格同 gpt-4-32k | ||
claude-3-sonnet-20240229 | 价格同 gpt-4 | ||
claude-3-haiku-20240307 | 价格同 gpt-3.5-turbo-16k |
模型声明
- Claude-1 / Claude-2 系列为逆向模型,不保证稳定性。
- Claude-3 系列 支持 Function Calling 调用。
- Claude-3 Opus 和 Claude-3 Sonnet 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
SparkDesk 讯飞星火
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
spark-desk-v3 | 对齐官网计费 (V3.5) | 0.3 | 0.3 |
spark-desk-v3 | 对齐官网计费 (V3.1) | 0.3 | 0.3 |
spark-desk-v2 | 对齐官网计费 (V2.1) | 0.3 | 0.3 |
spark-desk-v1.5 | 对齐官网计费 (V1.5) | 0.15 | 0.15 |
ChatGLM 智谱清言
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
glm-4 | 对齐官网计费 | 1 | 1 |
glm-4v | 对齐官网计费 | 1 | 1 |
glm-3-turbo | 对齐官网计费 | 0.05 | 0.05 |
模型声明
- glm-4v 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
- 智谱将 API 格式从 V3 升级至 V4, 原 V3 模型将逐步废弃:
- zhipu-chatglm-turbo (同 glm-3-turbo)
- zhipu-chatglm-pro (已废弃)
- zhipu-chatglm-std (已废弃)
- zhipu-chatglm-lite (已废弃)
模型 费率 问题 Token (点数 / 1k token) 回答 Token (点数 / 1k token) zhipu-chatglm-turbo 对齐官网计费 0.05 0.05 zhipu-chatglm-pro(废弃) 对齐官网计费 0.1 0.1 zhipu-chatglm-std(废弃) 对齐官网计费 0.05 0.05 zhipu-chatglm-lite(废弃) 对齐官网计费 0.05 0.05
Moonshot 月之暗面
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
moonshot-v1-8k | 对齐官网计费 | 0.12 | 0.12 |
moonshot-v1-32k | 对齐官网计费 | 0.24 | 0.24 |
moonshot-v1-128k | 对齐官网计费 | 0.6 | 0.6 |
DeepSeek 深度求索
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
deepseek-chat | 对齐官网计费 | 0.01 | 0.02 |
deepseek-coder | 对齐官网计费 | 0.01 | 0.02 |
DashScope 通义千问
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
qwen-plus | 对齐官网计费 | 0.2 | 0.2 |
qwen-plus-net | 对齐官网计费 | 0.2 | 0.2 |
qwen-turbo | 对齐官网计费 | 0.08 | 0.08 |
qwen-turbo-net | 对齐官网计费 | 0.08 | 0.08 |
INFO
- -net 后缀模型为开启 DashScope 联网选项模型。
Google Gemini / PaLM2
模型 | 费率 | 回答 Token (点数 / 次数) |
---|---|---|
gemini-1.5-pro-latest | 1 元 200 次 | 0.05 / 次 |
gemini-1.5-flash-latest | 1 元 200 次 | 0.05 / 次 |
gemini-pro-vision | 1 元 200 次 | 0.05 / 次 |
gemini-pro | 1 元 200 次 | 0.05 / 次 |
chat-bison-001 (已废弃) | 1 元 200 次 | 0.05 / 次 |
INFO
- Gemini Pro Vision / Gemini 1.5 Pro Latest / Gemini 1.5 Flash Latest 模型支持识别图片,调用格式同 GPT-4 Vision Preview。
- Gemini Pro Vision 不支持多轮对话 (Multi Turn) 且强制输入携带图片。
- Chat Bison 001 不支持中文对话,已被 Google 废弃。
New Bing
模型 | 回答 Token (点数 / 次数) |
---|---|
bing-creative | 0.1 / 次 |
bing-balanced | 0.1 / 次 |
bing-precise | 0.1 / 次 |
New Bing 为逆向模型,不保证稳定性,出现错误为正常现象
Meta LLaMa
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
llama-3-70b llama-2-70b code-llama-34b | 算力平均值 | 0.25 | 0.25 |
llama-3-8b llama-2-13b llama-2-7b code-llama-13b code-llama-7b | 算力平均值 | 0.1 | 0.1 |
LLaMa 模型不保证高速和稳定性,吐字速度随当前可用性能影响
腾讯混元
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
hunyuan | 对齐官网计费 | 1 | 1 |
360 智脑
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
360-gpt-v9 | 对齐官网计费 | 0.12 | 0.12 |
百川 AI
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
baichuan-53b | 对齐官网计费 | 0.2 | 0.2 |
火山方舟(抖音豆包)
模型 | 费率 | 问题 Token (点数 / 1k token) | 回答 Token (点数 / 1k token) |
---|---|---|---|
skylark-lite-public | 对齐官网计费 | 0.04 | 0.04 |
skylark-plus-public | 对齐官网计费 | 0.08 | 0.08 |
skylark-pro-public | 对齐官网计费 | 0.11 | 0.11 |
skylark-chat | 对齐官网计费 | 0.11 | 0.11 |
Pika Text To Video (文生视频)
模型 | 费率 | 价格 (点数) |
---|---|---|
pika-text-to-video | 官网平均计费 | 5 / 次 (一元 2 次) |
Suno (文生音乐)
模型 | 费率 | 价格 (点数) |
---|---|---|
suno-v3 | 官网平均计费 | 2 / 次 (一元 5 次) |
Token 计算方式
🔔 Chat Nio 的 Token 计费方式完全参照 OpenAI 官方保持一致 🔔
Tokenizer 的计算方法请查看 OpenAI Cookbox,后端使用 Tiktoken Go 库进行计算。
询问模型自己使用了多少 Token 是不可行的,模型大概率只会得出错误答案。 Token 计算方法请前往 OpenAI 官方 Token 计算器 Tokenizer - OpenAI Platform 进行计算。
每次发送将产生一次请求。在一次请求中,分为 输入 Tokens 和 输出 Tokens:
- 输入 Tokens:请求的问题 和 携带历史上下文对话 消息的 Token 数量总和。
- 输出 Tokens:模型返回的回答消息的 Token 数量。
💰 计算步骤
- 每一条输入消息按照 ROLE_TOKENS + CONTENT_TOKENS + NAME_TOKENS 计算,并加入权 TokensPerMessage 参数 (一般为 3) 并相加计算总 Tokens。
- 输出消息的 CONTENT_TOKENS 计算输出 Tokens。
- 价格 = (输入 Tokens / 1000 * 输入费率) + (输出 Tokens / 1000 * 输出费率)
🔍 请求案例
假设一轮对话中,使用 GPT-4 1106 Preview 模型,且用户的对话界面类似于:
用户 > 你好
回复 < 你好!有什么我可以帮助你的吗?
用户 > 你是谁
我是一个人工智能助手,由 OpenAI 创建,旨在帮助人们回答问题、提供信息、解决问题或者进行闲聊。如果你有任何疑问或需要帮助,随时告诉我!
在本轮对话中,一共请求两次,我们挑第二次请求作为示例进行计算:
输入 Token 的结构体应类似于:
{
"model": "gpt-4-1106-preview",
"messages": [
{ "role": "user", "content": "你好" },
{ "role": "assistant", "content": "你好!有什么可以帮助你的吗?" },
{ "role": "user", "content": "你是谁" }
]
}
- 计算输入 Token (总计 6 + 21 + 8 + 3 = 38 tokens)
- 第一条消息 内容:
你好
(2 tokens), 角色:user
(1 token), 权重 (3 tokens) - 总计 6 tokens - 第二条消息 内容:
你好!有什么可以帮助你的吗?
(17 tokens), 角色:assistant
(1 token), 权重 (3 tokens) - 总计 21 tokens - 第三条消息 内容:
你是谁
(4 tokens), 角色:user
(1 token), 权重 (3 tokens) - 总计 8 tokens - Reply 的前缀携带 <|im_start|>assistant<|im_sep|> (3 tokens)
- 第一条消息 内容:
- 计算输出 Token (总计 71 tokens)
- 输出 内容:
我是...
(71 tokens)
- 输出 内容:
- 计算价格
- 从上面的
gpt-4-1106-preview
价格可知,输入 Token 为 0.1 点数 / 1k token,输出 Token 为 0.3 点数 / 1k token - 计算价格为 (38 / 1000 * 0.1) + (71 / 1000 * 0.3) = 0.0038 + 0.0213 = 0.0251 点数
- 从上面的
校对站点的使用记录,找到此请求的记录:
输入 Token, 输出 Token 和价格全部与计算结果相符。