模型列表及价格说明
1、模型名字实在太多,或者老模型官方也慢慢废弃,实际当下可能还是支持的,就没有列出了,不断更新ing
2、原则上国内模型和官方价格是一样的,国外的模型也还是按官方价格的逻辑(包括所有模型、finetune、batch、assistant等都和官方计费逻辑一样),只是为了能更持续更好的为大家提供服务,我们在官方价格上有略微的增加8%,收个带宽和服务器的费用,比如充值100块,92块给了openai,ModelBridge收8块。
3、OpenAI官方价格查阅地址:https://openai.com/pricing
OpenAI官方模型说明地址:https://platform.openai.com/docs/models
4、更多模型,敬请期待
模型名称 | 版本 | 供应商 | 支持接口 | 提问价格(官方) | 回答价格(官方) | Context window | 模型说明 |
---|---|---|---|---|---|---|---|
text-embedding-ada-002 | 2 | OpenAI | /embeddings | $0.0001 /1k tokens | $0.0001 /1k tokens | 4,096 tokens | OpenAI 的文本嵌入可以衡量文本字符串的相关性,默认情况下,嵌入向量的长度为 1536 |
dall-e-3 | 3.0 | OpenAI | - | 质量/分辨率/价格 Standard/1024×1024/ 0.04美元 Standard/1024×1792, 1792×1024/0.08美元 HD/1024×1024/0.08美元 HD/1024×1792, 1792×1024/0.16美元 | - | - | DALL·E·3绘图,支持设置质量、大小参数。 |
gpt-3.5-turbo | 0125(2025-01-25) | OpenAI | /chat/completions | $0.0005 /1k tokens | $0.0015 /1k tokens | 4,096 tokens | OpenAI的GPT-3.5大模型,目前指向gpt-3.5-turbo-0125 |
gpt-4 | turbo-2024-04-09 | OpenAI | /chat/completions | $0.03 / 1K tokens | $0.06 / 1K tokens | 8,192 tokens | OpenAI的GPT-4.0大模型 |
gpt-4o | 2024-11-20 | OpenAI | /chat/completions | $0.005 / 1K tokens | $0.015 / 1K tokens | 128,000 tokens | OpenAI的GPT-4o大模型 |
gpt-4o-mini | 2024-07-18 | OpenAI | /chat/completions | $0.00015 / 1K tokens | $0.0006 / 1K tokens | 128,000 tokens | OpenAI的GPT-4o-mini大模型 |
ERNIE-4.0-8K | - | 百度 | /chat/completions | ¥0.04 /1k tokens | ¥0.12/1k tokens | 8K tokens | 百度文心一言模型。 |
ERNIE-3.5-8K | - | 百度 | /chat/completions | ¥0.004/1k tokens | ¥0.012 /1k tokens | 8K tokens | 百度文心一言v4.0模型。 |
ERNIE-4.0-Turbo-8k | - | 百度 | /chat/completions | ¥0.03 /1k tokens | ¥0.06 /1k tokens | 128K tokens | 百度文心一言模型。 |
Mixtral-8x7B-Instruct | - | 百度 | /chat/completions | ¥0.035 /1k tokens | ¥0 /1k tokens | 8K tokens | 百度文心一言模型。 |
Yi-34B-Chat | 百度 | /chat/completions | ¥0 /1k tokens (免费) | ¥0 /1k tokens (免费) | 8K tokens | 百度文心一言模型。 | |
🔥deepseek-r1 | - | DeepSeek | /chat/completions | ¥0.004 /1k tokens | ¥0.016 /1k tokens | 64K tokens | DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能较高,能力较强。deepseek-r1、deepseek-v3请求量并发影响,有响应速度变慢的问题,请自行测试使用 |
🔥deepseek-v3 | - | DeepSeek | /chat/completions | ¥0.002 /1k tokens | ¥0.008 /1k tokens | 64K tokens | DeepSeek-V3 为自研 MoE 模型,671B 参数,激活 37B,在 14.8T token 上进行了预训练,在长文本、代码、数学、百科、中文 能力上表现优秀。 |
🔥qwen-max-latest | Qwen2.5-max(2025-01-25) | 阿里通义 | /chat/completions | ¥0.0112 /1k tokens | ¥0.0448 /1k tokens | 32K tokens | 通义千问系列效果最好的模型,本模型是动态更新版本,模型更新不会提前通知,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。 |
qwen-max-2025-01-25 | 2025-01-25 | 阿里通义 | /chat/completions | ¥0.0112 /1k tokens | ¥0.0448 /1k tokens | 32K tokens | 通义千问系列效果最好的模型,本模型是动态更新版本,模型更新不会提前通知,适合复杂、多步骤的任务,模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升,提升对Table、JSON等结构化数据的理解和生成能力。 |
llama3.3-70b-instruct | llama3.3 | Meta | /chat/completions | ¥0.008 /1k tokens | ¥0.008 /1k tokens | 32k | Llama 3.3指令调优的纯文本模型针对多语言对话场景进行了优化,在常见的行业基准测试中,其表现优于许多可用的开源和闭源聊天模型。 |
修改于 2025-02-14 02:13:09