API调用文档
  1. 聊天模型(chat)
API调用文档
  • 前言(必读)
  • 常见错误代码及其含义
  • 聊天模型(chat)
    • 聊天接口(通用)
      POST
    • 列出可用模型
      GET
    • 聊天接口(o1系列模型)
      POST
    • 聊天补全
      POST
    • Claude3+(Openai格式调用)
      POST
    • Gemini1.5+(全系列)
      POST
    • GPTs
      POST
    • gpt-4-all 文件分析
      POST
    • gpt-4o-all 文件分析
      POST
    • 聊天接口(图片分析)
      POST
  • 创建嵌入
    • 创建嵌入
      POST
  • 音频模型(Audio)
    • 文字转语音 TTS
      POST
    • 语音转文字 whisper-1
      POST
    • 创建翻译
      POST
  • 绘画模型(Painting)
    • Dalle
      • 图像生成
      • 图像编辑
    • MidJourney
      • 提交模式与状态码说明
  • 常用调用代码整理
    • Python 示例1-1: 普通Post文本对话
    • Python 示例1-2: Openai官方库使用示例
    • Python 示例1-3: 流式输出 复制代码
    • Python 示例2:Json固定格式输出 代码展示 复制代码
    • Python 示例3:embedding代码例子 复制代码
    • Python 示例4:O1系列模型代码例子
  1. 聊天模型(chat)

聊天接口(通用)

POST
https://api.claudeshop.top/v1/chat/completions
只提供简单的请求示例,更详细的API接口使用说明 请阅读官方文档
注意:OpenAI、Claude、Gemini...等聊天模型均使用该接口格式。

请求参数

Header 参数
Content-Type
string 
必选
必需
示例值:
application/json
Authorization
string 
令牌KEY
必需
示例值:
Bearer sk-xxxx
Body 参数application/json
model
string 
模型名称
必需
messages
array [object {2}] 
必需
role
string 
角色 system | user
必需
content
string 
提问消息
必需
temperature
integer 
温度
可选
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p但不是两者同时使用。
top_p
integer 
可选
一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature但不是两者同时使用。
max_tokens
number 
最大回复
可选
聊天完成时生成的最大Tokens数量。 输入标记和生成标记的总长度受模型上下文长度的限制。
stream
boolean 
流式输出
可选
流式输出或非流式输出
n
number 
可选
为每个输入消息生成多少个聊天完成选项。
presence_penalty
integer 
可选
-2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。
frequency_penalty
integer 
可选
-2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。
logit_bias
null 
可选
修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。
user
string 
可选
代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多
示例

API Request Body Structure

以下是请求体(Body)的参数结构及其示例 JSON 数据:

参数结构

字段名类型描述
modelstring模型名称。
messagesarray[object]消息列表,包含对象,对象包括以下字段:
rolestring角色,值为 system 或 user。
contentstring消息内容。
temperatureinteger温度,使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。我们通常建议改变这个或 top_p 但不是两者同时使用。
top_pinteger一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议改变这个或 temperature 但不是两者同时使用。
max_tokensnumber最大回复,聊天完成时生成的最大 Tokens 数量。输入标记和生成标记的总长度受模型上下文长度的限制。
streamboolean流式输出,流式输出或非流式输出。
{
  "model": "gpt-4o",
  "messages": [
    {
      "role": "user",
      "content": "你好"
    }
  ],
  "max_tokens": 1688,
  "temperature": 0.5,
  "stream": false
}

示例代码

Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://api.claudeshop.top/v1/chat/completions' \
--header 'Authorization: Bearer sk-xxxx' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "gpt-4o",
    "messages": [
        {
            "role": "user",
            "content": "你好"
        }
    ],
    "max_tokens": 1688,
    "temperature": 0.5,
    "stream": false
}'

返回响应

🟢200成功
application/json
Body
model
string 
必需
messages
array [object {2}] 
必需
role
string 
可选
content
string 
可选
max_tokens
integer 
必需
temperature
number 
必需
stream
boolean 
必需
id
string 
ID 编号
必需
示例
{
  "model": "gpt-4o",
  "messages": [
    {
      "role": "user",
      "content": "晚上好"
    }
  ],
  "max_tokens": 1688,
  "temperature": 0.5,
  "stream": false
}
上一页
常见错误代码及其含义
下一页
列出可用模型
Built with