- 前言(必读)
- 常见错误代码及其含义
- 聊天模型(chat)
- 创建嵌入
- 音频模型(Audio)
- 绘画模型(Painting)
- Dalle
- MidJourney
- 常用调用代码整理
聊天接口(通用)
POST
https://api.claudeshop.top/v1/chat/completions
注意:OpenAI、Claude、Gemini...等聊天模型均使用该接口格式。
请求参数
Header 参数
Content-Type
string
必选
示例值:
application/json
Authorization
string
令牌KEY
示例值:
Bearer sk-xxxx
Body 参数application/json
model
string
模型名称
messages
array [object {2}]
必需
role
string
角色 system | user
content
string
提问消息
temperature
integer
温度
top_p
integer
可选
max_tokens
number
最大回复
stream
boolean
流式输出
n
number
可选
presence_penalty
integer
可选
frequency_penalty
integer
可选
logit_bias
null
可选
user
string
可选
示例
API Request Body Structure
参数结构
字段名 | 类型 | 描述 |
---|---|---|
model | string | 模型名称。 |
messages | array[object] | 消息列表,包含对象,对象包括以下字段: |
role | string | 角色,值为 system 或 user 。 |
content | string | 消息内容。 |
temperature | integer | 温度,使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。我们通常建议改变这个或 top_p 但不是两者同时使用。 |
top_p | integer | 一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议改变这个或 temperature 但不是两者同时使用。 |
max_tokens | number | 最大回复,聊天完成时生成的最大 Tokens 数量。输入标记和生成标记的总长度受模型上下文长度的限制。 |
stream | boolean | 流式输出,流式输出或非流式输出。 |
{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"max_tokens": 1688,
"temperature": 0.5,
"stream": false
}
示例代码
Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://api.claudeshop.top/v1/chat/completions' \
--header 'Authorization: Bearer sk-xxxx' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"max_tokens": 1688,
"temperature": 0.5,
"stream": false
}'
返回响应
🟢200成功
application/json
Body
model
string
必需
messages
array [object {2}]
必需
role
string
可选
content
string
可选
max_tokens
integer
必需
temperature
number
必需
stream
boolean
必需
id
string
ID 编号
示例
{
"model": "gpt-4o",
"messages": [
{
"role": "user",
"content": "晚上好"
}
],
"max_tokens": 1688,
"temperature": 0.5,
"stream": false
}