ChatAnywhere API 帮助文档
  1. 聊天接口(Chat)
ChatAnywhere API 帮助文档
  • 帮助中心
    • 常用软件使用教程
    • 费用标准及模型列表
    • 常见问题及解决办法
    • 更新日志: 2025-04-25
  • 模型接口
    • 发出请求
    • 模型(Models)
      • 列出模型
    • 聊天接口(Chat)
      • 聊天接口
        POST
    • 自动补全接口(Completions)
      • 内容补全接口
    • 图像接口(Images)
      • 图像变化
      • 图像编辑
      • 创建图像
    • 向量生成接口(Embeddings)
      • 创建嵌入
    • 音频接口(Audio)
      • tts文本转语音
      • 创建转录
      • 创建翻译
    • 查询接口
      • 查询用量详情(小时粒度)
  1. 聊天接口(Chat)

聊天接口

POST
/v1/chat/completions
给定一个提示,该模型将返回一个或多个预测的完成,并且还可以返回每个位置的替代标记的概率。
为提供的提示和参数创建完成

请求参数

Header 参数
Authorization
string 
必需
示例值:
Bearer {{YOUR_API_KEY}}
Content-Type
string 
必需
示例值:
application/json
Body 参数application/json
messages
array [object {2}] 
必需
以聊天格式生成聊天完成的消息。
role
string 
可选
content
string 
可选
model
string 
必需
要使用的模型的 ID。有关哪些模型适用于聊天 API 的详细信息,请参阅模型端点兼容性表。
frequency_penalty
number 
可选
-2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。 查看有关频率和存在惩罚的更多信息。
logit_bias
object 
可选
修改指定标记出现在生成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。
logprobs
boolean 
可选
是否返回输出标记的对数概率。如果为 true,则返回message的content中返回的每个输出token的对数概率。
top_logprobs
integer 
可选
0 到 20 之间的整数,指定在每个标记位置返回的最可能标记的数量,每个标记均具有相关的对数概率。如果使用此参数,则logprobs必须设置为true。
max_tokens
integer 
可选
聊天完成时生成的最大令牌数。 输入标记和生成标记的总长度受模型上下文长度的限制。
n
integer 
可选
为每个输入消息生成多少个聊天完成选项。
presence_penalty
number 
可选
-2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。 查看有关频率和存在惩罚的更多信息。
response_format
object 
可选
指定模型必须输出的格式的对象。与GPT-4 Turbo和所有比gpt-3.5-turbo-1106更新的 GPT-3.5 Turbo 模型兼容。 设置为{ "type": "json_object" }启用 JSON 模式,保证模型生成的消息是有效的 JSON。 重要提示:使用 JSON 模式时,您还必须通过系统或用户消息指示模型自行生成 JSON。如果不这样做,模型可能会生成无休止的空白流,直到生成达到令牌限制,从而导致长时间运行且看似“卡住”的请求。另请注意,如果finish_reason="length",消息内容可能会被部分截断,这表示生成超出max_tokens或对话超出了最大上下文长度。
type
string 
可选
必须是text或json_object。
stop
string 
可选
API 将停止生成更多令牌的最多 4 个序列。
stream
boolean 
可选
如果设置,将发送部分消息增量,就像在 ChatGPT 中一样。当令牌可用时,令牌将作为纯数据服务器发送事件data: [DONE]发送,流由消息终止。有关示例代码,请参阅 OpenAI Cookbook 。
stream_options
object 
流式响应的选项。
可选
include_usage
boolean 
可选
如果设置,则在消息data: [DONE]之前会流式传输一个额外的usage块。此块上的字段显示整个请求的令牌使用情况统计信息,并且该choices字段将始终为空数组。
temperature
number 
可选
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p但不是两者。
top_p
number 
可选
一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature但不是两者。
tools
array [object {2}] 
可选
函数调用使用,参考OpenAI官方文档
type
string 
必需
function
object 
可选
tool_choice
可选
函数调用使用,参考OpenAI官方文档
One of
user
string 
可选
代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多。
示例
{
  "model": "gpt-3.5-turbo",
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant."
    },
    {
      "role": "user",
      "content": "Hello!"
    }
  ]
}

示例代码

Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://api.chatanywhere.tech/v1/chat/completions' \
--header 'Authorization: Bearer sk-xxxxxxx' \
--header 'Content-Type: application/json' \
--data-raw '{
    "model": "gpt-3.5-turbo",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Hello!"
      }
    ]
  }'

返回响应

🟢200OK
application/json
Body
id
string 
必需
object
string 
必需
created
integer 
必需
choices
array [object {3}] 
必需
index
integer 
可选
message
object 
可选
finish_reason
string 
可选
usage
object 
必需
prompt_tokens
integer 
必需
completion_tokens
integer 
必需
total_tokens
integer 
必需
示例
{
  "id": "chatcmpl-123",
  "object": "chat.completion",
  "created": 1677652288,
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "\n\nHello there, how may I assist you today?"
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 9,
    "completion_tokens": 12,
    "total_tokens": 21
  }
}
修改于 2024-08-12 13:11:47
上一页
列出模型
下一页
内容补全接口
Built with