冰橙API - gpt
  1. 文生文 对话生成
冰橙API - gpt
  • 冰橙API概述
  • 身份验证/获取token
  • 文生文 对话生成
    • 相关技巧及问题收集
    • demo 演示例子
      • html单页对话DEMO
      • 如何让GPT扮演具体角色
    • 对话生成 chatGpt 接口
      POST
    • 对话生成 GPT-4.1-mini
      POST
    • 对话生成 GPT-4o-mini
      POST
    • 对话生成 GPT-4o-mini 多模态-图像识别
      POST
    • 对话生成 GPT-4o
      POST
    • 对话生成 GPT-4o-search 联网查询
      POST
    • 对话生成 GLM-Web联网查询
      POST
    • 对话生成 JSON回复模式
      POST
    • 对话生成 函数式调用FunctionCall
      POST
    • 图像识别 glm-4v-flash
      POST
  • 文生图 图像生成
    • 图像生成 国产模型【推荐】
      POST
    • 图像生成 DALL·E 3
      POST
    • gpt-4o-image-vip
      POST
  • 文生音 音频生成
    • 文字转语音接口
      POST
  • 向量数据
    • 文本转向量 openai
      POST
  • 其它
    • 余额查询
      POST
    • 余额查询
      GET
    • 可用模型列表
      POST
  • 公众号服务接口
    • H5 公众号用户身份识别并返回openid
  • 隐私政策
    • 隐私政策
  1. 文生文 对话生成

对话生成 函数式调用FunctionCall

开发环境
开发环境
POST
https://yewu.bcwhkj.cn/v1/chat/completions
冰橙API提供与OPENAI官方的API兼容的接口方式,方便国内开发者进行与OPENAI的CHATGPT的接口对接服务
💡
函数式最终的目的是希望通过GPT智能返回函数方法,然后将数据结果通过自然语言回复。
1、第一步是提问GPT(同时规定回复的JSON格式或者说是函数对象)。
2、本地根据GPT回复的JSON格式查询结果做本地化查询后,
3、再问GPT(将本地结果再次提交)。然后GPT结合我们的查询结果用自然语言回复我们。
Function calling的实现过程
看似复杂,实际上很简单,OpenAI已经帮我们做好了:提前定义外部函数库,在ChatCompletions.create()函数中进行对应的参数设置。
所谓的外部函数库,可以理解为:当进行某一项应用开发时,需要用到的中间处理逻辑函数,比如你要开发一个邮件自动回复程序,你就需要定义:
获取邮件的函数
发送邮件的函数
.......
在Chat Completion 模型执行Function calling功能时,大模型能够充分发挥自身的语义理解能力,解析用户的输入,然后在函数库中自动挑选出最合适函数进行运行,并给出问题的答案,整个过程不需要人工手动干预。
如何正确构建外部函数库
虽然Chat Completion模型具有函数调用(Function Calling)能力,但其对函数的理解方式并不与传统编程环境下的函数相同。类似于对话中有效的Prompt设计,优化函数调用的格式和结构能显著提升模型的执行准确性。因此,明确合适的数据传入格式成为关键一步,只有当数据格式设计得当,模型才能更准确地理解和执行任务。
第三方示例说明
https://platform.openai.com/docs/guides/function-calling/function-calling
https://zhuanlan.zhihu.com/p/645501247
https://new.qq.com/rain/a/20230818A045F400
https://juejin.cn/post/7244818419601637413
📌
并非所有模型版本都使用函数调用数据进行训练。以下模型支持函数调用:
gpt-4o
gpt-4o-mini
gpt-4-0613
gpt-3.5-turbo
gpt-3.5-turbo-1106
gpt-3.5-turbo-0613
此外,以下型号还支持并行函数调用:
gpt-4-1106-preview
gpt-3.5-turbo-1106

token获取方式:#

访问公众号《冰橙云》进入菜单冰橙AI助手后,访问右上角 / API密钥 可查看 token
访问:https://yewu.bcwhkj.cn 》 个人 》API密钥 》Token令牌

请求参数

Header 参数
Content-Type
string 
固定值
可选
默认值:
application/json
Authorization
string 
可选
token要更换为个人自己的TOKEN
默认值:
Bearer token
Body 参数application/json
model
string 
必需
messages
array [object {2}] 
必需
role
string 
可选
content
string 
可选
functions
array [object {3}] 
必需
name
string 
可选
description
string 
可选
parameters
object 
可选
示例
{
  "messages": [
    {
      "role": "system",
      "content": "你是一个能干的助手."
    },
    {
      "role": "user",
      "content": "谁赢得了2020年的世界职业棒球大赛?"
    },
    {
      "role": "assistant",
      "content": "洛杉矶道奇队在2020年赢得了世界职业棒球大赛冠军."
    },
    {
      "role": "user",
      "content": "它在哪里举办的?"
    }
  ],
  "model": "gpt-3.5-turbo",
  "max_tokens": 4000,
  "stream": false
}

示例代码

Shell
JavaScript
Java
Swift
Go
PHP
Python
HTTP
C
C#
Objective-C
Ruby
OCaml
Dart
R
请求示例请求示例
Shell
JavaScript
Java
Swift
curl --location --request POST 'https://yewu.bcwhkj.cn/v1/chat/completions' \
--header 'Authorization: Bearer token' \
--header 'Content-Type: application/json' \
--data-raw '{
    "messages": [
        {"role": "system", "content": "你是一个能干的助手."},
        {"role": "user", "content": "谁赢得了2020年的世界职业棒球大赛?"},
        {"role": "assistant", "content": "洛杉矶道奇队在2020年赢得了世界职业棒球大赛冠军."},
        {"role": "user", "content": "它在哪里举办的?"}
    ],
    "model": "gpt-3.5-turbo",
    "max_tokens": 4000,
    "stream": false
}'

返回响应

🟢200成功
application/json
Body
id
string 
必需
object
string 
必需
created
integer 
必需
model
string 
必需
choices
array [object {3}] 
必需
index
integer 
可选
message
object 
可选
finish_reason
string 
可选
usage
object 
必需
prompt_tokens
integer 
必需
completion_tokens
integer 
必需
total_tokens
integer 
必需
system_fingerprint
string 
必需
示例
{
  "id": "chatcmpl-9eNCTgreBpiIWLXDrCWCxwqA05DYx",
  "object": "chat.completion",
  "created": 1719409329,
  "model": "gpt-3.5-turbo-0125",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "20220206-未编辑-在由于COVID-19流行病的影响,2020年的世界职业棒球大赛在美国佛罗里达州的阿灵顿举行。"
      },
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 101,
    "completion_tokens": 60,
    "total_tokens": 161
  },
  "system_fingerprint": null
}
修改于 2025-02-21 11:24:10
上一页
对话生成 JSON回复模式
下一页
图像识别 glm-4v-flash
Built with