冰橙API提供与OPENAI官方的API兼容的接口方式,方便国内开发者进行与OPENAI的CHATGPT的接口对接服务函数式最终的目的是希望通过GPT智能返回函数方法,然后将数据结果通过自然语言回复。
1、第一步是提问GPT(同时规定回复的JSON格式或者说是函数对象)。
2、本地根据GPT回复的JSON格式查询结果做本地化查询后,
3、再问GPT(将本地结果再次提交)。然后GPT结合我们的查询结果用自然语言回复我们。
Function calling的实现过程
看似复杂,实际上很简单,OpenAI已经帮我们做好了:提前定义外部函数库,在ChatCompletions.create()函数中进行对应的参数设置。
所谓的外部函数库,可以理解为:当进行某一项应用开发时,需要用到的中间处理逻辑函数,比如你要开发一个邮件自动回复程序,你就需要定 义:
获取邮件的函数
发送邮件的函数
.......
在Chat Completion 模型执行Function calling功能时,大模型能够充分发挥自身的语义理解能力,解析用户的输入,然后在函数库中自动挑选出最合适函数进行运行,并给出问题的答案,整个过程不需要人工手动干预。
如何正确构建外部函数库
虽然Chat Completion模型具有函数调用(Function Calling)能力,但其对函数的理解方式并不与传统编程环境下的函数相同。类似于对话中有效的Prompt设计,优化函数调用的格式和结构能显著提升模型的执行准确性。因此,明确合适的数据传入格式成为关键一步,只有当数据格式设计得当,模型才能更准确地理解和执行任务。
并非所有模型版本都使用函数调用数据进行训练。以下模型支持函数调用:
gpt-4o
gpt-4o-mini
gpt-4-0613
gpt-3.5-turbo
gpt-3.5-turbo-1106
gpt-3.5-turbo-0613
此外,以下型号还支持并行函数调用:
gpt-4-1106-preview
gpt-3.5-turbo-1106
token获取方式:#
访问公众号《冰橙云》进入菜单冰橙AI助手后,访问右上角 / API密钥 可查看 token