相关技巧及问题收集
有关偶尔出现的使用故障的解答
因接口服务依托于国外的OPENAI接口服务。所以一旦OPENAI接口服务出现故障,影响的是全球用户,这块可以详见OPENAI的官方服务监控状态页https://status.openai.com/ 【建议开发者通过页面“Subscribe to updates”订阅邮箱通知,好及时根据接口状态跟进维护】。
另外目前国内外中转服务器稳定性较高,近2年暂无故障情况出现,这块因可控性较高,基本可排队这块的问题。
如何降低每次消耗
- 采用新版模型,一般新模型性能及费用都相对较低
- 修改参数【max_tokens】的值,默认是4000.建议改好值后多尝试下是否符合效果。
切记max_tokens设定过短会导致内容接收不完整,导致对话质量下降。例:当你的提问是“请讲个100汉字左右的童话故事”,
情况1:参数max_tokens:50,这时GPT回复的故事,会出现讲到一半就出现文字中断的情况。
情况2:参数max_tokens:2000,这时GPT回复的故事,是完整的100个字左右的故事。
如何提升对话回复速度/用户体验
- 采用流式输出
服务后端程序建议采用sse的流式加载方案
前端可采用fetch() 和 EventSource,小程序采用wx.request(设置 enableChunked 参数为 true,启用分片传输)
【技术视频】
有关数据流式获取的
https://www.bilibili.com/video/BV13c411i7qN/?spm_id_from=pageDriver&vd_source=f5922e24c241458355c2b7cd21b02ecf
【一些相关的技术文档】
https://blog.csdn.net/wangsenling/article/details/130490769
https://www.mdaima.com/it/5659.html
https://www.jb51.net/article/279015.htm
- 遇到官方报错时,可在技术上采用隐性重试
因官方服务接口的不确定性,有时需要多次重试提交才会有回复,如遇到返回的字符是{}或是其它报错,在判断相应字符符合条件的情况下可进行自动重试提交,以提升用户体验
如何查询可用余额
详见https://apifox.com/apidoc/shared-52fb41cb-0e62-4e34-b06d-f9334d7a0502/api-106638685
是否能在PC上使用
可以,通过电脑版浏览器访问网址:https://yewu.bcwhkj.cn
首次登陆需微信扫码,登陆后的身份信息在不清空浏览器缓存的情况下可永久保留,无需再次扫码登陆
TOKEN忘记了怎么办
因为是绑定微信的,除非是微信号换了,不然不可能找不回TOKEN。
TOKEN查看入口在冰橙AI助手右上角导航菜单 “API密钥”中查看
更多问题
可在此链接进行问题登记
https://support.qq.com/product/600324