embeddings
POST
https://api.aicnn.cn/v1/chat/embeddings
模型名称 | 模型描述 | token最大限制 | 计费类型 | 价格 |
---|---|---|---|---|
gpt-3.5-turbo | openai速度最快的模型 | 5000 | 次数 | 10 |
gpt-3.5-turbo-16k | GPT3.5的高容量版本,适合大规模文本处理 | 16000 | 次数 | 10 |
gpt-4 | 高级人工智能模型,提供更复杂的语言理解和生成能力 | 8000 | 次数 | 750 |
gpt-4-1106-preview | openai上下文最长的模型,适合复杂的语言处理任务 | 128000 | token | 1 |
gpt-4-32k | 专注于处理大量数据的GPT4模型版本,适用于高负载任务 | 32000 | 次数 | 1200 |
gpt-4-v | GPT4的视觉处理版本,结合了文字和图像处理能力 | 32767 | 次数 | 1150 |
gpt-4-vision-preview | GPT4的视觉处理版本,结合了文字和图像处理能力 | 32767 | 次数 | 1150 |
gpt-4-dalle | 结合了GPT4和DALL-E的模型,能够理解和生成创意图像 | 4095 | 次数 | 1150 |
gpt-4-all | 多功能版GPT4模型,集成了多种处理能力 | 32767 | 次数 | 1150 |
gpt-4-gizmo | GPT4的一种变体,专注于特定应用场景,可以使用所有gpts的插件, 详细使用教程见接入文档 | 32767 | 次数 | 1150 |
gemini-pro | 高级人工智能模型,提供更复杂的语言理解和生成能力 | 8000 | 次数 | 100 |
gemini-pro-vision | 高级人工智能模型,提供更复杂的语言理解和生成能力 | 8000 | 次数 | 200 |
claude-1-100k | 初级版的Claude模型,适合基本的语言理解和生成任务 | 7000 | 次数 | 20 |
claude-1.3 | Claude模型的升级版,提供更好的性能 | 7000 | 次数 | 20 |
claude-1.3-100k | 高容量Claude模型,专为处理极大规模数据设计 | 100000 | 次数 | 20 |
claude-2 | Claude模型的最新版本,具有最先进的语言处理技术 | 100000 | 次数 | 20 |
midjourney | 最强大的图像生成AI模型 | 12000 | 次数 | 1500 |
google-palm | Google开发的AI模型,擅长大数据处理和搜索优化 | 5000 | 次数 | 10 |
llama-2-70b | 高容量的Llama模型,适合复杂的分析和预测任务 | 70000 | 次数 | 10 |
llama-2-13b | 中等容量的Llama模型,平衡了性能和成本性能和灵活性,适合多种不同的应用场景 | 13000 | 次数 | 10 |
llama-2-7b | Llama模型 的基础版,提供了基本的语言处理功能 | 7000 | 次数 | 10 |
code-llama-34b | 专为编程和代码分析设计的Llama模型,具有高级代码理解能力 | 34000 | 次数 | 10 |
code-llama-13b | Llama模型的编程专用版,适合处理中等复杂度的编程任务 | 13000 | 次数 | 10 |
code-llama-7b | 入门级的编程专用Llama模型,适合基础编程问题 | 7000 | 次数 | 10 |
stable-diffusion | 高级图像生成和处理模型,擅长创建逼真的视觉效果 | 8000 | 次数 | 10 |
qwen-72b | 通义千问,阿里云开发的预训练语言模型。 | 32000 | 次数 | 100 |
mixtral-8x7b | 比3.5强 | 32000 | 次数 | 50 |
mistral-medium | 接近于gpt-4的性能,更加快速,32k的上下文 | 32000 | 次数 | 100 |
file-upload | 文件上传 | 32 | 次数 | 5 |
gpts-get | 获取gpts详细信息 | 32 | 次数 | 2 |
gpts-search | 搜索gpts | 200 | 次数 | 1 |
model
参数中指定这些模型即可gpts应用如何介入
介绍
如何找到gpts id
1.
2.
site:chat.openai.com/g 翻译
, 即可看到搜索结果中一堆gpts插件 搜索翻译3.
4.
5.
gpt-4-gizmo-g-IZb9C11iR
gpts请求
https://api.aicnn.cn/v1/chat/completions
, 请求参数上有点区别,返回参数上和一般的gpt-3.5-turbo
模型一致1.
和普通
gpt-3.5-turbo
模型接入方式保持一致,唯一的参数区别就是model: gpt-4-gizmo-g-xxxxxx
Google AI系列注意事项
1. 虽然Gemini Pro系列不支持非流式请求,但是这边已经实现了OpenAI标准的非流和流式响应的封装,原生支持GPT的应用程序改一下模型名称即可直接接入。
2. 谷歌AI的Gemini Pro和PaLM系列模型目前整体处于预览阶段,并发配额很低,您可以预先尝试评估它的能力,或者将它接入到您的应用程序中。
3. Gemini Pro Vision是一个多模态的大模型,与GPT4Vision一样,支持基于输入的文字和图像进行混合推理,具体用法已转换为和GPT4v标准接口,因此可参考OpenAI官方的视觉教程: https://platform.openai.com/docs/guides/vision
4. 由于Google AI的模型仅按照字符数目作为计费依据,因此账单和接口中的Tokens直接就直接填写为输入和输出的字符串长度而不是实际的Token数目。
5. 关于Gemini Pro系列模型的能力水平:大约是3.5的水平,但是Vision版支持多模态,效果差强人意(指大体上还算令人满意),可以当作GPT4v下位替代品。
请求参数
Header 参数
Authorization
string
可选
示例值:
Bearer {{sk}}
Body 参数application/json
示例代码
返回响应
修改于 2024-03-28 02:01:09