aicnn公开API文档
    aicnn公开API文档
    • 本站介绍
    • OpenAI
      • 关于OpenAI兼容API接口说明
      • Chat
        • Chat Completion
        • embeddings
      • Audio-文档正在补充中
    • Midjourney开放API接口-文档正在补充中
    • Claude-文档正在补充中

    本站介绍

    关于本站#

    本站提供各种当下最为流行,功能最为强大的生成式人工智能服务。使用我们提供OpenAI的各种及其他AI模型,可以享受到更加实惠的折扣,稳定、高可用、生成速度较快,不会遇到额度限制等问题。并且以极低的价格为您提供GPT-3.5、GPT-4.0、联网AI-4.0等先进的AI对话模型,DALL-E、Midjourney-V6和Stable Diffusion等优秀的绘图模型,以及定制化AI服务,无论是在工作、科研、生活、运营、养生、创意、自媒体、文档制作还是教育领域,aicnn都能给您提供一站式解决方案。
    项目网址: https://aicnn.cn
    这里是本站的公开API文档,您可以在此查阅API文档以进行开发调试工作
    OpenAI的Audio、Chat、Completions、Embeddings、Images、Moderations接口均已支持,路径、参数和OpenAI的保持一致,这里仅列出一些平台自定义且公开的API文档,具体OpenAI兼容接口请查阅官方文档:https://platform.openai.com/docs/api-reference
    在实际使用中您只需要从下方的API端点中选择一个作为基础URL,替换掉https://api.openai.com,或者在后面拼接一下文档中的路径即可。
    API端点列表:
    优质线路1 高可用: https://api.aicnn.cn

    关于费用消耗#

    如何计算费用的消耗?#

    除了midjourney,我们的费用计算方式和其他AI服务官方的费用计算方式一致,
    模型名称模型描述token最大限制计费类型价格
    gpt-3.5-turboopenai速度最快的模型5000次数50
    gpt-3.5-turbo-16kGPT3.5的高容量版本,适合大规模文本处理16000次数50
    gpt-4高级人工智能模型,提供更复杂的语言理解和生成能力8000token750
    gpt-4-1106-previewopenai上下文最长的模型,适合复杂的语言处理任务128000token1
    gpt-4-32k专注于处理大量数据的GPT4模型版本,适用于高负载任务32000token1
    gpt-4-vGPT4的视觉处理版本,结合了文字和图像处理能力32767token1
    gpt-4-vision-previewGPT4的视觉处理版本,结合了文字和图像处理能力32767token1
    gpt-4-dalle结合了GPT4和DALL-E的模型,能够理解和生成创意图像4095token1
    gpt-4-all多功能版GPT4模型,集成了多种处理能力32767token1
    gpt-4-gizmoGPT4的一种变体,专注于特定应用场景,可以使用所有gpts的插件, 详细使用教程见接入文档32767token1150
    gemini-pro高级人工智能模型,提供更复杂的语言理解和生成能力8000token1
    gemini-pro-vision高级人工智能模型,提供更复杂的语言理解和生成能力8000token1
    claude-1-100k初级版的Claude模型,适合基本的语言理解和生成任务7000token1
    claude-1.3Claude模型的升级版,提供更好的性能7000token1
    claude-1.3-100k高容量Claude模型,专为处理极大规模数据设计100000token1
    claude-2Claude模型的最新版本,具有最先进的语言处理技术100000token1
    midjourney最强大的图像生成AI模型12000次数1500
    google-palmGoogle开发的AI模型,擅长大数据处理和搜索优化5000token1
    llama-2-70b高容量的Llama模型,适合复杂的分析和预测任务70000token1
    llama-2-13b中等容量的Llama模型,平衡了性能和成本性能和灵活性,适合多种不同的应用场景13000次数1
    llama-2-7bLlama模型的基础版,提供了基本的语言处理功能7000token1
    code-llama-34b专为编程和代码分析设计的Llama模型,具有高级代码理解能力34000token1
    code-llama-13bLlama模型的编程专用版,适合处理中等复杂度的编程任务13000token1
    code-llama-7b入门级的编程专用Llama模型,适合基础编程问题7000token1
    stable-diffusion高级图像生成和处理模型,擅长创建逼真的视觉效果8000次数10
    qwen-72b通义千问,阿里云开发的预训练语言模型。32000token1
    mixtral-8x7b比3.5强32000token1
    mistral-medium接近于gpt-4的性能,更加快速,32k的上下文32000token1
    claude-3-opus-20240229更优秀的模型,好用32000token1

    gpts应用如何介入#

    介绍#

    什么是gpts?, 简而言之就是openai开发的插件商店,用户可以自定义自己的gpts,针对各种场景专门使用,例如论文搜索、翻译、代码补全等等,这里只是简单介绍一下如何接入,更多的gpts使用方法请自行搜索

    如何找到gpts id#

    找到gpts的ID,请参考如下步骤
    1.
    首先需要找到你需要的gpts,如何寻找呢?随便找一个搜索引擎,这里以bing为例子
    2.
    例如我想找到翻译相关的gpts,搜索输入 site:chat.openai.com/g 翻译, 即可看到搜索结果中一堆gpts插件 搜索翻译
    3.
    找到你需要的gpts,点击进入
    4.
    看到地址栏的地址,找到g-xxxxxxx,例如https://chat.openai.com/g/g-IZb9C11iR-ying-wen-fan-yi-zhuan-jia中的g-IZb9C11iR,即为gpts的id
    5.
    此时得到模型名称就是 gpt-4-gizmo-g-IZb9C11iR

    gpts请求#

    接入方式有两种,请求地址都是 https://api.aicnn.cn/v1/chat/completions, 请求参数上有点区别,返回参数上和一般的gpt-3.5-turbo模型一致
    1.
    动态model
    和普通gpt-3.5-turbo模型接入方式保持一致,唯一的参数区别就是model: gpt-4-gizmo-g-xxxxxx

    promptTokens和completionTokens是什么?#

    对于语言模型而言,每个词汇都是以“词汇表”的方式将人类语言转为模型可以理解的向量的,每个映射都对应一个token。也就是说,token是语言模型理解文本的最小单位。
    同时,语言模型的交互方式存在两个步骤:接收文本,回复响应。可以简单理解为你需要向模型提出问题,模型才会给你回复。其中,提出的问题的token数就是promptTokens,回复的文本长度就是completinoTokens。
    除此之外,各个语言模型对于promptToken和completionToken的定价不同,因此需要区别开来。

    使用网页版时,为什么promptTokens会非常多?#

    模型没有类似于人类的记忆能力,如果你需要让这次的提问和之前的提问关联起来,您需要将之前的提问内容和模型的回复内容一起发送给模型。这是造成promptTokens数值变大的主要原因。
    如果您需要节约费用,在高级设置中减少上下文数量可以有效减少每次对话promptTokens的大小。

    网页版中为什么除了用户、模型之外还有一个系统角色?#

    系统角色和OpenAI的API中的system角色对应,它用来决定模型在本次会话中扮演的角色和担任的职能。
    如果您需要通过减少上下文的方式来节约费用,system是最后才被减去的上下文。例如:
    上下文长度为0,发送请求的message将只有您的问题
    上下文长度为1,发送请求的message除了您的问题外,就是system
    上下文长度大于1,发送的请求的message除了您的问题和system外,就是和本次对话最近的对话
    因此,您可以将本次会话中一些重要信息补充在system中

    关于API#

    如果您希望基于OpenAI的服务开发应用的同时,无法访问OpenAI的服务湖泊这希望可以节约费用,使用本站都是不错的选择。

    我是新手,能否给出一个调用服务的代码示例?#

    调用OpenAI服务时,本人不推荐使用openai库,使用requests库发送http请求是一个更加简单的选择。
    下面的示例代码是使用本站的服务,发送请求,并以非流式的方式获取结果,然后打印在控制台上。
    首先,您需要准备您的key

    在本站能否直接使用openai的key?#

    不可以,在本站只能使用本站的key

    我该如何确认我的key的可用性?#

    如果返回的code为606,说明访问失败,并且会在回复中说明错误原因

    我如何在chatGPT-next-web中使用本站的服务?#

    1 打开官网,aicnn.cn生成api key
    g-XtCLWjBsr1.webp
    2 打开网址:app.nextchat.dev/ 输入刚刚生成的key,和https:api.aicnn.cn的接口地址
    g-XtCLWjBsr2.webp

    我如何在GPT学术优化中使用本站的服务?#

    在使用前,先对config.py进行两处修改:
    1.
    在config.py中第11行中修改API_KEY为自己在本站的KEY
    2.
    修改config.py在第38行的API_URL_REDIRECT值为 {"https://api.openai.com/v1/chat/completions": "https://api.aicnn.cn/v1/chat/completions"}

    我如何在GPT学术优化中使用本站的Claude2服务?#

    首先,请您务必确定需要使用Claude2服务,其次,在GPT学术优化中使用本站的Claude2需要更多配置,更加复杂。
    修改如下:
    1.
    在config.py中第11行中修改API_KEY为自己在本站的KEY
    2.
    修改config.py在第38行的API_URL_REDIRECT值为 {"https://api.openai.com/v1/chat/completions": "https://api.aicnn.cn/v1/chat/completions"}
    3.
    在config.py第73行AVAIL_LLM_MODELS中添加模型"claude-2-web"
    4.
    在toolbox.py第622行,修改代码为:
    请注意缩进
    5.
    在request_llm/bridge_all.py的model_info变量添加一个键值对:
    然后就可以使用claude2模型了,在web中选中claude-2-web即可使用。
    下一页
    关于OpenAI兼容API接口说明
    Built with