模型
模型描述
模型 | 模型描述 |
---|---|
GPT-4 | 改进自 GPT-3.5,可以理解和生成自然语言或代码 |
GPT-3.5 | 改进自 GPT-3,可以理解和生成自然语言或代码 |
GPT 基础 | 可以理解和生成自然语言或代码的一系列模型,不含遵循指示功能 |
DALL·E | 根据自然语言提示可以生成和编辑图像的模型 |
Whisper | 可以将音频转换为文本的模型 |
嵌入式 | 可以将文本转换为数值形式的一系列模型 |
内容审核 | 经微调可以检测文本是否敏感或不安全的模型 |
持续模型升级
根据开发者反馈,我们将在 OpenAI API 中继续支持 gpt-3.5-turbo-0301 和 gpt-4-0314 模型,直至 2024 年 6 月 13 日。我们已经在 6 月 13 日的博文中提供了更多细节。
模型名称 | 弃用日期 | 替代模型 |
---|---|---|
gpt-3.5-turbo-0301 | 最早 2024-06-13 | gpt-3.5-turbo-0613 |
gpt-4-0314 | 最早 2024-06-13 | gpt-4-0613 |
gpt-4-32k-0314 | 最早 2024-06-13 | gpt-4-32k-0613 |
GPT-4
最新模型 | 描述 | 最大 token 数 | 训练数据量 |
---|---|---|---|
gpt-4 | 比任何 GPT-3.5 模型都更强大,能够完成更复杂的任务,并针对聊天进行了优化。将在最新模型迭代版本发布后 2 周内进行更新。 | 8,192 个 token | 2021 年 9 月之前 |
gpt-4-0613 | 2023 年 6 月 13 日gpt-4 快照,具有函数调用数据。与gpt-4 不同,此模型不会接收更新,并会在新版本发布 3 个月后弃用。 | 8,192 个 token | 2021 年 9 月之前 |
gpt-4-32k | 与标准gpt-4 模型具有相同功能,但上下文长度是其 4 倍。将随最新模型迭代版本一起更新。 | 32,768 个 token | 2021 年 9 月之前 |
gpt-4-32k-0613 | 2023 年 6 月 13 日gpt-4-32k 的快照。与gpt-4-32k 不同,此模型不会接收更新, 并会在新版本发布 3 个月后弃用。 | 32,768 个 token | 2021 年 9 月之前 |
gpt-4-0314(旧版) | 2023 年 3 月 14 日gpt-4 的快照,具有函数调用数据。与gpt-4 不同,此模型不会接收更新,并将最早在 2024 年 6 月 13 日停用。 | 8,192 个 token | 2021 年 9 月之前 |
gpt-4-32k-0314(旧版) | 2023 年 3 月 14 日gpt-4-32k 的快照。与gpt-4-32k 不同,此模型不会接收更新,并将最早在 2024 年 6 月 13 日停用。 | 32,768 个 token | 2021 年 9 月之前 |
GPT-3.5
gpt-3.5-turbo
,它通过 Chat 完成 API 进行了针对聊天的优化,但也适用于传统的完成任务。最新模型 | 描述 | 最大 token 数 | 训练数据量 |
---|---|---|---|
gpt-3.5-turbo | 最强大的 GPT-3.5 模型,优化了聊天,成本仅为`text-davinci-003`的 1/10。将在最新模型迭代版本发布后 2 周内进行更新。 | 4,097 个 token | 2021 年 9 月之前 |
gpt-3.5-turbo-16k | 与标准`gpt-3.5-turbo`模型具有相同功能,但上下文是其 4 倍。 | 16,385 个 token | 2021 年 9 月之前 |
gpt-3.5-turbo-instruct | 与`text-davinci-003`具有相似功能,但兼容旧的 Completions 端点,而不是 Chat Completions。 | 4,097 个 token | 2021 年 9 月之前 |
gpt-3.5-turbo-0613 | 2023 年 6 月 13 日`gpt-3.5-turbo`的快照,具有函数调用数据。与`gpt-3.5-turbo`不同,此模型不会接 收更新,并会在新版本发布 3 个月后弃用。 | 4,097 个 token | 2021 年 9 月之前 |
gpt-3.5-turbo-16k-0613 | 2023 年 6 月 13 日`gpt-3.5-turbo-16k`的快照。与`gpt-3.5-turbo-16k`不同,此模型不会接收更新,并会在新版本发布 3 个月后弃用。 | 16,385 个 token | 2021 年 9 月之前 |
gpt-3.5-turbo-0301(旧版) | 2023 年 3 月 1 日`gpt-3.5-turbo`的快照。与`gpt-3.5-turbo`不同,此模型不会接收更新,并将最早在 2024 年 6 月 13 日停用。 | 4,097 个 token | 2021 年 9 月之前 |
text-davinci-003(旧版) | 相比 curie、babbage 或 ada 模型,可以以更高质量、更长输出和一致的指令遵循来执行任何语言任务。还支持一些附加功能,如插入文本。 | 4,097 个 token | 2021 年 6 月之前 |
text-davinci-002(旧版) | 与`text-davinci-003`具有相似功能,但使用监督微调而不是强化学习进行训练 | 4,097 个 token | 2021 年 6 月之前 |
code-davinci-002(旧版) | 针对代码完成任务进行了优化 | 8,001 个 token | 2021 年 6 月之前 |
gpt-3.5-turbo
而不是其他 GPT-3.5 模型,因为它的成本更低,性能更好。OpenAI 的模型是不确定定的,这意味着相同的输入可能产生不同的输出。将温度设置为 0 将使输出基本确定,但可能仍会保留很小的变异。
GPT 基础
最新模型 | 描述 | 最大 token 数 | 训练数据量 |
---|---|---|---|
babbage-002 | GPT-3 ada 和 babbage 基础模型的替代品。 | 16,384 个 token | 2021 年 9 月之前 |
davinci-002 | GPT-3 curie 和 davinci 基础模型的替代品。 | 16,384 个 token | 2021 年 9 月之前 |
DALL·E
Whisper
whisper-1
模型名称访问 Whisper v2-large 模型。嵌入式
text-embedding-ada-002
旨在以更低的成本取代之前的 16 个第一代嵌入模型。嵌入对于搜索、聚类、推荐、异常检测和分类任务非常有用。您可以在公告博文中了解有关我们最新嵌入式模型的更多信息。内容审核
模型 | 描述 | 最大 token 数 |
---|---|---|
text-moderation-latest | 最强大的审核模型。精度将比稳定模型略高。 | 不适用 |
text-moderation-stable | 几乎与最新模型一样强大,但稍微旧一些。 | 不适用 |
GPT-3
davinci
、curie
、ada
和babbage
)目前是唯一可用于微调的模型。最新模型 | 描述 | 最大 token 数 | 训练数据量 |
---|---|---|---|
text-curie-001 | 非常强大,比 Davinci 更快更省钱。 | 2,049 个 token | 2019 年 10 月之前 |
text-babbage-001 | 能够执行简单的任务,非常快速且低成本。 | 2,049 个 token | 2019 年 10 月之前 |
text-ada-001 | 能够执行非常简单的任务,通常是 GPT-3 系列中最快的模型,成本也最低。 | 2,049 个 token | 2019 年 10 月之前 |
davinci | 最强大的 GPT-3 模型。可以执行其他模型能执行的任何任务,通常质量更高。 | 2,049 个 token | 2019 年 10 月之前 |
curie | 非常强大,但比 Davinci 更快更省钱。 | 2,049 个 token | 2019 年 10 月之前 |
babbage | 能够执行简单的任务,非常快速且低成本。 | 2,049 个 token | 2019 年 10 月之前 |
ada | 能够执行非常简单的任务,通常是 GPT-3 系列中最快的模型,成本也最低。 | 2,049 个 token | 2019 年 10 月之前 |
我们如何使用您的数据
各端点的默认使用政策
端点 | 数据是否用于训练 | 默认保留 | 是否有资格获得零保留 |
---|---|---|---|
/v1/completions | 否 | 30 天 | 是 |
/v1/chat/completions | 否 | 30 天 | 是 |
/v1/edits | 否 | 30 天 | 是 |
/v1/images/generations | 否 | 30 天 | 否 |
/v1/images/edits | 否 | 30 天 | 否 |
/v1/images/variations | 否 | 30 天 | 否 |
/v1/embeddings | 否 | 30 天 | 是 |
/v1/audio/transcriptions | 否 | 零数据保留 | 不适用 |
/v1/audio/translations | 否 | 零数据保留 | 不适用 |
/v1/files | 否 | 客户删除之前 | 否 |
/v1/fine_tuning/jobs | 否 | 客户删除之前 | 否 |
/v1/fine-tunes | 否 | 客户删除之前 | 否 |
/v1/moderations | 否 | 零数据保留 | 不适用 |
模型端点兼容性
端点 | 最新模型 |
---|---|
/v1/audio/transcriptions | whisper-1 |
/v1/audio/translations | whisper-1 |
/v1/chat/completions | gpt-4 , gpt-4-0613 , gpt-4-32k , gpt-4-32k-0613 , gpt-3.5-turbo , gpt-3.5-turbo-0613 , gpt-3.5-turbo-16k , gpt-3.5-turbo-16k-0613 |
/v1/completions (旧版) | gpt-3.5-turbo-instruct , babbage-002 , davinci-002 |
/v1/embeddings | text-embedding-ada-002 |
/v1/fine_tuning/jobs | gpt-3.5-turbo , babbage-002 , davinci-002 |
/v1/moderations | text-moderation-stable , text-moderation-latest |
修改于 2023-10-20 06:28:27