公明網(wǎng)站建設(shè)seo網(wǎng)站有優(yōu)化培訓(xùn)班嗎
目錄
概述
GPT-4 (limted beta)
GPT-3.5
GPT-3
各類模型介紹
DALL·E Beta
Whisper Beta
Embeddings
Moderation
Codex (deprecated)
概述
模型 | 描述 |
---|---|
GPT-4 Limited beta | 一組在 GPT-3.5 上改進(jìn)的模型,可以理解并生成自然語言或代碼 |
GPT-3.5 | 一組在 GPT-3 上改進(jìn)的模型,可以理解并生成自然語言或代碼 |
DALL·E Beta | 可以在給定自然語言提示的情況下生成和編輯圖像的模型 |
Whisper Beta | 一種可以將音頻轉(zhuǎn)換為文本的模型 |
Embeddings | 一組可以將文本轉(zhuǎn)換為數(shù)字形式的模型 |
Moderation | 可以檢測文本是否敏感或不安全的微調(diào)模型 |
GPT-3 | 一組可以理解和生成自然語言的模型 |
Codex Deprecated | 一組可以理解和生成代碼的模型,包括將自然語言翻譯成代碼 |
GPT-4 (limted beta)
GPT-4 是一個大型多模態(tài)模型(今天接受文本輸入并發(fā)出文本輸出,將來會出現(xiàn)圖像輸入),由于其更廣泛的常識和高級推理,它可以比我們以前的任何模型更準(zhǔn)確地解決難題能力。 與 gpt-3.5-turbo 一樣,GPT-4 針對聊天進(jìn)行了優(yōu)化,但也適用于使用 Chat Completions API 的傳統(tǒng)完成任務(wù)。?
最新的模型 | 描述 | 最大的 TOKENS | 訓(xùn)練數(shù)據(jù)日期 |
---|---|---|---|
gpt-4 | 比任何 GPT-3.5 模型都更強(qiáng)大,能夠執(zhí)行更復(fù)雜的任務(wù),并針對聊天進(jìn)行了優(yōu)化。 將使用我們最新的模型迭代進(jìn)行更新。 | 8,192 tokens | Up to Sep 2021 |
gpt-4-0314 | 2023 年 3 月 14 日的 gpt-4 快照。與 gpt-4 不同,此模型不會收到更新,并且會在新版本發(fā)布 3 個月后棄用。 | 8,192 tokens | Up to Sep 2021 |
gpt-4-32k | 與基本 gpt-4 模式相同的功能,但上下文長度是其 4 倍。 將使用我們最新的模型迭代進(jìn)行更新。 | 32,768 tokens | Up to Sep 2021 |
gpt-4-32k-0314 | 2023 年 3 月 14 日的 gpt-4-32 快照。與 gpt-4-32k 不同,此模型不會收到更新,并將在新版本發(fā)布 3 個月后棄用。 | 32,768 tokens | Up to Sep 2021 |
對于許多基本任務(wù),GPT-4 和 GPT-3.5 模型之間的差異并不顯著。 然而,在更復(fù)雜的推理情況下,GPT-4 比我們之前的任何模型都更有能力。
GPT-3.5
GPT-3.5 模型可以理解并生成自然語言或代碼。 我們在 GPT-3.5 系列中功能最強(qiáng)大且最具成本效益的模型是 gpt-3.5-turbo,它已針對聊天進(jìn)行了優(yōu)化,但也適用于傳統(tǒng)的完成任務(wù)。
最新的模型 | 描述 | 最大的 TOKENS | 訓(xùn)練數(shù)據(jù)日期 |
---|---|---|---|
gpt-3.5-turbo | 功能最強(qiáng)大的 GPT-3.5 模型并針對聊天進(jìn)行了優(yōu)化,成本僅為 text-davinci-003 的 1/10。 將使用我們最新的模型迭代進(jìn)行更新。 | 4,096 tokens | Up to Sep 2021 |
gpt-3.5-turbo-0301 | 2023 年 3 月 1 日的 gpt-3.5-turbo 快照。與 gpt-3.5-turbo 不同,此模型不會收到更新,并將在新版本發(fā)布 3 個月后棄用。 | 4,096 tokens | Up to Sep 2021 |
text-davinci-003 | 可以以比居里、巴貝奇或 ada 模型更好的質(zhì)量、更長的輸出和一致的指令遵循來完成任何語言任務(wù)。 還支持在文本中插入補(bǔ)全。 的 | 4,097 tokens | Up to Jun 2021 |
text-davinci-002 | 與 text-davinci-003 類似的功能,但使用監(jiān)督微調(diào)而不是強(qiáng)化學(xué)習(xí)進(jìn)行訓(xùn)練 | 4,097 tokens | Up to Jun 2021 |
code-davinci-002 | 針對代碼完成任務(wù)進(jìn)行了優(yōu)化 | 8,001 tokens | Up to Jun 2021 |
我們建議使用 gpt-3.5-turbo 而不是其他 GPT-3.5 模型,因?yàn)樗某杀靖汀?/p>
GPT-3??
GPT-3 模型可以理解和生成自然語言。 這些模型被更強(qiáng)大的 GPT-3.5 代模型所取代。 然而,最初的 GPT-3 基礎(chǔ)模型(davinci、curie、ada 和 babbage)是目前唯一可用于微調(diào)的模型。
最新的模型 | 描述 | 最大的 TOKENS | 訓(xùn)練數(shù)據(jù)日期 |
---|---|---|---|
text-curie-001 | 非常有能力,比Davinci更快,成本更低。 | 2,049 tokens | Up to Oct 2019 |
text-babbage-001 | 能夠執(zhí)行簡單的任務(wù),速度非???#xff0c;成本更低。 | 2,049 tokens | Up to Oct 2019 |
text-ada-001 | 能夠執(zhí)行非常簡單的任務(wù),通常是 GPT-3 系列中最快的型號,而且成本最低。 | 2,049 tokens | Up to Oct 2019 |
davinci | 功能最強(qiáng)大的 GPT-3 模型。 可以完成其他模型可以完成的任何任務(wù),而且通常質(zhì)量更高。 | 2,049 tokens | Up to Oct 2019 |
curie | 非常有能力,但比Davinci更快,成本更低。 | 2,049 tokens | Up to Oct 2019 |
babbage | 能夠執(zhí)行簡單的任務(wù),速度非???#xff0c;成本更低。 | 2,049 tokens | Up to Oct 2019 |
ada | 能夠執(zhí)行非常簡單的任務(wù),通常是 GPT-3 系列中最快的型號,而且成本最低。 | 2,049 tokens | Up to Oct 2019 |
各類模型介紹
DALL·E Beta
DALL·E 是一個人工智能系統(tǒng),可以根據(jù)自然語言的描述創(chuàng)建逼真的圖像和藝術(shù)作品。 目前支持在提示的情況下創(chuàng)建具有特定大小的新圖像、編輯現(xiàn)有圖像或創(chuàng)建用戶提供的圖像的變體的能力。
通過Open?API 提供的當(dāng)前 DALL·E 模型是 DALL·E 的第 2 次迭代,具有比原始模型更逼真、更準(zhǔn)確且分辨率高 4 倍的圖像。 您可以通過我們的實(shí)驗(yàn)室界面或 API 進(jìn)行試用。
產(chǎn)生圖片的一些官網(wǎng)提供例子?
編輯圖片的例子
???????
Whisper Beta
Whisper 是一種通用的語音識別模型。 它在不同音頻的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,也是一個多任務(wù)模型,可以執(zhí)行多語言語音識別以及語音翻譯和語言識別。 Whisper v2-large 模型目前可通過我們的 API 使用 whisper-1 模型名稱獲得。
目前,Whisper 的開源版本與通過我們的 API 提供的版本之間沒有區(qū)別。 然而,通過Open?API,我們提供了一個優(yōu)化的推理過程,這使得通過我們的 API 運(yùn)行 Whisper 比通過其他方式運(yùn)行要快得多。?
Embeddings
嵌入是文本的數(shù)字表示,可用于衡量兩段文本之間的相關(guān)性。 我們的第二代嵌入模型 text-embedding-ada-002 旨在以一小部分成本取代之前的 16 種第一代嵌入模型。 嵌入可用于搜索、聚類、推薦、異常檢測和分類任務(wù)。
Moderation
審核模型旨在檢查內(nèi)容是否符合 OpenAI 的使用政策。 這些模型提供了查找以下類別內(nèi)容的分類功能:仇恨、仇恨/威脅、自殘、性、性/未成年人、暴力和暴力/圖片。
審核模型接受任意大小的輸入,該輸入會自動分解以修復(fù)模型特定的上下文窗口。
MODEL | DESCRIPTION |
---|---|
text-moderation-latest | 最有能力的審核模型。 精度會略高于穩(wěn)定模型 |
text-moderation-stable |
Codex (deprecated)
Codex 模型現(xiàn)已棄用。 他們是我們 GPT-3 模型的后代,可以理解和生成代碼?他們的訓(xùn)練數(shù)據(jù)包含自然語言和來自 GitHub 的數(shù)十億行公共代碼。 了解更多。
他們最擅長 Python,精通 JavaScript、Go、Perl、PHP、Ruby、Swift、TypeScript、SQL,甚至 Shell 等十幾種語言。
以下 Codex 模型現(xiàn)已棄用:
最新的模型 | 描述 | 最大的 TOKENS | 訓(xùn)練數(shù)據(jù)日期 |
---|---|---|---|
code-davinci-002 | 功能最強(qiáng)大的 Codex 型號。 特別擅長將自然語言翻譯成代碼。 除了補(bǔ)全代碼,還支持在代碼中插入補(bǔ)全。 的 | 8,001 tokens | Up to Jun 2021 |
code-davinci-001 | ode-davinci-002 的早期版本 | 8,001 tokens | Up to Jun 2021 |
code-cushman-002 | 幾乎與 Davinci Codex 一樣強(qiáng)大,但速度稍快。 這種速度優(yōu)勢可能使其成為實(shí)時應(yīng)用程序的首選。 | Up to 2,048 tokens | |
code-cushman-001 | code-cushman-002 的早期版本 | Up to 2,048 tokens |
以上所有的內(nèi)容來自https://platform.openai.com/docs/models