原本以為ChatGPT收費了,但沒想到是我調用API已經計價了,經過重新研究,我重寫了這一篇。
1. 這個API是什麼
API簡單來說是工程師會使用的項目,他是程式的一種介面,說白了就是方便程式能夠互通的概念,
實際製作的方法非常多樣,可以是雲端也可以單純的程式(像Chrome extension也一堆API)。
但為什麼該重視呢?
我們一般使用ChatGPT是具有完善介面化的服務,
而ChatGPT背後程式,可以拆解成各種程式項目,其中調用AI模型做運算,同理也可以透過API為概念調用,這意味著你也能從OpenAI目前提供AI服務的API計價,反推未來ChatGPT可能的計價方式。
不過要澄清的是,首先,ChatGPT背後的非營利組織OpenAI會訓練各種模型,這些模型運算消耗資源也會有變化,所以價格也會有落差,而這些模型實際能做初步的溝通,通常會做成API方便大部分工程師使用。
另外,目前可以知道ChatGPT所謂使用的模型,雖然對外稱為GPT-3.5,不過目前資料顯示,他就是原本的GPT-3進行額外訓練做微調(fine-tuned)而已,這是很小幅度的改進(其實會玩算圖應該就很容易懂,例如使用Dreambooth),不過也能從一些資訊了解到,他是專家協助下,在初步資料方面做得很好的改進,這意味著其他公司也能做,但也因此,這個所謂GPT-3.5並沒有未來GPT-4的新聞這麼受到矚目,實際上他並不能稱作特別有意義的新模型。
目前GPT-3進行微調的計價,在微軟跟OpenAI網頁都找得到(後面有提供),其中微軟azure計價上並沒有落差,因此可以推估模型變化造成的運算成本差異應該不大。
關於有人問到beta與chat,他們同為 *.opanai.com (subdomains),其實他們同樣是openAI
例如:
- beta.openai.com 用來測試新功能。他通常放最新的功能,這裡你可以參考她的介紹,並知道API應用。
- chat.openai.com 是用來做chat服務。目前很火紅的功能,其實就是GPT-3進行微調的對外展示,一般公司針對內部需求做客製。
- api.openai.com 提供 API 訪問 OpenAI 模型。當然,你要用API溝通方式才能用。
- blog.openai.com 就是openAI對外發布資訊的地方。
- community.openai.com 討論頁面。
就算是公司沒對外的項目通常也只是變動subdomains,他們主要目的是伺服器分工外,也具有不同功能,但不等於模型的先進程度,當然,一般人要摸到最先進的東西還是beta為主。
當然你也能直接問ChatGPT,他會直接跟你說並不存在GPT-3.5版本,而ChatGPT只是GPT-3的一種大量對話特化版本,他甚至不如beta提供的Davinci,主要還是預留較好的multitask learning等能力,即便ChatGPT呈現結果對你我來說非常驚艷,但他背後模型其實主要目的是限於特殊應用的。
ChatGPT應答:
資源整理:
- API 應用案例
目前有個案例就是:
Debug神器 Adrenaline 幾秒內自動修復程式碼,還有GPT-3解釋錯在哪
我能開發一個小程式供給良好介面,然後以月費或者各種計價方式來收取服務
不過背後的AI技術,一般公司無法做到,
那OpenAI(ChatGPT的研發公司)就能透過雲端供給這些公司使用AI的技術。||| - 你可以試著玩玩看
這些應用都會提供一些示例
https://beta.openai.com/playground
在對話框中直接輸入中文,然後在底下按下submit(送出),他就會用高光的文字回答你
- API:
如果你是工程師,推薦兩個文件,提供如下:
OpenAI Document
Azure OpenAI Document
簡單來說,OpenAI有數個模型,訓練程度不同,他們的服務都是透過網路API傳遞。 - API Key
下面查詢現有金額的圖片就有一個 "API Keys" 超連結,點進去,就我認知那就是API連結的重要Key,請保管好,使用在不明程式上的時候,可能會用了你的token - 訓練與微調
目前提供API服務的公司就是OpenAI自己跟微軟Azure,
他們是有提供相關服務的。
2. 查詢現有金額
你可以到
查看目前使用狀況
每個帳號註冊後都有18美元,3個月後到期。
3. API如何計價?
詳細來說,他是擁有兩種方案,計時與使用token計價,token是1000 為一個計價單位,按照上面描述大約750字,不過這個字應該是指英文,
而模型中,最貴的Davinci才能正常的對話。
最便宜的Ada要用英文,而大約LineBOT水平,需要自己額外訓練(*換個說法,你是工程師才有使用價值)。
詳細可看:
另外微軟雲端服務也有提供資訊
計價價格在基本型,微軟跟OpenAI相同
但如果有訓練或微調,看起來計價就不相同
4. ChatGPT未來費用可能是多少?
就目前已知資訊,是在去年2022/12/7的資訊
按照它們資訊可以得知,大約每個英文字詞 0.0003 美元,平均回復都是30字,也就是每則回答0.009 美元,假設一天問答一百題,則為0.9美元,若一天簡單1美元計算,你就能合理推估一個月月費約30~40美元之間比較可能,也就是900~1200元臺幣,但這一切還有很多不確定性,正常初期成本要高估才不會虧錢,尤其是對外的說詞,不會特意低估。
若換個角度來思考,也就是前面的API,
目前我測試了OpenAI的語言模型,
應該要達到最高級的Davinci才能正常對話,
那麼應該ChatGPT理論上應該會比750字約0.02美元(=0.61臺幣)貴一點,
不過假定就是同樣價格,
理論上你問他一些垃圾話或者簡單的問題,可能可以問好幾句才0.02,
但如果你叫他寫詩作文,可能一下就超過750,
以我前面使用,都是調用CodeX與GPT-3的最貴模型,今天91個問題才0.1美元(=3.05臺幣),
那麼一個月正常應該不會超過一百多元,不過這是我調用API的推估,
實際上還是得看ChatGPT最終如何打算,
但至少我不認為調用API成本會高於ChatGPT,這樣一般公司才能提供服務並賺取差價。
至於API月費之類的,很難類比,若以時計價,微軟的Azure每小時34美元,應該是非常大量應用,一般人用不到這麼高額,所以可能就會另外提供合理的計價。
因此。
如果推估,ChatGPT每月$29~39美元之間,不知道各位能否接受?
fu6g6ji3u3ru/ 5 2l4g6ru0 2u03ep ru84ek6
1j6eji41o4el45 1j4s/6gji
53s/6ru835j; el3hji4