停止浪費!如何選擇最適合的ChatGPT串接API方案,客家人必看!

Yuhung Liao
6 min readJun 29, 2024

--

#ChatGPT #API #MemoAi #客家人無敵 #token #周杰倫#Adele

如果你有在使用Memo AI或其他延伸軟體,這篇是在比較串接選ChatGPT API時的選擇,以性能與價格來比較。

有在用ChatGPT +正使用GPT4o的話,應該都回不去3.5或4了吧?但我在使用MemoAI串OPEN AI CHATGPT 的 API的時候,因為要API是用token使用的字付費的,本著桃園客家人的節約精神,所以順便做了一些比較。

使用MemoAI串OPEN AI CHATGPT 的 API選項
在使用MemoAI串Open AI Chat GPT 的 API 的選項

GPT 模型性能比較

比較與建議

語言理解與生成能力:

  • GPT-4 系列在語言理解和生成能力上具有更好的表現,適用於需要更高準確度和語言處理能力的任務。
  • GPT-3.5 系列的語言理解和生成能力次之,但運行速度較快。

上下文窗口大小

  • GPT-4–32k-0613 和 GPT-3.5-turbo-16k-0613 具有較大的上下文窗口,適合處理長文本或需要大量上下文的任務。
  • 標準版本的上下文窗口較小,但速度較快,適合一般應用。

運行速度和效率

  • GPT-4-turbo-preview 和 GPT-3.5-turbo-0125 針對速度和效率進行了優化,適合需要快速響應的應用場景。
  • GPT-3.5-turbo 系列在速度和效能上表現最佳,適合需要高效能的應用。

推薦理由

  • GPT-4:GPT-4 具備最強的語言理解和生成能力,適合需要高準確度和複雜語言處理的任務。然而,由於模型複雜性高,運行速度較慢,因此僅適合在速度要求不高的應用中使用。
  • GPT-4–32k-0613:此版本的GPT-4具有更大的上下文窗口,可以處理更長的文本輸入,適合需要大量上下文的應用場景。儘管如此,其運行速度仍然比不上GPT-3.5-turbo系列,因此推薦星等較低。
  • GPT-4-turbo-preview:這個加強版在保持GPT-4高語言能力的同時,提升了運行速度和效率,適合需要快速反應的應用場景,是一個較為平衡的選擇。
  • GPT-3.5-turbo-16k-0613:此版本擁有16K的上下文窗口,可以處理中等長度的文本,同時運行速度較快,語言能力也良好,適合平衡速度和上下文需求的任務。
  • GPT-3.5-turbo-0125:這個版本在運行速度和效能上優化最多,適合需要高效能和快速反應的應用場景。語言能力雖然不如GPT-4,但仍然相當優秀,是一個極具性價比的選擇。
  • GPT-3.5:標準版的GPT-3.5具有最快的運行速度,適合需要高效能和快速響應的應用。語言能力雖然不及GPT-4,但在速度需求較高的場景中,仍然是一個非常不錯的選擇。

總結

  • 如果重視處理速度,推薦選擇 GPT-3.5-turbo 版本。
  • 如果重視語言處理能力,推薦選擇 GPT-4 版本。
  • 如果需要處理長文本,推薦選擇 GPT-4–32k-0613GPT-3.5-turbo-16k-0613 版本。
  • 如果需要平衡速度和效能,推薦選擇 GPT-4-turbo-preview
了解更多詳細信息,可以訪問OpenAI的價格頁面​ (OpenAI Help Center)​​ (InvertedStone)​。

提示Prompt Tokens和生成 Completion Tokens

在使用OpenAI API時,提示 tokens 和生成 tokens 是兩個不同的概念,主要區別如下:

.提示 tokens(Prompt Tokens)

提示 tokens 是指你發送給模型的輸入文本。這些文本包含你希望模型基於其生成回應的信息。提示 tokens 包括所有你輸入的字母、單詞、標點符號以及格式化指令。如果你發送的提示是:(這段文本中的每個字符和空格都會被計算為提示 tokens)

請用中文回答:今天的天氣如何?

.生成 tokens(Completion Tokens)

生成 tokens 是指模型基於提示文本生成的回應部分。這些回應文本同樣會包含字母、單詞、標點符號以及格式化指令,每個都會被計算為生成 tokens。如果模型生成的回應是:(這段回應中的每個字符和空格都會被計算為生成 tokens)

今天的天氣很好,陽光明媚。

計費區別

在計算費用時,OpenAI會分別計算提示 tokens 和生成 tokens,然後根據不同的模型和使用情況來計費。通常,提示 tokens 的費用會低於生成 tokens 的費用,因為生成文本的計算和處理更為複雜。

Token 換算

英文字母和中文字的 Token 換算

  • 英文字母:一個英文字母大約等於0.25個 token。這是因為一個單詞通常由多個字母組成,而 token 是按單詞分割的。例如,”hello” 這個單詞大約為 1.25 個 token。
  • 中文字:一個中文字通常等於1個 token。這是因為中文字不像英文字母需要組成單詞,基本上每個字就是一個 token。

中/英文歌詞舉例

.以 Adele 的 “Rolling in the Deep” 為例

There's a fire starting in my heart
Reaching a fever pitch and it's bringing me out the dark
這段歌詞約為 19 個單詞,大約等於 23.75 個 token。

這首歌的完整歌詞包含約350個單詞。由於英文字母組成的單詞數量會影響 token 的計算,因此大致估算如下:

350 個單詞 x (平均每個單詞約)1.25 token = 約 437.5 個 token。

以周杰倫的 “晴天” 為例

故事的小黃花 從出生那年就飄著
童年的盪鞦韆 隨記憶一直晃到現在
這段歌詞約為 20 個中文字,大約等於 20 個 token。

這首歌的完整歌詞包含約360個中文字。由於每個中文字基本上是一個 token,因此計算如下:

360 個中文字 x 1 token = 約 360 個 token。

這些估算基於一般的 token 換算規則,實際數字可能略有差異,具體取決於模型如何處理特定的文字和格式。如果需要更精確的計算,建議使用專門的工具或API來進行解析和計算。

Tokenizer:OpenAi官方模型Token計算機

資料來源:OPenAI官網 / ChatGPT

--

--

No responses yet