︿
Top

OpenAI推出迷你版GPT-4o的戰略思維分析

瀏覽次數:7194| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室 - 友子 發表於 2024年7月22日
facebook twitter wechat twitter

圖、OpenAI推出迷你版GPT-4o的戰略思維分析
 
OpenAI於2024年7月18日宣布將推出新的AI模型「GPT-4o mini」,這是這家AI新創公司擴大其聊天機器人使用領域的最新努力。OpenAI聲稱GPT-4o mini是其GPT-4o AI型號的更小且更便宜的版本,並計劃稍後將影像、視訊和音訊整合到其中。

基本上,最大的大型語言模型(LLM)使用數十億或數兆個參數(或神經網路進行運算的類似突觸的連接點)來執行各種推理和查詢相關任務。他們也接受過涵蓋各種主題的大量數據的培訓。至於「小型語言模型」或SLM(Small Language Model)僅使用數百萬或數千萬個參數來執行較小的任務集,並且需要較少的運算能力和較小的更集中的訓練數據集。

分析指出GPT-4o mini犧牲了一些智慧來換取一定的速度和可承受性。這種權衡可以讓更多的開發人員使用AI為他們的應用程式提供支持,並可能為未來更複雜的應用程式打開大門。

AI的許多應用不需要大型AI模型的廣泛常識,其可能只需要更快地回答更簡單的問題。畢竟,在許多應用中延遲是不可接受的。一般LLM是指AI應用程式從雲端中的模型獲取答案,其必須要較長的時間。 例如:在醫療手術或自動駕駛的情況,延遲會對體驗產生很大影響。如果廠商想在自動駕駛汽車中使用AI模型,其必須足夠小,才能在汽車的電腦晶片上運行,而不是透過雲端伺服器中運行,增加延遲,會造成傷害。

此外,即使​​GPT-4o mini比其他LLM型號小,但仍不足以在手機或遊戲機等裝置上運作。未來OpenAI仍要開發出裝置上AI模型,才能夠真正滿足邊緣裝置所需。不過,這款SLM也可能對OpenAI作為蘋果合作夥伴特別有利,因為預計未來幾個月,其將推出新的AI增強版iPhone機型。

即使如此,開發反應更快、更便宜的模型可能是下一代AI應用程式的關鍵。因為現今LLM的成本和延遲過高。換句話說,AI模型的性能雖然很重要,但速度和成本也同樣重要。OpenAI知道這一點,Meta和谷歌等公司也知道這一點,這也是Meta和谷歌都在創建更小、更快的開源模型的原因,例如:讓用戶執行端到端任務的個人助理需要更快且成本更低的解決方案。

OpenAI並未透露GPT-4o mini模型的參數大小,但其 mini 的大小可能與Anthropic的Claude 3 Haiku和谷歌的Gemini 1.5 Flash的大小相當。

總之,OpenAI想要維持在市場的龍頭地位,其必須強化多模式模型的處理能力,以及積極推出不同領域的各種版本,迷你版GPT-4o只是第一步而已。(1040字;圖1)


參考資料:
How Microsoft-Backed OpenAI' s 'Mini' AI Model Is Heating Up the AI Competition. Investopedia, 2024/07/18.
OpenAI Now Has a GPT-4o Mini. Here's Why That Matters. CNet, 2024/07/18.

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。