來(lái)源:華爾街見(jiàn)聞
GPT-4o mini從周四起向ChatGPT的免費(fèi)用戶(hù)、ChatGPT Plus和團(tuán)隊(duì)訂閱用戶(hù)開(kāi)放,并將在下周向ChatGPT企業(yè)用戶(hù)開(kāi)放。OpenAI計(jì)劃今后整合圖像、視頻、音頻到這個(gè)模型中。
OpenAI美東時(shí)間周四推出“GPT-4o mini”,稱(chēng)這款新模型是“功能最強(qiáng)、成本偏低的模型”,計(jì)劃今后整合圖像、視頻、音頻到這個(gè)模型中。
這款mini AI模型是GPT-4o的衍生產(chǎn)品,后者是OpenAI迄今為止速度最快、功能最強(qiáng)的模型,于今年5月份在發(fā)布。GPT-4o中的“o”代表“omni”(全方位),該模型在音頻、視頻和文本能力上有所改進(jìn),能夠處理50種不同的語(yǔ)言,并且速度和質(zhì)量都有所提高。
媒體報(bào)道,由微軟支持的OpenAI的估值已超過(guò)800億美元,雖然在生成式AI市場(chǎng)仍然占據(jù)領(lǐng)頭羊地位,但該公司面臨的競(jìng)爭(zhēng)壓力已經(jīng)越來(lái)越大。OpenAI還需要找到賺錢(qián)的方式,因?yàn)樵摴驹谔幚砥骱突A(chǔ)設(shè)施上花費(fèi)了大量資金來(lái)構(gòu)建和訓(xùn)練其模型。
而周四宣布的mini AI模型是OpenAI致力于“多模態(tài)性”的一部分,即提供廣泛類(lèi)型的AI生成媒體(如文本、圖像、音頻和視頻)在一個(gè)工具:ChatGPT中。
去年,OpenAI首席運(yùn)營(yíng)官Brad Lightcap告訴媒體:
“世界是多模態(tài)的。如果你考慮我們作為人類(lèi)處理和參與世界的方式,我們看見(jiàn)東西,聽(tīng)到東西,說(shuō)話(huà)——世界不僅僅是文本。因此,對(duì)我們來(lái)說(shuō),只有文本和代碼作為單一模態(tài)、單一接口,感覺(jué)總是不完整的,因?yàn)檫@些模型的強(qiáng)大能力和它們能做的事情遠(yuǎn)遠(yuǎn)不止于此?!?/p>
該公司表示,GPT-4o mini從周四起向ChatGPT的免費(fèi)用戶(hù)、ChatGPT Plus和團(tuán)隊(duì)訂閱用戶(hù)開(kāi)放,并將在下周向ChatGPT企業(yè)用戶(hù)開(kāi)放。
風(fēng)險(xiǎn)提示及免責(zé)條款
市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎。本文不構(gòu)成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標(biāo)、財(cái)務(wù)狀況或需要。用戶(hù)應(yīng)考慮本文中的任何意見(jiàn)、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。
發(fā)表評(píng)論
2024-07-19 12:29:34回復(fù)
2024-07-19 04:30:03回復(fù)
2024-07-19 06:23:29回復(fù)