奧特曼的承諾,終于兌現(xiàn)了。 趕在7月結(jié)束前,GPT-4o語音模式終于開啟了灰度測試,一小部分ChatGPT Plus用戶已經(jīng)拿到了嘗鮮入場券。 如果打開ChatGPT App之后看到了下面這個界面,恭喜你成為了首批幸運(yùn)兒。 OpenAI稱,高級語音模式提供了更加自然、實(shí)時對話,可以隨意打斷,甚至它還可以感知、回應(yīng)你的情緒。 預(yù)計在今年秋季,所有ChatGPT Plus用戶,都能用上這個功能。 另外,視頻和屏幕共享更強(qiáng)大的也在稍后推出。也就是,開啟攝像頭,就能和ChatGPT「面對面」聊天了。 一些被灰度到的網(wǎng)友們紛紛開啟測試,發(fā)現(xiàn)了GPT-4o語音模式的諸多用例。 這不,有人就讓它充當(dāng)「二外教練」,教自己練習(xí)口語。 與此同時,GPT-4o的輸出token暴漲了16倍,從最初4000個token增加到64000個token。 這是OpenAI最近在官方網(wǎng)頁中,悄然推出的測試版新模型gpt-4o-64k-output-alpha。 更長的輸出token,就意味著,一次性可以得到大約4個完整的長篇電影劇本。 Her已來 之所以現(xiàn)在才放出GPT-4o語音功能,是因?yàn)檫^去幾個月里,OpenAI一直對其進(jìn)行安全性、質(zhì)量測試。 他們與100+紅隊人員,就45種語言對GPT-4o語音能力進(jìn)行了測試。 為保護(hù)人們的隱私,團(tuán)隊訓(xùn)練模型只使用4種「預(yù)設(shè)聲音」說話。 他們還創(chuàng)建了一個系統(tǒng),去阻止在這4種聲音之外,其他聲音的輸出。 此外,內(nèi)容過濾也是必不可少,團(tuán)隊還采取措施阻止暴力、有關(guān)版權(quán)內(nèi)容的生成。 OpenAI預(yù)告,計劃在8月初,會發(fā)布一份關(guān)于GPT-4o能力、局限性、安全評估的詳細(xì)報告。 全網(wǎng)實(shí)測下面是網(wǎng)友分享的GPT-4o語音模式的一些案例。 ChatGPT可以表演節(jié)奏口技。 ChatGPT還可以以害羞、生氣、更憤怒的語氣講出了關(guān)于啤酒的笑話。 還有網(wǎng)友專為ChatGPT講了一個笑話「為什么科學(xué)家不相信Adam-Atom,因?yàn)樗鼈儤?gòu)成了一切」。 ChatGPT不失尷尬地笑了起來。 更搞笑的是,ChatGPT學(xué)起貓叫還是有一套的。 有人經(jīng)過一番測試下來,發(fā)現(xiàn)ChatGPT高級語音模式非常快,回答幾乎沒有延遲。 當(dāng)被要求模仿一些聲音時,它總是可以真實(shí)復(fù)刻出聲音。而且不同口音,也可以模仿出來。 OpenAI雖然聲稱,視頻和屏幕共享功能稍后推出,不過已經(jīng)有網(wǎng)友先用上了。 網(wǎng)友有一只貓咪新寵,為它搭建了小窩,準(zhǔn)備了吃食,但不知道怎么樣,于是就問問ChatGPT。 在視頻的對話中,網(wǎng)友向它展示了貓咪的屋子,ChatGPT看過后評價道,「一定非常舒適」,并關(guān)心貓咪如何。 網(wǎng)友表示,它目前為止還沒有吃東西,看起來有點(diǎn)擔(dān)心。ChatGPT安慰道,「這很正常,對于貓咪來說需要適應(yīng)的時間」。 可以看出,整個問答過程非常流暢,給人一種與真人交流的感受。 網(wǎng)友還翻出了日語版界面游戲機(jī),但是自己又不會日語。 這時,他一邊向ChatGPT展示游戲界面,一邊讓其幫自己做翻譯,最后胡一起通關(guān)游戲。 不得不說,有了視覺+語音模式的加持,ChatGPT強(qiáng)了很多。 GPT-4o Long Output悄悄上線,輸出高達(dá)64K 另外,支持更大token輸出的GPT-4o隨之而來。 就在昨天,OpenAI正式宣布向提供測試者GPT-4o Alpha版本,每次請求支持最多輸出64K token,相當(dāng)于200頁小說。 測試者可以從「gpt-4o-64k-output-alpha」,訪問GPT-4o的長輸出功能。 不過,新模型的價格再次刷新天花板。每百萬輸入token 6美元,每百萬輸出token 18美元。 雖說輸出token是GPT-4o的16倍,但價格也漲了3美元。 這么一比,果然還是gpt-4o-mini價格香! 研究員Simon Willison表示,長輸出主要用于數(shù)據(jù)轉(zhuǎn)換用例。 比如,將文檔從一種語言翻譯成另一種語言,或從文檔中提取結(jié)構(gòu)化數(shù)據(jù),幾乎每個輸入token都需要在輸出的JSON中使用。 在此之前,他所知道的最長輸出模型是GPT-4o mini,為16K token。 為什么推出更長輸出的模型?顯然,更長的輸出,可以讓GPT-4o提供更全面、細(xì)致的響應(yīng),對于一些場景非常有幫助。 比如,編寫代碼、以及對寫作的改進(jìn)。 這也是基于用戶的反饋——需要更長輸出內(nèi)容才能滿足用例,OpenAI才做出的調(diào)整。 上下文和輸出之間的區(qū)別GPT-4o自推出以來,便提供了最大128K的上下文窗口。而對于GPT-4o Long Output,最大上下文窗口仍然是128K。 那么,OpenAI如何在保持整體上下文窗口為128K的情況下,將輸出token數(shù)量從4,000增加到64,000呢? 這是因?yàn)椋琌penAI在最初就限制了輸出token數(shù)量,最大為4000個token。 這意味著,用戶可以在一次交互中最多以124,000個token作為輸入,也最多只能得到4000個輸出token。 當(dāng)然,你也可以輸入更多token,那就意味著輸出token更少了。 畢竟長下文長度(128K)就固定在那里,不管輸入怎么變,輸出token也不會過4000。 而現(xiàn)在,OpenAI將輸出token長度限制在64,000 token,也就是說,你可以比以往多輸出16倍的token。 畢竟,輸出計算量更大,價格漲幅也更大。 同樣,對于最新的GPT-4o mini,上下文也是128K,但最大輸出已提升至16,000個token。 那么,用戶可以提供最多112,000個token作為輸入,最終得到最多16,000個token的輸出。 總的來說,OpenAI在這里提供了一個方案,限制輸入token,以獲取LLM更長的響應(yīng),而不是直接擴(kuò)大上下文長度。 而市面上其他模型,長的都已經(jīng)超過百萬了(Gemini),稍微短一些的也有200K(Claude);甚至有的模型輸出都已經(jīng)達(dá)到了200K,而OpenAI還在這兒摳摳搜搜。 這也就把難題扔給了開發(fā)者:想要輸入多,那就得接受輸出少;想要輸出多,那就得輸入少一些。 具體怎么衡量,看你們自己愿意犧牲哪一個了...… 本文來源:新智元 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選