首頁 > 科技要聞 > 科技> 正文

GPT-4o版「Her」終于來了!講笑話、學(xué)貓叫,AI女友能有多撩人?

新智元 整合編輯:太平洋科技 發(fā)布于:2024-08-01 15:56

奧特曼的承諾,終于兌現(xiàn)了。

趕在7月結(jié)束前,GPT-4o語音模式終于開啟了灰度測試,一小部分ChatGPT Plus用戶已經(jīng)拿到了嘗鮮入場券。

如果打開ChatGPT App之后看到了下面這個界面,恭喜你成為了首批幸運(yùn)兒。

OpenAI稱,高級語音模式提供了更加自然、實(shí)時對話,可以隨意打斷,甚至它還可以感知、回應(yīng)你的情緒。

預(yù)計在今年秋季,所有ChatGPT Plus用戶,都能用上這個功能。

另外,視頻和屏幕共享更強(qiáng)大的也在稍后推出。也就是,開啟攝像頭,就能和ChatGPT「面對面」聊天了。

一些被灰度到的網(wǎng)友們紛紛開啟測試,發(fā)現(xiàn)了GPT-4o語音模式的諸多用例。

這不,有人就讓它充當(dāng)「二外教練」,教自己練習(xí)口語。

與此同時,GPT-4o的輸出token暴漲了16倍,從最初4000個token增加到64000個token。

這是OpenAI最近在官方網(wǎng)頁中,悄然推出的測試版新模型gpt-4o-64k-output-alpha。

更長的輸出token,就意味著,一次性可以得到大約4個完整的長篇電影劇本。

Her已來

之所以現(xiàn)在才放出GPT-4o語音功能,是因?yàn)檫^去幾個月里,OpenAI一直對其進(jìn)行安全性、質(zhì)量測試。

他們與100+紅隊人員,就45種語言對GPT-4o語音能力進(jìn)行了測試。

為保護(hù)人們的隱私,團(tuán)隊訓(xùn)練模型只使用4種「預(yù)設(shè)聲音」說話。

他們還創(chuàng)建了一個系統(tǒng),去阻止在這4種聲音之外,其他聲音的輸出。

此外,內(nèi)容過濾也是必不可少,團(tuán)隊還采取措施阻止暴力、有關(guān)版權(quán)內(nèi)容的生成。

OpenAI預(yù)告,計劃在8月初,會發(fā)布一份關(guān)于GPT-4o能力、局限性、安全評估的詳細(xì)報告。

全網(wǎng)實(shí)測

下面是網(wǎng)友分享的GPT-4o語音模式的一些案例。

ChatGPT可以表演節(jié)奏口技。

ChatGPT還可以以害羞、生氣、更憤怒的語氣講出了關(guān)于啤酒的笑話。

還有網(wǎng)友專為ChatGPT講了一個笑話「為什么科學(xué)家不相信Adam-Atom,因?yàn)樗鼈儤?gòu)成了一切」。

ChatGPT不失尷尬地笑了起來。

更搞笑的是,ChatGPT學(xué)起貓叫還是有一套的。

有人經(jīng)過一番測試下來,發(fā)現(xiàn)ChatGPT高級語音模式非常快,回答幾乎沒有延遲。

當(dāng)被要求模仿一些聲音時,它總是可以真實(shí)復(fù)刻出聲音。而且不同口音,也可以模仿出來。

OpenAI雖然聲稱,視頻和屏幕共享功能稍后推出,不過已經(jīng)有網(wǎng)友先用上了。

網(wǎng)友有一只貓咪新寵,為它搭建了小窩,準(zhǔn)備了吃食,但不知道怎么樣,于是就問問ChatGPT。

在視頻的對話中,網(wǎng)友向它展示了貓咪的屋子,ChatGPT看過后評價道,「一定非常舒適」,并關(guān)心貓咪如何。

網(wǎng)友表示,它目前為止還沒有吃東西,看起來有點(diǎn)擔(dān)心。ChatGPT安慰道,「這很正常,對于貓咪來說需要適應(yīng)的時間」。

可以看出,整個問答過程非常流暢,給人一種與真人交流的感受。

網(wǎng)友還翻出了日語版界面游戲機(jī),但是自己又不會日語。

這時,他一邊向ChatGPT展示游戲界面,一邊讓其幫自己做翻譯,最后胡一起通關(guān)游戲。

不得不說,有了視覺+語音模式的加持,ChatGPT強(qiáng)了很多。

GPT-4o Long Output悄悄上線,輸出高達(dá)64K

另外,支持更大token輸出的GPT-4o隨之而來。

就在昨天,OpenAI正式宣布向提供測試者GPT-4o Alpha版本,每次請求支持最多輸出64K token,相當(dāng)于200頁小說。

測試者可以從「gpt-4o-64k-output-alpha」,訪問GPT-4o的長輸出功能。

不過,新模型的價格再次刷新天花板。每百萬輸入token 6美元,每百萬輸出token 18美元。

雖說輸出token是GPT-4o的16倍,但價格也漲了3美元。

這么一比,果然還是gpt-4o-mini價格香!

研究員Simon Willison表示,長輸出主要用于數(shù)據(jù)轉(zhuǎn)換用例。

比如,將文檔從一種語言翻譯成另一種語言,或從文檔中提取結(jié)構(gòu)化數(shù)據(jù),幾乎每個輸入token都需要在輸出的JSON中使用。

在此之前,他所知道的最長輸出模型是GPT-4o mini,為16K token。

為什么推出更長輸出的模型?

顯然,更長的輸出,可以讓GPT-4o提供更全面、細(xì)致的響應(yīng),對于一些場景非常有幫助。

比如,編寫代碼、以及對寫作的改進(jìn)。

這也是基于用戶的反饋——需要更長輸出內(nèi)容才能滿足用例,OpenAI才做出的調(diào)整。

上下文和輸出之間的區(qū)別

GPT-4o自推出以來,便提供了最大128K的上下文窗口。而對于GPT-4o Long Output,最大上下文窗口仍然是128K。

那么,OpenAI如何在保持整體上下文窗口為128K的情況下,將輸出token數(shù)量從4,000增加到64,000呢?

這是因?yàn)椋琌penAI在最初就限制了輸出token數(shù)量,最大為4000個token。

這意味著,用戶可以在一次交互中最多以124,000個token作為輸入,也最多只能得到4000個輸出token。

當(dāng)然,你也可以輸入更多token,那就意味著輸出token更少了。

畢竟長下文長度(128K)就固定在那里,不管輸入怎么變,輸出token也不會過4000。

而現(xiàn)在,OpenAI將輸出token長度限制在64,000 token,也就是說,你可以比以往多輸出16倍的token。

畢竟,輸出計算量更大,價格漲幅也更大。

同樣,對于最新的GPT-4o mini,上下文也是128K,但最大輸出已提升至16,000個token。

那么,用戶可以提供最多112,000個token作為輸入,最終得到最多16,000個token的輸出。

總的來說,OpenAI在這里提供了一個方案,限制輸入token,以獲取LLM更長的響應(yīng),而不是直接擴(kuò)大上下文長度。

而市面上其他模型,長的都已經(jīng)超過百萬了(Gemini),稍微短一些的也有200K(Claude);甚至有的模型輸出都已經(jīng)達(dá)到了200K,而OpenAI還在這兒摳摳搜搜。

這也就把難題扔給了開發(fā)者:想要輸入多,那就得接受輸出少;想要輸出多,那就得輸入少一些。

具體怎么衡量,看你們自己愿意犧牲哪一個了...…

本文來源:新智元

網(wǎng)友評論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部