當(dāng)?shù)貢r(shí)間 2023 年 3 月 14 日,北京時(shí)間 3 月 15 日凌晨,OpenAI 發(fā)布了新一代大模型 GPT-4。
大模型就是在 ChatGPT 背后最重要的存在,大模型的性能,直接決定了表現(xiàn)在外、呈現(xiàn)給用戶答案的聰慧程度,因此本次 GPT-4 的發(fā)布在數(shù)周之前就已經(jīng)是讓人津津樂道的話題。
【資料圖】
如今,這個(gè)能再一次掀起 AI 浪潮的重磅炸彈終于落地,同時(shí)帶著三個(gè)方向的新改進(jìn),試圖進(jìn)一步加固 OpenAI 在這一領(lǐng)域的統(tǒng)治地位。
長內(nèi)容識別
首先是 GPT-4 的長內(nèi)容識別能力:更新迭代之后的 GPT-4 能快速理解最高 2.5萬字輸入內(nèi)容,同時(shí)并整合總結(jié)。同時(shí)在內(nèi)容推理能力方面,GPT-4 也遠(yuǎn)強(qiáng)于 ChatGPT:在你發(fā)送一篇長文或是財(cái)報(bào)給 GPT-4 后,它不僅能更快的生成梗概總結(jié),同時(shí)還能以更加精煉的語言,幫你「抓重點(diǎn)」,簡直是學(xué)生黨復(fù)習(xí)以及分析師看財(cái)報(bào)的利器。
之前網(wǎng)絡(luò)上熱衷于讓 ChatGPT 參加的各種人類考試,現(xiàn)在 OpenAI 也親自下場,帶著 GPT-4 來到了做題家們的主場挑戰(zhàn):按照 OpenAI 公布的結(jié)果,讓 GPT-4 與 ChatGPT 同時(shí)參加律師資格考試,前者能拿到前 90% 的成績,而后者雖然能通過測試,但也只能拿到倒數(shù) 10% 的排名。 如果參加的是生物奧林匹克競賽,兩者的差距還能被進(jìn)一步拉大。同理,參加人類類似托福、LSAT、GRE 等語言考試也能得到類似的結(jié)果。
圖像識別
本次 OpenAI 宣布另一個(gè) GPT-4 升級重點(diǎn)是加入了對輸入圖像內(nèi)容的支持:GPT-4 能自行理解輸入圖像的內(nèi)容以及寓意,同時(shí)給出準(zhǔn)確的回復(fù)。比如給衣柜拍張照片,然后要求 GPT-4 生成一份旅行衣物單?;蛘甙涯銣?zhǔn)備好的食材放在桌子上,拍照發(fā)給 GPT-4,問問它這些材料能做出什么食物。
GPT-4 能自動(dòng)識別圖中的食材究竟是什么,并自動(dòng)根據(jù)這些內(nèi)容給出適當(dāng)?shù)慕M合答案。
在官方演示中,GPT-4 甚至還能幫你翻譯梗圖其中的意思:或許下次你在上網(wǎng)沖浪時(shí),如果網(wǎng)友再給你發(fā)一些看不懂的梗圖,可以先拿來問問 GPT-4。
但最能展現(xiàn) GPT-4 圖像識別性能的橋段,可能還是發(fā)布視頻中演示的場景:主持人在筆記本上畫出了一個(gè)網(wǎng)頁的草稿,然后用手機(jī)拍下來,發(fā)送給 GPT-4,要求其生成這個(gè)網(wǎng)頁的代碼。
緊接著,一個(gè)網(wǎng)頁的代碼就出現(xiàn)在 GPT-4 的回復(fù)中:這是一個(gè)可以直接完整運(yùn)行的網(wǎng)頁代碼,這一過程僅用了不到兩分鐘,生成網(wǎng)站代碼更是只用了不到十秒鐘。
這場演示,不僅讓人看到 GPT-4 在代碼生成方面的巨大潛力,更會讓人不由得產(chǎn)生一種「人的溝通才是拖慢 GPT-4 運(yùn)行效率的原因」的感覺。
更安全,更可靠
之前在 ChatGPT 中,一個(gè)飽受詬病的問題是它經(jīng)常會「不懂裝懂」:在涉及到事實(shí)性的提問對話中,ChatGPT 有時(shí)會一本正經(jīng)地給出完全錯(cuò)誤的答案。更嚴(yán)重的問題是 ChatGPT 經(jīng)常還能「引經(jīng)據(jù)典」地佐證自己完全錯(cuò)誤的結(jié)論,甚至回答縝密到能把很多專業(yè)作者誤導(dǎo)。這一現(xiàn)象毫無疑問加劇了很多用戶對于 AI 大模型的不信任。
到了 GPT-4 發(fā)布時(shí),OpenAI 將回答內(nèi)容的事實(shí)核查作為了本次升級的重點(diǎn),同時(shí)宣稱 ChatGPT 4 更安全,也更加可靠:
換言之,GPT-4 在回復(fù)內(nèi)容的事實(shí)核查以及有害內(nèi)容的阻斷上做出了明顯的改善。OpenAI 也公開承認(rèn)這要得益于過去 ChatGPT 海量的用戶數(shù)據(jù)給大模型優(yōu)化帶來的助力,用越來越多的數(shù)據(jù)來創(chuàng)建更加強(qiáng)大的語言模型。但 OpenAI 仍然在公告中強(qiáng)調(diào):「我們正在與第三方研究團(tuán)隊(duì)合作,對錯(cuò)誤答案的潛在影響作出評估」。
以及最重要的是 GPT-4 也與之前發(fā)布的 ChatGPT 3.5 相同的問題:GPT-4 儲存的數(shù)據(jù)截止至 2021 年 9 月,與之前的 GPT 3.5 相同。這仍會在一定程度上限制 GPT-4 的應(yīng)用場景:比如上面提到的「解釋梗圖」功能,如果 GPT-4 本身不能跟上當(dāng)前熱點(diǎn)的話,或許也很難準(zhǔn)確把握其中的精髓所在。
應(yīng)用
雖然今天是 OpenAI 的正式發(fā)布日,但在此之前作為大股東的微軟已經(jīng)按耐不住很久了:不僅微軟德國 CTO 在一周前「說漏嘴」表示 GPT-4 即將發(fā)布,今天 GPT-4 終于正式發(fā)布后,微軟也迫不及待地宣布 New Bing 早已經(jīng)用上了 GPT-4:并表示「如果你在過去五周內(nèi)用過(New Bing),那么你其實(shí)已經(jīng)體驗(yàn)過 GPT-4 的早期版本了」。
不過很多用戶之所以在 New Bing 的使用中沒有感受到和 ChatGPT 明顯的區(qū)別,OpenAI 解釋的原因「對話復(fù)雜度不夠」,換言之就是日常閑聊提問并不能快速區(qū)分出 GPT-4 與 GPT-3.5 的區(qū)別,只有當(dāng)問題足夠復(fù)雜、需要同時(shí)處理的信息足夠多時(shí),GPT-4 能更好地區(qū)分細(xì)枝末節(jié)的優(yōu)勢才能體現(xiàn)出來。
除了早早就「走關(guān)系」用上 GPT-4 的 Bing,其他與 OpenAI 有合作關(guān)系的、首批使用的應(yīng)用服務(wù)與機(jī)構(gòu)也在今天被一并公開:例如語言學(xué)習(xí)服務(wù)多鄰國于今天宣布推出整合 GPT-4 能力的 Duolingo Max 服務(wù),在現(xiàn)有的付費(fèi)訂閱功能基礎(chǔ)之上還提供問題解答以及錯(cuò)誤解釋功能。
為視障人士提供服務(wù)的公司 Be My Eyes,也宣布將使用 GPT-4,來改變現(xiàn)有的視覺輔助識別服務(wù):他們開始在應(yīng)用程序中加入基于 GPT-4 開發(fā)而來的視覺驅(qū)動(dòng)模塊,測試結(jié)果「能產(chǎn)生與人類志愿者相同水平的理解內(nèi)容」。
按照 OpenAI 的說法,從去年 11 月延續(xù)至今的 ChatGPT 全球爆火,他們也「完全沒有預(yù)料到」。
他們或許更加沒有預(yù)料到,伴隨著 ChatGPT 爆火而來的,是席卷全球的一次 AI 產(chǎn)業(yè)革命。今天 GPT-4 的發(fā)布無疑是在這堆火焰之上添加了新的燃料。
目前,訂閱 ChatGPT Plus 的用戶已經(jīng)能先期體驗(yàn)到 GPT-4,幾乎沒有人會懷疑之后 ChatGPT 的迭代速度會越來越快。
關(guān)鍵詞: