OpenAI做了谷歌不敢也不想做的事,那就是:還在研究階段就對(duì)外公開(kāi)了ChatGPT。這引發(fā)了巨大的爭(zhēng)議,關(guān)于詐騙,關(guān)于作弊,關(guān)于人類(lèi)未來(lái)的教育、認(rèn)知的獲取,以及未來(lái)大量工作被取代。說(shuō)實(shí)話(huà),ChatGPT的到來(lái)讓我對(duì)人類(lèi)的未來(lái),更迷茫了。
(資料圖)
這里先澄清一下,如今人們對(duì)AI在未來(lái)能做的事、行為和發(fā)展的認(rèn)知還非常有限,所以今天我們講的東西和判斷可能是稍顯主觀(guān)的。但是希望帶給大家一些思考和探討的空間。首先,我們來(lái)聊聊ChatGPT對(duì)人類(lèi)認(rèn)知的影響和潛在的AI繭房。
01 人類(lèi)認(rèn)知與AI繭房
我先問(wèn)大家?guī)讉€(gè)最直觀(guān)的問(wèn)題:
當(dāng)你有一個(gè)能幾秒內(nèi)給你答案的聊天機(jī)器人的時(shí)候,你還會(huì)思考,這個(gè)答案是怎么得出來(lái)的嗎?
當(dāng)你習(xí)慣了被告知一個(gè)事件有12345點(diǎn),你還會(huì)去想,它是否還會(huì)有678910點(diǎn)重要的角度嗎?
當(dāng)你不用學(xué)外語(yǔ)就能寫(xiě)出一篇沒(méi)有語(yǔ)法錯(cuò)誤的情書(shū),你還會(huì)為了追那個(gè)異國(guó)的女孩而去了解她的語(yǔ)言她的國(guó)家她的信仰她的文化嗎?
當(dāng)你認(rèn)為ChatGPT背后的大語(yǔ)言人工智能模型看上去“無(wú)所不知”的時(shí)候,你知道它其實(shí)給你的只是,全人類(lèi)在互聯(lián)網(wǎng)上信息的平均知識(shí)嗎?
這些問(wèn)題在我和創(chuàng)新工場(chǎng)的AI工程院執(zhí)行院長(zhǎng)王詠剛的聊天中,都略有涉及到。王詠剛老師在朋友圈中寫(xiě)到:“悲觀(guān)情況是:因?yàn)槿祟?lèi)的極度懶惰,互聯(lián)網(wǎng)被AI生成的、錯(cuò)誤率普遍高于人類(lèi)知識(shí)工作者的“灌水內(nèi)容”占領(lǐng),我們的孩子成為“迷失的一代”?!?/strong>
王詠剛:現(xiàn)在的 AI 最大的問(wèn)題是他在做的事情是模型擬合的事情。無(wú)論是最早的自然語(yǔ)言處理的古老古典、已經(jīng)被淘汰的算法,還是今天在ChatGPT里面我們看到的這種最新的算法,它的核心任務(wù)仍然是對(duì)人類(lèi)自然語(yǔ)言語(yǔ)料數(shù)據(jù)去做模型匹配、模式擬合。基于這種擬合,它的輸出造成了它這種擬合必須是在它學(xué)習(xí)過(guò)的這種數(shù)據(jù),或者學(xué)習(xí)過(guò)的這種數(shù)據(jù)的規(guī)律,根據(jù)一定的數(shù)學(xué)邏輯、甚至非確定邏輯來(lái)去做它的輸出。所以這一點(diǎn)上帶來(lái)幾個(gè)問(wèn)題,不可預(yù)測(cè)性一定會(huì)永遠(yuǎn)存在,模型輸出的一定的隨機(jī)性一定會(huì)永遠(yuǎn)存在。
在這種情況下帶來(lái)的最大的問(wèn)題就是比較頂層的判斷或者評(píng)論,大概會(huì)帶來(lái)一個(gè)最大的問(wèn)題是什么?今天如果你把 AI 作為一個(gè)知識(shí)處理機(jī)或者知識(shí)宣講機(jī),這件事情是有一定的疑問(wèn)的。因?yàn)楫?dāng) AI 去輸出知識(shí)的時(shí)候,它輸出的是什么知識(shí),這個(gè)知識(shí)很可能是它在模型擬合的時(shí)候,非常大的概率擬合的,是全人類(lèi)在互聯(lián)網(wǎng)上這些信息的平均知識(shí)。
這些平均知識(shí),就看你需要什么了。如果你需要的只是一個(gè)日常的、非常初步的,滿(mǎn)足生活要求的知識(shí),比如水什么時(shí)候結(jié)冰,汽車(chē)什么情況下不打滑,我覺(jué)得 AI 未來(lái)可以解決得非常好,對(duì)于日常來(lái)講。但是如果你把它想放在跟教育相關(guān)的、跟人類(lèi)的知識(shí)進(jìn)步相關(guān)的事情上,這件事會(huì)有很多的問(wèn)號(hào)在里面。像我們?nèi)フ?qǐng)一個(gè)保姆給我們的孩子去一起去生活,我們覺(jué)得他可以,保姆可以幫我們孩子解決很多生活中的問(wèn)題。但是如果我們?yōu)榱撕⒆拥膶W(xué)習(xí),請(qǐng)一位老師,我們會(huì)對(duì)老師有更嚴(yán)格的要求。我覺(jué)得這件事就是我所擔(dān)心的事情。
一旦我們把 AI 當(dāng)做我們的下一代成長(zhǎng)的一個(gè)老師,這個(gè)趨勢(shì)太明顯了,比如今天基于 GPT 的 API 來(lái)去開(kāi)發(fā)各種教育工具、各種的這種知識(shí)處理工具的人,都是直接就沖上去就做了,很多事情都可以解決了。但是這種解決有可能是低層面的。
AI有兩種情況,一種情況是它去用模式匹配得到的人類(lèi)的平均知識(shí)告訴我們的小朋友,而不會(huì)讓小朋友得到一個(gè)有這種人類(lèi)嚴(yán)格挑選或者嚴(yán)格的這樣的一個(gè)邏輯,構(gòu)成的這樣一個(gè)教育體系;另一種情況是今天的 AI 還會(huì)大量的在或是人類(lèi)要求,或是它自主激活的這種叫做創(chuàng)造性的東西,這種創(chuàng)造性要打引號(hào),這種創(chuàng)造性可能在非常多的場(chǎng)合是好的,但是在一旦把我們把它用于這種知識(shí)傳承和知識(shí)教育,今天或者可見(jiàn)的未來(lái),我是看不到這種東西在替代人類(lèi)老師或者人類(lèi)這樣一個(gè)思維邏輯的一種可能性。這樣當(dāng)人類(lèi)的這種懶惰也好,或者人類(lèi)的這種叫做取巧也好,一旦進(jìn)入了教育領(lǐng)域,我不用想象,今天很多人都已經(jīng)在做了大量的把 AI 生成的東西開(kāi)始補(bǔ)充進(jìn)教育的這種內(nèi)容體系。
對(duì)學(xué)生來(lái)講,我可以用ChatGPT 來(lái)寫(xiě)作業(yè),對(duì)于老師來(lái)講,我可以用ChatGPT 來(lái)布置作業(yè),我可以省下非常多的這種思考時(shí)間。對(duì)一個(gè)老師覺(jué)得,本來(lái)老師覺(jué)得可能有一個(gè)東西我沒(méi)有講透,我可能要去通過(guò)查維基百科、以前的書(shū),我把它梳理好一個(gè)完整的知識(shí)體系,我給到學(xué)生講一個(gè)完整知識(shí)體系。但是現(xiàn)在好了,我可以用 ChatGPT 來(lái)去直接告訴學(xué)生完整的講述邏輯。但是這個(gè)講述邏輯一定是人類(lèi)平均水平的,它很難到達(dá)一個(gè)叫做人類(lèi)讓學(xué)生或者讓人類(lèi)進(jìn)步的這樣一個(gè)水平。因?yàn)橐驗(yàn)楹芎?jiǎn)單,全互聯(lián)網(wǎng)的 data 里面所謂代表這種最高水平data,它是個(gè)小概率的這種東西。未來(lái)如何讓ChatGPT擬合這種最精準(zhǔn)的data?這是 data 輸入的一方面,另一方面非常簡(jiǎn)單。你即便擬合了這樣一個(gè)比較精準(zhǔn)data, AI 仍然有不確定性,仍然有它創(chuàng)造的空間。像今天ChatGPT 有大量的這種,我告訴他某一個(gè)概念,他就開(kāi)始自由發(fā)揮這種事情,這個(gè)事情以后是非??植赖?。這個(gè)發(fā)揮你只能以后限制他、去不斷地去糾正他。但是你說(shuō)是不是可以完全杜絕他?我覺(jué)得在今天的 AI 算法的根本上不太容易。所以這是我會(huì)非常擔(dān)心。
剛才說(shuō)的,還是因?yàn)閼卸枵f(shuō)老師因?yàn)椴幌肴セ〞r(shí)間去研究一個(gè)東西。那因?yàn)槟怖蔷透膳铝恕?strong>大量的人會(huì)發(fā)現(xiàn)我在分分鐘利用 AI 不要成本地產(chǎn)出大量的垃圾內(nèi)容,灌到本來(lái)我們已經(jīng)被碎片化信息充斥的社交網(wǎng)站上。本來(lái)今天的十幾歲小朋友都在某些互社交網(wǎng)站上,天天沉浸在一些碎片化的知識(shí)里面。有一些博主隨便講一講,似是而非的為什么火箭飛那么快,為什么什么星球跟什么星球什么關(guān)系,他似是而非的講幾句話(huà)之后,可能小朋友看了熱鬧開(kāi)心就行了,他學(xué)不到更深的知識(shí)。但是未來(lái)這種事情,如果因?yàn)橹鹄?,這種事情只會(huì)越來(lái)越重,只會(huì)越來(lái)越多。大量 AI 創(chuàng)造的碎片化、不嚴(yán)謹(jǐn),甚至是故意瞎說(shuō)的知識(shí)充斥互聯(lián)網(wǎng),充斥小朋友能接觸的這種叫做信息繭房的話(huà),這個(gè)繭房就是 AI 繭房了。這個(gè)恐怖的事情對(duì)我來(lái)說(shuō),如果我有機(jī)會(huì),可能我會(huì)盡各種的努力去避免這件事情。
陳茜:對(duì),其實(shí)我覺(jué)得現(xiàn)在這件事情的趨勢(shì)已經(jīng)很明顯了。比如我們放一些長(zhǎng)視頻,有完整的邏輯來(lái)推導(dǎo)到一個(gè)過(guò)程,但是很多人看不下去。就說(shuō)兩分鐘能說(shuō)清楚的事情,為什么你要花 20 分鐘?或者你直接跟我說(shuō)結(jié)論就好了,我覺(jué)得現(xiàn)在很多人就越來(lái)越著急,大家的注意力越來(lái)越短。我覺(jué)得這個(gè)情況我還蠻擔(dān)心,會(huì)越來(lái)越糟的。
王詠剛:因?yàn)楸緛?lái)一些很有追求的老師質(zhì)疑的自媒體、科普人、那些所謂給孩子講東西的人,最重要的一點(diǎn)就是你們?cè)诔溃銈冊(cè)谥苯咏o孩子一個(gè)看上去特別甜的糖,但是你從來(lái)不告訴特別甜糖背后的所謂苦的邏輯。所謂這種復(fù)雜的邏輯。因?yàn)槟銈円ベ嵙髁?、要通過(guò)流量去賺錢(qián)。這件事今天到來(lái)了之后,他已經(jīng)沒(méi)有辦法批評(píng)誰(shuí)了,因?yàn)檫@些東西超近道的東西會(huì)充斥著網(wǎng)絡(luò),而且這超近道作者都不是人了,這件事就會(huì)很可怕。
如今,我們用搜索引擎的時(shí)候,是一個(gè)主動(dòng)尋找答案的過(guò)程,其中我們會(huì)閱讀到通向答案的邏輯、佐證、正面的反面的例子、爭(zhēng)議,以及除了答案本身之外的其它額外信息,這些信息構(gòu)建成為了我們對(duì)這個(gè)事件的知識(shí)認(rèn)知。但如果你只想或者只需要知道答案,那這些搭建起來(lái)的知識(shí)認(rèn)知可能也就不存在了。
就像剛才王詠剛老師說(shuō)的,ChatGPT最開(kāi)始沖擊的就是我們的教育體系。自去年底OpenAI開(kāi)放ChatGPT之后,Study.com的數(shù)據(jù)就顯示,美國(guó)89%的學(xué)生已經(jīng)在作業(yè)里面使用ChatGPT了,48%的學(xué)生在考試或測(cè)驗(yàn)中使用過(guò)ChatGPT,而53%的學(xué)生使用ChatGPT來(lái)寫(xiě)論文。
我沒(méi)有辦法想象,當(dāng)ChatGPT的技術(shù)更成熟更普及之后,“獲知結(jié)論”的成本快速下降、變得無(wú)比方便的時(shí)候,人類(lèi)懶惰的本性會(huì)將我們進(jìn)化到什么地方,“思考”這件事情的成本會(huì)變得有多高。
并且,ChatGPT背后的安全隱患,不僅僅在對(duì)人們的認(rèn)知建立上,以及抄襲作弊上,還有詐騙成本的迅速下降。
02 解決安全漏洞:能用AI打敗AI嗎?
我前幾天看到一個(gè)很有意思的評(píng)論說(shuō),“未來(lái)絕大部分人擔(dān)心的不是被ChatGPT 替代,而是跟不上別人使用ChatGPT的能力”。其實(shí)這不僅僅是使用ChatGPT的能力,更重要的是:使用AI的能力,識(shí)別AI的能力,以及用AI打敗AI的能力。
ChatGPT普及之后,其實(shí)最直接的危害之一就是詐騙成本的下降以及騙術(shù)的一個(gè)提升,舉個(gè)例子:在ChatGPT之前,社會(huì)上的詐騙手法就已經(jīng)很多了。郵件,短信,打電話(huà),可以說(shuō)是全方位轟炸。但是還好,一般騙子的文化程度不高,所以寫(xiě)出來(lái)的內(nèi)容還是比較容易甄別的。比如說(shuō),最近我們公司郵箱收到這樣一封自稱(chēng)來(lái)自Netflix團(tuán)隊(duì)發(fā)來(lái)的合作郵件,那么這一看就很像釣魚(yú)郵件對(duì)吧?首先,郵箱不是Netflix的公司郵箱,這種后綴一般都有問(wèn)題,其次,整個(gè)排版非常的不專(zhuān)業(yè),還有就是各種標(biāo)點(diǎn)符號(hào)、落款都不專(zhuān)業(yè)。但最容易暴露的就是表達(dá)和語(yǔ)法錯(cuò)誤,這一看就是一個(gè)英文很差的人寫(xiě)的。比如說(shuō)這句話(huà)we look forward to discuss the details with you. 我忘了是初中還是高中學(xué)的這個(gè)用法,但是,但凡有能達(dá)到英文職場(chǎng)水平的都知道,look forward to后面應(yīng)該加doing sth. 等等,通篇都是這樣的英文錯(cuò)誤。
但是,就算假成這樣,我朋友圈里已經(jīng)有一個(gè)Startup的創(chuàng)始人朋友就曬出了相似的郵件說(shuō)Netflix合作找過(guò)來(lái)了,顯然就是相信了這封郵件。所以,我們可以想象,如果ChatGPT被這些詐騙團(tuán)伙所利用,寫(xiě)出來(lái)的郵件語(yǔ)法、排版、邏輯、落款上都無(wú)懈可擊。那么毫無(wú)疑問(wèn),會(huì)有更多的人上當(dāng)受騙。
現(xiàn)在,ChatGPT上因?yàn)樵O(shè)置了規(guī)則,不能寫(xiě)直接寫(xiě)詐騙郵件。但這個(gè)規(guī)則太好繞過(guò)了,比如說(shuō),你換個(gè)方式問(wèn)它說(shuō),你給我一個(gè)詐騙郵件的例子,好讓我在未來(lái)避免受騙。誒,你看ChatGPT就給你寫(xiě)出來(lái)了,完美的標(biāo)題、完美的語(yǔ)法、排版、邏輯、還有完美的落款。
而犯罪團(tuán)伙的速度,或許比大家想象得更快,因?yàn)檫@已經(jīng)在發(fā)生了:網(wǎng)絡(luò)安全新聞網(wǎng)站GBHackers就報(bào)道,已經(jīng)有黑客通過(guò)ChatGPT生成完整的詐騙套路話(huà)術(shù),并把ChatGPT包裝成“虛擬角色”來(lái)和目標(biāo)人群對(duì)話(huà),最終讓對(duì)方遭受詐騙。而這樣的詐騙套路,從對(duì)話(huà)的生成,到對(duì)話(huà)目的,到詐騙話(huà)術(shù)都可以進(jìn)行個(gè)性化定制,并且只需要幾秒鐘就可以生成。
另外,黑客們已經(jīng)開(kāi)始使用我們前面演示過(guò)的釣魚(yú)郵件,還可以繞過(guò)OpenAI的安全限制去生成加密工具遠(yuǎn)程鎖定他人電腦,由此來(lái)進(jìn)行勒索,以及生成攻擊腳本,對(duì)網(wǎng)絡(luò)用戶(hù)進(jìn)行身份盜竊攻擊等等。
所以你們看,在ChatGPT出現(xiàn)之前,騙局已經(jīng)這么多,詐騙方式就已經(jīng)各種各樣,普通人識(shí)別真假已經(jīng)越來(lái)越難,時(shí)間成本越來(lái)越高。那么我很難想象,ChatGPT和更多的生成式AI技術(shù)就這么開(kāi)放之后,事實(shí)核查這件事情對(duì)普通人來(lái)說(shuō),要怎么去做。那么王詠剛老師說(shuō),這就要看人們是否能用AI打敗AI、來(lái)短時(shí)間內(nèi)建立一個(gè)良性生態(tài)了。
王詠剛:今天有大量的研究投入到怎么去甄別、怎么去識(shí)別 AI 的作品,怎么去識(shí)別里面它和人類(lèi)的這樣的一個(gè)創(chuàng)造之間的關(guān)系。在今天,這種生成式的 AI 仍然存在這樣的機(jī)會(huì)。
其實(shí)簡(jiǎn)單講,這個(gè)方法也非常簡(jiǎn)單。我們做這方面研究的這些科學(xué)家,其實(shí)是在用 AI 去對(duì)抗AI,就是ChatGPT,它是在訓(xùn)練一個(gè)模型,在不斷地去生成,模擬人類(lèi)輸出的內(nèi)容,人類(lèi)說(shuō)話(huà)的內(nèi)容。但是另一批科學(xué)家在不斷地訓(xùn)練成另一個(gè) AI 模型。這個(gè) AI 模型是要去不斷地去甄別說(shuō)互聯(lián)網(wǎng)上哪些內(nèi)容是由 AI 生成的,哪些內(nèi)容是人類(lèi)生成的。這件事情對(duì)未來(lái)的這種意義是非常大的。
如何保證幾件事情?如何保證 AI 生成的很多灌水內(nèi)容不去混入到高質(zhì)量的所謂的內(nèi)容社區(qū)里面?這是第一件事。第二件事反過(guò)來(lái), AI 可能未來(lái)還要保證如何保證它自己生成的大量的這種垃圾灌水內(nèi)容,不被他每一輪的學(xué)習(xí)再重復(fù)地吞進(jìn)來(lái)。這件事情也很有意思,就是 AI 原來(lái)學(xué)的是大量的人類(lèi)內(nèi)容。當(dāng)他最后學(xué)了大量的他自己造的內(nèi)容時(shí)候,他自己造內(nèi)容的這樣的一個(gè)方式,有可能就會(huì)朝一些人類(lèi)可能想象不到的地方去發(fā)展。這種發(fā)展有可能是好的,但是更大的概率是不好的。因?yàn)樗械?/strong>發(fā)展方向是平均的,這種聚焦到相對(duì)比較好的方向上,就會(huì)相對(duì)比較難。所以更大的概率是這些灌水的內(nèi)容越來(lái)越發(fā)散。在這種發(fā)散的情況下, AI 自己要去識(shí)別說(shuō)我哪些內(nèi)容是我應(yīng)該去input,應(yīng)該去放在輸入里邊的,哪些內(nèi)容是應(yīng)該作為我的輸入或者一個(gè)權(quán)重的關(guān)系,哪些內(nèi)容我應(yīng)該用更重的權(quán)重去input,哪些內(nèi)容應(yīng)該用更輕的權(quán)重去input。這些東西在 AI 理論研究的時(shí)候,嚴(yán)格地說(shuō),整個(gè)我們的科研界,我們的工程界并沒(méi)有停下來(lái)過(guò),可能就不像外面見(jiàn)到的那么熱。
剛才說(shuō)的也還只是一方面。還有更深的理論研究是很多數(shù)學(xué)家在做的,就是證明 AI 模型到底在剛才說(shuō)的它這種不確定性上,它的創(chuàng)造性上,到底它的限制在哪里,它的邊界在哪里?我們?nèi)绾斡酶玫姆椒ǎ诟暧^(guān)的角度去控制它的限制,去控制它的邊界。這是科學(xué)上,從數(shù)學(xué)理論方法上的研究。這和剛才類(lèi)似。剛才是在甄別 AI 這個(gè)東西,是在幫助 AI 說(shuō)怎么樣去更好地給出確定性的和指向性的結(jié)果、指向性的答案。比如當(dāng)Bing、Google這樣的搜索引擎,把 ChatGPT這樣的對(duì)話(huà)模式融到搜索引擎里面的時(shí)候,他們就會(huì)有意地使用跟這些研究有關(guān)的方法。
剛才說(shuō)的還是數(shù)學(xué)方法。我們還有很多工程的方法,在工程上,在 AI 的模型的上層或者下層,對(duì)接一些非我們今天的這種deep learning(深度學(xué)習(xí))的AI。比如,我覺(jué)得很典型的一個(gè)例子,今天你會(huì)發(fā)現(xiàn)誒, AI 在做一些數(shù)學(xué)問(wèn)題的時(shí)候,一些解析問(wèn)題的時(shí)候,明明人類(lèi)有一些公式,我可以通過(guò)公式,用推演的方法或者用計(jì)算的方法得到一個(gè)精確答案。
但是 AI 你會(huì)發(fā)現(xiàn),我告訴他,你讓我?guī)臀宜阋粋€(gè)什么樣的數(shù)學(xué)題,你幫我解一個(gè)什么樣的問(wèn)題。你會(huì)發(fā)現(xiàn),簡(jiǎn)單的問(wèn)題他解出來(lái)的概率非常高,但是復(fù)雜的問(wèn)題他就開(kāi)始出現(xiàn)各種小錯(cuò)誤,各種去偏移,各種去隨機(jī)性,非常有意思。這說(shuō)明 AI 在做這類(lèi)問(wèn)題的時(shí)候,它的這種不確定性是有害的,對(duì)這類(lèi)問(wèn)題是有害的。但是你讓今天的 AI 從核心地方取消這種不確定性,是不大現(xiàn)實(shí)的。
所以你會(huì)發(fā)現(xiàn),最近有一些研究和一些 paper 就會(huì)發(fā)現(xiàn),我把 AI 的一些他要完成的一個(gè)任務(wù),我把里面分解開(kāi),其中有一個(gè)任務(wù),比如是跟數(shù)學(xué)相關(guān)的,或者是跟一些解析的方法。你要求解一個(gè)巨大的方程,求解一個(gè)微積分相關(guān)的,我把導(dǎo)出到比如優(yōu)秀的這樣的一個(gè)數(shù)學(xué)系統(tǒng),比如 WolframAlpha 這樣一個(gè)系統(tǒng)里面,去讓W(xué)olframAlpha給 AI 提供在這方面的能力。
所以這是一個(gè)完全工程上的類(lèi)似拼合怪的方式,把這種 AI 的能力限制在他最擅長(zhǎng)的,比如 conversational 對(duì)話(huà)式的這種交流上,或者限制在一些可以發(fā)散的,可以做藝術(shù)創(chuàng)造的這種生成上。但是那些不能發(fā)散的東西,比如你必須準(zhǔn)確地給出 Wikipedia 的結(jié)果,你就會(huì)必須用一個(gè)query接一個(gè) search 的功能,走向下面一個(gè)vertical(垂直)的工具。如果你必須給出一個(gè)準(zhǔn)確的微積分的解,或者準(zhǔn)確地做出一個(gè)數(shù)學(xué)的圖像來(lái),你就不要自己再去發(fā)揮了,你就直接把這個(gè)東西導(dǎo)向WolframAlpha。
所以你會(huì)看到大概一周前有一篇Facebook論文,那個(gè)東西就是怎么樣去把AI的conversational的這種叫做語(yǔ)義變成一個(gè)里面對(duì)應(yīng)于某一個(gè)任務(wù),垂直到一個(gè)垂直領(lǐng)域的工具。所以這又是一個(gè)很工程化的方法,讓 AI 去在某些領(lǐng)域給出非常精確的解。
如果在近期你們發(fā)現(xiàn)有人包裝成了 AI 系統(tǒng),不管是Google的Search還是Bing的Search,里面發(fā)現(xiàn)誒,這些東西并不像ChatGPT那么發(fā)散,而且很多東西都可以給出非常精確非常好的結(jié)果。那個(gè)時(shí)候很簡(jiǎn)單的一個(gè)答案就是,那個(gè)包裝的系統(tǒng)。它已經(jīng)不是獨(dú)立由 ChatGPT這樣的所謂生成式的 AI 在承擔(dān)的任務(wù)了,而是由多個(gè)不同的子系統(tǒng)里面,包括大量人創(chuàng)建的子系統(tǒng)共同構(gòu)成的。所以簡(jiǎn)單講最近的這樣的一個(gè)近期,我覺(jué)得我們?nèi)祟?lèi)有很多方法去避免這件事,當(dāng)然需要大量的科學(xué)家、工程師的努力了。大概是這樣一個(gè)含義。
剛才王詠剛老師從數(shù)學(xué)和工程的方法上講了我們?cè)趺聪拗艭hatGPT等生成式AI帶來(lái)的不確定性,以及減少被不法分子濫用的可能,但我個(gè)人仍然還是挺悲觀(guān)的。我們?nèi)祟?lèi)能用AI能打敗AI嗎?不知道未來(lái)是不是可以,但是在現(xiàn)在的這個(gè)時(shí)間點(diǎn)上、被分享出來(lái)的AI反檢測(cè)工具,還不可以。
ChatGPT的公司OpenAI,還有一些美國(guó)的大學(xué)比如說(shuō)普林斯坦和斯坦福大學(xué)都開(kāi)放了一些檢測(cè)ChatGPT生成內(nèi)容這樣的檢測(cè)工具。但說(shuō)實(shí)話(huà),我們自己測(cè)了后發(fā)現(xiàn),不太準(zhǔn)。
先用斯坦福大學(xué)的工具DetectGPT,自稱(chēng)有95%的準(zhǔn)確率。
我先自己寫(xiě)一篇小作文,隨便寫(xiě)寫(xiě)。然后放去DetectGPT里面測(cè)一下,嗯,不錯(cuò),顯示是我自己寫(xiě)的,不是ChatGPT生成的。
之后我再在ChatGPT上分別生成了一段故事,一個(gè)定義描述,以及一個(gè)Python斐波那契數(shù)列的代碼,然后放到DetectGPT上測(cè),嗯,都檢測(cè)出來(lái)了是非??赡苡蒀hatGPT生成的。
但是,這些內(nèi)容都有點(diǎn)低級(jí),我們?cè)僭囋囈粋€(gè)偏僻一點(diǎn)的詞,比如說(shuō):武田制藥,Takeda Pharmaceutical,這是總部在日本的生物制藥企業(yè)。ChatGPT生成了解釋之后,放去斯坦福的DetectGPT上測(cè),誒,這不,就沒(méi)測(cè)出來(lái)是ChatGPT寫(xiě)的。斯坦福的這款檢測(cè)工具是針對(duì)GPT-2來(lái)開(kāi)發(fā)的,ChatGPT是基于GPT-3.5開(kāi)發(fā)的,所以GPT-2相當(dāng)于ChatGPT的前前版本了,參數(shù)要少很多,信息量也不夠、數(shù)據(jù)庫(kù)也不夠新。所以我們?cè)俜诺絆penAI自己出的檢測(cè)器AI Text Classifier上試試呢?
首先有點(diǎn)麻煩,必須要一千個(gè)字符以上才能測(cè),好吧,我讓ChatGPT再多寫(xiě)點(diǎn)。然后再放進(jìn)去... 誒,也沒(méi)有檢測(cè)出來(lái)。這就有點(diǎn)尷尬了,OpenAI你自己AI寫(xiě)的東西你自己都檢測(cè)不出來(lái)。好消息是,現(xiàn)在AI寫(xiě)的東西和人寫(xiě)的東西越來(lái)越像、越來(lái)越難以辨別,但壞消息是:用AI打敗AI,好像沒(méi)有那么容易。
當(dāng)然,可能現(xiàn)在ChatGPT檢測(cè)軟件還尚待完善,我在網(wǎng)上去看了一下其它人的測(cè)評(píng),發(fā)現(xiàn)現(xiàn)在放出來(lái)的檢測(cè)應(yīng)用準(zhǔn)確率在26%-60%之間,還非常不靠譜。所以在將來(lái),我們能否用AI打敗AI,在我這里,還是一個(gè)大問(wèn)號(hào)的?;蛟S最后,還是需要人類(lèi)自己的思辨能力,來(lái)做出最后的判斷。所以很可能在未來(lái),能使用和善于使用AI的人,和不善于使用亦或是無(wú)法使用AI的人,簡(jiǎn)單來(lái)說(shuō),在AI之上的人,以及在AI之下的人,將可能會(huì)有兩種不同的發(fā)展方向和軌跡。
我們?cè)傧氲煤暧^(guān)一點(diǎn),當(dāng)包括ChatGPT在內(nèi)的AI應(yīng)用變?yōu)橹髁鞯臅r(shí)候,勢(shì)必會(huì)替代越來(lái)越多人類(lèi)的工作,是否會(huì)進(jìn)一步的拉大不同人對(duì)認(rèn)知的獲取、教育程度、工作性質(zhì)乃至人生效率上的差距?而最后這些差距會(huì)不會(huì)演化成為一個(gè)更加分裂、貧困差距更加嚴(yán)重的世界呢?這可能是一個(gè)偏哲學(xué)、經(jīng)濟(jì)學(xué)和社會(huì)學(xué)的大問(wèn)題了,但王詠剛老師還是給了蠻有啟發(fā)的回答。
03 未來(lái)社會(huì)形態(tài):人需要工作嗎?
陳茜:最后一個(gè)問(wèn)題,剛才你說(shuō)到其實(shí) AI 以后會(huì)代替很多人的工作,對(duì)吧?現(xiàn)在其實(shí)我們已經(jīng)看到自動(dòng)化已經(jīng)代替了很多工作了?,F(xiàn)在一個(gè)假設(shè)就是人類(lèi)需要往工作的金字塔的上面走,去做更多 AI 沒(méi)有辦法替代的工作,有這么多的工作給人類(lèi)嗎?那剩下的人怎么辦?終極形態(tài)是什么樣?可能這也是一個(gè)比較大的問(wèn)題。
王詠剛:我覺(jué)得我不是特別適合回答這種問(wèn)題的,因?yàn)槲覍?duì)社會(huì)學(xué)的、經(jīng)濟(jì)學(xué)的認(rèn)知非常非常的淺,我還是非常樸素的有一些觀(guān)點(diǎn),但這種樸素的觀(guān)點(diǎn)放在社會(huì)學(xué)或者經(jīng)濟(jì)學(xué)上,大家會(huì)覺(jué)得是一個(gè)純粹的個(gè)人偏見(jiàn)或個(gè)人窄的坐井觀(guān)天式的觀(guān)點(diǎn),我長(zhǎng)期來(lái)講,我是一個(gè)純哲學(xué)意義上的悲觀(guān)主義者,我覺(jué)得長(zhǎng)遠(yuǎn)來(lái)講,人類(lèi)的這種看到非常好的前景的希望會(huì)很渺茫,對(duì)這是長(zhǎng)期來(lái)講。
但是短期來(lái)講,我倒覺(jué)得人類(lèi)工作這件事未必是一件人人都有工作這件事,未必是一個(gè)從樸素的觀(guān)點(diǎn)來(lái)講,未必是一個(gè)非常好的社會(huì)結(jié)構(gòu)。我隨便說(shuō)一個(gè)道理,就是如果今天你在中國(guó)看到的一些現(xiàn)象,到底是好現(xiàn)象還是壞現(xiàn)象,我覺(jué)得是可以?xún)蛇呎f(shuō)的。中國(guó)大量的青年,當(dāng)他們?cè)跊](méi)有接受到一個(gè)足夠好的教育的情況下,而且他是在整個(gè)教育體系的資源配置上,他就沒(méi)有辦法接受到一個(gè)做好教育情況下,進(jìn)到了我隨便說(shuō)生產(chǎn)手機(jī)的工廠(chǎng)。這個(gè)工廠(chǎng)里面,我親自在生產(chǎn)最好的手機(jī)的工廠(chǎng)里面,每一個(gè)工位當(dāng)時(shí)為了研究 AI 和這種叫做生產(chǎn)工業(yè)制造的結(jié)合,我每一個(gè)工位每一個(gè)工位都親自地去看過(guò)一遍,跟幾乎每一個(gè)工位的工人都聊過(guò)。
我簡(jiǎn)單結(jié)論,那些工作不是人該干的。那些工作就是一個(gè)人在那邊,可能比如貼一個(gè)大概小米粒這么大的一個(gè)小貼片,可能是一個(gè)防靜電貼片,或者一個(gè)防漏水貼片,往手機(jī)上貼片。他每天就重復(fù)這一個(gè)動(dòng)作,大概一兩秒做一次,到一兩秒做一次,每天做 10 個(gè)小時(shí),中間每?jī)蓚€(gè)小時(shí)休息 10 分鐘。就這樣一個(gè)工作,你讓我坐在那坐半個(gè)小時(shí),我可能眼睛就瞎了。但是很多年輕人就為了大概一個(gè)月幾千塊錢(qián)工資,就在常年的在干著這樣的工作。
如果我說(shuō)AI,可惜今天還很反諷,今天的 AI 反而不適合替代這樣的工作。今天的 AI 反而更適合替代一些文秘所謂的這種叫做剛才說(shuō)的數(shù)據(jù)報(bào)表,這些所謂辦公室的初級(jí)白領(lǐng)的工作,今天AI反而不適合做,這些藍(lán)領(lǐng)的工作,還做不來(lái)。今天你讓 ChatGPT去做工廠(chǎng)上去做生產(chǎn)線(xiàn)裝備,它還做不來(lái)。但是我覺(jué)得如果 AI 今天能把這些叫做非人道的,讓這些人在這種不是這種人該干的工作里面,能夠解放出大量的人來(lái),我反而會(huì)為AI叫好。
至于從社會(huì)學(xué)、經(jīng)濟(jì)學(xué)角度,這些人失業(yè)了,該去怎么分配,該去怎么怎么保障他們的這樣的一些權(quán)益,我覺(jué)得我總覺(jué)得一定有辦法,但我不是這方面專(zhuān)家,我只是看到這些相對(duì)來(lái)說(shuō)不人性的東西,我總覺(jué)得這件事大家是應(yīng)該做的。你像大家看到在非洲看到非常多的貧困,在非洲看到很多的不平等,大家一定會(huì)覺(jué)得我們需要通過(guò)什么東西改變,但是很多年我們也沒(méi)有真正改變太多,所以人類(lèi)就是一個(gè)很矛盾的社會(huì)。我在這方面確實(shí)有一點(diǎn)點(diǎn)那種感覺(jué),就無(wú)能為力的感覺(jué)。
這期和王詠剛老師聊得非常有收獲,但有收獲的同時(shí),我個(gè)人其實(shí)是對(duì)人類(lèi)的未來(lái)發(fā)展稍稍的有一丟丟更加悲觀(guān)了。大家可以有不同想法,歡迎留言告訴我們,歡迎探討。
我看到的是,ChatGPT只是AI中的一種應(yīng)用,只是文本生成,同時(shí)我們還看到更多人工智能生成的技術(shù)已經(jīng)在業(yè)界開(kāi)始被廣泛使用,包括音頻生成,圖像生成,視頻生成,還有跨模態(tài)生成等等。這些技術(shù)的成熟化必定能大幅度提高人類(lèi)在很多領(lǐng)域的效率,這是毋庸置疑的。但同時(shí),要知道的是,這些技術(shù)也能賦能很多不法分子降低作惡成本,提高犯罪效率。
ChatGPT的例子我前面已經(jīng)舉了不少了,這里我再舉兩個(gè)除了ChatGPT之外的生成式人工智能的例子。一個(gè)是語(yǔ)音生成。確實(shí),如果現(xiàn)在有朋友在微信中找我借錢(qián),我都一定會(huì)跟對(duì)方視頻或者通電話(huà)確認(rèn)。但如果未來(lái),AI可以被用來(lái)生成偽造的聲音或者偽造的親人朋友視頻,對(duì)于老人來(lái)說(shuō),將是多么可怕的一天。
那么再來(lái)說(shuō)一個(gè)例子是視頻生成的。AI換臉這樣的deepfake深偽技術(shù)是一個(gè)很直接的例子??赡墁F(xiàn)在大家看到的AI換臉還比較生硬,包括之前流傳很廣的Meta創(chuàng)始人扎克伯格的AI合成視頻也稍顯僵硬、聲音也不夠自然,但是要知道,AI視頻生成是可以非常非常自然的。
我在斯坦福讀研究生的時(shí)候有上過(guò)一門(mén)課,是我們新聞學(xué)院和計(jì)算機(jī)學(xué)院共同推出的,叫做computational journalism,專(zhuān)門(mén)研究技術(shù)還有新聞信息的結(jié)合,其中的一堂課上,教授給我們展示了斯坦福當(dāng)時(shí)正在研究的一個(gè)AI項(xiàng)目,就是說(shuō)把人工智能技術(shù),通過(guò)學(xué)習(xí)一段人類(lèi)說(shuō)話(huà)的視頻素材,然后可以生成新的視頻。也就是說(shuō),這項(xiàng)技術(shù),可以把我本人在我們這個(gè)視頻里面說(shuō)所有字,都重新排列組合,可以生成出一段我從來(lái)沒(méi)有說(shuō)過(guò)的話(huà),從來(lái)沒(méi)有表達(dá)過(guò)的意思,并且我的聲音,嘴型還有表情都能夠調(diào)整和生成得非常非常自然,人眼是根本識(shí)別不出來(lái)的。
在那節(jié)課上,當(dāng)教授演示了demo之后,整個(gè)課堂瞬間就吵開(kāi)了,分成了兩派,我們新聞學(xué)院的同學(xué)覺(jué)得這個(gè)技術(shù)簡(jiǎn)直太危險(xiǎn)了,雖然技術(shù)本身是能讓視頻剪輯變得更簡(jiǎn)單,避免跳幀jump cut,也能幫助剪輯師更快地去找到素材,彌補(bǔ)一些拍攝時(shí)的遺憾,或者能夠幫助一些自認(rèn)為表達(dá)能力不強(qiáng)的人更好的呈現(xiàn)出完美演講的視頻。但是這個(gè)技術(shù)帶來(lái)的危害性顯然是很可怕的:任何人都可以被污蔑說(shuō)了他沒(méi)有說(shuō)過(guò)的話(huà),這些合成視頻也可以被用于去詐騙、威脅和勒索。但是在課堂上,大部分工程學(xué)院的學(xué)生覺(jué)得這個(gè)技術(shù)其實(shí)沒(méi)有那么糟糕,技術(shù)本身是中性是無(wú)辜的,造成問(wèn)題的是人們?nèi)绾稳ナ褂盟?,以及我們是否有方式去監(jiān)測(cè)它還有監(jiān)管它。
這門(mén)課我是在2019年上的,現(xiàn)在2023年。過(guò)去的四年中,生成式人工智能快速發(fā)展,已經(jīng)從學(xué)校和公司的研發(fā)demo來(lái)到了我們身邊。似乎,無(wú)論我們多么害怕一個(gè)技術(shù),似乎都無(wú)法阻止這個(gè)技術(shù)的到來(lái)。我們有多期待這個(gè)技術(shù)帶來(lái)正面的推動(dòng),就有多擔(dān)心負(fù)面影響的出現(xiàn)。但現(xiàn)在確實(shí)到了一個(gè)時(shí)間點(diǎn),我們應(yīng)該對(duì)生成式AI有更多關(guān)于法律和道德上的討論和跟進(jìn)。無(wú)論是法律監(jiān)管,還是安全技術(shù),還是我們的個(gè)人能力,都需要為新技術(shù)即將帶來(lái)的巨大破壞做好準(zhǔn)備。
而對(duì)于人類(lèi)個(gè)人而言,我們將如何辨別所看到、所聽(tīng)到的事物的真?zhèn)危瑢?huì)對(duì)每個(gè)人都有更高的思辨要求。然而,人類(lèi)在逐漸依賴(lài)ChatGPT的時(shí)代當(dāng)中,是否能夠有更高的思辨能力呢?會(huì)不會(huì)有一天,人類(lèi)會(huì)選擇不相信所看到的所有的東西,徹底迷失在真假難辨中呢?這是一個(gè)大問(wèn)號(hào),我們只能交給時(shí)間來(lái)驗(yàn)證了。