認(rèn)知ChatGPT的過程就是消除偏見的過程
近期花了一些時(shí)間繼續(xù)學(xué)習(xí) ChatGPT,體會到了認(rèn)知 ChatGPT 的整個(gè)過程,,就是在消除我自己偏見的過程,。其中存在大量信息不對稱的地方。哪怕關(guān)于 ChatGPT 的討論這么多了,,噪音里面有價(jià)值的信息也并不總是好找,。
接下來就分享一些觀點(diǎn)。
1. 重點(diǎn)并不是「聊天機(jī)器人」首先,,對于?ChatGPT?來說,,它帶來的大家提到的?AI?的革命性進(jìn)展,壓根不是做出了好用的?chatbot,,或者說聊天機(jī)器人,。
換句話說,它并不意味著,,我們的生活和工作里并不會有太大變化,,主要的變化就是多了一個(gè)聊天機(jī)器人。如果按照這個(gè)前提條件去聊,,它看起來就不是革命性的,。
要真如此的話,憑什么說它是 iPhone 時(shí)刻,?
真實(shí)情況是,,聊天只是 OpenAI 做的一個(gè)演示,用它來做 demo,,讓大家很好的看到了 GPT 這個(gè)模型的威力,。在這個(gè)威力之外,大家還是只覺得它是聊天機(jī)器人,,這就是一個(gè)啼笑皆非的事了,。
當(dāng)然,我們都知道,,這個(gè)聊天機(jī)器人是 OpenAI 團(tuán)隊(duì)用來獲取真實(shí)世界對話的方法,,用它來繼續(xù)迭代訓(xùn)練模型,來強(qiáng)化學(xué)習(xí)的 RLHF 的一個(gè)方法,。選擇開放給用戶的這條路線,,看起來好像常見,或者說之前也見過,,但實(shí)際上在科研領(lǐng)域這是一個(gè)非常歪門邪道,、一個(gè)非常不主流的方式,。
之前不管是企業(yè)還是高校,以前大家做這方面的研究,,不管是大模型還是 AI 方面的研究,,都是用做題家的思路,就是用各種學(xué)術(shù)界的評測,,如 20 個(gè)專家標(biāo)注的確定性的 QA 問答題來完成,。都是命題作文。
但現(xiàn)在 OpenAI 說,,我不參加這些考試,,我不參加這做題,我也不去跟你比論文數(shù),,就是把模型扔到人民群眾的汪洋大海里去,。
現(xiàn)實(shí)就是,很會寫高考作文,,和很會跟人聊天,,確實(shí)是兩碼事,。所以使用 ChatGPT 的時(shí)候有很多方式就不對,,比如我自己作為一個(gè)可能稍微了解 NLP 的,或者了解產(chǎn)品,、技術(shù)實(shí)現(xiàn)邏輯的,,我就會去想:這個(gè)是不是難為他了?這個(gè)他肯定不會吧,?我就不問了,。
當(dāng)知道他是個(gè)機(jī)器,就容易擔(dān)心給的前提條件不夠,。它胡說八道,,給一些錯(cuò)誤的答案,我是有奇怪的愧疚感的,。所以就潛意識里特別照顧它,,把問題表述得格外完整才問出來。
這樣結(jié)果就是不夠真實(shí),。包括我做 NLP 的一些老同學(xué),,他們也會帶著很多假設(shè)和前提條件去問,他們問的都不是正常人聊天會問的,。而現(xiàn)在用 ChatGPT 的大部分的人不是產(chǎn)品或者技術(shù)背景,,并不知道背后的原理,所以問出來的就更真實(shí),。OpenAI 最初也是用格外真實(shí)的語料去做訓(xùn)練,,所以能訓(xùn)練出來 ChatGPT 的效果,。
2.很多當(dāng)下的問題,都是技術(shù)性問題認(rèn)知的另一個(gè)偏差是,,它就是一個(gè)終態(tài)了,。于是會認(rèn)為它的很多問題,代表它不智能,。
比如說 ChatGPT 搜的信息不準(zhǔn)確,,以及胡說八道。很多朋友都會這么覺得,,問了幾個(gè)問題,,發(fā)現(xiàn)不對,就認(rèn)為 ChatGPT 沒有什么大家說的那么的有價(jià)值,。
對于信息準(zhǔn)確性的問題其實(shí)是好解決的,,而且必然會解決。因?yàn)楝F(xiàn)在使用的模型,,并不是在一句一句的學(xué),,不是像某些人想象的一樣,在跟每個(gè)人溝通的時(shí)候來現(xiàn)學(xué)現(xiàn)賣(當(dāng)然在聊上下文的時(shí)候,,它會考慮上下文,,這個(gè)可以定義為短時(shí)的學(xué)習(xí))。背后所用的大模型,,實(shí)際是一個(gè)用 2021 年的語料訓(xùn)練的固定的模型,,這個(gè)底層的模型是沒有實(shí)時(shí)進(jìn)化能力的。
那為什么信息準(zhǔn)確這個(gè)問題好解決,?這個(gè)后面一起說,。
另外一種常見說法是,ChatGPT 既然是一個(gè)生成式的工具,,所以應(yīng)該是能幫助甚至替代內(nèi)容創(chuàng)作者的,。目前看起來,這方面的水平有限,。有可能幫忙寫個(gè)周報(bào),,幫忙潤色一下文字,幫忙寫個(gè)小紅書筆記等等,,哪怕這種簡單的工作,,大家也發(fā)覺了,寫出來的 AI 感非常強(qiáng),、并不是很擅長用人的語氣表達(dá),,能明顯感覺到他整個(gè)表述的方式是有一種奇奇怪怪的感覺,這種感覺就讓人心懷疑慮:這個(gè)所謂的 AI,不也模仿不了人的語氣嗎,?你看,,人類還是有一些所謂「靈魂」的部分存在的,AI 寫內(nèi)容,,就是沒有靈魂,。
而很殘酷的是,我也認(rèn)為,,內(nèi)容創(chuàng)作的風(fēng)格和語氣也不是大問題,,依然是個(gè)技術(shù)性問題,因?yàn)?AI 最擅長的就是模仿,,對于文本的模仿反而是相對來說容易的,。只不過一方面,因?yàn)?ChatGPT 是基于英文語料主要訓(xùn)練的(中文語料只有 1% 左右),,所以在中文的表達(dá)上會有比較大的問題,,翻譯體很明顯。
另外就是?ChatGPT?本身就被刻意訓(xùn)練了,。它目前這樣的語氣和表達(dá)風(fēng)格,,是訓(xùn)練出來的,不是 AI 天然就是這樣的,。因此說這是個(gè)技術(shù)性的問題,。比如說之前 AI 繪圖剛出來的時(shí)候,大家當(dāng)然就習(xí)慣性基于當(dāng)時(shí)的版本去考察,,說 AI 能畫成這樣還不錯(cuò),,但是 AI 畫的圖還都有 AI 感,。這個(gè)所謂的 AI 感大概意思就是光影的問題,、細(xì)節(jié)的問題(比如畫手),這個(gè) AI 感在 Midjourney v5 里消除得差不多了,。因?yàn)檫@就是個(gè)可訓(xùn)練的技術(shù)性問題,。
(這是我用 Midjourney 畫的愛因斯坦和霍金,歷史上不存在這兩張照片)
所以 ChatGPT 信息準(zhǔn)確度的問題,,內(nèi)容表達(dá)和語氣的問題,,人格的問題,都是技術(shù)問題,??赡芫蜁信笥褑柫耍悄阏f都是技術(shù)問題,,那 AI 發(fā)展了這么多年了,,可不是每個(gè)都是技術(shù)問題嗎?為什么 ChatGPT 就不一樣呢?
3. 重要的是「理解和推理」ChatGPT 最特殊的地方,,是揭示了一種可能性,,即 AI 可以呈現(xiàn)理解和推理能力了。這是過去大半個(gè)世紀(jì)的學(xué)者們所一直追求,,而不可得的,。
這里要簡單說一下 GPT 背后的邏輯。首先語言模型是很早就有的,, 10 年前我讀研的時(shí)候,,如果學(xué) NLP,你翻開教材的第一頁可能就能看到語言模型,,就跟學(xué)高等數(shù)學(xué)第一課都是先學(xué)函數(shù)一樣,,不是什么新鮮的、現(xiàn)在才發(fā)明出來的成果,。
為什么作為一個(gè)語言模型,,大家這么驚奇?并非由于它可以對話了,、能寫所謂一碗水端平的片兒湯文章了,,更不是能獲取什么信息和知識,而是在這個(gè)大語言模型當(dāng)中體現(xiàn)了推理,。
體現(xiàn)了推理是一個(gè)事實(shí)論述,。說到這里,必然會有一些朋友,,援引很多人包括知名學(xué)者的說法來反駁,,說語言模型只是統(tǒng)計(jì)的模型,因此不能稱之為理解和推理,。
這里也不妨多說幾句大語言模型的邏輯,。最基礎(chǔ)的很簡單,依據(jù)上文,,預(yù)測下一個(gè)詞,。過去能力不足,是根據(jù)一兩個(gè)詞預(yù)測下一個(gè)詞,,后來出現(xiàn)了更多的算法和更好的硬件,,于是可以預(yù)測更多的上下文了。像現(xiàn)在 ChatGPT 就能依據(jù)幾千個(gè)字符去做預(yù)測,,這歸功于有如神助的 Transformer 算法,。
但是,大語言模型依然還是一個(gè)猜詞游戲,,是統(tǒng)計(jì)意義上的一個(gè)算法,,它沒有別的復(fù)雜思考,就是從海量的記憶(模型)里,搜尋出最有可能出現(xiàn)的下一個(gè)詞,。
所以很自然,,聽起來,無論誰都會覺得,,這種統(tǒng)計(jì)邏輯的語言模型,,恐怕只能解決記憶問題,不能解決邏輯問題,。就像我們讀了很多書籍,、文獻(xiàn)、維基百科,、百度百科等等各種知識,。那接下來我們能做的是什么?很明確的,,可能做一個(gè)好翻譯,,或者能寫一篇像模像樣的文章,但是搞別的應(yīng)該是不行的,。畢竟是個(gè)復(fù)讀機(jī)嘛,,是個(gè)「模糊的印象」(a Blurry JPEG of the Web)嘛(這是科幻作家?Ted Chiang 對 ChatGPT 的評價(jià),已經(jīng)被更多人認(rèn)為是偏見了),。
不管怎么去想象這個(gè)算法邏輯,,我們都很難想象只是記憶,就能產(chǎn)生邏輯,。這在 2022 年之前都是天方夜譚,,而 2022 年底過后,ChatGPT 讓這變成了一個(gè)可能性,。
為什么 ChatGPT 在一個(gè)詞兒一個(gè)詞兒蹦的時(shí)候就呈現(xiàn)了邏輯,?這依然是個(gè)科學(xué)上的未解之謎,以及都在爭論不休的話題,。畢竟我們想象中,,一段有邏輯的文字,應(yīng)該是先設(shè)定主題,,再想框架和段落,再去落筆的,。
這里要特別補(bǔ)充一點(diǎn):表現(xiàn)出了推理和邏輯能力,,與本質(zhì)上有沒有推理和邏輯能力,是兩碼事,。前者是個(gè)事實(shí)問題,,已經(jīng)可以說是公認(rèn)了,從原理上反駁意義不大,用過即知,;后者則是個(gè)哲學(xué)問題,,還在爭論之中。
什么叫有邏輯能力很早就是學(xué)術(shù)界有爭議的話題,,從控制論出現(xiàn)就在討論「看起來的智能是不是智能」的問題了,。同時(shí),人腦運(yùn)作的很多原理目前尚不清楚,,如何產(chǎn)生的邏輯推理,,也不清晰。
很奇妙的是,,在目前的模型中,,「think step by step」是一個(gè)很好用的咒語,跟人的思考是很像的,,機(jī)器只要不是直接給結(jié)果,,而是多想幾步,就能呈現(xiàn)非常好的效果,。
這些都是題外話了,。實(shí)際上對產(chǎn)學(xué)研而言最驚訝和最興奮的,不是討論本質(zhì)上有沒有推理和邏輯能力,,而是表現(xiàn)上有沒有,。
4. 通往通用人工智能之路
OpenAI?在這個(gè)大語言模型上做了什么,把 GPT 以及 ChatGPT 做出來的,?其實(shí)沒做太多算法上的,、底層規(guī)則上的很復(fù)雜的事情。而是用很工程的手段,,甚至堪稱暴力的手段去訓(xùn)練,,然后反復(fù)地調(diào)試。
所以一個(gè)非常古老的,、已經(jīng)長滿了青苔的語言模型,,居然可以實(shí)現(xiàn)有推理能力的高水準(zhǔn)的 AI,非常叫人意外,。追求 AGI 的路,,從 1956 年達(dá)特茅斯會議實(shí)際已經(jīng)啟航了,明斯基,、麥卡錫,、司馬賀、紐厄爾這些人工智能的創(chuàng)始人,,本來預(yù)期是十年二十年就實(shí)現(xiàn)的夢想,,花了大半個(gè)世紀(jì),,依然進(jìn)展不大。
學(xué)者們最開始想的,,跟大多數(shù)人想象的 AI 必須先學(xué)的一步是類似的,,就是學(xué)習(xí)推理。他們被稱為符號派,,就是把世間萬物的所有的邏輯和知識抽象出來,,把它們變成形式語言,像數(shù)學(xué)題一樣可以計(jì)算與推演,,一生萬物,,不就是智能嗎?這條路一度是人工智能的主流派系,,一直到 20-30 年后,,嘗試了各種各樣的方向,發(fā)覺全都被堵死了,。
接下來就是統(tǒng)計(jì)學(xué)習(xí)和深度學(xué)習(xí)的時(shí)代,,就是讓機(jī)器去自我消化數(shù)據(jù),它就能解決問題,。這時(shí)候的學(xué)者們更落地,、更實(shí)在了,不關(guān)心 AGI,,而是關(guān)心垂直課題了,,比如說人臉識別、自動駕駛,、下圍棋和玩游戲等等,,這些似乎都是做的還不錯(cuò)的。語言模型也在其中,,大家認(rèn)為它能解決一些問題(谷歌翻譯和百度翻譯就是語言模型的邏輯),,顯然不能解決一切問題。
而 ChatGPT 的啟示,,就像說有一個(gè)田徑隊(duì),,短跑、長跑,、接力跑,、馬拉松等等運(yùn)動,有不同的教練去用不同的方法訓(xùn)練,,畢竟是不同的課題,。但是今天,有一個(gè)教練,,用了全新的方法訓(xùn)練了一個(gè)隊(duì)員,,發(fā)現(xiàn)這隊(duì)員跑啥都行,接力跑,、長跑,、短跑都能拿好的名次,甚至跑去試了試扔鉛球也是前幾名,,扔標(biāo)槍也是前幾名,,跳鞍馬也是前幾名,他不一定都能拿到第一,,但這個(gè)效果大家非常驚訝,。
還是前文說的,有邏輯,、能從信息中發(fā)掘知識,,并不是個(gè)值得爭論的問題,它是個(gè)事實(shí),。很多學(xué)者花了很多年研究,,怎樣讓機(jī)器識別詞性(形容詞、動詞,、名詞等),,這是個(gè)專有課題,而詞性標(biāo)注的效果,,ChatGPT 也完成得很好,。類似的課題,非常大量,。用三體的話說,,說許多學(xué)者、博士們還在研究的?NLP 的中間課題不存在了?,,一點(diǎn)兒也不為過,。哪怕不提這些研究課題,注冊使用下 GPT-4,,你肯定也會有體感,,這種體感是不會說謊的。
那么 AI 有了邏輯和理解能力,,能做什么呢,?能做太多了。
前面說的技術(shù)性的問題,,反而可以交給一些基于規(guī)則的產(chǎn)品解決,。例如,?ChatGPT 自己可能信息不全,,但它能比很多人更好地查到所要的信息,,而不只是把網(wǎng)頁排個(gè)序,;ChatGPT 自己可能不會寫很厲害的文章,但經(jīng)過一個(gè)熟練的寫手訓(xùn)練之后,,確實(shí)能理解你想要什么,,就能變成一個(gè)有固定文風(fēng)的寫手;原生的 ChatGPT 可能完全不知道怎么使用 Word,,但是讓它看大量的人是怎么使用的,,很快也就能學(xué)會了。
這才是 ChatGPT 最不一樣的地方:它比之前所有的 AI 都更像一個(gè) AI,。當(dāng) AI 這個(gè)詞在 1956 年出現(xiàn)的時(shí)候,,大家想象的是一個(gè)智能的東西,而現(xiàn)在,,它真的出現(xiàn)了,,至少有了真正智能的可能性。這一點(diǎn)在學(xué)術(shù)圈和科研領(lǐng)域最早引起了轟動,,可能比普通用戶的震驚程度還要大,。
之前是大家看不到通往通用人工智能的路的,所以 ChatGPT 的意義不是聊天機(jī)器人本身,,而是這個(gè)新的范式,,揭示了一種全新的可能性。未必是唯一的可能性,,但確實(shí)是一種可能性,。過去從來沒有過的可能性。
4. 繼續(xù)推演未來接下來可能會發(fā)生什么呢,?我觀察和思考到了 7 個(gè)方面,,分享一下。
第一:不光 AI 的企業(yè)都得投入大模型,,而且很快會進(jìn)入工程上的軍備競賽,。
這里跟很多朋友想的不一樣,大模型不是比參數(shù)量,。如果去搜參數(shù)量的模型,,快手還官方自豪地發(fā)布過一個(gè)有萬億參數(shù)量的模型,當(dāng)然跟 GPT-3 也沒法比,。
同時(shí),,也不是單純比數(shù)據(jù)多少。數(shù)據(jù)確實(shí)是一個(gè)壁壘,,但是還有一個(gè)更加核心的競爭力,,即調(diào)試工程。比如對于百度,,之前做的文心大模型,,底層數(shù)據(jù)量真的不比 OpenAI 的少,,或者很有肯跟底層的模型都不一定比 GPT-3 的質(zhì)量差。只是完全沒有采用 ChatGPT 的方法訓(xùn)練(InstructGPT),,也就是怎么激發(fā),。激發(fā)也是非常玄學(xué)和魔幻,,OpenAI 有一個(gè)人數(shù)不小的工程團(tuán)隊(duì),,專門通過語料和代碼,做激發(fā)和調(diào)試,,讓它變得更智能,。
這可以說是最后畫龍點(diǎn)睛的一步。就像說有一個(gè)天分特好的小孩,,需要調(diào)教,,而如何調(diào)教是不存在一個(gè)很確定性的方法論的,調(diào)教本身也是個(gè)黑盒,,有很多坑每個(gè)團(tuán)隊(duì)都得慢慢趟,、反復(fù)試錯(cuò)。
從 GPT-3 這個(gè)底層模型的出現(xiàn),,到 ChatGPT ,,其實(shí)花了很多的工夫,在這個(gè)過程中,,工程比研究要重要得多,。學(xué)術(shù)研究它提供的是方法,但是 ChatGPT 背后并沒有新的方法,,更重要的還是工程團(tuán)隊(duì)用了一些所謂的比較 tricky 的方法,。所以 OpenAI 公開了底層的算法和邏輯,并沒有公開 ChatGPT 的源代碼,。對于百度來說,,花了一兩個(gè)月重新開始調(diào)教,效果肯定跟 ChatGPT 是沒法比的,。百度和國內(nèi)其它家面臨的大多也是調(diào)教的問題,,想要砸錢訓(xùn)練出來一個(gè)底層的 GPT-3 的模型不是難點(diǎn),InstructGPT 才是,。
第二,,如何調(diào)教,會直接影響 AI 成為什么樣的 AI,。
并不是說各種不同的團(tuán)隊(duì)去激發(fā)大語言模型,,最后激發(fā)出來的效果殊途同歸、一定是一個(gè)東西,。很多沒有了解技術(shù)細(xì)節(jié)的朋友總覺得 ChatGPT 很蠢,,因?yàn)榭偸且煌胨似?、按格式來寫命題作文,這個(gè)是刻意調(diào)教的結(jié)果,。為的是獲取最大公約數(shù)的用戶,,不要出現(xiàn)任何政治錯(cuò)誤的問題、偏見的問題,。
想要真的調(diào)教一個(gè)極端分子,、調(diào)教一個(gè)特別溫柔心理咨詢師,甚至調(diào)教一個(gè)詩人,,原則上都是可以的,,就看怎么調(diào)。
一種說法是,,目前的 OpenAI 用了 6 萬多條語料就調(diào)出來了 ChatGPT,。那用別的語料、用更多的語料,,會發(fā)生什么,?可以預(yù)見的是,未來各種各樣的人格都會調(diào)出來,,不同團(tuán)隊(duì)做的 AI 風(fēng)格各異,,跟人與人的區(qū)別一樣。
因此,,ChatGPT 并不是,,有一個(gè)團(tuán)隊(duì)花了很多年種出來了一個(gè)品種的蘋果,這個(gè)品種的蘋果叫 ChatGPT,,你吃了一口這個(gè)蘋果說太酸了,,扔了。就認(rèn)為這件事沒有價(jià)值,。
這個(gè)叫 ChatGPT 的蘋果是重要的,,但更重要的是,發(fā)現(xiàn)了一片叫大語言模型的土地,,可以種各種 AI 的水果,,不光有蘋果,還有梨子,、菠蘿,、葡萄等等,有大量的可能性,。這是一定會發(fā)生的?,F(xiàn)在很多團(tuán)隊(duì)去追逐的,并不是要做同一個(gè)品種的、酸甜度一模一樣的叫 ChatGPT 度蘋果出來,,而是都看到了這里面做其它水果的價(jià)值,。
第三, ChatGPT 的這個(gè)范式是可靠的,,那很多技術(shù)性的問題解決就只是時(shí)間問題,。
這是在回應(yīng)前面說的問題。只要這個(gè)范式是可靠的,,很多技術(shù)性的問題無非就是加算力,、加數(shù)據(jù)以及有耐心地調(diào)教。
早在 1956 年塞謬爾就做過一個(gè)跳棋程序,,在當(dāng)年已經(jīng)能下贏很多專業(yè)選手了,,那時(shí)很多科學(xué)家就意識到,未來機(jī)器能在棋類游戲中下贏人類,,只是個(gè)時(shí)間問題(包括在讀大學(xué)的陸奇,就有這個(gè)洞察了),。到了 1997 年,,深藍(lán)下贏了國際象棋大師, 到了 2016 年 AlphaGo 下贏了圍棋世界冠軍,,如今的很多游戲 AI,,DOTA2、星級爭霸 2 的 AI 也都可以下贏很多頂級的選手,。在范式不變且可靠的前提下,,學(xué)會下棋就是個(gè)技術(shù)性問題,也就意味著是個(gè)時(shí)間問題,。
對有邏輯能力的大模型來說,,前文說過的信息準(zhǔn)確度的問題,都未必在內(nèi)部解決,。ChatGPT 也可以跟訓(xùn)練有素的有數(shù)學(xué)知識的產(chǎn)品合作,。就像一個(gè)聰明小孩,不懂?dāng)?shù)學(xué)但是足夠聰明,,那可以配個(gè)小伙伴,,這個(gè)小伙伴不是很聰明,但上過奧數(shù)班,,倆人一搭配,,問題就解決了。這不是假想,。
知名的計(jì)算智能引擎產(chǎn)品 Wolframe 就跟 ChatGPT 合作了,,可以在補(bǔ)充了更準(zhǔn)確的知識和規(guī)則的前提下,解決大量的問題,比如化學(xué),、數(shù)學(xué),、物理、地理,、幾何,、歷史、材料,、工程等等,。
(來源:ChatGPT Gets Its “Wolfram Superpowers”!)
第四,解決各種問題的速度,,或者說滿足各種需求的速度,,可能是指數(shù)級的。
這個(gè)是很感性的判斷,,確實(shí)沒有很有說服力的論據(jù)?,F(xiàn)在大家也都不知道多長時(shí)間會發(fā)生什么事情。不過大概率它的發(fā)展速度不會是線性的,,因?yàn)槿四X的學(xué)習(xí)是緩慢的,,畢竟神經(jīng)元信號傳遞存在速度限制、神經(jīng)元的數(shù)量和規(guī)模有整體的限制的,。但計(jì)算機(jī)不一樣,,就像一個(gè)人腦不行,那可以連接 10 個(gè)人腦,。10 個(gè)愛因斯坦的腦袋連起來,,它是不是乘以 10 不一定,但的進(jìn)化速度肯定比生物進(jìn)化要快得多,。
ChatGPT 的成功會讓已經(jīng)在過去領(lǐng)域里卷到疲倦的大廠,,紛紛進(jìn)入軍備競賽,這也會加速這個(gè)進(jìn)程,。另外,,對于很多場景來說,讓產(chǎn)品對接大模型,,是不復(fù)雜的,,ChatGPT 作為中間層很合適,主要負(fù)責(zé)解釋和推理,,并不用每個(gè)場景都再訓(xùn)練一遍(未來難說會不會各種場景都有自己的大模型),。從 Office 和 Adobe 這么快的跟進(jìn)也可見一斑。
這里就有一個(gè)很殘酷的現(xiàn)實(shí),,就是業(yè)務(wù)融合 AI 模塊之后,,每個(gè)打工人在用 AI 的這個(gè)過程,,就是在加速淘汰自己的過程。
第五,,調(diào)試工程師會變成很值錢的崗位,。
這個(gè)好理解,對于大模型來說,,可解釋性非常差,,換句話說,可控性很差,。前面也說了,,它是非常巨大的黑盒,只能通過調(diào)教,、不能通過指揮,,不能指哪打哪,說這個(gè)問題回答得不好,,下次必須這么這么回答——沒法這么去訓(xùn)練它,。所以調(diào)教就顯得特別重要了,調(diào)試工程師就會變得越來越值錢,。
不過調(diào)試工程師到底具備什么樣的能力,?了解場景,還是了解代碼,?這個(gè)不大清楚。這是個(gè)全新的崗位,,大家都在探索,。
第六,失業(yè)問題,。
可惜的是,,值錢的崗位未來不會特別多,但不值錢的崗位會變得越來越多,。
失業(yè)問題很有意思,,之前 OpenAI 自己官方下場寫了一篇報(bào)告,具體內(nèi)容就不展開說了,,只說最后的幾個(gè)結(jié)論:
第一,,80% 的人受影響,會有 10% 的工作內(nèi)容受 LLM 影響(受影響的定義是同等質(zhì)量的工作成果,,降低 50% 的工作時(shí)間),,19%的人「大受影響」,即會有至少 50% 的工作內(nèi)容受 LLM 影響,。
第二,,薪資越高的人越容易受影響。受過良好教育的、有豐富工作經(jīng)驗(yàn)的,、高薪的職業(yè),,被影響的概率是偏大的。
第三,,有一個(gè)影響程度排行榜,,其實(shí)就是高危列表。里面高頻出現(xiàn)的包括:數(shù)學(xué)家,、口譯員和筆譯員,、作家和寫手、區(qū)塊鏈工程師等,。
第四,,部分職業(yè)存在可能性被徹底替代掉。對于這個(gè)榜單,,人工標(biāo)注的結(jié)果里有 15 個(gè)職業(yè),;GPT-4 標(biāo)注的結(jié)果里有 86 個(gè)職業(yè)。AI 下手果然還是更狠一些,。
(報(bào)告來源:https://arxiv.org/pdf/2303.10130.pdf)
感興趣的朋友可以自己讀一下全文,。這個(gè)估計(jì)當(dāng)然不會特別準(zhǔn)確,但是他們用了盡可能量化的方式,,有一定預(yù)見性,。未來會不會發(fā)生?我認(rèn)為大概率確實(shí)會發(fā)生的,,只是時(shí)間上不好講,。有一些相對容易落地、容易快速被替換掉的,,比如說個(gè)體戶可能危險(xiǎn)性更大一些,。比如做插畫的畫師、做電商圖片的這些美工,、一些公眾號的小編等等,。大公司的組織,整個(gè)工作內(nèi)容或者崗位要做調(diào)整,,會有組織管理上的問題,,可能會慢一些。
那這中間可能也有過渡期,,比如 AI 繪圖變成主流之后,,畫師們未必就全都失業(yè)。就像 Photoshop 出現(xiàn)之后大家更多是從用紙和筆去繪圖,,變成了用另外一個(gè)工具去做,。未來 AI 繪圖背后,,也要有需求轉(zhuǎn)化的這一步(prompt engineering) 。不過比較悲觀的是,,AI 繪圖和 Photoshop 不一樣,,還是存在效率差異的。用紙和筆的畫師和用 Photoshop 的畫師,,生產(chǎn)力的變化可能沒那么大,;但是 AI 的生產(chǎn)力是劇烈的大幅提升,意味著不太需要那么多從業(yè)者了,。這就必然有一個(gè)結(jié)構(gòu)性的大的波動,。那未來會怎么樣?會不會出現(xiàn)大的社會問題,?這個(gè)就不是我能討論的了,。
第七,大多數(shù)人機(jī)交互都不存在了,。
冰箱發(fā)明之前,,很多人研究的是怎么存儲冰塊、制造冰塊,,有了冰箱,,就不再需要這種冷藏方式了。對于產(chǎn)品交互也是這樣,,用戶過去為什么要點(diǎn)按鈕,?要做各種操作?包括用 Photoshop,、 Word 里很多反人類的各種各樣的,、根本記不住的復(fù)雜的功能。
所以我們看起來更像是處于過渡期,,真的技術(shù)能力達(dá)到以后,當(dāng)下的大多數(shù)人機(jī)交互也沒有必要存在了,,只需要剩下自然語言交互,,這就跟我寫過的那篇猜想對應(yīng)上了(從 ChatGPT 看 AI 未來的 7 種場景可能性)。
跟寫之前的文章時(shí)不一樣,,我這段時(shí)間試用了 GPT-4 基礎(chǔ)上的 ChatGPT,,包括跟更多專家聊了一些技術(shù)上的問題。現(xiàn)在的我覺得這是很有確定性的,。就像前面說的,,現(xiàn)在的發(fā)展是指數(shù)級的速度。
寫在最后如今 ChatGPT 發(fā)布后,,整個(gè)產(chǎn)學(xué)研都已經(jīng)到了快車道上了,,這個(gè)快車道上是沒有人有能力去踩剎車的,。我們作為個(gè)體,也是不可能回避這個(gè) AI 的歷史車輪的,。
大家都知道阿里有一個(gè)經(jīng)常被群嘲的價(jià)值觀,,叫擁抱變化。這個(gè)詞現(xiàn)在看感覺還挺應(yīng)景的,。
所以不如反過來想問題:汽車時(shí)代來的時(shí)候,,馬車夫肯定非常焦慮,馴馬師也很焦慮,。不過汽車是工具,,對大部分人來說它是非常有幫助的。它的出現(xiàn)并不是說要摧毀誰,,摧毀哪些崗位,,或者摧毀哪個(gè)行業(yè)。它還是為人類服務(wù)的,。
我們可以用汽車做很多有價(jià)值的事,。沒有交通工具的效率提升,全球化也不可能發(fā)生,。我們可以多想一下,,有了 AI 我們能干什么。
最近跟身邊幾個(gè)比較要好的朋友聊 AI,,大家達(dá)成的一致,,都是先用起來。先用它做點(diǎn)什么,,感受下它能做什么,、不能做什么。未來有無限的可能性,,不妨把目光放長遠(yuǎn)一點(diǎn),;不糾結(jié)當(dāng)下的得失,看看 AI 未來的機(jī)會,。保持這樣的心態(tài)也許更容易接受變化,。
就說到這里,希望對你有啟發(fā),。
Ps. 想要了解人工智能歷史的朋友,,可以在小宇宙、蘋果 Podcasts,、喜馬拉雅,、網(wǎng)易云音樂等平臺搜索「半拿鐵」,我梳理了過去的故事整理成了 4 期播客,。
本文(含圖片)為合作媒體授權(quán)創(chuàng)業(yè)邦轉(zhuǎn)載,,不代表創(chuàng)業(yè)邦立場,,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,,請聯(lián)系
隨便看看:
- [業(yè)內(nèi)]嗶哩嗶哩董事長兼 CEO 陳睿:B站ChatGPT 相關(guān)視頻
- [業(yè)內(nèi)]華為徐直軍:任何國產(chǎn)半導(dǎo)體企業(yè)都可以使用國產(chǎn) EDA 工具設(shè)
- [業(yè)內(nèi)]NASA任命UFO研究負(fù)責(zé)人 旗下研究團(tuán)隊(duì)發(fā)布首份報(bào)告,,對不
- [業(yè)內(nèi)]入秋取暖需求提前釋放 蘇寧海爾定制熱水器銷量環(huán)比增10倍
- [手機(jī)]小米13 Ultra備貨量增加50%,是小米自信,,還是這次高
- [業(yè)內(nèi)]第七屆世界智能大會 “硬核”智能科技成果閃亮登場
- [科技]Linux Lite 6.4 發(fā)布:基于 Ubuntu 22
- [業(yè)內(nèi)]新包裝通過變色指示食物變質(zhì)
- [業(yè)內(nèi)]山東:到2025年培育壯大千家綠色高新技術(shù)企業(yè)
- [業(yè)內(nèi)]身邊的科學(xué):極端天氣頻發(fā)何解
相關(guān)推薦:
網(wǎng)友評論:
推薦使用友言,、多說、暢言(需備案后使用)等社會化評論插件
- 卓興半導(dǎo)體:擺臂,、直線,、轉(zhuǎn)塔貼裝的深度分析對比
- 「雙11頭號國貨精品計(jì)劃」:助力國貨精品崛起,點(diǎn)燃
- 【智齒科技】AI Agent實(shí)現(xiàn)全程自動應(yīng)答,,生成
- 光伏電池技術(shù)從P型到N型,,拉普拉斯(688726.
- 冷王VP Truck高頂系列重磅升級:強(qiáng)勁制冷,價(jià)
- MediaTek攜手“天璣芯世界探索官”辛芷蕾,,開
- 高性能 CPU:Arm Cortex-X925 實(shí)
- 顧均輝評華為蘋果同日推新品:定位的終極目標(biāo),,成為顧
- harman/kardon AURA STUDIO
- 簡化大模型訓(xùn)推全流程,天翼云息壤即將重磅升級,!
- 熱點(diǎn)搶先看|2024南方網(wǎng)通第二十五屆渠道商交流會
- 《大數(shù)據(jù)平臺云化改造實(shí)踐指南(2024)》發(fā)布,,天
- 覺卿諦語智能科技在全國12355心理健康大會上展示
- 當(dāng)好“兩個(gè)稀土基地”建設(shè)主力軍,北方嘉軒永磁電機(jī)大
- 大模型助力工業(yè)智能化發(fā)展
- 工商業(yè)光伏發(fā)電施工指南-太陽庫光伏
- 科技賦能,,避震嬰兒車或成為行業(yè)硬通貨
- 龍旗科技進(jìn)軍AI PC市場,,激發(fā)行業(yè)創(chuàng)新活力
- 科技賦能教育:核桃編程亮相“科創(chuàng)中國·北京創(chuàng)新薈”
- 英偉達(dá)搶占高位,市場急需尋求新機(jī)遇,,這三支AI股值