亚洲国产成人精品无码一区二区_亚洲国产成人久久精品APP_亚洲精品成人网久久久久久_亚洲精品午夜无码电影网_亚洲另类欧美综合久久图片区_亚洲人成人无码网WWW电影首页_亚洲午夜福利AV一区二区无码_亚洲伊人久久精品影院_一本加勒比HEZYO无码人妻_怡红院精品久久久久久久高清,自拍偷在线精品自拍偷99,久久精品国产77777蜜臀,娇妻穿丁字裤被领导玩弄

網(wǎng)站地圖 - 關于我們
您的當前位置: 首頁 > 科技 正文

認知ChatGPT的過程就是消除偏見的過程

作者:用戶投稿 時間:2023-04-04 09:30 點擊:次
導讀:近期花了一些時間繼續(xù)學習 ChatGPT,,體會到了認知 ChatGPT 的整個過程,,就是在消除我自己偏見的過程,。其中存在大量信息不對稱的地方,。哪怕關于 Chat

認知ChatGPT的過程就是消除偏見的過程

近期花了一些時間繼續(xù)學習 ChatGPT,體會到了認知 ChatGPT 的整個過程,,就是在消除我自己偏見的過程,。其中存在大量信息不對稱的地方。哪怕關于 ChatGPT 的討論這么多了,,噪音里面有價值的信息也并不總是好找,。

接下來就分享一些觀點。

1. 重點并不是「聊天機器人」

首先,,對于?ChatGPT?來說,,它帶來的大家提到的?AI?的革命性進展,壓根不是做出了好用的?chatbot,,或者說聊天機器人,。

換句話說,它并不意味著,,我們的生活和工作里并不會有太大變化,,主要的變化就是多了一個聊天機器人。如果按照這個前提條件去聊,,它看起來就不是革命性的,。

要真如此的話,憑什么說它是 iPhone 時刻,?

真實情況是,,聊天只是 OpenAI 做的一個演示,用它來做 demo,,讓大家很好的看到了 GPT 這個模型的威力,。在這個威力之外,大家還是只覺得它是聊天機器人,,這就是一個啼笑皆非的事了,。

當然,我們都知道,,這個聊天機器人是 OpenAI 團隊用來獲取真實世界對話的方法,,用它來繼續(xù)迭代訓練模型,來強化學習的 RLHF 的一個方法,。選擇開放給用戶的這條路線,,看起來好像常見,或者說之前也見過,,但實際上在科研領域這是一個非常歪門邪道,、一個非常不主流的方式。

之前不管是企業(yè)還是高校,,以前大家做這方面的研究,,不管是大模型還是 AI 方面的研究,都是用做題家的思路,,就是用各種學術界的評測,,如 20 個專家標注的確定性的 QA 問答題來完成,。都是命題作文。

但現(xiàn)在 OpenAI 說,,我不參加這些考試,,我不參加這做題,我也不去跟你比論文數(shù),,就是把模型扔到人民群眾的汪洋大海里去,。

現(xiàn)實就是,很會寫高考作文,,和很會跟人聊天,,確實是兩碼事。所以使用 ChatGPT 的時候有很多方式就不對,,比如我自己作為一個可能稍微了解 NLP 的,,或者了解產(chǎn)品、技術實現(xiàn)邏輯的,,我就會去想:這個是不是難為他了,?這個他肯定不會吧?我就不問了,。

當知道他是個機器,,就容易擔心給的前提條件不夠。它胡說八道,,給一些錯誤的答案,,我是有奇怪的愧疚感的。所以就潛意識里特別照顧它,,把問題表述得格外完整才問出來,。

這樣結果就是不夠真實。包括我做 NLP 的一些老同學,,他們也會帶著很多假設和前提條件去問,,他們問的都不是正常人聊天會問的。而現(xiàn)在用 ChatGPT 的大部分的人不是產(chǎn)品或者技術背景,,并不知道背后的原理,,所以問出來的就更真實。OpenAI 最初也是用格外真實的語料去做訓練,,所以能訓練出來 ChatGPT 的效果,。

2.很多當下的問題,都是技術性問題

認知的另一個偏差是,,它就是一個終態(tài)了,。于是會認為它的很多問題,代表它不智能。

比如說 ChatGPT 搜的信息不準確,,以及胡說八道,。很多朋友都會這么覺得,問了幾個問題,,發(fā)現(xiàn)不對,,就認為 ChatGPT 沒有什么大家說的那么的有價值。

對于信息準確性的問題其實是好解決的,,而且必然會解決。因為現(xiàn)在使用的模型,,并不是在一句一句的學,,不是像某些人想象的一樣,在跟每個人溝通的時候來現(xiàn)學現(xiàn)賣(當然在聊上下文的時候,,它會考慮上下文,,這個可以定義為短時的學習)。背后所用的大模型,,實際是一個用 2021 年的語料訓練的固定的模型,,這個底層的模型是沒有實時進化能力的。

那為什么信息準確這個問題好解決,?這個后面一起說,。

另外一種常見說法是,ChatGPT 既然是一個生成式的工具,,所以應該是能幫助甚至替代內(nèi)容創(chuàng)作者的,。目前看起來,這方面的水平有限,。有可能幫忙寫個周報,,幫忙潤色一下文字,幫忙寫個小紅書筆記等等,,哪怕這種簡單的工作,,大家也發(fā)覺了,寫出來的 AI 感非常強,、并不是很擅長用人的語氣表達,,能明顯感覺到他整個表述的方式是有一種奇奇怪怪的感覺,這種感覺就讓人心懷疑慮:這個所謂的 AI,,不也模仿不了人的語氣嗎,?你看,人類還是有一些所謂「靈魂」的部分存在的,,AI 寫內(nèi)容,,就是沒有靈魂。

而很殘酷的是,我也認為,,內(nèi)容創(chuàng)作的風格和語氣也不是大問題,,依然是個技術性問題,因為 AI 最擅長的就是模仿,,對于文本的模仿反而是相對來說容易的,。只不過一方面,因為 ChatGPT 是基于英文語料主要訓練的(中文語料只有 1% 左右),,所以在中文的表達上會有比較大的問題,,翻譯體很明顯。

另外就是?ChatGPT?本身就被刻意訓練了,。它目前這樣的語氣和表達風格,,是訓練出來的,不是 AI 天然就是這樣的,。因此說這是個技術性的問題,。比如說之前 AI 繪圖剛出來的時候,大家當然就習慣性基于當時的版本去考察,,說 AI 能畫成這樣還不錯,,但是 AI 畫的圖還都有 AI 感。這個所謂的 AI 感大概意思就是光影的問題,、細節(jié)的問題(比如畫手),,這個 AI 感在 Midjourney v5 里消除得差不多了。因為這就是個可訓練的技術性問題,。

認知ChatGPT的過程就是消除偏見的過程

認知ChatGPT的過程就是消除偏見的過程

(這是我用 Midjourney 畫的愛因斯坦和霍金,,歷史上不存在這兩張照片)

所以 ChatGPT 信息準確度的問題,內(nèi)容表達和語氣的問題,,人格的問題,,都是技術問題??赡芫蜁信笥褑柫?,那你說都是技術問題,那 AI 發(fā)展了這么多年了,,可不是每個都是技術問題嗎,?為什么 ChatGPT 就不一樣呢?

3. 重要的是「理解和推理」

ChatGPT 最特殊的地方,,是揭示了一種可能性,,即 AI 可以呈現(xiàn)理解和推理能力了。這是過去大半個世紀的學者們所一直追求,,而不可得的,。

這里要簡單說一下 GPT 背后的邏輯。首先語言模型是很早就有的, 10 年前我讀研的時候,,如果學 NLP,,你翻開教材的第一頁可能就能看到語言模型,就跟學高等數(shù)學第一課都是先學函數(shù)一樣,,不是什么新鮮的,、現(xiàn)在才發(fā)明出來的成果。

為什么作為一個語言模型,,大家這么驚奇,?并非由于它可以對話了、能寫所謂一碗水端平的片兒湯文章了,,更不是能獲取什么信息和知識,,而是在這個大語言模型當中體現(xiàn)了推理。

體現(xiàn)了推理是一個事實論述,。說到這里,必然會有一些朋友,,援引很多人包括知名學者的說法來反駁,,說語言模型只是統(tǒng)計的模型,因此不能稱之為理解和推理,。

這里也不妨多說幾句大語言模型的邏輯,。最基礎的很簡單,依據(jù)上文,,預測下一個詞,。過去能力不足,是根據(jù)一兩個詞預測下一個詞,,后來出現(xiàn)了更多的算法和更好的硬件,,于是可以預測更多的上下文了。像現(xiàn)在 ChatGPT 就能依據(jù)幾千個字符去做預測,,這歸功于有如神助的 Transformer 算法,。

但是,大語言模型依然還是一個猜詞游戲,,是統(tǒng)計意義上的一個算法,,它沒有別的復雜思考,就是從海量的記憶(模型)里,,搜尋出最有可能出現(xiàn)的下一個詞,。

所以很自然,聽起來,,無論誰都會覺得,,這種統(tǒng)計邏輯的語言模型,恐怕只能解決記憶問題,不能解決邏輯問題,。就像我們讀了很多書籍,、文獻、維基百科,、百度百科等等各種知識,。那接下來我們能做的是什么?很明確的,,可能做一個好翻譯,,或者能寫一篇像模像樣的文章,但是搞別的應該是不行的,。畢竟是個復讀機嘛,,是個「模糊的印象」(a Blurry JPEG of the Web)嘛(這是科幻作家?Ted Chiang 對 ChatGPT 的評價,已經(jīng)被更多人認為是偏見了),。

不管怎么去想象這個算法邏輯,,我們都很難想象只是記憶,就能產(chǎn)生邏輯,。這在 2022 年之前都是天方夜譚,,而 2022 年底過后,ChatGPT 讓這變成了一個可能性,。

為什么 ChatGPT 在一個詞兒一個詞兒蹦的時候就呈現(xiàn)了邏輯,?這依然是個科學上的未解之謎,以及都在爭論不休的話題,。畢竟我們想象中,,一段有邏輯的文字,應該是先設定主題,,再想框架和段落,,再去落筆的。

這里要特別補充一點:表現(xiàn)出了推理和邏輯能力,,與本質(zhì)上有沒有推理和邏輯能力,,是兩碼事。前者是個事實問題,,已經(jīng)可以說是公認了,,從原理上反駁意義不大,用過即知,;后者則是個哲學問題,,還在爭論之中。

什么叫有邏輯能力很早就是學術界有爭議的話題,,從控制論出現(xiàn)就在討論「看起來的智能是不是智能」的問題了,。同時,,人腦運作的很多原理目前尚不清楚,如何產(chǎn)生的邏輯推理,,也不清晰,。

很奇妙的是,在目前的模型中,,「think step by step」是一個很好用的咒語,,跟人的思考是很像的,機器只要不是直接給結果,,而是多想幾步,,就能呈現(xiàn)非常好的效果。

這些都是題外話了,。實際上對產(chǎn)學研而言最驚訝和最興奮的,,不是討論本質(zhì)上有沒有推理和邏輯能力,而是表現(xiàn)上有沒有,。

4. 通往通用人工智能之路

OpenAI?在這個大語言模型上做了什么,,把 GPT 以及 ChatGPT 做出來的?其實沒做太多算法上的,、底層規(guī)則上的很復雜的事情,。而是用很工程的手段,甚至堪稱暴力的手段去訓練,,然后反復地調(diào)試,。

所以一個非常古老的,、已經(jīng)長滿了青苔的語言模型,,居然可以實現(xiàn)有推理能力的高水準的 AI,非常叫人意外,。追求 AGI 的路,,從 1956 年達特茅斯會議實際已經(jīng)啟航了,明斯基,、麥卡錫,、司馬賀、紐厄爾這些人工智能的創(chuàng)始人,,本來預期是十年二十年就實現(xiàn)的夢想,,花了大半個世紀,依然進展不大,。

學者們最開始想的,,跟大多數(shù)人想象的 AI 必須先學的一步是類似的,就是學習推理,。他們被稱為符號派,,就是把世間萬物的所有的邏輯和知識抽象出來,,把它們變成形式語言,像數(shù)學題一樣可以計算與推演,,一生萬物,,不就是智能嗎?這條路一度是人工智能的主流派系,,一直到 20-30 年后,,嘗試了各種各樣的方向,發(fā)覺全都被堵死了,。

接下來就是統(tǒng)計學習和深度學習的時代,,就是讓機器去自我消化數(shù)據(jù),它就能解決問題,。這時候的學者們更落地,、更實在了,不關心 AGI,,而是關心垂直課題了,,比如說人臉識別、自動駕駛,、下圍棋和玩游戲等等,,這些似乎都是做的還不錯的。語言模型也在其中,,大家認為它能解決一些問題(谷歌翻譯和百度翻譯就是語言模型的邏輯),,顯然不能解決一切問題。

而 ChatGPT 的啟示,,就像說有一個田徑隊,,短跑、長跑,、接力跑,、馬拉松等等運動,有不同的教練去用不同的方法訓練,,畢竟是不同的課題,。但是今天,有一個教練,,用了全新的方法訓練了一個隊員,,發(fā)現(xiàn)這隊員跑啥都行,接力跑,、長跑,、短跑都能拿好的名次,甚至跑去試了試扔鉛球也是前幾名,,扔標槍也是前幾名,,跳鞍馬也是前幾名,,他不一定都能拿到第一,但這個效果大家非常驚訝,。

還是前文說的,,有邏輯、能從信息中發(fā)掘知識,,并不是個值得爭論的問題,,它是個事實。很多學者花了很多年研究,,怎樣讓機器識別詞性(形容詞,、動詞、名詞等),,這是個專有課題,,而詞性標注的效果,ChatGPT 也完成得很好,。類似的課題,,非常大量。用三體的話說,,說許多學者,、博士們還在研究的?NLP 的中間課題不存在了?,一點兒也不為過,。哪怕不提這些研究課題,,注冊使用下 GPT-4,你肯定也會有體感,,這種體感是不會說謊的,。

那么 AI 有了邏輯和理解能力,能做什么呢,?能做太多了,。

前面說的技術性的問題,,反而可以交給一些基于規(guī)則的產(chǎn)品解決,。例如,?ChatGPT 自己可能信息不全,,但它能比很多人更好地查到所要的信息,,而不只是把網(wǎng)頁排個序;ChatGPT 自己可能不會寫很厲害的文章,,但經(jīng)過一個熟練的寫手訓練之后,,確實能理解你想要什么,就能變成一個有固定文風的寫手,;原生的 ChatGPT 可能完全不知道怎么使用 Word,,但是讓它看大量的人是怎么使用的,,很快也就能學會了。

這才是 ChatGPT 最不一樣的地方:它比之前所有的 AI 都更像一個 AI,。當 AI 這個詞在 1956 年出現(xiàn)的時候,,大家想象的是一個智能的東西,而現(xiàn)在,,它真的出現(xiàn)了,,至少有了真正智能的可能性。這一點在學術圈和科研領域最早引起了轟動,,可能比普通用戶的震驚程度還要大,。

之前是大家看不到通往通用人工智能的路的,所以 ChatGPT 的意義不是聊天機器人本身,,而是這個新的范式,,揭示了一種全新的可能性。未必是唯一的可能性,,但確實是一種可能性,。過去從來沒有過的可能性。

4. 繼續(xù)推演未來

接下來可能會發(fā)生什么呢,?我觀察和思考到了 7 個方面,,分享一下。

第一:不光 AI 的企業(yè)都得投入大模型,,而且很快會進入工程上的軍備競賽,。

這里跟很多朋友想的不一樣,大模型不是比參數(shù)量,。如果去搜參數(shù)量的模型,,快手還官方自豪地發(fā)布過一個有萬億參數(shù)量的模型,當然跟 GPT-3 也沒法比,。

同時,,也不是單純比數(shù)據(jù)多少。數(shù)據(jù)確實是一個壁壘,,但是還有一個更加核心的競爭力,,即調(diào)試工程。比如對于百度,,之前做的文心大模型,,底層數(shù)據(jù)量真的不比 OpenAI 的少,或者很有肯跟底層的模型都不一定比 GPT-3 的質(zhì)量差,。只是完全沒有采用 ChatGPT 的方法訓練(InstructGPT),,也就是怎么激發(fā)。激發(fā)也是非常玄學和魔幻,,OpenAI 有一個人數(shù)不小的工程團隊,,專門通過語料和代碼,,做激發(fā)和調(diào)試,讓它變得更智能,。

這可以說是最后畫龍點睛的一步,。就像說有一個天分特好的小孩,需要調(diào)教,,而如何調(diào)教是不存在一個很確定性的方法論的,,調(diào)教本身也是個黑盒,有很多坑每個團隊都得慢慢趟,、反復試錯,。

從 GPT-3 這個底層模型的出現(xiàn),到 ChatGPT ,,其實花了很多的工夫,,在這個過程中,工程比研究要重要得多,。學術研究它提供的是方法,,但是 ChatGPT 背后并沒有新的方法,更重要的還是工程團隊用了一些所謂的比較 tricky 的方法,。所以 OpenAI 公開了底層的算法和邏輯,,并沒有公開 ChatGPT 的源代碼。對于百度來說,,花了一兩個月重新開始調(diào)教,,效果肯定跟 ChatGPT 是沒法比的。百度和國內(nèi)其它家面臨的大多也是調(diào)教的問題,,想要砸錢訓練出來一個底層的 GPT-3 的模型不是難點,,InstructGPT 才是。

第二,,如何調(diào)教,,會直接影響 AI 成為什么樣的 AI。

并不是說各種不同的團隊去激發(fā)大語言模型,,最后激發(fā)出來的效果殊途同歸,、一定是一個東西。很多沒有了解技術細節(jié)的朋友總覺得 ChatGPT 很蠢,,因為總是一碗水端平,、按格式來寫命題作文,,這個是刻意調(diào)教的結果,。為的是獲取最大公約數(shù)的用戶,不要出現(xiàn)任何政治錯誤的問題,、偏見的問題,。

想要真的調(diào)教一個極端分子,、調(diào)教一個特別溫柔心理咨詢師,甚至調(diào)教一個詩人,,原則上都是可以的,,就看怎么調(diào)。

一種說法是,,目前的 OpenAI 用了 6 萬多條語料就調(diào)出來了 ChatGPT,。那用別的語料、用更多的語料,,會發(fā)生什么,?可以預見的是,未來各種各樣的人格都會調(diào)出來,,不同團隊做的 AI 風格各異,,跟人與人的區(qū)別一樣。

因此,,ChatGPT 并不是,,有一個團隊花了很多年種出來了一個品種的蘋果,這個品種的蘋果叫 ChatGPT,,你吃了一口這個蘋果說太酸了,,扔了。就認為這件事沒有價值,。

這個叫 ChatGPT 的蘋果是重要的,,但更重要的是,發(fā)現(xiàn)了一片叫大語言模型的土地,,可以種各種 AI 的水果,,不光有蘋果,還有梨子,、菠蘿,、葡萄等等,有大量的可能性,。這是一定會發(fā)生的?,F(xiàn)在很多團隊去追逐的,并不是要做同一個品種的,、酸甜度一模一樣的叫 ChatGPT 度蘋果出來,,而是都看到了這里面做其它水果的價值。

第三,, ChatGPT 的這個范式是可靠的,,那很多技術性的問題解決就只是時間問題。

這是在回應前面說的問題。只要這個范式是可靠的,,很多技術性的問題無非就是加算力,、加數(shù)據(jù)以及有耐心地調(diào)教。

早在 1956 年塞謬爾就做過一個跳棋程序,,在當年已經(jīng)能下贏很多專業(yè)選手了,,那時很多科學家就意識到,未來機器能在棋類游戲中下贏人類,,只是個時間問題(包括在讀大學的陸奇,,就有這個洞察了)。到了 1997 年,,深藍下贏了國際象棋大師,, 到了 2016 年 AlphaGo 下贏了圍棋世界冠軍,如今的很多游戲 AI,,DOTA2,、星級爭霸 2 的 AI 也都可以下贏很多頂級的選手。在范式不變且可靠的前提下,,學會下棋就是個技術性問題,,也就意味著是個時間問題。

對有邏輯能力的大模型來說,,前文說過的信息準確度的問題,,都未必在內(nèi)部解決。ChatGPT 也可以跟訓練有素的有數(shù)學知識的產(chǎn)品合作,。就像一個聰明小孩,,不懂數(shù)學但是足夠聰明,那可以配個小伙伴,,這個小伙伴不是很聰明,,但上過奧數(shù)班,倆人一搭配,,問題就解決了,。這不是假想。

知名的計算智能引擎產(chǎn)品 Wolframe 就跟 ChatGPT 合作了,,可以在補充了更準確的知識和規(guī)則的前提下,,解決大量的問題,比如化學,、數(shù)學,、物理、地理,、幾何,、歷史,、材料、工程等等,。

認知ChatGPT的過程就是消除偏見的過程

認知ChatGPT的過程就是消除偏見的過程

(來源:ChatGPT Gets Its “Wolfram Superpowers”!)

第四,,解決各種問題的速度,,或者說滿足各種需求的速度,,可能是指數(shù)級的。

這個是很感性的判斷,,確實沒有很有說服力的論據(jù)?,F(xiàn)在大家也都不知道多長時間會發(fā)生什么事情。不過大概率它的發(fā)展速度不會是線性的,,因為人腦的學習是緩慢的,,畢竟神經(jīng)元信號傳遞存在速度限制、神經(jīng)元的數(shù)量和規(guī)模有整體的限制的,。但計算機不一樣,,就像一個人腦不行,那可以連接 10 個人腦,。10 個愛因斯坦的腦袋連起來,,它是不是乘以 10 不一定,但的進化速度肯定比生物進化要快得多,。

ChatGPT 的成功會讓已經(jīng)在過去領域里卷到疲倦的大廠,,紛紛進入軍備競賽,這也會加速這個進程,。另外,,對于很多場景來說,讓產(chǎn)品對接大模型,,是不復雜的,,ChatGPT 作為中間層很合適,主要負責解釋和推理,,并不用每個場景都再訓練一遍(未來難說會不會各種場景都有自己的大模型),。從 Office 和 Adobe 這么快的跟進也可見一斑。

這里就有一個很殘酷的現(xiàn)實,,就是業(yè)務融合 AI 模塊之后,,每個打工人在用 AI 的這個過程,就是在加速淘汰自己的過程,。

第五,,調(diào)試工程師會變成很值錢的崗位。

這個好理解,,對于大模型來說,,可解釋性非常差,,換句話說,可控性很差,。前面也說了,,它是非常巨大的黑盒,只能通過調(diào)教,、不能通過指揮,,不能指哪打哪,說這個問題回答得不好,,下次必須這么這么回答——沒法這么去訓練它,。所以調(diào)教就顯得特別重要了,調(diào)試工程師就會變得越來越值錢,。

不過調(diào)試工程師到底具備什么樣的能力,?了解場景,還是了解代碼,?這個不大清楚,。這是個全新的崗位,大家都在探索,。

第六,,失業(yè)問題。

可惜的是,,值錢的崗位未來不會特別多,,但不值錢的崗位會變得越來越多。

失業(yè)問題很有意思,,之前 OpenAI 自己官方下場寫了一篇報告,,具體內(nèi)容就不展開說了,只說最后的幾個結論:

第一,,80% 的人受影響,,會有 10% 的工作內(nèi)容受 LLM 影響(受影響的定義是同等質(zhì)量的工作成果,降低 50% 的工作時間),,19%的人「大受影響」,,即會有至少 50% 的工作內(nèi)容受 LLM 影響。

第二,,薪資越高的人越容易受影響,。受過良好教育的、有豐富工作經(jīng)驗的,、高薪的職業(yè),,被影響的概率是偏大的。

第三,,有一個影響程度排行榜,,其實就是高危列表,。里面高頻出現(xiàn)的包括:數(shù)學家、口譯員和筆譯員,、作家和寫手,、區(qū)塊鏈工程師等。

第四,,部分職業(yè)存在可能性被徹底替代掉,。對于這個榜單,人工標注的結果里有 15 個職業(yè),;GPT-4 標注的結果里有 86 個職業(yè),。AI 下手果然還是更狠一些,。

(報告來源:https://arxiv.org/pdf/2303.10130.pdf)

感興趣的朋友可以自己讀一下全文,。這個估計當然不會特別準確,但是他們用了盡可能量化的方式,,有一定預見性,。未來會不會發(fā)生?我認為大概率確實會發(fā)生的,,只是時間上不好講,。有一些相對容易落地、容易快速被替換掉的,,比如說個體戶可能危險性更大一些,。比如做插畫的畫師、做電商圖片的這些美工,、一些公眾號的小編等等,。大公司的組織,整個工作內(nèi)容或者崗位要做調(diào)整,,會有組織管理上的問題,,可能會慢一些。

那這中間可能也有過渡期,,比如 AI 繪圖變成主流之后,,畫師們未必就全都失業(yè)。就像 Photoshop 出現(xiàn)之后大家更多是從用紙和筆去繪圖,,變成了用另外一個工具去做,。未來 AI 繪圖背后,也要有需求轉化的這一步(prompt engineering) ,。不過比較悲觀的是,,AI 繪圖和 Photoshop 不一樣,還是存在效率差異的,。用紙和筆的畫師和用 Photoshop 的畫師,,生產(chǎn)力的變化可能沒那么大,;但是 AI 的生產(chǎn)力是劇烈的大幅提升,意味著不太需要那么多從業(yè)者了,。這就必然有一個結構性的大的波動,。那未來會怎么樣?會不會出現(xiàn)大的社會問題,?這個就不是我能討論的了,。

第七,大多數(shù)人機交互都不存在了,。

冰箱發(fā)明之前,,很多人研究的是怎么存儲冰塊、制造冰塊,,有了冰箱,,就不再需要這種冷藏方式了。對于產(chǎn)品交互也是這樣,,用戶過去為什么要點按鈕,?要做各種操作?包括用 Photoshop,、 Word 里很多反人類的各種各樣的,、根本記不住的復雜的功能。

所以我們看起來更像是處于過渡期,,真的技術能力達到以后,,當下的大多數(shù)人機交互也沒有必要存在了,只需要剩下自然語言交互,,這就跟我寫過的那篇猜想對應上了(從 ChatGPT 看 AI 未來的 7 種場景可能性),。

跟寫之前的文章時不一樣,我這段時間試用了 GPT-4 基礎上的 ChatGPT,,包括跟更多專家聊了一些技術上的問題?,F(xiàn)在的我覺得這是很有確定性的。就像前面說的,,現(xiàn)在的發(fā)展是指數(shù)級的速度,。

寫在最后

如今 ChatGPT 發(fā)布后,整個產(chǎn)學研都已經(jīng)到了快車道上了,,這個快車道上是沒有人有能力去踩剎車的,。我們作為個體,也是不可能回避這個 AI 的歷史車輪的,。

大家都知道阿里有一個經(jīng)常被群嘲的價值觀,,叫擁抱變化。這個詞現(xiàn)在看感覺還挺應景的,。

所以不如反過來想問題:汽車時代來的時候,,馬車夫肯定非常焦慮,,馴馬師也很焦慮。不過汽車是工具,,對大部分人來說它是非常有幫助的,。它的出現(xiàn)并不是說要摧毀誰,摧毀哪些崗位,,或者摧毀哪個行業(yè),。它還是為人類服務的。

我們可以用汽車做很多有價值的事,。沒有交通工具的效率提升,,全球化也不可能發(fā)生。我們可以多想一下,,有了 AI 我們能干什么,。

最近跟身邊幾個比較要好的朋友聊 AI,大家達成的一致,,都是先用起來,。先用它做點什么,,感受下它能做什么,、不能做什么。未來有無限的可能性,,不妨把目光放長遠一點,;不糾結當下的得失,看看 AI 未來的機會,。保持這樣的心態(tài)也許更容易接受變化,。

就說到這里,希望對你有啟發(fā),。

Ps. 想要了解人工智能歷史的朋友,,可以在小宇宙、蘋果 Podcasts,、喜馬拉雅,、網(wǎng)易云音樂等平臺搜索「半拿鐵」,我梳理了過去的故事整理成了 4 期播客,。

本文(含圖片)為合作媒體授權創(chuàng)業(yè)邦轉載,,不代表創(chuàng)業(yè)邦立場,轉載請聯(lián)系原作者,。如有任何疑問,,請聯(lián)系

打賞

取消

感謝您的支持,,我會繼續(xù)努力的!

掃碼支持
掃碼打賞,,你說多少就多少

打開支付寶掃一掃,,即可進行掃碼打賞哦

相關推薦:

網(wǎng)友評論:

推薦使用友言,、多說,、暢言(需備案后使用)等社會化評論插件

Copyright ? 2021 早報網(wǎng) 版權所有
蘇ICP備19042297號-4

蘇公網(wǎng)安備32131102000875號

本網(wǎng)站所刊載信息,,不代表早報網(wǎng)觀點,。如您發(fā)現(xiàn)內(nèi)容涉嫌侵權違法立即與我們聯(lián)系客服 [email protected] 對其相關內(nèi)容進行刪除。
早報網(wǎng)登載文章只用于傳遞更多信息之目的,,并不意味著贊同其觀點或證實其描述,。文章內(nèi)容僅供參考,不構成投資建議,。投資者據(jù)此操作,,風險自擔。
《早報網(wǎng)》官方網(wǎng)站:xzxyjj.com互聯(lián)網(wǎng)違法和不良信息舉報中心
Top