在科幻電影《機(jī)械姬》中,人工智能(AI)機(jī)器人艾娃被賦予了人類的外貌和智能,她甚至展現(xiàn)出與人類相似的情感和欲望,試圖與程序員迦勒建立情感聯(lián)系,并追求自由。但是,她的“內(nèi)心”實(shí)際上是由電路和算法構(gòu)成的。該電影可謂討論AI自我意識(shí)的一部經(jīng)典之作,引發(fā)了人們對(duì)于AI自我意識(shí)、人性和倫理問(wèn)題的深入思考。
近日,美國(guó)AI研究公司OpenAI聯(lián)合創(chuàng)始人兼首席科學(xué)家伊爾亞·蘇茨克維在接受美國(guó)《麻省理工科技評(píng)論》雜志專訪時(shí),講述了他對(duì)未來(lái)AI的希望和擔(dān)憂。蘇茨克維認(rèn)為,如果我們“瞇著眼睛看世界”,那么ChatGPT可能是有意識(shí)的。
這聽起來(lái)很“瘋狂”,但在近一兩年,ChatGPT和其他大語(yǔ)言模型(LLM)震驚了全世界。這些系統(tǒng)可生成似乎能表現(xiàn)出思想、理解力甚至創(chuàng)造力的文本。一時(shí)間,“ChatGPT可能已經(jīng)有了意識(shí)”的話題也沖上了網(wǎng)絡(luò)熱搜,再次引發(fā)了網(wǎng)友們對(duì)于AI是否具有意識(shí)等問(wèn)題的探討。
蘇茨克維言論存在炒作嫌疑
去年11月,OpenAI發(fā)布了ChatGPT聊天機(jī)器人。幾周內(nèi),它便風(fēng)靡全球,甚至引發(fā)了一場(chǎng)新的全球AI競(jìng)賽。上線僅僅兩個(gè)月,ChatGPT的活躍用戶就突破1億,許多人都被這個(gè)新“玩意兒”迷住了。
今年9月25日,OpenAI宣布將賦予ChatGPT利用語(yǔ)音、音頻與用戶對(duì)話的能力。有網(wǎng)友曬出了與其交互的視頻,視頻中AI語(yǔ)音交互中的語(yǔ)氣、停頓、重音都十分接近真人。有人質(zhì)疑,它停頓的那一秒真的是在思考嗎?
事實(shí)上,10月初,蘇茨克維就在其社交賬號(hào)上聲稱,“大型神經(jīng)網(wǎng)絡(luò)具有輕微的意識(shí)”。
對(duì)此,未來(lái)主義網(wǎng)站刊文寫道:“這是一個(gè)不尋常的觀點(diǎn)。AI研究人員廣泛接受的觀點(diǎn)是,該技術(shù)在過(guò)去十年中取得了長(zhǎng)足進(jìn)步,但仍遠(yuǎn)遠(yuǎn)低于人類智能,更不用說(shuō)有意識(shí)地體驗(yàn)世界了。”
Mind Matters播客網(wǎng)站文章表示,聽到這些AI領(lǐng)軍人物稱贊他們創(chuàng)造的東西既是世界的救世主,又是潛在的死神,真是“令人費(fèi)解”。然而,一些更中立、客觀的觀點(diǎn)可能會(huì)緩和這種炒作。
計(jì)算機(jī)工程師羅伯特·J·馬克斯就是這些理智的發(fā)聲者之一,他重申,AI永遠(yuǎn)不會(huì)實(shí)現(xiàn)像人類一樣的智能或意識(shí)。AI的運(yùn)行基于算法,它們的功能與人類的情感和思維有著質(zhì)的不同。
沒(méi)有理由認(rèn)為當(dāng)前AI有意識(shí)
不過(guò),也許這樣的辯論陷入了語(yǔ)義混亂之中。
意識(shí)到底是什么?它能被量化嗎?這本身就是令哲學(xué)家和科學(xué)家困惑已久的問(wèn)題。
美國(guó)趣味科學(xué)網(wǎng)刊文稱,哲學(xué)家將意識(shí)描述為具有獨(dú)特的自我意識(shí)以及對(duì)周圍發(fā)生的事情的認(rèn)識(shí)。神經(jīng)科學(xué)家通過(guò)分析人的大腦中整合和解釋感官數(shù)據(jù)的活動(dòng),對(duì)如何量化意識(shí)提出了自己的觀點(diǎn)。然而,將這些規(guī)則應(yīng)用于AI是很棘手的。
粵港澳大灣區(qū)數(shù)字經(jīng)濟(jì)研究院(IDEA)講席科學(xué)家張家興在接受科技日?qǐng)?bào)記者采訪時(shí)表示,對(duì)于AI領(lǐng)域的從業(yè)人員來(lái)說(shuō),對(duì)“什么叫AI擁有自我意識(shí)”這件事情并沒(méi)有一個(gè)很清楚的定義,自我意識(shí)很難像人臉識(shí)別、語(yǔ)音識(shí)別這些能力一樣可以被定量衡量。
《自然》網(wǎng)站10月30日發(fā)表書評(píng)文章稱,美國(guó)紐約大學(xué)神經(jīng)科學(xué)家約瑟夫·勒杜在《存在的四個(gè)領(lǐng)域》中提出,地球上的生命有四種基本類型:生物生命、神經(jīng)生物生命、認(rèn)知生命和意識(shí)生命。勒杜堅(jiān)持認(rèn)為,意識(shí)只能存在于生物體內(nèi)。即使模仿具備意識(shí)的生物的機(jī)制(無(wú)論這些機(jī)制從微觀到宏觀層面是什么),所產(chǎn)生的系統(tǒng)也不會(huì)有意識(shí)。
澳大利亞《對(duì)話》雜志今年也表示,“目前的這些AI系統(tǒng)真的能進(jìn)行思考和理解嗎?”不是一個(gè)可單純通過(guò)技術(shù)進(jìn)步來(lái)回答的問(wèn)題。
新發(fā)表在預(yù)印本網(wǎng)站arXiv上的一篇論文稱,今年3月發(fā)布的語(yǔ)言模型GPT-4未能通過(guò)圖靈測(cè)試。
大腦如何產(chǎn)生意識(shí)依舊未解
據(jù)10月27日發(fā)表在《神經(jīng)科學(xué)》雜志上的論文,愛沙尼亞研究委員會(huì)3名科學(xué)家認(rèn)為,盡管AI系統(tǒng)具有復(fù)雜的反應(yīng),但這些系統(tǒng)不具備人類所擁有的具體經(jīng)驗(yàn)或神經(jīng)機(jī)制。因此,將AI的能力等同于真正的意識(shí)可能過(guò)于簡(jiǎn)單化了。
研究指出,語(yǔ)言模型缺乏我們通過(guò)感官與周圍世界進(jìn)行接觸所獲得的具體的、嵌入性的信息。同時(shí),當(dāng)今AI算法的架構(gòu)缺少與哺乳動(dòng)物意識(shí)相關(guān)的丘腦皮質(zhì)系統(tǒng)的關(guān)鍵特征。此外,導(dǎo)致有生命、有意識(shí)的有機(jī)體出現(xiàn)的進(jìn)化和發(fā)展軌跡,是今天的AI系統(tǒng)的發(fā)展軌跡所不可比擬的。
生命有機(jī)體的存在依賴于多層次的細(xì)胞活動(dòng),能動(dòng)性和意識(shí)正是產(chǎn)生于復(fù)雜的有機(jī)體活動(dòng)。因此,盡管人們想當(dāng)然地認(rèn)為ChatGPT和類似的系統(tǒng)可能是有意識(shí)的,但這嚴(yán)重低估了我們大腦中產(chǎn)生意識(shí)的神經(jīng)機(jī)制的復(fù)雜性。
25年前,神經(jīng)科學(xué)家克里斯托夫·科赫與哲學(xué)家大衛(wèi)·查默斯打了個(gè)賭。科赫說(shuō),大腦神經(jīng)元產(chǎn)生意識(shí)的機(jī)制將于2023年被發(fā)現(xiàn)。查默斯表示不可能。今年6月23日在紐約召開的意識(shí)科學(xué)研究協(xié)會(huì)年會(huì)宣布了這一賭局的結(jié)果:查默斯獲勝。也就是說(shuō),大腦神經(jīng)元產(chǎn)生意識(shí)的機(jī)制并未在今年被發(fā)現(xiàn)。
發(fā)表在《神經(jīng)科學(xué)》雜志上的論文也認(rèn)為,生物神經(jīng)元是真實(shí)的物理實(shí)體,可以生長(zhǎng)和改變形狀,而大型語(yǔ)言模型中的“神經(jīng)元”只是無(wú)意義的代碼片段。我們距離理解意識(shí)還有很長(zhǎng)的路要走,因此,距離研發(fā)有意識(shí)的機(jī)器還有更長(zhǎng)的路要走。
《自然》網(wǎng)站文章稱:AI系統(tǒng)會(huì)有意識(shí)嗎?我們真的想要制造一臺(tái)具有意識(shí)或能動(dòng)性的機(jī)器嗎?這些問(wèn)題的答案都是不確定的。我們還不了解世界上哪些生物是有意識(shí)的,也沒(méi)有建立起將這種可能性納入考慮的倫理框架。在該文作者看來(lái),成為一個(gè)去思考意識(shí)來(lái)源的生物,而不是一個(gè)渴望創(chuàng)造人工意識(shí)的生物,也許是更明智的選擇。
相關(guān)鏈接
最新研究表明
GPT-4未通過(guò)圖靈測(cè)試
科技日?qǐng)?bào)訊 (記者張佳欣)圖靈測(cè)試是一種檢驗(yàn)機(jī)器是否具有人類智能的方法。ChatGPT在AI領(lǐng)域成為“新星”的過(guò)程中,有一個(gè)問(wèn)題一直存在:它是否通過(guò)了圖靈測(cè)試。
美國(guó)加州大學(xué)圣迭戈分校的研究人員卡梅隆·瓊斯和本杰明·卑爾根借鑒了艾倫·圖靈的研究成果,設(shè)計(jì)了一個(gè)程序,以確定機(jī)器是否能夠達(dá)到人類智力和對(duì)話能力的臨界點(diǎn)。倘若達(dá)到臨界點(diǎn),那么它就足以讓人誤以為它是人類。結(jié)果顯示,GPT-4未通過(guò)測(cè)試。相關(guān)研究報(bào)告《GPT-4能通過(guò)圖靈測(cè)試嗎?》于10月31日發(fā)表在預(yù)印本網(wǎng)站arXiv上。
ChatGPT給人的印象大多是聰明的、快捷的。在與人交談時(shí),它的回答很人性化,甚至可以表現(xiàn)得幽默風(fēng)趣,能模仿青少年的措辭,并通過(guò)了美國(guó)法學(xué)院的考試。但有時(shí),人們會(huì)發(fā)現(xiàn)它提供的信息完全是錯(cuò)誤的,是胡編亂造的。
卡梅隆·瓊斯和本杰明·卑爾根召集了650名參與者,參與者會(huì)和人或GPT模型進(jìn)行簡(jiǎn)短對(duì)話,并被要求確定他們?cè)谂c誰(shuí)交談。結(jié)果發(fā)現(xiàn),GPT-4模型在41%的情況下騙過(guò)了參與者,而GPT-3.5模型成功騙過(guò)參與者的幾率僅為5%至14%。有趣的是,人類僅在63%的試驗(yàn)中成功地讓參與者相信他們不是機(jī)器。
研究人員總結(jié)道:“我們沒(méi)有發(fā)現(xiàn)GPT-4通過(guò)圖靈測(cè)試的證據(jù)。”(記者 張佳欣)