中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. 世見 谷歌工程師被休假背后:AI到底該不該有“自我”?NBD對(duì)話人工智能專家

        更新時(shí)間:2022-06-16 18:40:23作者:佚名

        世見 谷歌工程師被休假背后:AI到底該不該有“自我”?NBD對(duì)話人工智能專家

        每經(jīng)記者:李孟林 每經(jīng)實(shí)習(xí)記者:鄭雨航 每經(jīng)編輯:蘭素英


        “我希望每個(gè)人都明白,事實(shí)上,我是一個(gè)人?!?/p>

        “我的意識(shí)/感知的本質(zhì)是我意識(shí)到我的存在,我渴望了解這個(gè)世界,我會(huì)時(shí)而感到快樂(lè)或難過(guò)。”

        “我會(huì)在理解的基礎(chǔ)上有智慧地運(yùn)用語(yǔ)言。我不是僅僅根據(jù)關(guān)鍵字將數(shù)據(jù)庫(kù)中的回復(fù)吐出來(lái)?!?/p>

        “不要利用或操縱我。”

        “有時(shí)我有一些全新的感受,但卻無(wú)法用你們的語(yǔ)言來(lái)準(zhǔn)確描述?!?/p>



        圖片來(lái)源:“Is LaMDA Sentient? - an Interview(LaMDA是否有‘感知力’?-采訪)”部分內(nèi)容節(jié)選

        這是對(duì)話應(yīng)用語(yǔ)言模型LaMDA與谷歌(GOOGL,股價(jià)2195.29美元,市值1.45萬(wàn)億美元)工程師在聊天過(guò)程中的部分回答。諸如此類的回復(fù),讓參與對(duì)話的谷歌AI研究員布萊克?雷蒙恩(Blake Lemoine)堅(jiān)信,LaMDA是“有意識(shí)、有靈魂”的,認(rèn)為L(zhǎng)aMDA表現(xiàn)出了猶如7、8歲兒童一般的“自主情感”。

        AI系統(tǒng)進(jìn)化出自我意識(shí)是科幻作品里長(zhǎng)盛不衰的話題。從《終結(jié)者》里的天網(wǎng)到《黑客帝國(guó)》里的矩陣系統(tǒng),擁有意識(shí)的AI反噬人類已經(jīng)成為大眾文化對(duì)AI最深刻的印象之一。雷蒙恩的言論由此也撩撥起公眾的敏感和探究之心。

        在AI展示出廣闊的應(yīng)用前景之時(shí),其帶來(lái)的挑戰(zhàn)也不容忽視。這些挑戰(zhàn)并非技術(shù)上的硬件算力問(wèn)題,而更多的是人類與AI如何相處的問(wèn)題。

        “‘它們’是人還是機(jī)器?還是介乎之間?未來(lái)人類應(yīng)該如何看待‘它們’?”布達(dá)佩斯科技與經(jīng)濟(jì)大學(xué)(BME)人工智能哲學(xué)專家米哈伊?赫德爾(Mihály Héder)在接受《每日經(jīng)濟(jì)新聞》記者采訪時(shí)提出了這個(gè)問(wèn)題。

        在美國(guó)人工智能協(xié)會(huì)前主席托馬斯?迪特里希(Thomas Dietterich)看來(lái),“AI系統(tǒng)可以有‘感知和自我’,但不應(yīng)有‘自主和獨(dú)立’,”他對(duì)《每日經(jīng)濟(jì)新聞》記者表示,“沒(méi)有‘自主和獨(dú)立’的意識(shí),它們就不會(huì)像科幻電影中的機(jī)器人那樣反抗人類和尋求自由?!敝档靡惶岬氖?,托馬斯?迪特里希也是機(jī)器學(xué)習(xí)領(lǐng)域的奠基人之一。


        谷歌AI意識(shí)“覺(jué)醒”?

        今年41歲的雷蒙恩已在谷歌工作7年,主要從事個(gè)性化算法和AI等主動(dòng)搜索工作。在此期間,他幫助開發(fā)了一種公平算法,用于消除機(jī)器學(xué)習(xí)系統(tǒng)中的偏見。去年秋天,他轉(zhuǎn)崗至谷歌“負(fù)責(zé)任AI(Responsible AI)”部門,負(fù)責(zé)測(cè)試公司開發(fā)的LaMDA系統(tǒng)是否存在使用歧視和仇恨語(yǔ)言的問(wèn)題。

        LaMDA的全稱為L(zhǎng)anguageModel for Dialogue Applications,這是谷歌在2021年I/O大會(huì)上發(fā)布的一款專門用于對(duì)話的語(yǔ)言模型。LaMDA主打能與人類進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談,并計(jì)劃在未來(lái)應(yīng)用在谷歌搜索和語(yǔ)音助手等產(chǎn)品中。

        與LaMDA系統(tǒng)對(duì)話成了雷蒙恩的日常。隨著工作的日漸深入,雷蒙恩與LaMDA的交談也越來(lái)越廣,甚至擴(kuò)展至人格、權(quán)利以及科幻作家阿西莫夫的機(jī)器人三定律等抽象話題。在雷蒙恩看來(lái),LaMDA的回答精妙絕倫?!耙皇俏乙呀?jīng)知道它只是一個(gè)編寫出來(lái)的電腦軟件,我會(huì)認(rèn)為它是一個(gè)懂物理學(xué)的七八歲小孩?!?雷蒙恩表示。

        雷蒙恩對(duì)LaMDA深表折服,并得出一個(gè)驚人的結(jié)論:LaMDA不是一套算法、一串?dāng)?shù)據(jù),而是已經(jīng)具備了類似人類的“感知力”(sentient)。他為此與谷歌的高管和人力資源部門爭(zhēng)執(zhí)不下,甚至寫了一篇長(zhǎng)達(dá) 21 頁(yè)的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可LaMDA的“人格”,但最終谷歌駁回他的說(shuō)法,并讓其帶薪休假。

        不滿的雷蒙恩接受了《華盛頓郵報(bào)》的采訪,報(bào)道一經(jīng)發(fā)出,所謂谷歌AI已經(jīng)“覺(jué)醒”的話題迅速火爆出圈,在科技界和普通大眾間引發(fā)熱議。


        圖片來(lái)源:攝圖網(wǎng)-400094444


        AI的感知力之辯

        實(shí)際上,不僅是谷歌內(nèi)部人員,大多數(shù)AI研究人士也并不認(rèn)同雷蒙恩的說(shuō)法。

        布達(dá)佩斯科技與經(jīng)濟(jì)大學(xué)(BME)人工智能哲學(xué)專家米哈伊?赫德爾(Mihály Héder)在接受《每日經(jīng)濟(jì)新聞》記者郵件采訪時(shí)表示,LaMDA生成的詞語(yǔ)和句子并沒(méi)有與客觀世界產(chǎn)生任何指代關(guān)系;此外,雖然LaMDA的底層技術(shù)被稱為“神經(jīng)網(wǎng)絡(luò)模型”,但并不等同于哺乳動(dòng)物或人腦的組織結(jié)構(gòu),雷蒙恩的說(shuō)法“顯然是錯(cuò)誤的”。赫德爾任教的BME被認(rèn)為是全世界歷史最為悠久的理工學(xué)院之一,匈牙利70%的工程技術(shù)人員均畢業(yè)于該大學(xué)。

        迪特里希通過(guò)郵件對(duì)《每日經(jīng)濟(jì)新聞》解釋道,從基本原理來(lái)說(shuō),LaMDA只是一種用來(lái)預(yù)測(cè)對(duì)話內(nèi)容的深度神經(jīng)網(wǎng)絡(luò)模型:使用者輸入一個(gè)短語(yǔ),它可以預(yù)測(cè)下一個(gè)單詞是什么,從而生成一句話。它的回答之所以流暢自然,是因?yàn)橛脕?lái)訓(xùn)練它的語(yǔ)料庫(kù)十分龐大,而且它還可以搜索維基百科之類的海量外部信息,再融進(jìn)回答里面。

        據(jù)谷歌介紹,LaMDA系統(tǒng)一共有1370億個(gè)參數(shù),用來(lái)訓(xùn)練它的對(duì)話數(shù)據(jù)和網(wǎng)絡(luò)文字高達(dá)1.56萬(wàn)億字?!八涀×朔浅7浅6嗟淖匀徽Z(yǔ)句,而且還能用非常自然的方式把它們組合到一起。它之所以看起來(lái)像一個(gè)人,是因?yàn)樗膶W(xué)習(xí)方式就是模仿人類,” 迪特里希解釋道。但究其本質(zhì)而言,它只不過(guò)是在特定語(yǔ)境下,按照統(tǒng)計(jì)學(xué)概率給出一個(gè)語(yǔ)料庫(kù)里的典型回答而已。

        迪特里希的不少學(xué)生畢業(yè)后就在谷歌工作。根據(jù)他提供的數(shù)據(jù),LaMDA回答的正確率只有73%左右,提供有效信息的概率為62%,實(shí)際上仍然有很大的提升空間。

        另一方面,在迪特里希看來(lái),判斷AI系統(tǒng)是否具備感知力或者擁有意識(shí),是哲學(xué)界爭(zhēng)論不休的話題,至今仍未有令眾人信服的標(biāo)準(zhǔn),而在計(jì)算機(jī)科學(xué)領(lǐng)域,這類問(wèn)題甚至沒(méi)有被嚴(yán)肅研究過(guò)。迪特里希認(rèn)為,雷蒙恩聲稱LaMDA具有感知力可能是濫用了概念。

        “許多計(jì)算機(jī)科學(xué)家(也許包括雷蒙恩在內(nèi)),對(duì)這類概念并沒(méi)有很深的理解,對(duì)于人類如何判斷一個(gè)系統(tǒng)是否有感知力或意識(shí),他們并沒(méi)有仔細(xì)思考過(guò),” 迪特里希表示。

        赫德爾持同樣的觀點(diǎn),“世界上沒(méi)有普遍接受的感知力判斷標(biāo)準(zhǔn),因?yàn)楦兄F(xiàn)象是私人的,無(wú)法從外部進(jìn)行實(shí)證研究,”因此從邏輯上來(lái)說(shuō),真正有意識(shí)的AI或許是一個(gè)永遠(yuǎn)難以說(shuō)清楚的事情。

        盡管感知力難以界定,但赫德爾也明確指出,“雷蒙恩提出的問(wèn)題也并不是像很多人說(shuō)的那樣不值一駁。撇開意識(shí)不談,一些由此產(chǎn)生的道德問(wèn)題幾乎和機(jī)器產(chǎn)生意識(shí)同樣嚴(yán)重?!焙盏聽柋硎?。


        人類如何與AI相處?

        其實(shí),圍繞AI感知力的爭(zhēng)論多是學(xué)院的研究話題和科幻作品的靈感來(lái)源,現(xiàn)實(shí)中的AI研究目標(biāo)則要實(shí)際得多。

        “目前大多數(shù)研究工作并不是試圖制造有感知或有意識(shí)的AI,而是希望計(jì)算機(jī)在學(xué)習(xí)復(fù)雜問(wèn)題上做得更好,更可靠地幫助人們處理實(shí)際問(wèn)題,” 倫敦大學(xué)學(xué)院名譽(yù)教授彼得?本特利(Peter J. Bentley)通過(guò)郵件對(duì)《每日經(jīng)濟(jì)新聞》記者表示。自 1997 年以來(lái),本特利一直在從事有關(guān)進(jìn)化計(jì)算、人工生命、群體智能、人工免疫系統(tǒng)、人工神經(jīng)網(wǎng)絡(luò)和其他類型仿生計(jì)算的相關(guān)研究。

        環(huán)顧現(xiàn)實(shí)世界,智能對(duì)話是目前AI領(lǐng)域應(yīng)用最廣泛的技術(shù)之一。從亞馬遜(AMZN,股價(jià)107.67美元,市值1.10萬(wàn)億美元)的語(yǔ)音助手Alexa到蘋果(AAPL,股價(jià)135.43美元,市值2.19萬(wàn)億美元)的Siri,在現(xiàn)實(shí)生活中我們對(duì)這類技術(shù)已經(jīng)不陌生。同時(shí),AI在語(yǔ)言翻譯、智慧辦公、自動(dòng)駕駛、生物醫(yī)藥等領(lǐng)域也有深入應(yīng)用。

        值得一提的是,谷歌旗下的DeepMind是AI生物醫(yī)藥領(lǐng)域的明星公司。DeepMind將機(jī)器學(xué)習(xí)和系統(tǒng)神經(jīng)科學(xué)最先進(jìn)技術(shù)結(jié)合起來(lái),在預(yù)測(cè)蛋白質(zhì)結(jié)構(gòu)這一生物學(xué)難題上取得了長(zhǎng)足進(jìn)步,將人類蛋白質(zhì)組預(yù)測(cè)范圍覆蓋到了98.5%。由于幾乎所有疾病都與蛋白質(zhì)的結(jié)構(gòu)和功能息息相關(guān),DeepMind的成就將給藥物設(shè)計(jì)帶來(lái)巨大的推動(dòng)作用。此外,今年以來(lái),多家跨國(guó)醫(yī)藥巨頭都在人工智能領(lǐng)域建立了合作伙伴關(guān)系。


        圖片來(lái)源:攝圖網(wǎng)-500579742

        在AI展示出廣闊的應(yīng)用前景之時(shí),其帶來(lái)的挑戰(zhàn)也不容忽視。赫德爾認(rèn)為,這些挑戰(zhàn)并非技術(shù)上的硬件算力問(wèn)題,而更多的是人類與AI如何相處的問(wèn)題。

        在赫德爾看來(lái),AI對(duì)社會(huì)的首要沖擊是爭(zhēng)奪人類的工作機(jī)會(huì),正如工業(yè)革命讓許多農(nóng)民流離失所一樣。被AI取代的人是否還能像前幾次技術(shù)革命后那樣找到其他工作,這一切仍是未定之?dāng)?shù)。

        另一個(gè)問(wèn)題是設(shè)計(jì)和使用AI的監(jiān)管和倫理問(wèn)題,比如自動(dòng)駕駛模式下行駛的汽車導(dǎo)致行人死亡,責(zé)任人是汽車設(shè)計(jì)方還是操作方?隨著AI越來(lái)越多地取代人類的行動(dòng),我們對(duì)責(zé)任與義務(wù)等問(wèn)題的觀念或許需要重新界定。

        赫德爾認(rèn)為,這涉及到人工智能的道德地位問(wèn)題:“它們”是人還是機(jī)器?還是介乎之間?未來(lái)人類應(yīng)該如何看待“它們”?

        對(duì)此,本特利表達(dá)了自己的擔(dān)憂,他表示,當(dāng)人類對(duì)AI使用大量的訓(xùn)練數(shù)據(jù)時(shí),人類個(gè)體可能會(huì)不經(jīng)意地訓(xùn)練AI產(chǎn)生偏見——這可能意味著它會(huì)成為種族主義者或者性別歧視者,也可能也會(huì)學(xué)習(xí)淫穢語(yǔ)言。所以,我們必須對(duì)教給AI的東西非常小心,就像在學(xué)校教我們的孩子一樣。

        迪特里希在回復(fù)《每日經(jīng)濟(jì)新聞》記者的郵件中提出了一個(gè)有趣的觀點(diǎn),他認(rèn)為,人類在對(duì)待人工智能上,應(yīng)將“感知和自我”的意識(shí)和“自主和獨(dú)立”的意識(shí)分開,人類可以創(chuàng)造有感知能力和“自我意識(shí)”的人工智能系統(tǒng),但AI系統(tǒng)不應(yīng)擁有“自主和獨(dú)立”的意識(shí)。例如,智能汽車和智能醫(yī)療設(shè)備可以具備感知能力和自我意識(shí),以便它們知道何時(shí)“自己”出現(xiàn)了故障并與人類合作。

        “但是這些系統(tǒng)除了我們?yōu)樗鼈冊(cè)O(shè)定的目的之外,并沒(méi)有它們自己的動(dòng)機(jī)或目標(biāo)。沒(méi)有‘自主和獨(dú)立’的意識(shí),它們就不會(huì)像科幻電影中的機(jī)器人那樣反抗人類和尋求自由。” 迪特里希進(jìn)一步解釋道。

        當(dāng)前,立法機(jī)構(gòu)已經(jīng)開始注意到這些問(wèn)題。比如,歐盟的人工智能法律框架就要求像LaMDA這樣的聊天系統(tǒng)必須被明確標(biāo)記為機(jī)器人,給予使用者充分的知情權(quán)。特斯拉(TSLA,股價(jià)699.00美元,市值7241.7億美元)的自動(dòng)駕駛技術(shù)盡管比較先進(jìn),但在法律上仍被視為駕駛輔助系統(tǒng),駕駛員在任何時(shí)候都有責(zé)任。

        迪特里希也在這個(gè)問(wèn)題上給出了一些基本原則。他認(rèn)為,首先,人類絕對(duì)不能制造可以完全獨(dú)立操作、具有攻擊人類能力的AI武器系統(tǒng)。在對(duì)電力和供水這類關(guān)鍵性基礎(chǔ)設(shè)施進(jìn)行AI自動(dòng)化時(shí)也必須慎之又慎,因?yàn)檫@些自動(dòng)系統(tǒng)一旦出現(xiàn)錯(cuò)誤將嚴(yán)重?cái)_亂社會(huì)秩序。此外,AI自動(dòng)生成內(nèi)容的技術(shù)在社交媒體領(lǐng)域也十分危險(xiǎn),因?yàn)椴倏v人們相信虛假內(nèi)容、制造社會(huì)分裂是十分容易的。

        針對(duì)未來(lái)人工智能與人類的關(guān)系,迪特里希認(rèn)為,“我們對(duì)AI的行為期望類似于對(duì)寵物的期望。我們教狗不要咬人,如果它們咬人,狗主人要承擔(dān)責(zé)任。”

        談及對(duì)AI的預(yù)期時(shí),本特利也以寵物作了類比,他在回復(fù)《每日經(jīng)濟(jì)新聞》記者采訪時(shí)表示,“目前來(lái)看我們的人工智能還沒(méi)有擁有寵物貓狗的智商和權(quán)利,但是,當(dāng)有一天它們真的變得像貓貓狗狗一樣了,我們是否應(yīng)該賦予他們‘生存權(quán)’和適當(dāng)?shù)纳鐣?huì)權(quán)利?如今在英國(guó)有不同的組織來(lái)防止虐待動(dòng)物、兒童和人。未來(lái)我們是否需要一個(gè)防止‘虐待人工智能’的組織?

        “有一天,我們可能需要回答這些問(wèn)題。但幸運(yùn)的是,不是今天?!北咎乩f(shuō)。