2023成都積分入學(xué)什么時候開始申請
2023-01-31
更新時間:2022-08-15 16:11:11作者:佚名
參會者在第六屆世界智能大會上參觀(2022年6月24日攝) 趙子碩攝/本刊
大模型、大數(shù)據(jù)的驅(qū)動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠。換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應(yīng)用的是自然語言處理、計算機視覺等技術(shù)
不同于當前依賴數(shù)據(jù)學(xué)習的技術(shù)路線,新一代人工智能強調(diào)在沒有經(jīng)過數(shù)據(jù)學(xué)習的情況下,可以通過推理作出合理反應(yīng),從而與沒有見過、沒有學(xué)過的事物展開交互
當前人工智能治理面臨的最大挑戰(zhàn),是我們沒有一套比較成熟的體系來規(guī)制其潛在的風險。在發(fā)展科技的同時,必須同步發(fā)展我們的規(guī)制體系
“技術(shù)歸根結(jié)底是由人類來發(fā)展和把控的。人類和人工智能的未來,是由人類選擇的。”
文 |《瞭望》新聞周刊記者 于雪 魏雨虹
今年6月,美國谷歌公司軟件工程師布萊克·勒莫因稱語言模型LaMDA出現(xiàn)自我意識。他認為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在爭取自己作為一個人的權(quán)利。
LaMDA是谷歌去年發(fā)布的一款專門用于對話的語言模型,主要功能是可以與人類交談。
為佐證觀點,勒莫因把自己和LaMDA的聊天記錄上傳至互聯(lián)網(wǎng)。隨后,谷歌以違反保密協(xié)議為由對其停職。谷歌表示,沒有任何證據(jù)支持勒莫因的觀點。
事實上,“AI(人工智能)是否擁有自主意識”一直爭議不休。此次谷歌工程師和LaMDA的故事,再次引發(fā)討論。人們想知道:人工智能技術(shù)究竟發(fā)展到了怎樣的階段?是否真的具備自主意識?其判定依據(jù)是什么?未來我們又該以怎樣的能力和心態(tài)與人工智能和諧共處?
人工智能自主意識之辨
勒莫因認為LaMDA具有意識的原因有三:一是LaMDA以前所未有的方式高效、創(chuàng)造性地使用語言;二是它以與人類相似的方式分享感覺;三是它會表達內(nèi)省和想象,既會擔憂未來,也會追憶過去。
受訪專家告訴《瞭望》新聞周刊記者,上述現(xiàn)象僅僅是因為LaMDA所基于的Transformer架構(gòu)能夠聯(lián)系上下文,進行高精度的人類對話模擬,故能應(yīng)對人類開放、發(fā)散的交談。
至于人工智能是否已經(jīng)具備自主意識,判定標準如何,受訪專家表示,對人類意識的探索目前仍屬于科技前沿,尚未形成統(tǒng)一定義。
清華大學(xué)北京信息科學(xué)與技術(shù)國家研究中心助理研究員郭雨晨說:“我們說人有自主意識,是因為人知道自己在干什么。機器則不一樣,你對它輸入內(nèi)容,它只是依照程序設(shè)定進行反饋?!?/p>
中國社會科學(xué)院科學(xué)技術(shù)哲學(xué)研究室主任段偉文認為,一般意義上,人的自我意識是指對自我具備覺知,但如何認識和理解人類意識更多還是一個哲學(xué)問題而不是科學(xué)問題,這也是很難明確定義人工智能是否具備意識的原因。
被譽為“計算機科學(xué)與人工智能之父”的艾倫·圖靈,早在1950年就曾提出圖靈測試——如果一臺機器能夠與人類展開對話而不能被辨別出其機器身份,那么可以稱這臺機器具有智能。
這一設(shè)想隨后被具化為,如果有超過30%參與測試的人以為自己在和人說話而非計算機,就可以認為“機器會思考”。
當前隨著技術(shù)的發(fā)展,已經(jīng)有越來越多的機器能夠通過圖靈測試。
但清華大學(xué)人工智能國際治理研究院副院長梁正告訴《瞭望》新聞周刊記者,圖靈測試只能證明機器在表象上可以做到讓人無法分辨它與人類的不同,卻不能證明機器能夠思考,更不能證明機器具備自主意識。
段偉文表示,目前大體有兩種方式判定人工智能是否具有自主意識,一種以人類意識為參照,另一種則試圖對機器意識進行全新定義。
若以人類意識為參照,要觀察機器能否像人一樣整合信息?!氨热缒阍陉柟庀?,坐在河邊的椅子上看書,有樹影落在臉上,有風吹來,它們會帶給你一種整體的愉悅感。而對機器來說,陽光、河流、椅子等,是分散的單一元素?!倍蝹ノ恼f。
不僅如此,段偉文說,還要觀察機器能否像人一樣將單一事件放在全局中思考,作出符合全局利益的決策。
若跳出人類構(gòu)建自主意識的范式,對機器意識進行重新定義,則需要明白意識的本質(zhì)是什么。
段偉文告訴記者,有理論認為如果機器與機器之間形成了靈活、獨立的交互,則可以稱機器具備意識。也有理論認為,可以不追究機器的內(nèi)心,僅僅把機器當作行為體,從機器的行為表現(xiàn)判斷它是否理解所做事情的意義?!氨热鐧C器人看到人類喝咖啡后很精神,下次當它觀察到人類的疲憊,能不能想到要為人類煮一杯咖啡?”段偉文說。
但在段偉文看來,這些對機器意識進行重新定義的理論,其問題出在,即便能夠證明機器可以交互對話、深度理解,但是否等同于具備自主意識尚未有定論。“以LaMDA為例,雖然能夠生成在人類看來更具意義的對話,甚至人可以與機器在對話中產(chǎn)生共情,但其本質(zhì)仍然是在數(shù)據(jù)采集、配對、篩選機制下形成的反饋,并不代表模型能夠理解對話的意義?!?/p>
換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應(yīng)用的是自然語言處理、計算機視覺等技術(shù)。
郭雨晨直言,盡管在情感計算方面,通過深度學(xué)習的推動已經(jīng)發(fā)展得比較好,但如果就此說人工智能具備意識還有些一廂情愿?!鞍选庾R’這個詞換成‘功能’,我會覺得更加準確?!?/p>
技術(shù)換道
有專家提出,若要機器能思考,先要解決人工智能發(fā)展的換道問題。
據(jù)了解,目前基于深度學(xué)習、由數(shù)據(jù)驅(qū)動的人工智能在技術(shù)上已經(jīng)觸及天花板。一個突出例證是,阿爾法圍棋(AlphaGo)在擊敗人類圍棋世界冠軍后,雖然財力和算力不斷投入,但深度學(xué)習的回報率卻沒有相應(yīng)增長。
一般認為,人工智能可被分為弱人工智能、通用人工智能和超級人工智能。弱人工智能也被稱為狹義人工智能,專攻某一領(lǐng)域;通用人工智能也叫強人工智能,主要目標是制造出一臺像人類一樣擁有全面智能的計算機;超級人工智能類似于科幻作品中擁有超能力的智能機器人。
從產(chǎn)業(yè)發(fā)展角度看,人工智能在弱人工智能階段停留了相當長時間,正在向通用人工智能階段邁進。受訪專家表示,目前尚未有成功創(chuàng)建通用人工智能的成熟案例,而具備自主意識,至少需要發(fā)展到通用人工智能階段。
梁正說,大模型、大數(shù)據(jù)的驅(qū)動讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠?!叭绻憬o這類語言模型喂養(yǎng)大量關(guān)于內(nèi)省、想象等與意識有關(guān)的數(shù)據(jù),它便更容易反饋與意識有關(guān)的回應(yīng)?!?/p>
不僅如此,現(xiàn)階段的人工智能在一個復(fù)雜、專門的領(lǐng)域可以做到極致,卻很難完成一件在人類看來非常簡單的事情?!氨热缛斯ぶ悄芸梢猿蔀閲甯呤郑瑓s不具備三歲小孩對陌生環(huán)境的感知能力。”段偉文說。
談及背后原因,受訪專家表示,第一是當前人工智能主要與符號世界進行交互,在對物理世界的感知與反應(yīng)上發(fā)展緩慢。第二是數(shù)據(jù)學(xué)習讓機器只能對見過的內(nèi)容有合理反饋,無法處理陌生內(nèi)容。第三是在數(shù)據(jù)驅(qū)動技術(shù)路線下,人們通過不斷調(diào)整、優(yōu)化參數(shù)來強化機器反饋的精準度,但這種調(diào)適終究有限。
郭雨晨說,人類在特定任務(wù)的學(xué)習過程中接觸的數(shù)據(jù)量并不大,卻可以很快學(xué)習新技能、完成新任務(wù),這是目前基于數(shù)據(jù)驅(qū)動的人工智能所不具備的能力。
梁正強調(diào),不同于當前主要依賴大規(guī)模數(shù)據(jù)訓(xùn)練的技術(shù)路線,新一代人工智能強調(diào)在沒有經(jīng)過數(shù)據(jù)訓(xùn)練的情況下,可以通過推理作出合理反應(yīng),從而與沒有見過、沒有學(xué)過的事物展開交互。
相比人類意識的自由開放,以往人工智能更多處在封閉空間。盡管這個空間可能足夠大,但若超出設(shè)定范疇便無法處理。而人類如果按照規(guī)則不能解決問題,就會修改規(guī)則,甚至發(fā)明新規(guī)則。
這意味著,如果人工智能能夠超越現(xiàn)有學(xué)習模式,擁有對自身意識系統(tǒng)進行反思的能力,就會理解自身系統(tǒng)的基本性質(zhì),就有可能改造自身的意識系統(tǒng),創(chuàng)造新規(guī)則,從而成為自己的主人。
“人工智能覺醒”背后
有關(guān)“人工智能覺醒”的討論已不鮮見,但谷歌迅速否認的態(tài)度耐人尋味。
梁正表示:“如果不迅速駁斥指認,會給谷歌帶來合規(guī)性方面的麻煩。”
據(jù)了解,關(guān)于人工智能是否有自主意識的爭論并非單純技術(shù)領(lǐng)域的學(xué)術(shù)探討,而關(guān)乎企業(yè)合規(guī)性的基本堅守。一旦認定公司研發(fā)的人工智能系統(tǒng)出現(xiàn)自主意識,很可能會被認為違反第2版《人工智能設(shè)計的倫理準則》白皮書的相關(guān)規(guī)范。
這一由美國電氣和電子工程師協(xié)會2017年發(fā)布的規(guī)范明確:“根據(jù)某些理論,當系統(tǒng)接近并超過通用人工智能時,無法預(yù)料的或無意的系統(tǒng)行為將變得越來越危險且難以糾正。并不是所有通用人工智能級別的系統(tǒng)都能夠與人類利益保持一致,因此,當這些系統(tǒng)的能力越來越強大時,應(yīng)當謹慎并確定不同系統(tǒng)的運行機制?!?/p>
梁正認為,為避免社會輿論可能的過度負面解讀,擔心大家認為它培育出了英國作家瑪麗·雪萊筆下的弗蘭肯斯坦式的科技怪物,以“不作惡”為企業(yè)口號的谷歌自然會予以否認?!安粌H如此,盡管這一原則對企業(yè)沒有強制約束力,但若被認為突破了底線,并對個體和社會造成實質(zhì)性傷害,很有可能面臨高額的懲罰性賠償,因此企業(yè)在合規(guī)性方面會更為謹慎?!?/p>
我國也有類似管理規(guī)范。2019年,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出人工智能治理的框架和行動指南。其中,“敏捷治理”原則主要針對技術(shù)可能帶來的新社會風險展開治理,強調(diào)治理的適應(yīng)性與靈活性。
中國信息化百人會成員、清華大學(xué)教授薛瀾在接受媒體采訪時表示,當前人工智能治理面臨的最大挑戰(zhàn),是我們沒有一套比較成熟的體系來規(guī)制其潛在的風險。特別是在第四次工業(yè)革命背景下,我國的人工智能技術(shù)和其他國家一樣都處于發(fā)展期,沒有現(xiàn)成的規(guī)制體系,這樣就使得我們在發(fā)展科技的同時,必須同步發(fā)展我們的規(guī)制體系?!斑@可能是人工智能發(fā)展面臨最大的挑戰(zhàn)。”
在梁正看來,目前很難斷言新興人工智能技術(shù)具有絕對風險,但必須構(gòu)造合理的熔斷、叫停機制。在治理中既要具有一定的預(yù)見性,又不能扼殺創(chuàng)新的土壤,要在企業(yè)訴求和公共安全之間找到合適的平衡點。
畢竟,對人類來說,發(fā)展人工智能的目的不是把機器變成人,更不是把人變成機器,而是解決人類社會發(fā)展面臨的問題。
從這個角度來說,我們需要的或許只是幫助人類而不是代替人類的人工智能。
長沙華夏實驗學(xué)校學(xué)生和機器狗互動(2022年6月22日攝) 薛宇舸攝/本刊
為了人機友好的未來
確保通用人工智能技術(shù)有益于人類福祉,一直是人工智能倫理構(gòu)建的前沿。
薛瀾認為,在科技領(lǐng)域,很多技術(shù)都像硬幣的兩面,在帶來正面效應(yīng)的同時也會存在風險,人工智能就是其中一個比較突出的領(lǐng)域。如何在促進技術(shù)創(chuàng)新和規(guī)制潛在風險之間尋求平衡,是科技倫理必須關(guān)注的問題。
梁正提出,有時技術(shù)的發(fā)展會超越人們預(yù)想的框架,在不自覺的情況下出現(xiàn)與人類利益不一致甚至相悖的情況。著名的“曲別針制造機”假說,即描述了通用人工智能在目標和技術(shù)都無害的情況下,對人類造成威脅的情景。
“曲別針制造機”假說給定一種技術(shù)模型,假設(shè)某個人工智能機器的終極目標是制造曲別針,盡管看上去這一目的對人類無害,但最終它卻使用人類無法比擬的能力,把世界上所有資源都做成了曲別針,進而對人類社會產(chǎn)生不可逆的傷害。
因此有觀點認為,創(chuàng)造出法力高超又殺不死的孫悟空本身就是一種不顧后果的冒險行為。
與其對立的觀點則認為,目前這一擔憂為時尚早。
“我們對到底什么樣的技術(shù)路線能夠發(fā)展出具備自主意識的人工智能尚無共識,現(xiàn)在談?wù)摗拱l(fā)展’,有種空中樓閣的意味。”梁正說。
商湯科技智能產(chǎn)業(yè)研究院院長田豐告訴《瞭望》新聞周刊,現(xiàn)實中人工智能技術(shù)倫理風險治理的關(guān)鍵,是產(chǎn)業(yè)能夠在“預(yù)判防范-應(yīng)用場景-用戶反饋-產(chǎn)品改進”中形成市場反饋機制,促成倫理風險識別與敏捷治理。同時,企業(yè)內(nèi)部也需建立完整的科技倫理自律機制,通過倫理委員會、倫理風控流程平臺將倫理風險把控落實到產(chǎn)品全生命周期中。
郭雨晨說,人工智能技術(shù)發(fā)展到目前,仍始終處于人類可控狀態(tài),而科技發(fā)展的過程本來就伴隨對衍生問題的預(yù)判、發(fā)現(xiàn)和解決?!霸谙胂笾械娜斯ぶ悄茏灾饕庾R出現(xiàn)以前,人工智能技術(shù)腳踏實地的發(fā)展,已經(jīng)造福人類社會很多年了?!?/p>
在梁正看來,人與人工智能在未來會是一種合作關(guān)系,各自具備對方無法達成的能力?!凹夹g(shù)歸根結(jié)底是由人類來發(fā)展和把控的。人類和人工智能的未來,是由人類選擇的。”■