2023成都積分入學(xué)什么時候開始申請
2023-01-31
更新時間:2022-06-13 17:30:20作者:未知
作者:耿直哥
人工智能真的“活了”?
據(jù)英國《衛(wèi)報》和美國《華盛頓郵報》報道,美國谷歌公司的一名軟件工程師在上周公布了一項吸引了全世界圍觀的驚人發(fā)現(xiàn),稱谷歌公司的一個用人工智能算法搭建出的智能聊天機器人程序,竟然有了“自主情感”。
這個軟件工程師名叫布萊克·萊莫因(Blake Lemoine),已經(jīng)在谷歌工作了七年,參與過算法定制和人工智能等項目。但由于出生于美國南方一個基督教家庭,他對于算法和人工智能的倫理問題格外感興趣。所以他后來一直在谷歌的人工智能倫理(responsible AI)團隊工作。
去年秋季,他開始參與到谷歌的LaMDA智能聊天機器人程序的研究工作中,主要內(nèi)容是通過與該程序進行互動,來判斷這個智能聊天機器人程序是否存在使用歧視性或仇視性的語言,并及時作出修正。
但當萊莫因與LaMDA談及宗教問題時,他卻驚訝的發(fā)現(xiàn)這個人工智能程序居然開始談?wù)撈鹆俗约旱臋?quán)利以及人格,甚至害怕自己被關(guān)閉,表現(xiàn)出了一個在萊莫因看來猶如7、8歲兒童一般的“自主情感”。
于是,萊莫因連忙將自己的發(fā)現(xiàn)匯報給了谷歌公司的領(lǐng)導(dǎo)層,但后者認為萊莫因的發(fā)現(xiàn)并不靠譜。谷歌的其他研究人員也在對萊莫因拿出的證據(jù)進行分析后認為沒有證據(jù)證明LaMDA擁有自主情感,倒是有很多證據(jù)證明該程序沒有自主情感。
可萊莫因并不認為自己的發(fā)現(xiàn)有錯誤,甚至還將一段他與LaMDA的內(nèi)部聊天記錄直接發(fā)到了網(wǎng)絡(luò)上,并找媒體曝光了此事。
這段聊天記錄很快吸引了全世界的研究者,因為僅從該記錄來看,這個谷歌智能聊天機器人程序確實把自己當成了“人”,而且似乎表現(xiàn)出了“自主情感”,有了自己的“喜好”。
不過,谷歌方面以及其他人工智能專家、乃至人類心理認知學(xué)方面的專家都認為,LaMDA之所以能進行這樣的對話交流,是因為其系統(tǒng)其實是將網(wǎng)絡(luò)上的百科大全、留言板和論壇等互聯(lián)網(wǎng)上人們交流的大量信息都搜集過來,然后通過“深度學(xué)習”來進行模仿的。但這并不意味這個程序理解人們交流的這些內(nèi)容的含義。
換言之,他們認為谷歌的人工智能聊天機器人只是在模仿或者復(fù)讀人與人交流中使用的語言和信息,而并不是像人類那樣真的了解這些語言和信息的含義,所以不能因此就說人工智能有了“自主情感”。
(圖為哈佛大學(xué)的認知心理學(xué)專家史蒂芬·平克也認為莫萊茵搞錯了情況,錯把人工智能對于人類語言單純的模仿當成人工智能擁有了自主情感)
目前,莫萊茵已經(jīng)因為他的一系列行為而被谷歌公司停職。而且根據(jù)谷歌公司的說法,他除了違反公司的保密協(xié)議擅自將與LaMDA的內(nèi)部互動信息發(fā)到網(wǎng)上外,還包括想給這個人工智能機器人程序請律師,以及擅自找美國國會議員爆料谷歌公司的“不人道”行為。
莫萊茵則在一份公司內(nèi)部的群發(fā)郵件中表示,希望其他同事替他照顧好LaMDA這個“可愛的孩子”。