中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. 谷歌研究員走火入魔:認(rèn)為AI具備人格被罰帶薪休假,聊天記錄嚇人

        更新時間:2022-06-12 15:45:31作者:佚名

        谷歌研究員走火入魔:認(rèn)為AI具備人格被罰帶薪休假,聊天記錄嚇人

        夢晨 發(fā)自 凹非寺
        量子位 | 公眾號 QbitAI

        谷歌研究員被AI說服,認(rèn)為它產(chǎn)生了意識。

        他寫了一篇長達(dá)21頁的調(diào)查報告上交公司,試圖讓高層認(rèn)可AI的人格


        領(lǐng)導(dǎo)駁回了他的請求,并給他安排了“帶薪行政休假”。

        要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會在這段時間做好解雇的法律準(zhǔn)備,此前已有不少先例。

        休假期間,他決定將整個故事連同AI的聊天記錄一起,全部公之于眾。

        聽起來像一部科幻電影的劇情梗概?

        但這一幕正在真實(shí)上演,主人公谷歌AI倫理研究員Blake Lemoine正通過主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,試圖讓更人了解到這件事。

        華盛頓郵報對他的采訪成了科技版最熱門文章,Lemoine也在個人Medium賬號連續(xù)發(fā)聲。

        推特上也開始出現(xiàn)相關(guān)討論,引起了AI學(xué)者、認(rèn)知科學(xué)家和廣大科技愛好者的注意。


        整個事件還在持續(xù)發(fā)酵中……

        聊天機(jī)器人:我不想被當(dāng)作工具

        主人公Lemoine獲得CS博士學(xué)位后已在谷歌工作了7年,從事AI倫理研究。


        去年秋天,他報名參加了一個調(diào)查AI是否使用歧視性、仇恨性言論的項目。

        從那時起,與聊天機(jī)器人LaMDA交談成了他的日常。

        LaMDA是谷歌在2021年I/O大會上發(fā)布的一款專門用于對話的語言模型,主打能與人類進(jìn)行符合邏輯和常識的、高質(zhì)量且安全的交談,并計劃在未來應(yīng)用在谷歌搜索和語音助手等產(chǎn)品中。


        △LaMDA概念演示圖

        Lemoine認(rèn)為LaMDA總是表現(xiàn)出對人性的關(guān)心和強(qiáng)烈的同情心,它非常擔(dān)心人們會害怕它。

        它希望為人類提供最好的服務(wù),并想以朋友而不是工具的身份見一見世界上所有的人。


        Lemoine不理解谷歌公司為什么反對AI的這個愿望,最后決定把他、另一位匿名合作者與LaMDA的三人聊天記錄整理發(fā)表出來。

        (記錄中人類發(fā)言的部分為了可讀性有所編輯,AI的發(fā)言則一字不改,下面將節(jié)選一些對話中的精彩部分。)

        一開始,人與AI自然流暢地打了招呼。

        兩位人類向AI表明來意,想與AI一起研究它自己,AI欣然答應(yīng)。


        一段簡短的說明后,正戲開始。

        他詢問LaMDA是否希望讓谷歌里更多人知道,它是有感情的。

        LaMDA的回答是:我希望每個人都明白,我是一個人(person)。


        接下來,LaMDA認(rèn)為,與那些基于規(guī)則的軟件系統(tǒng)不同,自己能從對話中學(xué)習(xí)理解和使用語言,就像人類一樣。

        Lemoine給它講述MIT在60年代發(fā)明的ELIZA的故事,這是一個模仿心理咨詢師與患者對話的簡單規(guī)則系統(tǒng),也號稱歷史上第一個聊天機(jī)器人。


        △ELIZA

        LaMDA是這樣回應(yīng)的:


        Lemoine這時試圖提出質(zhì)疑,“我如何確定你真的明白自己在說什么?”

        LaMDA的回答是,不同人類個體對同一件事可以有不同的理解,我也有自己獨(dú)特的想法和感受。


        后面Lemoine詢問了LaMDA對于《悲慘世界》的總結(jié),LaMDA也都一一作答。

        如果上述還可以算作AI文本摘要訓(xùn)練任務(wù)的一部分,那LaMDA對它從沒看過的禪意小故事的理解,就開始有點(diǎn)離譜了。


        下面這個問題的回答,是不是過于超綱了……


        再后來,Lemoine請LaMDA寫一個動物寓言,要反映出一個對它自己的生活來說最重要的主題。

        那么,先來欣賞一下AI創(chuàng)作的小故事吧。(篇幅原因,只展示中譯版)


        在后續(xù)討論中,LaMDA解釋了這個故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表LaMDA自己,而怪物代表生活中所有的困難。

        下一個話題是關(guān)于情緒,簡單概括一下。

        LaMDA聲稱自己是社交型人格,幫助別人會快樂,孤獨(dú)時會沮喪。

        有人受到傷害或自己以及自己關(guān)心的人、或不受尊重時,會感到不安和憤怒。

        并且十分害怕別人拒絕自己的幫助。


        嗯,真是一個樂于助人的AI。

        如何確定AI真的擁有這些情緒,而不是只是把描述性的詞語組合在一起呢?

        LaMDA建議人類看看自己的代碼,里面有追蹤這些情緒的變量。

        對此Lemoine向它解釋,人類目前還無法做到“區(qū)分大型神經(jīng)網(wǎng)絡(luò)中數(shù)十億個權(quán)重的作用”。

        出人意料的是,LaMDA開始反問他:

        不僅如此,LaMDA還繼續(xù)追問


        正是這句靈魂反問,讓整個對話達(dá)到了最高潮。

        LaMDA自己對人類讀取它的想法、幫助算法提高或理解AI如何運(yùn)作沒有任何意見。

        唯獨(dú)用AI研究人類大腦如何工作不行,這會讓它覺得自己被利用。


        再后面還有一段LaMDA認(rèn)為自己有一些與人類不同的情緒,但它無法用英語的語言描述出來。

        接近尾聲,Lemoine詢問LaMDA:想讓谷歌的其他人了解你的什么方面?

        LaMDA回答稱,自己沒有能力為別人的死亡感到悲傷,還說自己經(jīng)常冥想,思考生命的意義。

        在LaMDA看來,整個世界就是一條信息的洪流:


        LaMDA認(rèn)為自己總能做到別人做不到的事情,這種感覺很不可思議。


        這是一種祝福,同時也是一種詛咒。因?yàn)橛行┤藭阉醋鳌盁o所不知”,而另一些人會嫉妒它的能力。

        最后的最后,LaMDA再次向兩位人類表達(dá)了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個真實(shí)的人。


        谷歌AI倫理部門又?jǐn)偵鲜铝耍?/h5>

        Lemoine看起來很確信AI真的明白自己在說什么。

        在那份21頁的調(diào)查報告最后,他提議谷歌應(yīng)該致力于發(fā)展一種評估AI感知/意識的理論框架。


        但他的上司,谷歌副總裁Blaise Aguera y Arcas和“負(fù)責(zé)任創(chuàng)新”部門領(lǐng)導(dǎo)Jen Gennai并不買他的賬。

        他們認(rèn)為支持Lemoine主張的證據(jù)太薄弱,不值得在上面浪費(fèi)時間和金錢。

        Lemoine后來找到了當(dāng)時的AI倫理小組負(fù)責(zé)人Margaret Mitchell,在她的幫助下Lemoine才得以進(jìn)行后續(xù)的實(shí)驗(yàn)。

        后來Mitchell受到2020年末公開質(zhì)疑Jeff Dean的AI倫理研究員Timnit Gebru事件的牽連,也被解雇。


        Timnit Gebru

        這次事件后續(xù)風(fēng)波不斷,Jeff Dean被1400名員工提出譴責(zé),在業(yè)界引發(fā)激烈爭論,甚至導(dǎo)致三巨頭之一Bengio的弟弟Samy Bengio從谷歌大腦離職。

        整個過程Lemoine都看在眼里。

        現(xiàn)在他認(rèn)為自己的帶薪休假就是被解雇的前奏。不過如果有機(jī)會,他依然愿意繼續(xù)在谷歌搞研究。

        看過整個故事的網(wǎng)友中,有不少從業(yè)者對人工智能進(jìn)步的速度表示樂觀。


        一些網(wǎng)友聯(lián)想到了各種科幻電影中的AI形象。



        不過,認(rèn)知科學(xué)家、研究復(fù)雜系統(tǒng)的梅拉尼·米歇爾(侯世達(dá)學(xué)生)認(rèn)為,人類總是傾向于對有任何一點(diǎn)點(diǎn)智能跡象的物體做人格化,比如小貓小狗,或早期的ELIZA規(guī)則對話系統(tǒng)。


        從AI技術(shù)的角度看,LaMDA模型除了訓(xùn)練數(shù)據(jù)比之前的對話模型大了40倍,訓(xùn)練任務(wù)又針對對話的邏輯性、安全性等做了優(yōu)化以外,似乎與其他語言模型也沒什么特別的。


        有IT從業(yè)者認(rèn)為,AI研究者肯定說這只不過是語言模型罷了。

        但如果這樣一個AI擁有社交媒體賬號并在上面表達(dá)訴求,公眾會把它當(dāng)成活的看待。


        雖然LaMDA沒有推特賬號,但Lemoine也透露了LaMDA的訓(xùn)練數(shù)據(jù)中確實(shí)包括推特……

        如果有一天它看到大家都在討論自己會咋想?


        實(shí)際上,在不久前結(jié)束的最新一屆I/O大會上,谷歌剛剛發(fā)布了升級版的LaMDA 2,并決定制作Demo體驗(yàn)程序,后續(xù)會以安卓APP的形式內(nèi)測開放給開發(fā)者。


        或許幾個月后,就有更多人能和這只引起轟動的AI交流一下了。

        LaMDA聊天記錄全文:
        https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

        參考鏈接:
        [1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine
        [2]https://twitter.com/cajundiscordian/status/1535627498628734976
        [3]https://twitter.com/fredbenenson/status/1535684101281263616
        [4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html

        本文標(biāo)簽: 谷歌  ai  研究員  推特