2023成都積分入學(xué)什么時候開始申請
2023-01-31
更新時間:2022-07-19 12:21:21作者:未知
本文系網(wǎng)易新聞?網(wǎng)易號特色內(nèi)容激勵計(jì)劃簽約賬號【智東西】原創(chuàng)內(nèi)容,未經(jīng)賬號授權(quán),禁止隨意轉(zhuǎn)載。
智東西(公眾號:zhidxcom)
編譯 | 夏舍予
編輯 | 徐珊
智東西7月18日消息,根據(jù)外媒VentureBeat報道,不少科技公司都在使用一種叫做“情感AI”的技術(shù)。情感AI技術(shù)可以利用面部識別技術(shù),通過面部表情分析一個人的內(nèi)部情緒、感覺、動機(jī)或態(tài)度。
這種情感AI技術(shù)基于一種叫做“基本情緒”(basic emotions)的理論。該理論把人類交流時的基本情緒狀態(tài)分為六種——幸福、驚訝、恐懼、厭惡、憤怒、悲傷。
但是,目前情感AI技術(shù)的科學(xué)依據(jù)尚不充分。并且,這項(xiàng)技術(shù)在實(shí)際應(yīng)用中會帶來一系列倫理隱私問題,這些都讓大眾對這項(xiàng)技術(shù)的爭議不斷。
一、視頻面試自動打分,情感AI幫公司篩選人才
目前,情感AI技術(shù)被廣泛應(yīng)用于各個領(lǐng)域,情感AI技術(shù)可以在這些領(lǐng)域很好地發(fā)揮積極作用。
在職業(yè)領(lǐng)域,面試官通過這種情感AI技術(shù)來對求職者的面試進(jìn)行打分,其評分標(biāo)準(zhǔn)包括“熱情”、“學(xué)習(xí)意愿”、“責(zé)任感”、“個人穩(wěn)定性”等。
在韓國,情感AI技術(shù)已經(jīng)普遍應(yīng)用于求職面試中。所以,韓國的求職顧問往往會讓他們的客戶通過AI面試來進(jìn)行練習(xí),以提高求職面試的成功率;在安全領(lǐng)域,邊防人員用情感AI技術(shù)來檢測邊境檢查站的不明人士,預(yù)防潛在威脅;在醫(yī)療領(lǐng)域,醫(yī)生把情感AI技術(shù)作為檢測和診斷情緒障礙患者的輔助手段。
▲視頻面試
二、人類表情復(fù)雜難判,情感AI科學(xué)依據(jù)不足
但是,目前情感AI技術(shù)在科學(xué)依據(jù)和可行性方面存在很大的爭議。
研究人員發(fā)現(xiàn),人們的面部表情在不同的語境和文化之間存在很大差異,目前沒有足夠的證據(jù)表明面部結(jié)構(gòu)可以準(zhǔn)確、可靠、具體地反應(yīng)人類的情緒狀態(tài)。
此外,也有很多證據(jù)表明,人類面部表情的變化差異非常大,不存在一個判斷情緒的統(tǒng)一標(biāo)準(zhǔn)。具體來說,人類的“開心”可以通過成千上萬種表情來表達(dá)。即使是同一個面部表情,在不同人的臉上表達(dá)的意思也不同。
未來學(xué)家Tracey Follows在推特上表達(dá)了她對情感AI技術(shù)的不確定性,Tracey Follows說:“在最壞的情況下,這項(xiàng)技術(shù)可能是一種偽科學(xué)。”AI倫理學(xué)者Kate Crawford稱:“面部表情和情緒之間的關(guān)聯(lián)還沒有得到證實(shí)。因此,基于情感AI技術(shù)做出的決策充滿了不確定性?!?/p>
▲Tracey Follows的推特截圖
出于這種擔(dān)憂,一些公司放棄了對情感AI技術(shù)的開發(fā)。6月22日,微軟宣布停售個人面部情緒分析工具,并進(jìn)一步限制面部識別工具的使用,同時下架了其Azure Face(面部識別服務(wù))的AI情緒識別功能。
三、涉及隱私和倫理,情感AI技術(shù)惹爭議
據(jù)稱,這項(xiàng)技術(shù)不僅被應(yīng)用在視頻面試等領(lǐng)域,還被用來“監(jiān)控”人們的思想。VentureBeat稱,有些公司通過情感AI軟件判斷員工是否對公司足夠忠誠,以此決定是否要與該員工進(jìn)行單獨(dú)談話。還有些公司通過情感AI軟件判斷員工是否處在最佳的工作狀態(tài)中,以此來安排員工的休息時間,以提高公司的生產(chǎn)率和利潤。
《神經(jīng)科學(xué)新聞》(Neuroscience News)提出了一個關(guān)鍵的問題:就算情感AI可以準(zhǔn)確讀取每個人的感受,我們是否愿意在生活中運(yùn)用這樣的技術(shù)?我們愿意把自己的心理活動和情緒毫無保留地暴露在別人眼前嗎?這是一個涉及隱私的核心問題。
▲微軟下架了AI情緒識別功能
結(jié)語:是監(jiān)控還是進(jìn)步?情感AI應(yīng)用需進(jìn)一步規(guī)范與發(fā)展
每一項(xiàng)技術(shù)在新推出的時候都會面臨爭議,情感AI技術(shù)也是如此。更何況,這是一項(xiàng)尤為需要明確倫理邊界的技術(shù),稍有不慎,這項(xiàng)技術(shù)就會被指有監(jiān)控之嫌。
試想,如果這種技術(shù)在更多領(lǐng)域深度應(yīng)用,那么人類為了影響機(jī)器的判斷結(jié)果,而改變自己的面部表情,迎合機(jī)器的判斷,讓機(jī)器支配自己的行動,是否有些本末倒置?畢竟,我們創(chuàng)造機(jī)器的初衷是讓它們?yōu)槿祟惙?wù),而不是讓我們被機(jī)器支配。
況且,面部表情與人類情緒之間的關(guān)系尚無科學(xué)證據(jù),這項(xiàng)技術(shù)的科學(xué)基礎(chǔ)尚不牢固。人類的情緒復(fù)雜多變,遠(yuǎn)遠(yuǎn)不止基礎(chǔ)情緒中劃分的這六種。即使面對同一件事,每個人的表達(dá)方式也不同。
總的來說,這項(xiàng)技術(shù)還尚在起步階段,無論是在科學(xué)基礎(chǔ)、倫理道德、實(shí)踐應(yīng)用方面,都還有很長的路要走。
來源:VentureBeat