中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. 谷歌AI看不懂網(wǎng)友評論,會錯意高達30%,網(wǎng)友:你不懂我的梗

        更新時間:2022-07-18 16:20:55作者:未知

        谷歌AI看不懂網(wǎng)友評論,會錯意高達30%,網(wǎng)友:你不懂我的梗

        Pine 發(fā)自 凹非寺
        量子位 | 公眾號 QbitAI

        給你兩句話,來品一下它們所蘊含的情感:

        “我真的會謝。”

        “聽我說謝謝你,因為有你,溫暖了四季······”



        或許你會說,這很簡單啊,不就是最近經(jīng)常被玩的梗嗎?

        但如果問問長輩,他們可能就是一副“地鐵老人看手機”的模樣了。

        不過與流行文化之間有代溝這事,可不僅限于長輩們,還有AI。

        這不,一位博主最近就po出了一篇分析谷歌數(shù)據(jù)集的文章,發(fā)現(xiàn)它對Reddit評論的情緒判別中,錯誤率竟高達30%。



        就比如這個例子:

        谷歌數(shù)據(jù)集把它判斷為“生氣”。

        還有下面這條評論:

        谷歌數(shù)據(jù)集將其判別為“困惑”。



        網(wǎng)友直呼:你不懂我的梗。

        人工智能秒變?nèi)斯ぶ钦?,這么離譜的錯誤它是怎么犯的?

        斷章取義它最“拿手”

        這就得從他判別的方式入手了。

        谷歌數(shù)據(jù)集在給評論貼標簽時,是把文字單拎出來判斷的。

        我們可以看看下面這張圖,谷歌數(shù)據(jù)集都把文字中的情緒錯誤地判斷為憤怒。



        不如我們由此來推測一下谷歌數(shù)據(jù)集判別錯誤的原因,就拿上面的例子來說,這四條評論中均有一些“臟話”。

        谷歌數(shù)據(jù)集把這些“臟話”拿來作為判斷的依據(jù),但如果仔細讀完整個評論,就會發(fā)現(xiàn)這個所謂的“依據(jù)”只是用來增強整個句子的語氣,并沒有實際的意義。

        網(wǎng)友們的發(fā)表的評論往往都不是孤立存在的,它所跟的帖子、發(fā)布的平臺等因素都可能導致整個語義發(fā)生變化。

        比如單看這條評論:

        單單依靠這個很難判斷其中的情緒元素。但如果知道他是來自一個肌肉網(wǎng)站的評論,或許就不難猜出了,(他只是想稱贊一下這個人的肌肉)。



        忽略評論的帖子本身,或者將其中某個情感色彩強烈的詞語單拎出來判斷其情緒元素都是不合理的。

        一個句子并不是孤立存在的,它有其特定的語境,其含義也會隨著語境的變化而變化。

        將評論放入完整的語境中去判斷其情緒色彩,或許會大大提升判別的準確率。

        但造成30%這么高的失誤率可不僅僅只是“斷章取義”,其中還有更深層次的原因。

        “我們的梗AI不懂”

        除了語境會干擾數(shù)據(jù)集判別之外,文化背景也是一個非常重要的因素。

        大到國家地區(qū),小到網(wǎng)站社群都會有其內(nèi)部專屬的文化符號,這種文化符號圈層之外的人很難解讀,這就造成了一個棘手的問題:

        若想更準確地判斷某一社區(qū)評論的情緒,就得針對性地對其社區(qū)進行一些數(shù)據(jù)訓練,深入了解整個社區(qū)的文化基因。

        在Reddit網(wǎng)站上,網(wǎng)友評論指出“所有的評分者都是以英語為母語的印度人”。



        這就導致會對一些很常見的習語、語氣詞及一些特定的“?!痹斐烧`解。

        說了這么多,數(shù)據(jù)集判別失誤率這么高的原因也就顯而易見了。

        但與此同時,提高AI判別情緒的精確度也有了清晰的方向。

        例如博主也在這篇文章中就給出了幾條建議:

        首先,在對評論貼標簽時,得對他所處的文化背景有深刻地理解。以Reddit為例,要判斷其評論的情緒色彩,要對美國的一些文化、政治理解透徹,并且還要能夠迅速get到專屬網(wǎng)站的“?!保?/p>

        其次,要測試標簽對一些諷刺、習語、梗的判別是否正確,確保模型能夠整整理解文本的意思;

        最后,核查模型判斷與我們真實判別,以做出反饋,更好地訓練模型。

        One More Thing

        AI大牛吳恩達曾發(fā)起過一項以數(shù)據(jù)為中心的人工智能運動。



        將人工智能從業(yè)者的重點從模型/算法開發(fā)轉移到他們用于訓練模型的數(shù)據(jù)質量上。吳恩達曾說:

        用于訓練數(shù)據(jù)的好壞對于一個模型也至關重要,在新興的以數(shù)據(jù)為中心的 AI 方法中,數(shù)據(jù)的一致性至關重要。為了獲得正確的結果,需要固定模型或代碼并迭代地提高數(shù)據(jù)質量。

        最后,你覺得在提高語言AI判別情緒這件事上,還有什么方法呢?

        歡迎在留言區(qū)討論~

        參考鏈接:
        [1]https://www.reddit.com/r/MachineLearning/comments/vye69k/30_of_googles_reddit_emotions_dataset_is/
        [2]https://www.surgehq.ai/blog/30-percent-of-googles-reddit-emotions-dataset-is-mislabeled
        [3]https://mitsloan.mit.edu/ideas-made-to-matter/why-its-time-data-centric-artificial-intelligence

        本文標簽: 谷歌  你不懂  吳恩達  ai  語境