期權(quán)行情交易界面如何看指標(biāo)?
2023-02-13
更新時(shí)間:2023-02-10 18:05:15作者:智慧百科
2022 年是生成式人工智能爆火的一年,我們看到了文本到圖像模型 Stable Diffusion 和文本內(nèi)容生成器 ChatGPT 的誕生。在這些模型的幫助下,許多不懂編程技術(shù)的人第一次體驗(yàn)到了人工智能系統(tǒng)的威力。
在放假的時(shí)候,我嘗試不去思考人工智能,但我遇到的每個(gè)人似乎都想和我談?wù)撍?。我遇到了一個(gè)朋友的表弟,他大方地承認(rèn)了自己用 ChatGPT 寫(xiě)了一篇大學(xué)論文,但當(dāng)他聽(tīng)說(shuō)我剛寫(xiě)了一篇關(guān)于如何檢測(cè)人工智能生成文本的故事時(shí),他臉色大變;
我在酒吧里偶遇的人,主動(dòng)跟我聊起他們?nèi)绾误w驗(yàn)了流行的圖像編輯應(yīng)用 Lensa;我還遇到了一個(gè)對(duì)人工智能圖像生成模型感到緊張的圖像設(shè)計(jì)師。
(來(lái)源:ERICA SNYDER/MITTR | PIXABAY)
今年,我們將看到更多、更強(qiáng)的人工智能模型。我的一個(gè)預(yù)測(cè)是,隨著歐盟的監(jiān)管機(jī)構(gòu)為人工智能技術(shù)敲定規(guī)則,聯(lián)邦貿(mào)易委員會(huì)等美國(guó)政府機(jī)構(gòu)正在考慮自己的規(guī)則,我們將從模糊的道德指導(dǎo)方針轉(zhuǎn)向具體的監(jiān)管規(guī)則和紅線,我們將看到更具體的人工智能監(jiān)管措施。
歐洲的立法者正在為可以生成圖像和文本的人工智能模型制定規(guī)則,諸如 Stable Diffusion、LaMDA 和 ChatGPT 等等,這可能預(yù)示著公司任意發(fā)布人工智能模型的時(shí)代的終結(jié)。
這些模型越來(lái)越多地成為許多人工智能應(yīng)用程序的支柱,但創(chuàng)造這些模型的公司對(duì)它們是如何構(gòu)建和培訓(xùn)的經(jīng)常守口如瓶。我們不太了解它們是如何工作的,這使得我們很難理解這些模型是如何產(chǎn)生有害的內(nèi)容或有偏見(jiàn)的結(jié)果的,或者如何減輕這些問(wèn)題。
歐盟正計(jì)劃更新其即將出臺(tái)的、全面的人工智能法規(guī),即人工智能法案(AI Act),以迫使這些公司闡明其人工智能模型的內(nèi)部運(yùn)作原理。該法案可能會(huì)在今年下半年通過(guò),在那之后,如果企業(yè)想在歐盟銷(xiāo)售或使用人工智能產(chǎn)品,就不得不遵守這些規(guī)定,否則將面臨高達(dá)其全球年應(yīng)收 6% 的罰款。
歐盟稱這些生成模型為“通用人工智能系統(tǒng)”,因?yàn)樗鼈兛梢杂糜谠S多不同的事情(這不同于所謂的通用人工智能,即與人類(lèi)智能相媲美的人工智能)。像 GPT-3 這樣的大型語(yǔ)言模型可以被當(dāng)作客服聊天機(jī)器人,也可以大規(guī)模地創(chuàng)建虛假信息,而 Stable Diffusion 則可以用于制作賀卡,或者深度偽造圖像。
歐洲議會(huì)成員德拉戈·圖多拉什(Drago? Tudorache)認(rèn)為,雖然這些模型的確切監(jiān)管方式將仍未蓋棺定論,但此類(lèi)人工智能模型的創(chuàng)造者,如 、、,可能需要進(jìn)一步公開(kāi)其模型是如何建立和訓(xùn)練的。
布魯金斯學(xué)會(huì)的人工智能治理研究員亞歷克斯·恩格勒()表示,管理這些技術(shù)是很棘手的,因?yàn)楣芾砩墒侥P托枰鉀Q兩種不同類(lèi)型的問(wèn)題,要分別采用非常不同的政策解決方案。一個(gè)是傳播人工智能生成的有害內(nèi)容,如仇恨言論和色情內(nèi)容;另一個(gè)是,當(dāng)公司將這些人工智能模型整合到招聘過(guò)程中或使用它們來(lái)審查法律文件時(shí),可能會(huì)出現(xiàn)有偏見(jiàn)的結(jié)果。
分享更多關(guān)于模型的信息,可能會(huì)幫助那些在模型之上構(gòu)建產(chǎn)品的第三方。但當(dāng)人工智能生成的有害內(nèi)容開(kāi)始傳播時(shí),我們需要更嚴(yán)格的規(guī)則。一些人建議,應(yīng)該要求生成模型的創(chuàng)建者采取技術(shù)手段限制模型產(chǎn)生的內(nèi)容,監(jiān)控它們的輸出,并封禁濫用該技術(shù)的用戶。但即便如此,也不一定會(huì)阻止人們傳播有毒內(nèi)容。
雖然科技公司不愿透露自己的“秘密武器”,但目前監(jiān)管機(jī)構(gòu)要求提高透明度并制定企業(yè)問(wèn)責(zé)制度的努力可能會(huì)開(kāi)啟一個(gè)新時(shí)代,讓人工智能的發(fā)展不被濫用,并且以尊重隱私等權(quán)利的方式進(jìn)行。這讓我對(duì)今年充滿希望。
支持:Ren
原文:
https://www.technologyreview.com/2023/01/10/1066538/the-eu-wants-to-regulate-your-favorite-ai-tools/