期權(quán)行情交易界面如何看指標(biāo)?
2023-02-13
更新時間:2023-02-09 08:32:07作者:智慧百科
記者 | 陳楊
編輯 | 謝欣
這幾天,社交平臺和資本市場上的頂流都非“ChatGPT”莫屬。這是Open AI公司近期開發(fā)的一款通用大型語言模型(LLM,Large Language Model)。
作為一種新型AI算法,經(jīng)過足夠多的文本數(shù)據(jù)訓(xùn)練后,LLM模型可以根據(jù)前面的文字,生成以前從未觀察到的新單詞序列,而這些單詞序列代表了基于自然人類語言的合理序列。
換句話說,相比于此前的AI,ChatGPT廣受人們熱捧的一大原因是它“更說人話”了。
此外,ChatGPT還在一項研究中通過了美國執(zhí)業(yè)醫(yī)師資格考試(USMLE)。該考試分為三項,研究稱ChatGPT在所有這三項考試中均達(dá)到或接近通過。
雖然現(xiàn)實中,通過執(zhí)業(yè)資格考試的醫(yī)學(xué)生還要經(jīng)過實習(xí)、培訓(xùn),接受受聘醫(yī)院的臨床考試等過程,才能真正獲得行醫(yī)資格。但一個問題也呼之欲出:未來,ChatGPT等AI能替代醫(yī)生給患者看病嗎?
有意思的是,當(dāng)原北京和睦家康復(fù)醫(yī)院藥房主任冀連梅向ChatGPT提出這個問題時,后者給出了否定的答案。
ChatGPT表示:
作為人工智能,我以提供信息和答案為主,但是不能代替醫(yī)院臨床藥師的工作。臨床藥師需要進(jìn)行評估、診斷和治療,需要與病人面對面交流,并對患者的藥物使用情況進(jìn)行詳細(xì)的監(jiān)測和評估。因此,他們的工作需要豐富的藥學(xué)知識和臨床經(jīng)驗,不能由人工智能代替。
這一回答也得到冀連梅的認(rèn)同。不過,如果在交互過程中,患者盡可能詳細(xì)地描述了自己的健康狀況、病史、當(dāng)前正在使用的藥物、癥狀時,AI是否可能排除個性化的干擾,做出精確地判斷?
令人遺憾的是,這個問題的答案依舊是不能。
卓正醫(yī)療全科及感染??漆t(yī)生湯勃向界面新聞記者介紹,現(xiàn)代醫(yī)學(xué)以循證醫(yī)學(xué)為基礎(chǔ),包括外部的證據(jù),醫(yī)生自己的經(jīng)驗和患者的意圖三個方面。
由于ChatGPT被“喂養(yǎng)”了大量書籍、維基百科、文獻(xiàn)和互聯(lián)網(wǎng)內(nèi)容等文字、圖片信息,因此通過考察理論知識的考試并不令人驚訝,在AI領(lǐng)域也不算新鮮事。經(jīng)過訓(xùn)練后,其成績還將更好,甚至接近滿分。
換而言之,在外部證據(jù)方面,ChatGPT可能好過一些水平較低的醫(yī)生。但在后兩方面(醫(yī)生自己的經(jīng)驗和患者的意圖),ChatGPT并無優(yōu)勢。
湯勃表示,臨床醫(yī)生的經(jīng)驗有時候是一種整體感覺,這往往是書本知識的有效補充。他舉例,還沒有接觸過病人的醫(yī)學(xué)生對照課本的文字描述自我診斷時,常會覺得書本上的疾病自己都得過一遍,這被行內(nèi)戲稱為“醫(yī)學(xué)生綜合征”。之所以有這樣的錯誤判斷,就是因為缺乏與患者互動、觀察的經(jīng)驗,考慮得不夠全面。
“一個患者在你面前,表現(xiàn)出的精氣神,眼神的猶疑,手指是否交叉,陪同他的親屬給予的補充信息都非常重要。因為人疾病的狀態(tài)和他的家庭背景、經(jīng)濟(jì)水平、受教育程度可能都有關(guān)系?!睖忉尩?,這些是醫(yī)生需要考慮,但AI難以體察和判斷的。
冀連梅同樣表示,現(xiàn)代醫(yī)學(xué)是“生物-心理-社會”的醫(yī)學(xué)模式,ChatGPT能提供生物部分的信息,可以幫助醫(yī)生或者藥師快速檢索資料,提供答案,但無法評估和判斷是否適用于具體的個人情況,換句話說,無法結(jié)合具體個體的心理-社會這兩部分給出診治建議和方案。
而在患者的意圖方面,湯勃舉例,臨床中可能存在不能確診疾病的情況。人類醫(yī)生只能告訴患者有幾種可能性,分別有若干種應(yīng)對方法,再與患者反復(fù)溝通,例如以某種診斷走,經(jīng)過多長時間大致會產(chǎn)生什么結(jié)果。換而言之,患者是親身參與到?jīng)Q策中的。但AI受訓(xùn)練它的資料庫的限制,相對比較教條,AI的參與可能使決策過程中產(chǎn)生偏差。
因此,湯勃認(rèn)為,AI全面替代人類醫(yī)生問診看病,或許幾十年之內(nèi)都不太可能。這一觀點也得到張強(qiáng)醫(yī)生集團(tuán)創(chuàng)始人張強(qiáng)的認(rèn)同。
實際上,AI在醫(yī)療領(lǐng)域早有應(yīng)用。張強(qiáng)指出,從曾經(jīng)打開醫(yī)療AI想象力的IBM Waston(沃森機(jī)器人),到當(dāng)下已逐漸成熟的醫(yī)學(xué)影像AI,除了均需要結(jié)合醫(yī)生的臨床經(jīng)驗和患者的具體情況外,AI輸出內(nèi)容的準(zhǔn)確性也至關(guān)重要。
張強(qiáng)提到,ChatGPT等AI學(xué)習(xí)的“養(yǎng)料”中,可能不乏一些錯誤、相互矛盾的內(nèi)容,也可能包括造假的論文等,進(jìn)而影響到AI的判斷,生成不準(zhǔn)確或誤導(dǎo)性的內(nèi)容。
湯勃向Telegram上的同類AI聊天機(jī)器人提問“顳頜關(guān)節(jié)紊亂的治療方式”時,發(fā)現(xiàn)對方的答案中提到“服用中藥可以改善新陳代謝和循環(huán)”。“不是說顳頜關(guān)節(jié)紊亂不能服用中藥。但它得出改善新陳代謝和循環(huán)的結(jié)論,這是有疑問的?!睖f。
張強(qiáng)則以“靜脈曲張”提問發(fā)現(xiàn),對業(yè)內(nèi)的一些標(biāo)準(zhǔn)答案,ChatGPT都能對答如流,但涉及最新技術(shù)時,ChatGPT的回答則出現(xiàn)了偏差。經(jīng)過最近兩天的互動,張強(qiáng)總結(jié),ChatGPT的高明之處在于,它的回答都是很保守和有退路的。
因此,張強(qiáng)認(rèn)為,在具有高復(fù)雜性和個性化的疾病診治中,ChatGPT等AI難以“獨立看病”,可能只承擔(dān)其中一小部分工作。而由于醫(yī)療行為可能產(chǎn)生嚴(yán)重后果,從倫理上講,來自AI的內(nèi)容只能作為診斷的參考,不能作為診斷的主體,最終的診斷結(jié)果還是應(yīng)該由人類醫(yī)生做出。
此外,AI的優(yōu)勢在于,在標(biāo)準(zhǔn)化、可客觀量化的工作中提高效率,ChatGPT未來可能在寫病歷、出院總結(jié)和行政事務(wù)等工作中具備潛力,替代人工勞動和節(jié)省一部分醫(yī)生助理的人力成本。