編者按:
(相關(guān)資料圖)
據《紐約時(shí)報》1月中旬報道,北密歇根大學(xué)的哲學(xué)教授A(yíng)ntony Aumann在為自己任教的一門(mén)世界宗教課程評分時(shí),讀到了一篇“全班最好的論文”,追問(wèn)之下學(xué)生坦誠是其用ChatGPT生成的。
ChatGPT的熱度從去年11月發(fā)酵至今。究其原因,OpenAI推出的這款AI聊天機器人似乎無(wú)所不能,功能非常強大,不僅能流暢地與用戶(hù)對話(huà),甚至能寫(xiě)詩(shī)、撰文、編碼……
ChatGPT爆火出圈,已經(jīng)網(wǎng)羅了一眾流量——上線(xiàn)五天里突破百萬(wàn)用戶(hù)大關(guān),不到兩個(gè)月日活用戶(hù)過(guò)千萬(wàn)。資本聞聲而動(dòng),Meta、微軟、BuzzFeed等紛紛向其拋出橄欖枝。微軟聯(lián)合創(chuàng )始人比爾·蓋茨日前更是給予ChatGPT高度評價(jià),稱(chēng)其能讓他窺見(jiàn)未來(lái),整個(gè)方法和創(chuàng )新速度都令他印象深刻。
整體來(lái)看,ChatGPT就像一顆深水炸彈,由AI掀起的"地震"余波向各行各業(yè)蔓延開(kāi)來(lái)。根據麥肯錫統計數據顯示,全球AI技術(shù)在通信、交通運輸及物流、金融服務(wù)、高新科技、醫療健康、電力及天然氣等領(lǐng)域的滲透率較高。
到底該如何看待這項重大突破但不完美的技術(shù)呢?北京大學(xué)新聞與傳播學(xué)院教授、CTR媒體融合研究院專(zhuān)家胡泳在其最新力作《流行之道》中,以AI在醫療行業(yè)的應用為例,給出了自己的看法。
你信任人工智能醫生嗎?
2022年1月22日,IBM在一份簡(jiǎn)短聲明中,宣布將旗下“沃森健康”(Watson Health)業(yè)務(wù)分拆,出售給總部位于舊金山的投資基金 Francisco Partner。這項交易標志著(zhù)“藍色巨人”正在放棄其在醫療保健領(lǐng)域的雄心,更加聚焦于構建混合云計算的能力。而從行業(yè)角度看,它意味著(zhù)人工智能的雄心在醫療保健業(yè)遭遇重大挫折。
作為這家向人工智能轉型的企業(yè)近年來(lái)的明星業(yè)務(wù),沃森健康最重要的產(chǎn)品可以幫助醫生診斷和治療癌癥。它是IBM最早也是最大的AI嘗試之一。然而,盡管為了打造這一增長(cháng)引擎,IMB展開(kāi)了一系列有針對性的價(jià)值數十億美元的收購,但沃森健康在爭取美國國內外市場(chǎng)份額上的進(jìn)展并不順利,并且短期內也看不到盈利的前景。
在休斯敦的MD安德森癌癥中心,沃森健康于2013年首次部署認知計算技術(shù),以幫助腫瘤學(xué)家從衛生系統的大量研究和患者數據中挖掘洞見(jiàn),并開(kāi)發(fā)新的以NLP(神經(jīng)語(yǔ)言程序)為基礎的工具來(lái)支持決策。
然而,到2018年,這兩個(gè)組織的合作陷入困境,MD安德森中心在花費超過(guò) 6000萬(wàn)美元之后取消了該項目,原因是“存在許多不安全和不正確的治療建議實(shí)例”。
失敗的原因不一而足。醫療專(zhuān)家相信,沃森機器人醫生的困境凸顯了將AI用于治療復雜疾病的障礙,可能同時(shí)包括人力、財務(wù)和技術(shù)。比如,獲得具有廣泛代表性的患者群體的數據一直是一項挑戰,而在另外一方面,這些疾病的結果往往取決于許多可能無(wú)法在臨床數據庫中完全捕獲的因素。
同時(shí),科技公司缺乏深厚的醫療保健專(zhuān)業(yè)知識,如果它們不夠了解實(shí)戰的臨床工作流程,就會(huì )增加在病患環(huán)境中實(shí)施人工智能的困難。必須知道可以在哪里插入AI,以及 AI又能夠在哪些方面提供幫助,而一切都要以提高醫院的效率為準。
究其根本,在醫院中應用人工智能,首先是解決信任問(wèn)題。在相當大的程度上,我們還是第一次見(jiàn)證人和機器人共處一室的復雜環(huán)境。當醫生首次與沃森交流時(shí),他們發(fā)現自己處于相當困難的境地。一方面,如果沃森提供了與他們自己的觀(guān)點(diǎn)相一致的治療指導,醫生們對沃森的建議就看不出太多價(jià)值。超級計算機只是告訴他們本身業(yè)已知道的東西,而這些建議并沒(méi)有改變實(shí)際的處理方式。這可能會(huì )讓醫生放心,讓其對自己的決定更有信心。然而如果只是幫忙確認,機器人醫生值得在醫院里部署嗎?
另一方面,如果沃森提出了與專(zhuān)家意見(jiàn)相矛盾的建議,醫生通常會(huì )得出結論:沃森對癌癥無(wú)能為力。機器無(wú)法解釋為什么它的處理是合理的,因為它的算法太復雜了,不能被人完全理解。因此,這導致了更多的不信任和懷疑,許多醫生會(huì )忽略看起來(lái)異乎尋常的 AI 建議,并堅持自己的專(zhuān)業(yè)知識。
由此來(lái)看,沃森的腫瘤診斷問(wèn)題是醫生根本不信任它。人類(lèi)的信任往往基于我們對其他人如何思考的理解,以及對其可靠性的經(jīng)驗了解,這有助于創(chuàng )造一種心理安全感。而AI對于大多數人來(lái)說(shuō)仍然是相當新穎和陌生的,它使用復雜的分析系統進(jìn)行決策,以識別潛在的隱藏模式和來(lái)自大量數據的微弱信號。
即使可以在技術(shù)上解釋?zhuān)ú⒎强偸侨绱耍?,AI的決策過(guò)程對于大多數人來(lái)說(shuō)通常難以理解,和自己不明白的事情互動(dòng)會(huì )引起焦慮,并使我們感覺(jué)失去了控制。許多人也不太了解許多AI實(shí)際工作的實(shí)例,因為它們常常發(fā)生在后臺。
相反,人們總能敏銳地意識到人工智能出錯的情況:谷歌算法將黑人分類(lèi)為大猩猩;一個(gè)微軟聊天機器人在不到一天的時(shí)間里成為白人至上主義者;在自動(dòng)駕駛模式下運行的特斯拉汽車(chē)導致了致命的事故。這些不幸的例子受到了媒體不成比例的關(guān)注,向社會(huì )發(fā)出了人類(lèi)不能完全依賴(lài)技術(shù)的信息。機器學(xué)習并非萬(wàn)無(wú)一失,部分原因是設計它的人不是萬(wàn)能的。
具體到醫療保健領(lǐng)域,發(fā)生問(wèn)題的也不是只有IBM。谷歌的DeepMind部門(mén)在開(kāi)發(fā)了轟動(dòng)世界的圍棋程序之后,也曾推動(dòng)多項針對慢性病的醫療保健舉措。然而它目前也處于虧損狀態(tài),并在收集健康數據方面遇到了隱私擔憂(yōu)。
雖說(shuō)如此,用人工智能改進(jìn)醫療保健業(yè)的努力還會(huì )繼續。原因很簡(jiǎn)單:盡管它的效率只能實(shí)現40%到60%,然而這是一個(gè)價(jià)值萬(wàn)億美元的行業(yè)。因此,用機器學(xué)習算法或可擴展的AI之類(lèi)的優(yōu)雅工具使它得到顯著(zhù)改善的想法,顯然還是非常誘人。
人工智能需要解決的三大問(wèn)題
有多少人工,就有多少智能
在人工智能界,普遍可以聽(tīng)到一個(gè)說(shuō)法:有多少人工,就有多少智能。
這是因為,與傳統計算不同,人工智能可以在一系列尚未由人預編程的情況下做出決策。人工智能大部分是關(guān)于可以通過(guò)經(jīng)驗學(xué)習和發(fā)展的系統,通常用于執行專(zhuān)業(yè)任務(wù),如駕駛、玩策略游戲或進(jìn)行投資決策。這個(gè)子集也被稱(chēng)為認知計算,需要通過(guò)學(xué)習進(jìn)行培訓。
機器學(xué)習需要喂給機器大量的數據,而這些數據大部分是需要人工標注的,這在機器學(xué)習當中叫作“監督學(xué)習”(supervised learning),即根據輸入 - 輸出的樣本對子,學(xué)習一個(gè)將輸入映射到輸出的函數或模式,并依此模式推測新的實(shí)例。
舉例來(lái)說(shuō),要寫(xiě)一個(gè)機器學(xué)習算法,讓它能夠在網(wǎng)上幫我找到符合我口味的衣服,就需要訓練一個(gè)能識別某種服裝的程序。首先需要的是數據,因為必須給機器學(xué)習算法標注一些樣本。訓練者先搜集很多圖片,然后把需要的標出正例。比如把所有襯衣圖片標注出來(lái),其他未被標注襯衣的,就是負例。機器會(huì )通過(guò)這些樣本的標注,知道哪些是襯衣,哪些不是襯衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,讓程序識別淺色的襯衣,就要進(jìn)一步把淺色襯衣的圖片再標注出來(lái),這樣機器就會(huì )知道那些淺色的襯衣是主人更想要的。這樣的條件可以不斷趨向復雜,例如讓機器識別帶條紋的淺色襯衣,而所有這些對于數據的進(jìn)一步處理,都需要人工來(lái)解決。
人的標注工作完成之后,就可以訓練機器學(xué)習算法,讓它不斷去看圖片,并對所看過(guò)的圖片加以總結。然后它自己總結出一個(gè)算法框架,知道大概往哪個(gè)方向學(xué)習。機器學(xué)習的目標就是利用人們輸入的數據,讓自身的錯誤識別率達到最低。這個(gè)目標達成之后,機器就學(xué)成出師,可以為人工作了。
學(xué)習如何學(xué)習
“智能”這一術(shù)語(yǔ)的使用常常導致人們對AI的能力和擬人化風(fēng)險的誤解(這里的擬人化,是指將人類(lèi)特征和行為分配給非人類(lèi)事物)。今天可用的大多數 AI技術(shù)都是根據特定目標學(xué)習或優(yōu)化其活動(dòng),因此只能按照所傳授的內容進(jìn)行操作。其能力的大小,反映了培訓的數據及培訓的質(zhì)量,以及AI流程的設計情況。通常,仍會(huì )需要人工處理異常情況。
這意味著(zhù)AI目前的形式很狹窄,只能專(zhuān)門(mén)用于特定的應用程序,它所遵循的流程和程序是不可遷移的。DeepMind應用程序可以勝過(guò)圍棋的最佳人類(lèi)選手,但它在國際象棋中甚至無(wú)法擊敗普通人類(lèi)玩家。
當人工智能開(kāi)始變得真正聰明并能夠學(xué)習未被教授的行為時(shí),將會(huì )發(fā)生重大變化。然而,這個(gè)技術(shù)里程碑是否可以實(shí)現尚無(wú)定論。
不知之不知
在人工智能開(kāi)發(fā)當中,同樣存在“已知的未知”和“未知的未知”?!耙阎奈粗笔侵改J讲荒艽_定正確分類(lèi)的例子。
其解決方案是,在不確定的例子上從人們那里獲得新標簽。例如,如果一個(gè)模式不能確定一張照片的主體是否是一只貓,就會(huì )要求人去驗證;但如果系統確定的話(huà),就不會(huì )要求人去驗證。雖然在這方面還有改進(jìn)的余地,但令人欣慰的是,模式的置信度與它的表現相關(guān),人們可以認清模式不知道的東西有哪些。
另一方面,“未知的未知”是指模式對其答案有信心,但實(shí)際上是錯誤的。對人來(lái)說(shuō),這就產(chǎn)生了一個(gè)難題:需要知道人工智能算法何時(shí)工作,何時(shí)不工作。雖然電影推薦假如不是那么準確可能并不要緊,但一旦一個(gè)算法在自動(dòng)駕駛汽車(chē)或醫療應用程序中表現不佳,其結果可能是毀滅性的。
人工智能系統的內部工作往往不透明,人類(lèi)很難理解人工智能學(xué)習系統如何得出他們的結論。為了解決這個(gè)問(wèn)題,設計者和觀(guān)察者已經(jīng)討論過(guò)在A(yíng)I系統中需要一定程度的解釋邏輯,以便檢查錯誤并讓人類(lèi)學(xué)習和理解。
算法復雜性的挑戰
然而,人工智能系統復雜性的挑戰并不容易克服。事實(shí)證明,機器“知道”得越多,我們就越不了解它們。用于人工智能的深度學(xué)習方法涉及從簡(jiǎn)單的構件中創(chuàng )建復雜的、分層的表征,以解決高層次的問(wèn)題。網(wǎng)絡(luò )在層次結構的初始級別學(xué)習一些簡(jiǎn)單的東西,然后將信息發(fā)送到下一個(gè)級別,在那里信息被組合成更復雜的東西。這個(gè)過(guò)程持續進(jìn)行,每一級都從上一級收到的輸入中建立。
與此同時(shí),層數越深,優(yōu)化算法就越難。最終,它們變得如此困難,以至于數據科學(xué)家無(wú)法解釋它們是如何工作的。在某一點(diǎn)上,用于深度神經(jīng)網(wǎng)絡(luò )的算法以某種方式,奇跡般地產(chǎn)生了準確的結果——但科學(xué)家和工程師并不完全了解結果是如何產(chǎn)生的。人工智能使機器能夠進(jìn)行預測,但很難讓計算機解釋它是如何得出結論的。這不僅提出了信任問(wèn)題,而且還產(chǎn)生了潛在的法律和責任問(wèn)題。在人工智能獲得全力推進(jìn)之前,這方面有很多東西需要探索和考慮。
責任編輯:李倩
分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: 人工智能 機器學(xué)習 應用程序