2023年8月10日,美國非營(yíng)利組織Accountable Tech、AI Now研究所和電子隱私信息中心(EPIC)聯(lián)合發(fā)布了《零信任人工智能治理》的政策建議,旨在限制大型AI公司在監管方面的影響力。該政策建議提出“零信任人工智能治理(Zero Trust AI Governance)”框架的三項首要原則,呼吁立法者重新審視保護法,防止科技公司為牟利而去涉及明確禁止的某些AI領(lǐng)域。元戰略摘編其重要內容,探討未來(lái)監管人工智能的最佳方式。
前言
AI的飛速發(fā)展、新系統的瘋狂部署以及圍繞AI的炒作,都讓人們對AI改變社會(huì )的潛力產(chǎn)生了極大的興趣。但是,我們并沒(méi)有走上實(shí)現這些美好愿景的道路。AI的發(fā)展軌跡正被一些不負責任的大型科技公司間有害的競爭所左右。
(資料圖片僅供參考)
隨著(zhù)各公司匆忙將不安全的系統推向市場(chǎng),如輕而易舉散布虛假信息的聊天機器人,并肆無(wú)忌憚地將它們整合到旗艦產(chǎn)品和服務(wù)中,這場(chǎng)企業(yè)爭奪AI霸權地位的斗爭所造成的社會(huì )成本已經(jīng)在不斷增加。近期的危害包括加速選舉中的操縱和詐騙、加劇偏見(jiàn)和歧視、侵犯隱私和自主權等。從中長(cháng)期來(lái)看,更多的系統性威脅迫在眉睫,如高昂的環(huán)境成本、大規模的勞動(dòng)力中斷,以及大型科技公司在整個(gè)數字經(jīng)濟領(lǐng)域權力的進(jìn)一步鞏固。
行業(yè)領(lǐng)袖們在公開(kāi)呼吁亟需對AI進(jìn)行監管的同時(shí),也在警告滅頂之災的威脅,同時(shí)私下游說(shuō)反對有意義的問(wèn)責措施,并繼續發(fā)布功能越來(lái)越強大的新的AI系統。鑒于事關(guān)重大,我們不能盲目相信這些行業(yè)領(lǐng)袖。
事實(shí)上,通過(guò)對美國聯(lián)邦政府監管AI的方法進(jìn)行更深入的研究后,我們發(fā)現,這些監管方法一般通過(guò)冗長(cháng)的流程來(lái)阻止行動(dòng),依賴(lài)于過(guò)于復雜且難以執行的制度,并將問(wèn)責的負擔強加給那些已經(jīng)受到傷害的人。
如果美國聯(lián)邦政府不迅速采取行動(dòng)改變當前的態(tài)勢,如大力執行現行法律,最終通過(guò)強有力的聯(lián)邦隱私立法和反壟斷改革,并頒布強有力的新AI問(wèn)責措施,那么危害的范圍和嚴重程度就會(huì )加劇。如果我們希望AI的未來(lái)能夠保護公民權利、推進(jìn)民主理想并改善人們的生活,我們就必須從根本上進(jìn)行改變。
原則一:
迅速且有力地執行現有法律
行業(yè)領(lǐng)袖們采取了許多策略,在拖延問(wèn)責的同時(shí),將自己塑造成深思熟慮的形象。他們夸大了人類(lèi)滅絕的長(cháng)期威脅,要求美國國會(huì )成立一個(gè)新機構,并對那些會(huì )延緩行動(dòng)的提案大加贊賞,所有這一切都在使AI競爭愈演愈烈。事實(shí)上,人們已經(jīng)感受到了這些AI系統帶來(lái)的具體危害,其發(fā)展速度不亞于A(yíng)I本身。正如聯(lián)邦執法機構的官員們所強調的那樣,現有的法律對AI沒(méi)有任何約束力。迅速且有力地執行現有法律是減輕自動(dòng)化危害和阻止魯莽部署不安全系統的非常關(guān)鍵的第一步。
1. 執行反歧視法。AI工具不能用于自動(dòng)化非法歧視,這違反了《民權法》《投票權法》《公平住房法》《平等信用機會(huì )法》《公平信用報告法》《同工同酬法》和《美國殘疾人法》等聯(lián)邦法規。
2. 執行消費者保護法。美國聯(lián)邦貿易委員會(huì )(FTC)在保護消費者方面擁有廣泛的法定職責,他們已明確表示,將打擊從自動(dòng)詐騙、AI工具的虛假宣傳到欺騙性廣告行為和隱私濫用等一切行為。重要的是,他們已采取了新的補救措施,這些措施可以起到威懾作用,比如迫使公司刪除根據不正當數據訓練的算法。
3. 執行競爭法。在A(yíng)I競爭中,科技巨頭們已經(jīng)在從事一系列反競爭行為,包括搭售和捆綁、排他性交易、限制性許可和有害的數據收購。雖然美國國會(huì )應通過(guò)適合數字時(shí)代的新反壟斷法,包括在后續章節中概述的那些法律,但美國聯(lián)邦貿易委員會(huì )和美國司法部(DOJ)應繼續利用其全部權力來(lái)對抗這些濫用行為,并應利用其正在進(jìn)行的合并指南以及美國聯(lián)邦貿易委員會(huì )的商業(yè)監控規則來(lái)加強其打擊不公平競爭的力度。
4. 明確美國《通信規范法案》(CDA)第230條的限制,支持原告尋求對各種AI損害的補償。保護數字服務(wù)免于承擔第三方內容責任的法律不應保護生成式AI。針對ChatGPT的誹謗案件已經(jīng)開(kāi)始審理,更嚴重的案件肯定會(huì )接踵而至。想一想一個(gè)聊天機器人勸說(shuō)一名男子自殺的悲劇,或者關(guān)于提供致命配方的假設。除CDA第230條外,AI公司還成為高風(fēng)險版權案件、集體隱私訴訟等案件的目標。雖然棘手的法律問(wèn)題比比皆是,但政策制定者應尋求機會(huì ),在一些案件中提交“法庭之友”(amicus,亦寫(xiě)作為amici curiae,是指“由于與法院在審案件所涉問(wèn)題具有利害關(guān)系,或者對之有個(gè)人見(jiàn)解,且未受到雙方當事人充分代表而自愿或者受到法院邀請向法院提交書(shū)面意見(jiàn)的非案件當事人”)的書(shū)狀和利益聲明,這些案件將決定未來(lái)AI損害的責任以及開(kāi)發(fā)和部署這些系統者的行為。
原則二:
大膽、易于管理、明確的規則是必要的
現在應該很清楚,自我監管將無(wú)法避免AI的損害。任何依賴(lài)于自愿遵守或以其他方式將關(guān)鍵環(huán)節外包給行業(yè)的監管制度都是如此。這包括主要依賴(lài)審計的復雜框架,尤其是第一方(內部)或第二方(簽約供應商)的審計,而大型科技公司已經(jīng)越來(lái)越多地接受了這種審計。這些方法在紙面上可能很有力,但在實(shí)踐中,它們往往會(huì )進(jìn)一步賦予行業(yè)領(lǐng)域權力,加重小企業(yè)的負擔,并削弱監管者正確執行法律條文和精神的能力。
1. 禁止不可接受的AI做法。AI的某些用途從根本上不符合人權,絕不應允許。其中包括:
a.
情緒識別或使用生物識別技術(shù)推斷心理狀態(tài)
b.
預測性警務(wù)
c.
遠程生物識別,包括在公共場(chǎng)所使用面部識別技術(shù)
d.
社會(huì )評分
e.
全自動(dòng)招聘或解雇
2. 禁止大部分個(gè)人數據的二次使用和第三方披露。美國未能通過(guò)全面的聯(lián)邦隱私立法,使得建立在監控和剝削基礎上的經(jīng)濟得以發(fā)展。從隱私角度和競爭角度來(lái)看,嚴格的“數據最小化原則”(限制企業(yè)收集數據以及其數據用途)是解決大型科技公司間有害競爭的最有力工具之一,因為大型科技公司在這一領(lǐng)域的主導地位主要歸功于其龐大的數據優(yōu)勢。
a.
禁止收集或處理所有敏感數據。正如美國兩黨共同制定的《美國數據隱私保護法》(ADPPA)所定義的,確定超出提供或維護個(gè)人所要求的特定產(chǎn)品或服務(wù)的嚴格范圍。
b.
禁止在教育、工作場(chǎng)所、住房和招聘中收集或處理生物特征識別數據。
c.
禁止監控廣告。
3. 防止大型科技公司濫用權力扭曲數字市場(chǎng)以及使其之間的AI競爭永久化。云基礎設施供應商作為構建和運營(yíng)大規模AI的關(guān)鍵,最易獲得優(yōu)勢。而平臺生態(tài)系統的所有者則可以利用其數據優(yōu)勢,在這些系統商業(yè)化的過(guò)程中攫取租金。結構化干預是防止市場(chǎng)惡性競爭的最佳途徑,因為這些公司在A(yíng)I系統準備就緒之前就急于將其商業(yè)化,而這一切都是為了保持其先發(fā)優(yōu)勢。
a.
禁止占主導地位的云基礎設施供應商擁有大規模商業(yè)AI產(chǎn)品或從中獲益。大規模AI模型的訓練和運行需要巨大的算力,而價(jià)值5000億美元的云計算市場(chǎng)已被三家科技巨頭占領(lǐng):亞馬遜、谷歌和微軟。它們既是AI的領(lǐng)導者,又是這些AI系統所依賴(lài)的基礎設施的所有者,這種雙重身份本質(zhì)上是反競爭行為,扭曲了市場(chǎng)激勵機制,并使有害的AI競爭永久化。每家公司都在爭奪霸主地位的同時(shí)匆忙推出不安全的AI產(chǎn)品。美國在制定結構化補救措施方面有著(zhù)悠久的歷史,這些措施將控制關(guān)鍵分銷(xiāo)網(wǎng)絡(luò )中關(guān)鍵基礎設施的公司與依賴(lài)這些網(wǎng)絡(luò )的業(yè)務(wù)線(xiàn)分開(kāi),包括鐵路、銀行和電信行業(yè)。
b.
禁止大型科技公司在商業(yè)化AI中自我推薦、拉攏商業(yè)合作伙伴或打擊競爭對手。
c.
禁止大型科技公司利用企業(yè)用戶(hù)的非公開(kāi)數據進(jìn)行不公平競爭。
原則三:
在A(yíng)I系統生命周期的每個(gè)階段,科技公司都有責任證明其系統不會(huì )造成危害
行業(yè)領(lǐng)袖們已經(jīng)采取了一系列自愿措施,以表明對AI關(guān)鍵倫理原則的承諾。但他們也削減了AI倫理團隊,無(wú)視內部警報,在對AI的惡性競爭時(shí)放棄了透明度,并試圖將責任推卸給下游用戶(hù)和民間社會(huì )。與其依賴(lài)科技公司的善意,讓資源不足的執法機構或受影響的用戶(hù)證明和預防危害或依賴(lài)上市后的審計,科技公司更應該證明其AI產(chǎn)品不會(huì )造成危害。
有用的推論:
以往是如何監管其他領(lǐng)域的高風(fēng)險產(chǎn)品?
鑒于先進(jìn)的AI系統具有廣泛的社會(huì )影響,根據其制造商的說(shuō)法,這些系統可能會(huì )在短期內造成廣泛的危害,并在長(cháng)期內帶來(lái)生存風(fēng)險,因此考慮如何監管類(lèi)似的高風(fēng)險產(chǎn)品是非常有益的。新藥上市的開(kāi)發(fā)和審批過(guò)程對此非常具有啟發(fā)性。
制藥公司每年在研發(fā)上花費數十億美元,篩選成千上萬(wàn)的化合物,以確定少數有前景的候選藥物進(jìn)行臨床前研究,其中包括美國食品藥品監督管理局(FDA)批準的動(dòng)物試驗,以及藥物成分和安全性的大量文件。有了這些研究和潛在臨床試驗的詳細方案,制藥公司就可以向FDA提交研究申請。如果獲得批準,制藥公司就會(huì )開(kāi)始三個(gè)密集臨床試驗階段中的第一個(gè)階段,之后他們就可以提交正式申請,將藥物推向市場(chǎng)。如果FDA決定繼續推進(jìn),審查小組就會(huì )對所有研究進(jìn)行評估,以確定藥物對其預期用途是否安全有效。獲得批準的藥物大約1/10進(jìn)入臨床試驗,隨后要接受FDA的醫療器械標簽、上市后監測、副作用披露等要求。此外,任何重大變更都需要補充申請FDA的批準。
在藥物開(kāi)發(fā)過(guò)程的每個(gè)階段,制藥公司都必須遵守明確的規則和FDA的標準,進(jìn)行廣泛的測試以識別和考慮所有可預見(jiàn)的風(fēng)險,并向監管機構展示他們的工作。制藥公司必須向其產(chǎn)品的部署者(處方者)和最終用戶(hù)(患者)提供有關(guān)適當用法和潛在不良反應的明確信息。制藥公司要對因未能履行這些職責而造成的傷害承擔責任,但不包括因處方者的疏忽或患者的濫用而造成的傷害。
這并不是在呼吁建立一個(gè)新的“AI食品藥品監督管理局”,也不是為AI治理開(kāi)出的一對一的處方,AI治理必須更快、更靈活,但新藥上市的開(kāi)發(fā)和審批過(guò)程是一個(gè)非常有用的參考。同樣,大規模AI模型和自動(dòng)決策系統也應遵守一套嚴格的部署前要求。
1. 評估和記錄的具體標準必然會(huì )因AI的類(lèi)型和成熟度而異。舉例來(lái)說(shuō),一個(gè)旨在識別疾病早期征兆的AI工具、一個(gè)用于篩選求職者的自動(dòng)化系統、一個(gè)通用的大語(yǔ)言模型,這些AI產(chǎn)品都有可能造成嚴重危害。因此,在部署前必須對其進(jìn)行證明,這些AI產(chǎn)品帶來(lái)風(fēng)險的性質(zhì)各不相同,需要進(jìn)行的測試也大相徑庭。
2. 盡管評估每個(gè)系統的標準各異,但必須普遍堅持一些核心的AI倫理原則。例如,最近制定的《人工智能權利法案藍圖》概述了五類(lèi)核心保護措施,為使用AI提供了清晰的路線(xiàn)圖:建立安全和有效的系統;避免算法歧視,以公平的方式使用和設計系統;保護數據隱私;系統的通知和解釋要清晰、及時(shí)和可訪(fǎng)問(wèn);設計自動(dòng)系統失敗時(shí)使用的替代方案、考慮因素和退出機制。這些要求是底線(xiàn),而不是上限,所有AI都可以且應該遵守這些原則,盡管不同的系統遵守這些原則的情況會(huì )有所不同。
3. 應要求科技公司根據其在供應鏈中的角色,在開(kāi)發(fā)的各個(gè)階段積極證明其遵守法律。這應包括記錄公司確定合理的可預見(jiàn)危害的流程,以及在可能的情況下如何減輕危害的建議。鑒于A(yíng)I市場(chǎng)上虛假或夸大宣傳的情況層出不窮,科技公司還必須證明系統能按預期(和宣傳)運行。監管機構還可能要求在批準前進(jìn)行額外的測試、檢查、披露或修改。在獲得批準后,應在聯(lián)邦數據庫中公布該AI系統所有的公開(kāi)版本文件。
部署后的要求應包括:
1. 持續的風(fēng)險監控,包括通過(guò)年度民權和數據隱私影響評估,由具有完整的應用程序編程接口(API)和數據訪(fǎng)問(wèn)權限的第三方進(jìn)行獨立審計,并要求為用戶(hù)建立有效的投訴機制,并迅速報告已發(fā)現的任何嚴重風(fēng)險。
2. 在用戶(hù)使用AI系統時(shí)主動(dòng)通知用戶(hù),告知其預期用途,并向用戶(hù)提供易于獲取的AI系統主要參數解釋?zhuān)约叭魏瓮顺鰴C制或可用的人工替代方案。
3. 生成式AI的具體要求,包括:
a.
遵守新的出處、真實(shí)性和披露標準。雖然這遠不是解決生成式AI對信息和新聞生態(tài)系統造成全面危害的靈丹妙藥,但建立有效、可互操作的標準來(lái)認證AI生成或操縱的媒體來(lái)源和真實(shí)性,可以增加有助于保護消費者和內容創(chuàng )作者的關(guān)鍵背景。
b.
明確禁止某些不可接受的用途。例如未經(jīng)同意傳播深度偽造的圖像;故意欺騙他人,意圖阻礙其行使投票權;或冒充他人并以其假定的身份行事,意圖獲取利益或傷害、詐騙他人。
結語(yǔ)
長(cháng)期以來(lái),我們錯信了大型科技公司的自我監管,誤以為技術(shù)進(jìn)步就是社會(huì )進(jìn)步,對不斷升級的危害視而不見(jiàn)。在我們應對不斷演變的威脅時(shí),“零信任人工智能治理”框架是一個(gè)必要的路線(xiàn)修正,這個(gè)框架提供了我們所需的基線(xiàn),以促進(jìn)健康的創(chuàng )新,并確保下一代技術(shù)服務(wù)于更大的利益。
責任編輯:房家輝
分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: