在剛剛過(guò)去的一周,OpenAI已經(jīng)成功安撫了意大利監管機構,促使其解除了對聊天機器人ChatGPT的臨時(shí)禁令,但這家人工智能研究公司與歐洲監管機構的斗爭仍未結束,更多挑戰才剛剛開(kāi)始。
(相關(guān)資料圖)
今年早些時(shí)候,OpenAI廣受歡迎但備受爭議的聊天機器人ChatGPT在意大利遭遇了一個(gè)重大的法律障礙,意大利數據保護局(GPDP)指控OpenAI違反歐盟數據保護規則。為了試圖解決問(wèn)題,該公司同意限制在意大利使用該服務(wù)。
4月28日,ChatGPT重新在意大利上線(xiàn),OpenAI輕松解決了意大利數據保護局的擔憂(yōu),而沒(méi)有對其服務(wù)做出重大改變。這對OpenAI來(lái)說(shuō)是一次明顯的勝利。
雖然意大利數據保護局對ChatGPT所做的改變表示“歡迎”,但OpenAI以及其他開(kāi)發(fā)聊天機器人公司所面臨的法律挑戰可能才剛剛開(kāi)始。多個(gè)國家的監管機構正在調查這些人工智能工具收集數據和生成信息的方式,理由包括收集未經(jīng)許可的培訓數據、聊天機器人傾向于發(fā)出錯誤信息等。
歐盟已經(jīng)開(kāi)始執行《通用數據保護條例》(GDPR),這是世界上最強大的隱私法律框架之一,其影響可能會(huì )遠遠超出歐洲。與此同時(shí),歐盟立法者正在制定一項專(zhuān)門(mén)針對人工智能的法律,這也很可能會(huì )開(kāi)啟對ChatGPT等系統進(jìn)行監管的新時(shí)代。
ChatGPT成為多方關(guān)注目標
ChatGPT是生成式人工智能(AIGC)中備受關(guān)注的應用之一,涵蓋了根據用戶(hù)提示生成文本、圖像、視頻和音頻等多種工具。據報道,ChatGPT在2022年11月推出僅兩個(gè)月后,月活躍用戶(hù)就達到了1億人,成為歷史上增長(cháng)最快的消費者應用之一。
借助ChatGPT,人們可以將文本翻譯成不同的語(yǔ)言、撰寫(xiě)大學(xué)論文,甚至生成代碼。但一些批評者,包括監管機構在內,指出ChatGPT輸出的信息并不可靠,存在版權問(wèn)題,并且在保護數據方面有缺陷。
意大利是第一個(gè)對ChatGPT采取行動(dòng)的國家。3月31日,意大利數據保護局指控OpenAI違反了《通用數據保護條例》:允許ChatGPT提供不準確或誤導性信息、未向用戶(hù)通知數據收集做法、未遵守個(gè)人數據處理的法規,以及未能充分防止13歲以下兒童使用該服務(wù)。意大利數據保護局命令OpenAI立即停止在ChatGPT的訓練數據中使用從意大利公民那里收集的個(gè)人信息。
目前,其他國家尚未采取類(lèi)似的大動(dòng)作。但自3月份以來(lái),至少有三個(gè)歐盟國家——德國、法國和西班牙,對ChatGPT展開(kāi)了自己的調查。與此同時(shí),在大西洋彼岸,加拿大正在根據其《個(gè)人信息保護和電子文件法案》(PIPEDA)評估ChatGPT的隱私問(wèn)題。歐洲數據保護委員會(huì )(EDPB)甚至成立了專(zhuān)門(mén)的工作組來(lái)協(xié)調調查。如果這些機構要求OpenAI做出改變,可能會(huì )影響該公司為全球用戶(hù)提供服務(wù)的方式。
監管機構有兩大擔憂(yōu)
監管機構對ChatGPT的最大擔憂(yōu)主要分為兩類(lèi):訓練數據從何而來(lái)?OpenAI如何向用戶(hù)傳遞信息?
為了支持ChatGPT,OpenAI需要使用GPT-3.5和GPT-4大型語(yǔ)言模型(LLM),這些模型是針對大量人工生成的文本進(jìn)行訓練的。OpenAI對究竟使用了哪些訓練文本始終保持謹慎,但表示利用了“各種授權的、公開(kāi)可用的數據源,其中可能包括公開(kāi)可用的個(gè)人信息”。
根據《通用數據保護條例》的規定,這可能會(huì )帶來(lái)巨大問(wèn)題。該法律于2018年頒布,涵蓋了收集或處理歐盟公民數據的所有服務(wù),無(wú)論提供服務(wù)的組織總部設在哪里?!锻ㄓ脭祿Wo條例》要求公司在收集個(gè)人數據之前必須獲得用戶(hù)的明確同意,收集這些數據必須有法律上的正當理由,并對這些數據的使用和存儲方式保持透明。
歐洲監管機構聲稱(chēng),OpenAI訓練數據的保密性意味著(zhù)他們無(wú)法確認其使用的個(gè)人信息是否最初獲得了用戶(hù)的同意。意大利數據保護局辯稱(chēng),OpenAI從一開(kāi)始就沒(méi)有收集這些信息的“法律依據”。到目前為止,OpenAI和其他公司幾乎沒(méi)有受到審查。
另一個(gè)問(wèn)題是《通用數據保護條例》的“被遺忘權”,它允許用戶(hù)要求公司更正他們的個(gè)人信息或將其完全刪除。OpenAI提前更新了其隱私政策,以方便回應這些請求。但考慮到一旦將特定數據輸入到這些大型語(yǔ)言模型中,分離可能會(huì )非常復雜,是否在技術(shù)上可行始終存在爭議。
OpenAI還直接從用戶(hù)那里收集信息。就像其他互聯(lián)網(wǎng)平臺一樣,它會(huì )收集一系列標準的用戶(hù)數據,例如姓名、聯(lián)系方式和信用卡詳細信息等。但更重要的是,OpenAI會(huì )記錄用戶(hù)與ChatGPT的互動(dòng)。正如官網(wǎng)所述,OpenAI的員工可以查看這些數據,并將其用于培訓其模型??紤]到人們向ChatGPT提出的私人問(wèn)題,例如將該機器人視為治療師或醫生,這意味著(zhù)該公司正在收集各種敏感數據。
在這些數據中,可能包括未成年人的信息。盡管OpenAI的政策規定,它“不會(huì )故意從13歲以下的兒童那里收集個(gè)人信息”,但沒(méi)有嚴格的年齡驗證門(mén)檻。這不符合歐盟的規定,該規定禁止從13歲以下未成年人那里收集數據,并且在某些國家要求搜集16歲以下未成年人的信息需獲得其父母的同意。在輸出方面,意大利數據保護局聲稱(chēng),ChatGPT缺乏年齡過(guò)濾器,使未成年人“在他們的發(fā)育程度和自我意識方面得到了絕對不合適的回應”。
OpenAI在使用這些數據方面擁有很大的自由度,這讓許多監管機構感到擔憂(yōu),而且存儲這些數據存在安全風(fēng)險。三星和摩根大通等公司已經(jīng)禁止員工使用AIGC工具,因為擔心他們會(huì )上傳敏感數據。實(shí)際上,在意大利發(fā)布禁令前,ChatGPT曾遭遇嚴重數據泄露事件,導致大量用戶(hù)的聊天歷史和電子郵件地址曝光。
此外,ChatGPT提供虛假信息的傾向也可能帶來(lái)問(wèn)題?!锻ㄓ脭祿Wo條例》規定,所有個(gè)人數據必須準確,意大利數據保護局在公告中強調了這一點(diǎn)。這可能會(huì )給大多數人工智能文本生成器帶來(lái)麻煩,因為這些工具很容易出現“幻覺(jué)”,即對查詢(xún)給出事實(shí)不正確或無(wú)關(guān)的回應。這在其他地方已經(jīng)引起了一些現實(shí)問(wèn)題,例如澳大利亞一名市長(cháng)威脅要起訴OpenAI誹謗,因為ChatGPT謊稱(chēng)他曾因賄賂入獄。
專(zhuān)門(mén)的監管規則即將出臺
ChatGPT因其受歡迎程度和人工智能市場(chǎng)的主導地位,特別容易成為監管目標。但與谷歌的Bard和微軟與OpenAI支持的Azure AI等競爭對手和合作伙伴一樣,它沒(méi)有理由不接受審查。在ChatGPT之前,意大利已禁止聊天機器人平臺Replika收集未成年人信息。到目前為止,該平臺仍被禁止。
雖然《通用數據保護條例》是一套強大的法律,但它并不是為了解決人工智能特有的問(wèn)題而制定的。然而,專(zhuān)門(mén)的監管規則可能即將出臺。2021年,歐盟提交了其《人工智能法案》(AIA)首個(gè)版本的草案,該法案將與《通用數據保護條例》一起實(shí)施?!度斯ぶ悄芊ò浮穼⒏鶕斯ぶ悄芄ぞ叩娘L(fēng)險大小對其進(jìn)行監管,從“最小風(fēng)險”(如垃圾郵件過(guò)濾器)到“高風(fēng)險”(用于執法或教育的人工智能工具)再到“不可接受風(fēng)險”(如社會(huì )信用體系)。
在像ChatGPT這樣的大型語(yǔ)言模型出現爆炸式增長(cháng)后,立法者現在正爭先恐后地為“基礎模型”和“通用人工智能系統(GPAI)”增加規則。這兩個(gè)術(shù)語(yǔ)指的是包括LLM在內的大規模人工智能系統,并可能將它們歸類(lèi)為“高風(fēng)險”服務(wù)。
《人工智能法案》的規定超出了數據保護的范疇。最近提出的一項修正案將迫使公司披露用于開(kāi)發(fā)AIGC工具的任何受版權保護的材料。這可能會(huì )暴露曾被保密的數據集,并讓更多公司容易受到侵權訴訟的影響,這些訴訟已經(jīng)對部分服務(wù)造成影響。
專(zhuān)門(mén)AI法律或到2024年底通過(guò)
目前來(lái)看,實(shí)施這項法案可能還需要一段時(shí)間。歐盟立法者已于4月27日達成了一項臨時(shí)人工智能法案協(xié)議,但還需要一個(gè)委員會(huì )在5月11日對草案進(jìn)行投票,最終提案預計將于6月中旬公布。然后,歐洲理事會(huì )、歐盟議會(huì )和歐盟委員會(huì )將不得不在實(shí)施該法律之前解決任何剩余的爭端。如果一切順利,它可能會(huì )在2024年下半年通過(guò)。
就目前而言,意大利和OpenAI之間的爭執讓我們初步了解了監管機構和人工智能公司可能會(huì )如何談判。意大利數據保護局表示,如果OpenAI在4月30日之前滿(mǎn)足幾項提議的決議,它就會(huì )解除禁令。
這些決議包括告知用戶(hù)ChatGPT如何存儲和使用他們的數據,要求征得用戶(hù)明確同意才能使用這些數據,為糾正或刪除ChatGPT生成的虛假個(gè)人信息提供便利,并要求意大利用戶(hù)在注冊賬戶(hù)時(shí)確認自己已超過(guò)18歲。盡管OpenAI沒(méi)有達到這些規定,但它已經(jīng)滿(mǎn)足了意大利監管機構的要求,并恢復了在意大利的訪(fǎng)問(wèn)權限。
OpenAI仍需滿(mǎn)足其他條件,包括在9月30日之前建立更嚴格的年齡門(mén)檻,過(guò)濾掉13歲以下的未成年人,并要求年齡較大的未成年青少年獲得父母同意。如果失敗,OpenAI可能會(huì )再次被封禁。不過(guò),OpenAI似乎已經(jīng)做出了榜樣,表明歐洲認為人工智能公司的行為是可以接受的,至少在新法律出臺之前是這樣的。
責任編輯:李楠
分享到:版權聲明:凡注明來(lái)源“流媒體網(wǎng)”的文章,版權均屬流媒體網(wǎng)所有,轉載需注明出處。非本站出處的文章為轉載,觀(guān)點(diǎn)供業(yè)內參考,不代表本站觀(guān)點(diǎn)。文中圖片均來(lái)源于網(wǎng)絡(luò )收集整理,僅供學(xué)習交流,版權歸原作者所有。如涉及侵權,請及時(shí)聯(lián)系我們刪除!關(guān)鍵詞: