您的位置:首頁 >公共 >

歐盟立法者制定生成式AI透明度規(guī)則,同意禁止公共場面面部識別

2023-05-12 17:52:52 來源:澎湃新聞

·更新后的草案引入了旨在監(jiān)管“通用人工智能”的新措施,適用于由微軟、谷歌和OpenAI等科技巨頭構建的資源密集型人工智能系統(tǒng)。大模型的創(chuàng)建者必須公開訓練人工智能使用的數據,以確保其使用受版權法保護的數據訓練。


(資料圖)

·“鑒于人工智能將對我們的社會和經濟產生深遠影響,《人工智能法》很可能是這項任務中最重要的立法。這是全球第一項此類立法?!?/p>

歐洲議會兩個委員會當地時間5月11日通過《人工智能法(The AI Act)》提案的談判授權草案。草案就對ChatGPT等生成式人工智能大模型的一系列要求達成一致,標志著歐盟對人工智能實施強監(jiān)管方面又邁出了一步。

新文本將嚴格禁止“對人類安全造成不可接受風險的人工智能系統(tǒng)”,包括有目的地操縱技術、利用人性弱點或根據行為、社會地位和個人特征等進行評價的系統(tǒng)等。

草案提出了新的保障措施,并禁止各種危險用例,包括禁止在公共場所進行大規(guī)模面部識別程序,以及禁止使用預測性警務系統(tǒng)(即AI犯罪預測系統(tǒng))。草案還要求建立一個公共數據庫,記錄政府部門部署的“高風險”人工智能系統(tǒng),公開數據,以便公民能夠了解他們將何時以及如何受到這項技術的影響。

這一草案將于6月中旬提交歐洲議會全會表決,之后歐洲議會將與歐盟理事會就法律的最終形式進行談判。歐洲議會的聲明說,一旦獲得批準,這將成為全世界首部有關人工智能的法規(guī)。

要求ChatGPT等承擔新的義務

該草案由兩個關鍵委員會批準:內部市場委員會(Internal Market Committee)和公民自由委員會(Civil Liberties Committee)。這些委員會由負責監(jiān)督立法制定的歐洲議會議員組成。他們最終以84票贊成、7票反對、12票棄權批準了完成的草案。

“在草案中,歐洲議會議員旨在確保人工智能系統(tǒng)由人監(jiān)督,且確保其安全、透明、可追溯、非歧視和環(huán)保。他們還希望對人工智能有一個統(tǒng)一的定義,旨在保持技術中立,以便其可以適用于現在和以后出現的人工智能系統(tǒng)?!睔W洲議會在一份新聞稿中說。

修正案包括擴大禁止行為清單,以禁止對人工智能系統(tǒng)的“侵入性”和“歧視性”使用,禁止行為包括:在公共可訪問空間建立實時遠程生物特征識別系統(tǒng);使用遠程生物特征識別系統(tǒng),唯一的例外是執(zhí)法部門起訴嚴重犯罪,并且只有在司法授權后;使用敏感特征(例如性別、種族、民族、公民身份、宗教、政治取向)的生物識別分類系統(tǒng);預測性警務系統(tǒng)(基于貌相、地點或過去的犯罪行為預測犯罪);執(zhí)法、邊境管理、工作場所和教育機構中的情感識別系統(tǒng);從社交媒體或監(jiān)控攝像頭中抓取生物特征數據以創(chuàng)建面部識別數據庫(侵犯人權和隱私權)。

除了禁令之外,更新后的草案還引入了旨在監(jiān)管“通用人工智能”的新措施,適用于由微軟、谷歌和OpenAI等科技巨頭構建的資源密集型人工智能系統(tǒng),其中包括GPT-4和ChatGPT等語言模型,以及Stable Diffusion、Midjourney和DALL-E等人工智能圖像生成器。

根據擬議的立法,人工智能大模型的創(chuàng)建者需要在人工智能使用之前進行評估并減輕各種風險,包括評估訓練人工智能系統(tǒng)可能造成的環(huán)境損害。相關公司必須公開訓練人工智能使用的數據,以確保其使用受版權法保護的數據訓練。

有業(yè)內人士認為,版權問題可能會在美國產生重大影響。在美國,版權所有者已經對未經同意使用其數據的人工智能圖像生成器提起了一系列訴訟,許多科技公司,如谷歌和OpenAI,都通過拒絕披露訓練系統(tǒng)的數據(通常聲稱這些信息是商業(yè)機密)來避免這類法律挑戰(zhàn),若歐盟要求公開訓練數據,則可能會產生新的訴訟。

《人工智能法》草案的另一個關鍵條款是創(chuàng)建一個“高風險”人工智能系統(tǒng)的數據庫,以公開人工智能系統(tǒng)在歐盟的部署地點、時間和方式?!斑@個數據庫應該是自由、公開且易于理解的?!辈莅钢刑岬?,“數據庫還應方便用戶使用,易于導航,至少具有搜索功能,允許公眾在數據庫中搜索特定的高風險系統(tǒng)以及相關的位置、風險類別等?!?/p>

創(chuàng)建這樣一個數據庫一直是數字權利活動人士的長期需求,他們表示,公眾經常在不知不覺中被大規(guī)模監(jiān)控系統(tǒng)進行實驗,或在未經同意的情況下被收集數據來訓練人工智能。

“其中一個大問題是,在傷害事件發(fā)生之前,我們對正在使用的人工智能系統(tǒng)一無所知。”非營利組織Access的高級政策分析師丹尼爾·盧弗(Daniel Leufer)說。他舉了荷蘭福利丑聞的例子,荷蘭政府使用的一種算法錯誤地就數千張未支付稅單發(fā)起訴訟。他表示,該數據庫將幫助歐盟公民用信息武裝自己,并使個人和團體更容易使用法律手段保護自身合法權益。

歐盟成員國還有重大分歧

對于人工智能監(jiān)管的一系列想法已經在歐盟醞釀多年,投票結束后,聯(lián)合報告員兼歐洲議會議員德拉戈斯·圖多拉奇(Dragos Tudorache)在一份聲明中評論說:“鑒于人工智能將對我們的社會和經濟產生深遠影響,《人工智能法》很可能是這項任務中最重要的立法。這是全球第一項此類立法,這意味著歐盟可以引領人工智能以以人為本、值得信賴和安全的方式發(fā)展。我們一直致力于支持歐洲的人工智能技術發(fā)展,為初創(chuàng)企業(yè)、中小企業(yè)和行業(yè)提供成長和創(chuàng)新的空間,同時保護基本權利,加強民主監(jiān)督,確保成熟的人工智能治理和執(zhí)法體系?!?/p>

“該草案具有全球意義?!睌底殖珜ЫM織歐洲數字權利(European Digital Rights)的高級政策顧問薩拉·錢德(Sarah Chander)告訴科技媒體The Verge。正如錢德所說,這些法律很可能會影響世界各國。歐盟是一個十分重要的市場,許多科技公司經常在全球范圍內遵守歐盟特定的法規(guī),以減少同時遵守多套法規(guī)帶來的損耗。

不過,該草案仍可能發(fā)生變化,在5月12日獲得歐盟議會委員會的批準后,草案將在下個月面臨全體會議投票,然后進入三方會談,涉及歐盟成員國和歐盟政府機構的閉門談判。

歐洲數字權利組織的高級政策顧問艾拉·雅庫伯斯卡(Ella Jakubowska)說:“許多成員國政府熱衷于保留進行生物識別大規(guī)模監(jiān)控的能力。但我們也看到了奧地利和德國的不同意見,他們都贊成在《人工智能法》中加強對生物識別數據的保護。我們聽說有傳言說,其他幾個國家愿意在生物識別條款的方向上做出妥協(xié)。這給了我們希望,三方會談將取得積極成果,盡管我們當然希望幾個會員國作出強有力的反擊?!?/p>

錢德表示,數字權利活動人士最看重的是對生物識別監(jiān)控和預測性警務系統(tǒng)的禁令,將在三方會談中引起“重大分歧”?!俺蓡T國認為,人工智能的這些用途對于打擊犯罪和維護安全是必要的。”錢德說。

標簽: