AI“狂飆”引擔憂 監管討論在升溫
【今日視點】
◎本報記者 張佳欣
自去年底ChatGPT“一夜成名”,人工智能(AI)迎來“狂飆”時刻,AI生成內容(AIGC)領域快速發展。與此同時,數據泄漏、電信詐騙、個人隱私風險、著作權侵權、虛假信息等挑戰層出不窮,關于AI監管的討論正在全球范圍內升溫。
包括埃隆·馬斯克在內的1000多名科技領袖、技術人員和研究人員今年3月就簽署過一封公開信,呼吁暫停開發最大的AI模型6個月,理由是擔心“開發和部署更強大數字思維的競賽失控”。超過350名AI領域的行業高管、研究人員和工程師5月30日又簽署了一封公開信,他們在信中警告稱,AI可能給人類帶來“滅絕風險”,簽署者包括美國OpenAI首席執行官山姆·阿爾特曼和谷歌DeepMind首席執行官杰米斯·哈薩比斯。
從歐洲《AI法案》到七國集團(G7)“廣島AI進程”,目前,全球許多國家正在討論AI的監管規則,不過它們正處于監管和立法過程的不同階段。
歐洲議會通過《AI法案》草案
德國《法蘭克福評論報》指出,目前關于AI的最具體、最先進的規則是歐盟的《AI法案》。作為其數字戰略的一部分,歐盟希望對AI進行監管,以確保為這一創新技術的開發和使用提供更好的條件。
當地時間6月14日,歐洲議會以499票贊成、28票反對和93票棄權的壓倒性結果通過了《AI法案》草案。若最終法案獲得通過,這將成為全球首個關于AI的法案。美國有線電視新聞網報道稱,一旦獲得通過,該法案將適用于在歐盟開發和部署AI系統的任何人,包括位于歐盟以外的公司。
監管的程度取決于特定應用程序產生的風險,從最小到“不可接受”。屬于后一類的系統將被徹底禁止。
該法案對“高風險”AI應用設置了嚴格限制,“高風險”指的是可能“對人們的健康、安全、基本權利或環境造成重大損害”。
該法案還概述了AI系統的透明度要求。例如,ChatGPT等系統必須表明其內容是AI生成的,以方便區分深度偽造圖像和真實圖像,并提供防止非法內容生成的保障措施。用于訓練這些AI系統的受版權保護的數據詳細摘要也必須公布。
G7呼吁出臺AI技術標準
據《日本時報》報道,由于對生成式AI日益擔憂,G7領導人5月在廣島召開峰會,同意成立一個工作組,以加強合作,解決與新技術相關的各種問題。他們還表示,將創建一個名為“廣島AI進程”的部長級論壇,在今年底前針對生成式AI導致的版權、虛假信息等問題展開討論。
G7發布的聯合聲明表示:“我們認識到有必要立即評估生成式AI的機遇和挑戰。”他們將致力于通過透明、公開和公平的方式與多個利益相關者合作,起草“負責任的AI”的標準。
聲明表示,各國對AI監管的立場可能有所不同,但需要有一定程度的標準化,這種標準化也適用于其他新興技術趨勢,例如元宇宙和量子信息科學。
澳大利亞計劃加強AI監管
澳大利亞是最早提出監管AI的國家之一,于2018年推出了一個自愿的道德框架。
澳大利亞工業和科學部長埃德·胡西克承認,版權、隱私和消費者保護方面的法律目前仍然存在不足。他表示,鑒于AI行業的快速發展,政府希望確保其法律框架能起到有效保護效果。同時,如果在制定新的AI法律過程中,公眾有強烈要求,澳大利亞也會考慮禁止AI中的高風險成分。
在2023年的聯邦預算中,澳大利亞政府宣布成立“負責任的AI網絡”,并為在全國范圍內負責任地推廣多種AI技術提供約2690萬美元的資金。
此外,該國監管機構也意識到了現行法律的不足,擬對更廣泛的《隱私法》進行修改,修改后的法律將涉及如何應對在沒有人類監督的情況下,AI模型訓練通過反饋環路可能出現的缺乏透明度的問題。
美國AI監管仍在路上
美國也加入了這場生成式AI的監管風暴。當地時間5月23日,美國政府宣布了一系列圍繞美國AI使用和發展的新舉措,希望全面了解并捕捉到快速發展的AI技術所蘊含的風險和機遇。
白宮官網發布消息稱,“AI是我們這個時代最強大的技術之一,具有廣泛的應用。為了抓住AI帶來的機會,我們必須首先管控其風險。為此,政府已采取行動,促進負責任的AI創新,將人、社區和公共利益放在中心位置,并管理AI技術發展對個人和社會、安全和經濟的風險。”
不過,美國對于AI監管的思路與歐洲不同。歐盟傾向于由統一法案帶來集中協調和全面的監管覆蓋范圍;而美國則采取不干涉的做法,著重于依靠業界“自律”,提出自己的保障措施。
(責任編輯:歐云海)