當前,世界正處于迅猛的技術變革中,人工智能技術已經成為未來數字經濟轉型升級的核心要素。人工智能在帶來巨大時代機遇的同時,也會帶來威脅全球穩定和破壞人類價值觀的風險,其治理一直是重點關注的問題,加強國際合作構建人工智能治理圖景至關重要。
人工智能風險挑戰與發展機遇并存
隨著通用人工智能技術突破,人工智能的應用場景逐漸擴大,難以評估的風險也成倍增加。國際社會需要給予人工智能一個密切審慎觀察的空間,治理規則的制定需要在技術和社會的緊密互動中保持靈活性,隨時根據實際情況校準政策,從而有效且前瞻性地解決問題,推動人工智能技術的健康發展和數據要素的跨境流動。
目前人工智能技術主要帶來三類問題。一是信息安全問題。人工智能需要實時更新海量數據用于模型訓練。在個人隱私領域中,相關企業、平臺尚未達成遵循知情同意原則的共識,存在越權使用等現象。用戶在使用人工智能技術時,可能因缺乏相關意識導致個人隱私數據泄露。二是虛假信息問題。盡管技術中立,但人為投放不實消息或片面事實可能導致人工智能模型產出虛假信息。三是數字鴻溝問題。人工智能具備高效的信息檢索和整合能力,雖然為人們的工作和生活提供了極大方便,但其產出的真實性和準確性并不牢靠。因此,信息甄別、自主決策能力強的使用者將更善于使用這項工具,而盲從的使用者則可能為其所害。隨著兩者使用技術的差距不斷沉積,數字鴻溝也就此加深。
因此,如何在發展與安全之間取得平衡,推動人工智能為世界釋放更多“智能紅利”,需要國際社會共同參與。面對上述困難,各個國家和地區應積極落實全球發展倡議、全球安全倡議、全球文明倡議,共同促進全球人工智能健康有序安全發展,推動人工智能技術造福全人類。
人工智能治理的國際合作實踐
截至目前,眾多國際組織和機構發布了人工智能治理相關文件,為全球人工智能治理提供正能量,注入新動力。早在2018年,歐盟委員會提出《人工智能的倫理準則》,強調人工智能的應用必須符合人類價值觀和倫理原則,并建議采取措施加強人工智能的監管和透明度,促進其可持續發展。2019年,聯合國教科文組織發布了《人工智能倫理問題建議書》,積極思考人工智能倫理問題,推動人工智能倫理原則在全球范圍內的傳播與實施。同年,二十國集團(G20)發布《G20人工智能原則》,強調人工智能的倫理和社會責任。2023年11月,首屆包括我國在內的28個國家共同達成的《布萊切利宣言》正式發表,同意通過國際合作,建立人工智能監管方法。這一宣言是全球第一份針對人工智能這一快速發展的新興技術的國際性聲明,旨在關注對未來強大人工智能模型威脅人類生存的擔憂,以及對人工智能當前增強有害或偏見信息的擔憂。
歐洲國家持續推動國際人工智能治理實踐。2023年6月,歐盟推出全球首部人工智能法案,對生成式人工智能企業提出更高的透明度要求。同月,時任英國首相蘇納克在訪美期間和美國總統拜登發表《大西洋宣言》,同意在人工智能等領域加強合作。同年10月,法國、德國、意大利在意大利羅馬舉行高級別會議并發表聯合公報稱,法德意三國正在制定人工智能戰略愿景,并出臺人工智能監管法規來管控風險。2024年5月29日,歐盟委員會成立人工智能辦公室,旨在促進人工智能的發展、部署和使用,在降低風險的同時促進社會經濟效益和鼓勵創新。該辦公室將在實施歐盟《人工智能法》的過程中發揮關鍵作用,努力促進可信人工智能的發展和創新,并使歐盟在該領域處于領先地位。
推進人工智能治理,中國在積極行動。2021年12月,中國向聯合國《特定常規武器公約》第六次審議大會提交《中國關于規范人工智能軍事應用的立場文件》。2022年11月又向聯合國《特定常規武器公約》締約國大會提交了《中國關于加強人工智能倫理治理的立場文件》。這些主張堅持維護人類福祉,堅守公平正義,為解決全球人工智能治理難題貢獻了中國智慧和中國方案。2023年10月,我國在第三屆“一帶一路”國際合作高峰論壇上正式發布《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三個方面闡述人工智能治理的中國方案,為人工智能的開發與安全提出建設性的解決思路和發展藍本。
構建國際人工智能治理的合作框架
人工智能的發展軌跡關乎全體人類命運,發展和治理人工智能已成為全球各國面臨的共同課題。未來的人工智能的發展在基礎研究、產業研發、應用服務等多個領域將涌現出一批主要和重要的中心與節點,并呈現多中心發展的趨勢,這些主要節點之間將高度互聯、深度協作,共同帶動世界人工智能的發展。
一是加強國際合作,保持開放心態進行全球性討論。各國通力合作,避免誤解,加速實現人工智能技術及其應用的全球化發展,努力提升人工智能技術的安全性、可靠性、可控性、公平性,增進全人類福祉。全球協作不僅在于對長遠議題開展聯合研究與風險防范,更在于防止人工智能在技術發展尚存極大不確定的情況下惡性競爭、誤用、濫用甚至惡用。
二是構建兼顧安全與發展的人工智能監管框架,通過細化立法領域、拓寬管轄范圍、提高法律效力層級等方式劃定原則底線。堅持以技管技,強調技術性調整手段的重要性,積極發展促進人工智能安全相關技術,以人工智能技術促進人工智能安全開發;堅持法治化推進,人工智能治理的法治化是確保人工智能技術安全有序發展的重要保障,需要建立健全相關法律制度,明確各主體、各環節責任義務,關注權利保護。
三是建立安全與發展兩輪并重的治理觀念。一方面,堅持倫理先行,前瞻研判人工智能倫理風險,注重風險預防,加強源頭治理,確保人工智能健康發展;實施全流程監管和分級分類監管機制,針對人工智能技術研發、測試、應用等多個技術環節,明確相應的安全技術標準,輔之以科技倫理審查機制,從各個環節預防和控制技術安全風險。另一方面,針對人工智能應用的不同場景、不同風險程度,設置不同的監管機制,在保障人工智能技術應用安全的同時,最大化預留人工智能產業創新空間。
(作者:王 鵬、丁立江,均系北京市習近平新時代中國特色社會主義思想研究中心特約研究員)