本報記者 樊三彩
2022年3月,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》,對科技倫理治理工作進行了系統部署,將人工智能列入科技倫理治理的重點領域。
當前,人工智能倫理面臨哪些風險與挑戰?國內外進行了哪些實踐?未來應如何實現人工智能倫理的治理?近日,中國信息通信研究院(簡稱中國信通院)發布的《人工智能倫理治理研究報告(2023年)》圍繞相關問題進行了研究分析。
該報告認為,人工智能技術的突破發展,引發了技術應用的倫理爭議,特別是生成式人工智能技術的發展應用引發了偏見歧視、隱私侵犯、責任不明、虛假內容傳播等倫理挑戰。未來一段時期,人工智能倫理治理將與產業創新活動增強協調;多學科多主體參與、分類分級治理、技術工具開發等措施將有效推動人工智能倫理治理機制完善;全民科技倫理素養的提升將有效防范人工智能倫理風險;全球人工智能倫理治理合作也將推動人工智能技術造福人類。
挑戰:
覆蓋人工智能全生命周期的各個階段
人工智能倫理是開展人工智能研究、設計、開發、服務和使用等科技活動需要遵循的價值理念和行為規范,呈現出哲學性、技術性、全球性三大特點。該報告認為,目前,人工智能引發的倫理挑戰已從理論研討變為現實風險。據統計,僅2023年11月,人工智能事件就超過280件。對人工智能倫理問題的關切覆蓋人工智能全生命周期的各個階段,需要從技術研發和應用部署層面分析評估人工智能倫理風險。
其中,在技術研發階段,由于人工智能技術開發主體在數據獲取和使用、算法設計、模型調優等方面還存在技術能力和管理方式的不足,可能產生偏見歧視、隱私泄露、錯誤信息、不可解釋等倫理風險。在產品研發與應用階段,人工智能產品所面向的具體領域、人工智能系統的部署應用范圍等將影響人工智能倫理風險程度,并可能產生誤用濫用、過度依賴、沖擊教育與就業等倫理風險。
“需要注意,隱私泄露、偏見歧視、產生虛假錯誤信息、歸責不明等倫理風險既可能產生在研發階段,又可能產生于應用階段,甚至是兩者疊加產生的負面后果。識別人工智能倫理風險需要進行全生命周期的評估。”該報告特別強調。
當前,伴隨著大模型的發展,生成式人工智能應用成為 2023年人工智能應用熱點,但使用大模型生成內容具有三大突出倫理風險。
一是誤用濫用風險。生成式人工智能技術應用普及快、使用門檻低,可能成為制作深度偽造內容、惡意代碼等的技術工具,引發虛假信息大量傳播以及網絡安全問題。
二是數據泄露與隱私侵犯風險。生成式人工智能使用的訓練數據集可能包含個人信息,繼而被誘導輸出有關信息。同時,在用戶使用過程中上傳的個人信息、企業商業秘密、重要代碼等都有可能成為生成式人工智能訓練的素材,進而產生被泄露的風險。
三是對知識產權制度帶來挑戰。生成式人工智能技術對知識產權體系造成了沖擊。在訓練數據的使用上,哪些數據能用于模型訓練還存在爭議,關于“合理使用”是否能適用于大模型數據訓練還在討論,且已有藝術家開始使用技術工具”阻止未經允許的模型訓練。在生成內容的權利歸屬上,人工智能技術是否僅能發揮工具作用還有探討空間。
實踐:
世界各國逐步構建起人工智能有序發展的治理機制
人工智能已成為各國科技發展的重要戰略。目前,各國通過倫理規范明確人工智能技術研發和應用的基本倫理要求,加強全球人工智能倫理治理合作,逐步構建起人工智能有序發展的治理機制。
國際組織的人工智能倫理治理方案。目前,國際社會正加緊推進人工智能倫理治理領域的合作。在人工智能倫理共識性原則層面,聯合國教科文組織193個成員國于2021年11月達成《人工智能倫理問題建議書》,明確尊重、保護和促進人的權利、基本自由、尊嚴,環境和生態系統發展,確保多樣性和包容性,生活在和平、公正的互聯網社會中等4項人工智能價值觀。同時,ISO(國際標準化組織)、IEC(國際電工委員會)、IEEE(電氣與電子工程師委員會)、ITU(國際電信聯盟)等國際標準化組織積極推動以人工智能技術為代表的科技倫理標準研制。2023年5月25日,聯合國發布的《我們的共同議程》政策簡報提出“全球數字契約——為所有人創造開放、自由、安全的數字未來”;2023年10月26日,聯合國高級別人工智能咨詢機構成立;2023年12月,該咨詢機構發布臨時報告《以人為本的人工智能治理》。
域外國家和地區的人工智能倫理治理機制。其中,既有以美國為代表的以面向市場和創新為導向的監管模式,又有以歐盟為代表的積極介入模式。
美國發展以鼓勵創新為基礎的可信賴人工智能。在行政規劃層面,2023年10月,美國總統拜登發布《關于安全、可靠、可信賴地開發和使用人工智能》行政令,明確進行負責任人工智能技術開發。此前,2022年5月,拜登政府成立國家人工智能咨詢委員會;2022年10月發布《人工智能權利法案藍圖》。同時,美國政府積極鼓勵行業自律,2023年7月和9月兩次推動包括OpenAI、谷歌、微軟、英偉達等15家企業就開發避免偏見歧視、保護隱私的人工智能做出承諾。在具體領域,美國聯邦政府不同部門也依據主責主業發布相應的倫理原則和治理框架。不過,美國目前仍然缺乏以人工智能為規制對象的具有約束力的法律規范。
歐盟通過健全監管規制落地人工智能倫理要求。在倫理框架方面,2019年4月,歐盟高級專家組發布《可信人工智能倫理指南》,提出可信人工智能的概念和7項關鍵要求,包括保證人類監督、魯棒性和安全性、隱私和數據治理、透明度、多樣性、社會和環境福利、問責。在治理落地方面,2023年12月,歐盟委員會、歐洲理事會、歐洲議會達成共識,就《人工智能法案》達成臨時協議,提出基于風險的監管方式,將人工智能系統帶來的挑戰分為不可接受的風險、高風險、有限風險、基本無風險4個級別,并形成對應的責任和監管機制;同時,強調以人為本、保證透明度等倫理價值要求。
此外,德國關注人工智能具體應用領域(人工智能算法、數據以及自動駕駛等)倫理風險規制,強調以人為本,發展負責任、以公共利益為導向的人工智能。如在算法領域,德國數據倫理委員會將與人類決策相關的人工智能系統劃分為基于算法的決策、算法驅動的決策和算法決定的決策3種類型,并提出人工智能算法風險導向型“監管金字塔”,將人工智能算法風險進行1級~5級評級,逐級增加規范要求,包括監管審查、附加批準條件、動態監管以及完全禁止等措施。新加坡積極探索人工智能倫理治理技術工具,通過發布“智慧國家”“數字政府藍圖”等國家政策,多維度提升人工智能發展與應用水平,著力推動社會數字化轉型向有利于人的方向發展。如2023年12月,新加坡發布國家人工智能戰略2.0,提出人工智能服務公共利益的愿景,再次強調建立一個可信賴和負責任的人工智能生態。
與此同時,我國也積極參與人工智能倫理治理國際合作。2023年8月,在金磚國家領導人第十五次會晤上,金磚國家已同意盡快啟動人工智能研究組工作,拓展人工智能合作,形成具有廣泛共識的人工智能治理框架和標準規范。2023年10月,我國發布《全球人工智能治理倡議》,圍繞人工智能發展、安全、治理三方面系統闡述了人工智能治理中國方案,提出堅持倫理先行的原則,提出建立并完善人工智能倫理準則、規范及問責機制。同時,我國專家也積極參與聯合國、世界衛生組織等國際機構的人工智能倫理規則構建。2023年10月,我國兩位專家入選聯合國高級別人工智能治理機構,積極參與聯合國層面的人工智能治理討論,提出全球人工智能治理建議。
展望:
人工智能倫理治理將與產業創新活動增強協調
該報告圍繞人工智能倫理治理提出了四方面建議。
一是協調人工智能產業創新發展與倫理治理。一方面,重視人工智能技術創新,鼓勵人工智能基礎技術創新和突破,發展人工智能芯片、數據、算法等基礎核心技術,加強人工智能治理產品開發,以人工智能技術防范人工智能風險;另一方面,探索建立敏捷的人工智能倫理治理機制,增強科技倫理治理的有效性和科學性,推動產業創新與倫理風險防范相協調。
二是完善人工智能倫理治理舉措。其一,健全多學科多主體合作的治理體系,形成多學科共建的人工智能治理合力。其二,要建立分類分級倫理治理機制。建議根據人工智能倫理風險大小和影響范圍確定責任義務和監管規則,如對于基本不具有倫理影響的人工智能技術應用,簡化監管程序,鼓勵技術創新和發展;對于具有一定倫理影響的人工智能技術,設定倫理要求,建立風險評估機制,明確責任;對于具有長期且廣泛影響的人工智能高風險應用領域,加大監管力度,通過多種監管手段防范倫理風險;對于具有不可接受倫理影響的人工智能應用,考慮禁止部署。其三,推動人工智能倫理治理技術化、工程化、標準化,形成人工智能倫理治理經驗示范。
三是提升各主體人工智能倫理風險應對能力。符合人工智能倫理的開發和應用實踐有賴于研發、設計、應用人員承擔起個人責任,也需要公眾加強對人工智能倫理風險的認知及負責任使用。支持高校開設科技倫理課程,引導學生和科技工作者提升人工智能倫理素養,將開展面向員工的科技倫理培訓作為企業落實科技倫理管理主體責任的必要環節,引導行業加強科技倫理自律與合作,加強面向社會公眾的科技倫理教育。
四是加強人工智能倫理治理國際交流合作。人工智能技術具有全球性、時代性,要積極參與全球科技倫理治理雙多邊合作,同時鼓勵國內企業和專家學者參與國際人工智能倫理治理交流合作,形成全球人工智能倫理治理合作生態。
《中國冶金報》(2024年02月06日 04版四版)