本報記者 樊三彩
2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)《關于加強科技倫理治理的意見》,對科技倫理治理工作進行了系統(tǒng)部署,將人工智能列入科技倫理治理的重點領域。
當前,人工智能倫理面臨哪些風險與挑戰(zhàn)?國內外進行了哪些實踐?未來應如何實現(xiàn)人工智能倫理的治理?近日,中國信息通信研究院(簡稱中國信通院)發(fā)布的《人工智能倫理治理研究報告(2023年)》圍繞相關問題進行了研究分析。
該報告認為,人工智能技術的突破發(fā)展,引發(fā)了技術應用的倫理爭議,特別是生成式人工智能技術的發(fā)展應用引發(fā)了偏見歧視、隱私侵犯、責任不明、虛假內容傳播等倫理挑戰(zhàn)。未來一段時期,人工智能倫理治理將與產(chǎn)業(yè)創(chuàng)新活動增強協(xié)調;多學科多主體參與、分類分級治理、技術工具開發(fā)等措施將有效推動人工智能倫理治理機制完善;全民科技倫理素養(yǎng)的提升將有效防范人工智能倫理風險;全球人工智能倫理治理合作也將推動人工智能技術造福人類。
挑戰(zhàn):
覆蓋人工智能全生命周期的各個階段
人工智能倫理是開展人工智能研究、設計、開發(fā)、服務和使用等科技活動需要遵循的價值理念和行為規(guī)范,呈現(xiàn)出哲學性、技術性、全球性三大特點。該報告認為,目前,人工智能引發(fā)的倫理挑戰(zhàn)已從理論研討變?yōu)楝F(xiàn)實風險。據(jù)統(tǒng)計,僅2023年11月,人工智能事件就超過280件。對人工智能倫理問題的關切覆蓋人工智能全生命周期的各個階段,需要從技術研發(fā)和應用部署層面分析評估人工智能倫理風險。
其中,在技術研發(fā)階段,由于人工智能技術開發(fā)主體在數(shù)據(jù)獲取和使用、算法設計、模型調優(yōu)等方面還存在技術能力和管理方式的不足,可能產(chǎn)生偏見歧視、隱私泄露、錯誤信息、不可解釋等倫理風險。在產(chǎn)品研發(fā)與應用階段,人工智能產(chǎn)品所面向的具體領域、人工智能系統(tǒng)的部署應用范圍等將影響人工智能倫理風險程度,并可能產(chǎn)生誤用濫用、過度依賴、沖擊教育與就業(yè)等倫理風險。
“需要注意,隱私泄露、偏見歧視、產(chǎn)生虛假錯誤信息、歸責不明等倫理風險既可能產(chǎn)生在研發(fā)階段,又可能產(chǎn)生于應用階段,甚至是兩者疊加產(chǎn)生的負面后果。識別人工智能倫理風險需要進行全生命周期的評估?!痹搱蟾嫣貏e強調。
當前,伴隨著大模型的發(fā)展,生成式人工智能應用成為 2023年人工智能應用熱點,但使用大模型生成內容具有三大突出倫理風險。
一是誤用濫用風險。生成式人工智能技術應用普及快、使用門檻低,可能成為制作深度偽造內容、惡意代碼等的技術工具,引發(fā)虛假信息大量傳播以及網(wǎng)絡安全問題。
二是數(shù)據(jù)泄露與隱私侵犯風險。生成式人工智能使用的訓練數(shù)據(jù)集可能包含個人信息,繼而被誘導輸出有關信息。同時,在用戶使用過程中上傳的個人信息、企業(yè)商業(yè)秘密、重要代碼等都有可能成為生成式人工智能訓練的素材,進而產(chǎn)生被泄露的風險。
三是對知識產(chǎn)權制度帶來挑戰(zhàn)。生成式人工智能技術對知識產(chǎn)權體系造成了沖擊。在訓練數(shù)據(jù)的使用上,哪些數(shù)據(jù)能用于模型訓練還存在爭議,關于“合理使用”是否能適用于大模型數(shù)據(jù)訓練還在討論,且已有藝術家開始使用技術工具”阻止未經(jīng)允許的模型訓練。在生成內容的權利歸屬上,人工智能技術是否僅能發(fā)揮工具作用還有探討空間。
實踐:
世界各國逐步構建起人工智能有序發(fā)展的治理機制
人工智能已成為各國科技發(fā)展的重要戰(zhàn)略。目前,各國通過倫理規(guī)范明確人工智能技術研發(fā)和應用的基本倫理要求,加強全球人工智能倫理治理合作,逐步構建起人工智能有序發(fā)展的治理機制。
國際組織的人工智能倫理治理方案。目前,國際社會正加緊推進人工智能倫理治理領域的合作。在人工智能倫理共識性原則層面,聯(lián)合國教科文組織193個成員國于2021年11月達成《人工智能倫理問題建議書》,明確尊重、保護和促進人的權利、基本自由、尊嚴,環(huán)境和生態(tài)系統(tǒng)發(fā)展,確保多樣性和包容性,生活在和平、公正的互聯(lián)網(wǎng)社會中等4項人工智能價值觀。同時,ISO(國際標準化組織)、IEC(國際電工委員會)、IEEE(電氣與電子工程師委員會)、ITU(國際電信聯(lián)盟)等國際標準化組織積極推動以人工智能技術為代表的科技倫理標準研制。2023年5月25日,聯(lián)合國發(fā)布的《我們的共同議程》政策簡報提出“全球數(shù)字契約——為所有人創(chuàng)造開放、自由、安全的數(shù)字未來”;2023年10月26日,聯(lián)合國高級別人工智能咨詢機構成立;2023年12月,該咨詢機構發(fā)布臨時報告《以人為本的人工智能治理》。
域外國家和地區(qū)的人工智能倫理治理機制。其中,既有以美國為代表的以面向市場和創(chuàng)新為導向的監(jiān)管模式,又有以歐盟為代表的積極介入模式。
美國發(fā)展以鼓勵創(chuàng)新為基礎的可信賴人工智能。在行政規(guī)劃層面,2023年10月,美國總統(tǒng)拜登發(fā)布《關于安全、可靠、可信賴地開發(fā)和使用人工智能》行政令,明確進行負責任人工智能技術開發(fā)。此前,2022年5月,拜登政府成立國家人工智能咨詢委員會;2022年10月發(fā)布《人工智能權利法案藍圖》。同時,美國政府積極鼓勵行業(yè)自律,2023年7月和9月兩次推動包括OpenAI、谷歌、微軟、英偉達等15家企業(yè)就開發(fā)避免偏見歧視、保護隱私的人工智能做出承諾。在具體領域,美國聯(lián)邦政府不同部門也依據(jù)主責主業(yè)發(fā)布相應的倫理原則和治理框架。不過,美國目前仍然缺乏以人工智能為規(guī)制對象的具有約束力的法律規(guī)范。
歐盟通過健全監(jiān)管規(guī)制落地人工智能倫理要求。在倫理框架方面,2019年4月,歐盟高級專家組發(fā)布《可信人工智能倫理指南》,提出可信人工智能的概念和7項關鍵要求,包括保證人類監(jiān)督、魯棒性和安全性、隱私和數(shù)據(jù)治理、透明度、多樣性、社會和環(huán)境福利、問責。在治理落地方面,2023年12月,歐盟委員會、歐洲理事會、歐洲議會達成共識,就《人工智能法案》達成臨時協(xié)議,提出基于風險的監(jiān)管方式,將人工智能系統(tǒng)帶來的挑戰(zhàn)分為不可接受的風險、高風險、有限風險、基本無風險4個級別,并形成對應的責任和監(jiān)管機制;同時,強調以人為本、保證透明度等倫理價值要求。
此外,德國關注人工智能具體應用領域(人工智能算法、數(shù)據(jù)以及自動駕駛等)倫理風險規(guī)制,強調以人為本,發(fā)展負責任、以公共利益為導向的人工智能。如在算法領域,德國數(shù)據(jù)倫理委員會將與人類決策相關的人工智能系統(tǒng)劃分為基于算法的決策、算法驅動的決策和算法決定的決策3種類型,并提出人工智能算法風險導向型“監(jiān)管金字塔”,將人工智能算法風險進行1級~5級評級,逐級增加規(guī)范要求,包括監(jiān)管審查、附加批準條件、動態(tài)監(jiān)管以及完全禁止等措施。新加坡積極探索人工智能倫理治理技術工具,通過發(fā)布“智慧國家”“數(shù)字政府藍圖”等國家政策,多維度提升人工智能發(fā)展與應用水平,著力推動社會數(shù)字化轉型向有利于人的方向發(fā)展。如2023年12月,新加坡發(fā)布國家人工智能戰(zhàn)略2.0,提出人工智能服務公共利益的愿景,再次強調建立一個可信賴和負責任的人工智能生態(tài)。
與此同時,我國也積極參與人工智能倫理治理國際合作。2023年8月,在金磚國家領導人第十五次會晤上,金磚國家已同意盡快啟動人工智能研究組工作,拓展人工智能合作,形成具有廣泛共識的人工智能治理框架和標準規(guī)范。2023年10月,我國發(fā)布《全球人工智能治理倡議》,圍繞人工智能發(fā)展、安全、治理三方面系統(tǒng)闡述了人工智能治理中國方案,提出堅持倫理先行的原則,提出建立并完善人工智能倫理準則、規(guī)范及問責機制。同時,我國專家也積極參與聯(lián)合國、世界衛(wèi)生組織等國際機構的人工智能倫理規(guī)則構建。2023年10月,我國兩位專家入選聯(lián)合國高級別人工智能治理機構,積極參與聯(lián)合國層面的人工智能治理討論,提出全球人工智能治理建議。
展望:
人工智能倫理治理將與產(chǎn)業(yè)創(chuàng)新活動增強協(xié)調
該報告圍繞人工智能倫理治理提出了四方面建議。
一是協(xié)調人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展與倫理治理。一方面,重視人工智能技術創(chuàng)新,鼓勵人工智能基礎技術創(chuàng)新和突破,發(fā)展人工智能芯片、數(shù)據(jù)、算法等基礎核心技術,加強人工智能治理產(chǎn)品開發(fā),以人工智能技術防范人工智能風險;另一方面,探索建立敏捷的人工智能倫理治理機制,增強科技倫理治理的有效性和科學性,推動產(chǎn)業(yè)創(chuàng)新與倫理風險防范相協(xié)調。
二是完善人工智能倫理治理舉措。其一,健全多學科多主體合作的治理體系,形成多學科共建的人工智能治理合力。其二,要建立分類分級倫理治理機制。建議根據(jù)人工智能倫理風險大小和影響范圍確定責任義務和監(jiān)管規(guī)則,如對于基本不具有倫理影響的人工智能技術應用,簡化監(jiān)管程序,鼓勵技術創(chuàng)新和發(fā)展;對于具有一定倫理影響的人工智能技術,設定倫理要求,建立風險評估機制,明確責任;對于具有長期且廣泛影響的人工智能高風險應用領域,加大監(jiān)管力度,通過多種監(jiān)管手段防范倫理風險;對于具有不可接受倫理影響的人工智能應用,考慮禁止部署。其三,推動人工智能倫理治理技術化、工程化、標準化,形成人工智能倫理治理經(jīng)驗示范。
三是提升各主體人工智能倫理風險應對能力。符合人工智能倫理的開發(fā)和應用實踐有賴于研發(fā)、設計、應用人員承擔起個人責任,也需要公眾加強對人工智能倫理風險的認知及負責任使用。支持高校開設科技倫理課程,引導學生和科技工作者提升人工智能倫理素養(yǎng),將開展面向員工的科技倫理培訓作為企業(yè)落實科技倫理管理主體責任的必要環(huán)節(jié),引導行業(yè)加強科技倫理自律與合作,加強面向社會公眾的科技倫理教育。
四是加強人工智能倫理治理國際交流合作。人工智能技術具有全球性、時代性,要積極參與全球科技倫理治理雙多邊合作,同時鼓勵國內企業(yè)和專家學者參與國際人工智能倫理治理交流合作,形成全球人工智能倫理治理合作生態(tài)。
《中國冶金報》(2024年02月06日 04版四版)