確保人工智能安全、可靠、可控
【學思踐悟】
作為新一輪科技革命和產業變革的重要驅動力量,人工智能發展在發揮多方面積極作用的同時,也面臨著安全風險等一系列問題。4月25日,習近平總書記在主持中共中央政治局第二十次集體學習時強調,“完善人工智能監管體制機制,牢牢掌握人工智能發展和治理主動權”。人工智能安全是我國總體國家安全觀的重要組成部分。習近平總書記高度重視統籌人工智能發展和安全,圍繞發展和安全辯證統一關系、筑牢國家安全屏障等作出一系列重要論述,強調“要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全”。推動人工智能健康有序發展,必須充分運用法律、技術等多種手段,構建并完善全方位、多層次的監管機制,有效應對人工智能帶來的各種風險和挑戰,確保人工智能安全、可靠、可控。
建立和完善人工智能法律制度體系
通過法律手段對人工智能進行監管是世界主要國家和地區的普遍通用做法。2017年以來,美國、歐盟、日本、新加坡等陸續發布人工智能領域的法律法規準則,持續加強對人工智能的管理。近年來,我國持續加快人工智能領域立法步伐,出臺網絡安全法、數據安全法、個人信息保護法和《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等法律法規,在加強對人工智能監管、防范人工智能風險等方面發揮了積極作用。與此同時,人工智能技術和應用發展日新月異,人工智能的監管需求日益增長,相關法律法規還存在一些短板和不足,比如,法律體系還不夠完善,缺少人工智能安全監管的專門法律,在一些促發展、保安全的關鍵問題上還存在立法空白等。習近平總書記強調,“要堅持促進發展和依法管理相統一,既大力培育人工智能、物聯網、下一代通信網絡等新技術新應用,又積極利用法律法規和標準規范引導新技術應用”。我們要進一步把握人工智能發展趨勢和規律,加快人工智能立法進程,推動人工智能相關立法工作列入國家立法規劃,盡快制定具有前瞻性的人工智能法律法規,為相關技術的研發、應用和管理提供法律依據和保障;聚焦人工智能重點領域制定法規政策、行業規范,強化人工智能技術濫用的法律約束,逐步完善人工智能相關法律體系,為我國人工智能安全治理提供法律依據和支撐。
建立人工智能技術風險評估與分類分級監管機制
人工智能技術的復雜性和不確定性使其可能帶來多種風險,如數據泄露、算法偏見、系統被攻擊等,這些風險可能對個人、企業和社會產生負面影響。人工智能技術的風險評估與分類分級監管是確保人工智能技術安全、可靠和可持續發展的關鍵環節。通過建立健全風險評估與分類分級監管機制,既可以有效識別和量化潛在風險,保障人工智能技術的安全應用,又能促進人工智能的創新發展。生成式人工智能是人工智能的一個分支。2023年7月,國家網信辦等七部門發布《生成式人工智能服務管理暫行辦法》,明確要求對生成式人工智能服務實行包容審慎和分類分級監管,對具有輿論屬性或者社會動員能力的生成式人工智能服務開展安全評估。這是我國出臺的全面監管生成式人工智能的規范文件。當前,人工智能技術發展方興未艾,我們既要建立包括技術風險、數據安全風險、倫理風險、社會影響等在內的風險評估體系,對人工智能系統的潛在風險進行全面、動態的評估,以便及時發現和防范風險;也要進一步建立健全分類分級監管機制,根據人工智能應用的領域、風險等級、安全后果以及容錯能力等,劃分不同監管級別,實施差異化的監管措施,以確保人工智能技術健康、安全、可持續發展,更好保障社會公共利益和國家安全。
健全規范人工智能倫理審查機制
人工智能在給經濟社會發展帶來巨大福利的同時,也帶來難以預知的各種風險和復雜挑戰。人工智能技術發展的不確定性、技術應用的數據依賴性以及算法可解釋性可能導致技術失控、隱私失密、公平失衡等問題,沖擊著人類社會的倫理規范。近年來,為有效應對人工智能引發的倫理問題,我國成立了國家新一代人工智能治理專業委員會,發布了《新一代人工智能倫理規范》等規范制度,持續加強人工智能倫理治理,取得明顯成效。習近平總書記強調:“科技是發展的利器,也可能成為風險的源頭。要前瞻研判科技發展帶來的規則沖突、社會風險、倫理挑戰,完善相關法律法規、倫理審查規則及監管框架。”要始終堅持“以人為本、智能向善”的人工智能發展原則,加強對人工智能發展的安全倫理風險研判,對人工智能應用可能產生的負面影響開展預見性風險評估,提前做好風險預案,確保人工智能發展安全可控;積極引導企業、科研機構等在人工智能發展中承擔社會責任,要求其規范數據采集、加強數據保護、修改推送規則、監管虛假信息,防止出現數據濫用和虛假信息蔓延;深入開展人工智能倫理教育和宣傳,構建良好輿論氛圍,推動人工智能安全可控、健康有序發展。
完善人工智能協同治理機制
人工智能是一個復雜的系統,對人工智能的監管與治理也是一個復雜的系統工程。對人工智能實行有效監管和治理,離不開政府、企業、行業組織、學術團體、社會公眾等多元主體的共同參與。2024年,全國網絡安全標準化技術委員會發布了《人工智能安全治理框架》1.0版,緊密結合人工智能技術特性,分析人工智能風險的來源和表現形式,提出一系列技術應對和綜合防治措施,這對于推動社會各方積極參與、協同推進人工智能安全治理具有重要促進作用。習近平總書記指出,“人工智能帶來前所未有發展機遇,也帶來前所未遇風險挑戰”。推動人工智能健康發展,需要多方協同,共建共治。要明確監管主體,成立人工智能專門監管機構,負責統籌協調人工智能安全監管工作;建立健全跨部門協同監管機制,加強政府內部各部門的協同合作,形成監管合力;建立社會多元共治機制,鼓勵行業協會、社會組織、企業等參與人工智能安全治理,著力形成政府、企業、社會組織和公眾共同參與的協同共治新局面。
完善人工智能國際合作交流機制
當前,人工智能在帶來巨大機遇的同時,也帶來威脅全球穩定的風險,需要國際社會共同合作才能有效應對。在這方面,中國始終堅持在充分尊重各國政策和實踐基礎上,推動形成具有廣泛共識的全球人工智能治理框架和標準規范,并在規則制定、合作機制建設、實踐推廣等方面持續貢獻中國智慧和力量。2023年10月,中國提出《全球人工智能治理倡議》,推動各國協力繪就全球人工智能治理的未來藍圖;同年11月初,中國、美國、英國等28個國家和歐盟簽署《布萊切利宣言》,同意通過國際合作,建立人工智能監管制度與方案;中國還積極舉辦世界人工智能大會、世界互聯網大會,促進各國在人工智能等方面開展合作。習近平總書記指出,“要廣泛開展人工智能國際合作”“早日形成具有廣泛共識的全球治理框架和標準規范”。我們要繼續發揮負責任大國作用,積極參與全球人工智能治理框架與標準規范的建立,通過簽署國際公約、參與國際組織活動等方式,提升我國在國際人工智能治理中的話語權和影響力;積極與其他國家和地區開展跨國監管合作,共同應對人工智能帶來的跨境安全挑戰,推動形成統一的國際監管標準和機制。
(作者:李國祥,系山西省社會科學院〔省政府發展研究中心〕馬克思主義研究所副所長)