了解最新等保資訊及等保政策
摘 要:人工智能大模型現(xiàn)象級(jí)的火爆,促使人工智能與實(shí)體經(jīng)濟(jì)的加速融合與應(yīng)用。人工智能安全治理攸關(guān)全人類命運(yùn),通過(guò)測(cè)試評(píng)估防范安全風(fēng)險(xiǎn),推進(jìn)人工智能發(fā)展與提升人工智能安全治理能力已成為全人類的共識(shí)。針對(duì)人工智能安全威脅由局部攻擊向系統(tǒng)化協(xié)同攻擊演化,導(dǎo)致單一的檢測(cè)與防護(hù)技術(shù)無(wú)法應(yīng)對(duì)復(fù)合攻擊的問(wèn)題,因此加速提升人工智能安全檢測(cè)能力,保障人工智能安全刻不容緩。通過(guò)梳理人工智能安全檢測(cè)政策背景、安全風(fēng)險(xiǎn)、能力現(xiàn)狀,提出了治理建議,對(duì)人工智能產(chǎn)業(yè)安全發(fā)展具有重要意義。
內(nèi)容目錄:
1 政策背景
2 安全風(fēng)險(xiǎn)
3 能力現(xiàn)狀
4 治理建議
5 結(jié) 語(yǔ)
人工智能(Artificial Intelligence,AI)是推動(dòng)經(jīng)濟(jì)社會(huì)向智能化躍進(jìn)的重要引擎,在給世界帶來(lái)巨大機(jī)遇的同時(shí),也帶來(lái)難以預(yù)知的各種風(fēng)險(xiǎn)和復(fù)雜挑戰(zhàn)。AI 安全治理攸關(guān)全人類命運(yùn),通過(guò)測(cè)試評(píng)估防范安全風(fēng)險(xiǎn),推進(jìn) AI 發(fā)展與提升 AI 安全治理能力已成為全人類的共識(shí)。AI 安全治理旨在解決安全風(fēng)險(xiǎn)和科技倫理問(wèn)題。AI 在其自身發(fā)展帶來(lái)新的網(wǎng)絡(luò)空間伴生安全威脅的同時(shí),也給傳統(tǒng)的網(wǎng)絡(luò)空間安全從攻擊和防護(hù) 2 個(gè)方面帶來(lái)了巨大的賦能安全效應(yīng)。本文 AI 安全檢測(cè)能力特指針對(duì) AI 伴生安全的檢測(cè)能力。
為了保障 AI 技術(shù)和 AI 應(yīng)用的安全性、可靠性和可控性,國(guó)家科技部、工信部高度重視AI 安全檢測(cè)能力,以專項(xiàng)項(xiàng)目和“揭榜掛帥”評(píng)比等方式,鼓勵(lì)企業(yè)、高校和科研院所等單位研發(fā) AI 安全檢測(cè)技術(shù),保障 AI 研發(fā)、上線和運(yùn)營(yíng)全生命周期的安全性。通過(guò)分析現(xiàn)階段國(guó)內(nèi)外 AI 安全檢測(cè)政策背景、AI 安全風(fēng)險(xiǎn)和我國(guó) AI 安全檢測(cè)能力的現(xiàn)狀,給出 AI 安全治理建議,以期提升 AI 與實(shí)體經(jīng)濟(jì)融合發(fā)展和安全應(yīng)用能力。
1政策背景
世界各國(guó)面臨的共同課題是 AI 安全治理關(guān)乎整個(gè)人類的命運(yùn)。2023 年,全球多個(gè)國(guó)家和組織紛紛出臺(tái)倡議或規(guī)范,一致要求通過(guò)安全測(cè)試和評(píng)估等措施,確保 AI 安全可信。
2023 年 11 月 1 日,首屆全球 AI 安全峰會(huì)上,28 國(guó)聯(lián)署發(fā)布全球第一份針對(duì) AI 的國(guó)際性聲明《布萊切利宣言》,該聲明表明需在 AI整個(gè)生命周期中考慮安全問(wèn)題,開(kāi)發(fā)者對(duì)高風(fēng)險(xiǎn)的 AI 系統(tǒng)安全性負(fù)有重大責(zé)任,需要采取適當(dāng)?shù)拇胧?,如安全測(cè)試和評(píng)估等,以衡量、監(jiān)測(cè)和緩解 AI 潛在的有害能力及其可能帶來(lái)的影響。
2023 年 10 月 30 日,七國(guó)集團(tuán)發(fā)布《開(kāi)發(fā)先進(jìn)人工智能系統(tǒng)組織的國(guó)際行為準(zhǔn)則》,共包含 11 項(xiàng)內(nèi)容,強(qiáng)調(diào)了開(kāi)發(fā)過(guò)程中應(yīng)采取的措施,以確保人工智能系統(tǒng)的可信性、安全性和保障性。其中,開(kāi)發(fā)人員需要通過(guò)紅隊(duì)測(cè)試、測(cè)試和緩解措施等方式識(shí)別并減輕風(fēng)險(xiǎn)。同時(shí),開(kāi)發(fā)者也需要對(duì)部署后的漏洞、事件、業(yè)務(wù)模式進(jìn)行識(shí)別和風(fēng)險(xiǎn)分析,包括監(jiān)控漏洞和事件,推動(dòng)第三方和用戶發(fā)現(xiàn)并上報(bào)問(wèn)題。
2023 年 10 月 18 日,中央網(wǎng)信辦發(fā)布《全球人工智能治理倡議》,推動(dòng)建立風(fēng)險(xiǎn)等級(jí)測(cè)試評(píng)估體系,實(shí)施敏捷治理,分類分級(jí)管理,快速有效響應(yīng)。研發(fā)主體需要提高 AI 可解釋性和可預(yù)測(cè)性,以提升數(shù)據(jù)真實(shí)性和準(zhǔn)確性,確保AI 始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯和可信賴的 AI 技術(shù)。同時(shí),積極開(kāi)發(fā)相關(guān)技術(shù)及應(yīng)用,用于 AI 治理,支持應(yīng)用 AI技術(shù)進(jìn)行風(fēng)險(xiǎn)防范和治理能力提升。
2安全風(fēng)險(xiǎn)
受益于近年來(lái)深度學(xué)習(xí)技術(shù)的不斷發(fā)展,“AI+”賦能千行百業(yè),其安全風(fēng)險(xiǎn)也逐步顯現(xiàn)。在金融行業(yè),“刷臉登錄”“刷臉支付”等技術(shù)使人類生活更加便利,但是容易受到針對(duì)使用場(chǎng)景及算法模型的逃逸攻擊、假冒攻擊的威脅,造成經(jīng)濟(jì)損失;在政務(wù)領(lǐng)域,依托于 AI 可以實(shí)現(xiàn)業(yè)務(wù)的智能合約,重構(gòu)并實(shí)現(xiàn)跨層級(jí)、跨地域、跨系統(tǒng)、跨部門、跨業(yè)務(wù)的信任和協(xié)同,但針對(duì)核心數(shù)據(jù)可能引發(fā)不可逆轉(zhuǎn)的泄密事件;在電子商務(wù)行業(yè),智能客服、智能推薦系統(tǒng)等大幅提升了電子商務(wù)管理平臺(tái)的工作效率,但通過(guò)數(shù)據(jù)投毒等攻擊手段可能使系統(tǒng)功能失效造成不必要的經(jīng)濟(jì)損失。
AI 安全框架如圖 1 所示 ,包含安全目標(biāo)、安全風(fēng)險(xiǎn)、安全測(cè)評(píng)、安全保障 4 大維度。AI安全實(shí)踐分為 4 個(gè)核心步驟:第 1 步設(shè)立人視角的應(yīng)用安全和系統(tǒng)視角的技術(shù)安全目標(biāo),第 2步梳理 AI 衍生和內(nèi)生安全風(fēng)險(xiǎn),第 3 步測(cè)評(píng)數(shù)據(jù)、算法、基礎(chǔ)設(shè)施和系統(tǒng)應(yīng)用風(fēng)險(xiǎn)程度,第 4步運(yùn)用管理和技術(shù)相結(jié)合的方式保障安全。內(nèi)生安全是 AI 技術(shù)自身在魯棒性、可解釋性等方面存在的缺陷;衍生安全是 AI 技術(shù)在應(yīng)用的過(guò)程中,由于不當(dāng)使用或外部攻擊造成 AI 系統(tǒng)功能失效 ??傮w而言,AI 安全風(fēng)險(xiǎn)主要包含以下 4 類。

圖 1 AI 安全框架
(1)數(shù)據(jù)安全風(fēng)險(xiǎn)。攻擊者利用模型的輸出信息類型可以開(kāi)展模型盜取攻擊和訓(xùn)練數(shù)據(jù)盜取攻擊,在機(jī)器學(xué)習(xí)模型訓(xùn)練和應(yīng)用過(guò)程中,所使用的數(shù)據(jù)和模型參數(shù)都有被泄露的風(fēng)險(xiǎn)。攻擊者根據(jù)目標(biāo)攻擊模型查詢樣本獲取目標(biāo)攻擊模型的預(yù)測(cè)結(jié)果,從而導(dǎo)致模型參數(shù)泄露,生成替代模型進(jìn)而構(gòu)成知識(shí)產(chǎn)權(quán)的侵犯。攻擊者也可以推斷訓(xùn)練數(shù)據(jù)集是否隸屬于目標(biāo)攻擊模型,進(jìn)而獲得相關(guān)信息及訓(xùn)練數(shù)據(jù)的隱私信息,再使用特定的測(cè)試數(shù)據(jù)進(jìn)行攻擊。
(2)算法模型安全風(fēng)險(xiǎn)。針對(duì)深度學(xué)習(xí)算法提取樣本特征的特點(diǎn),在不改變目標(biāo)深度學(xué)習(xí)系統(tǒng)的前提下,通過(guò)構(gòu)造輸入樣本,使系統(tǒng)輸出錯(cuò)誤的結(jié)果以對(duì)抗樣本攻擊,可分為假冒攻擊(即定向攻擊)和躲避攻擊(即非定向攻擊)。攻擊者誤導(dǎo)深度學(xué)習(xí)系統(tǒng)輸出特定的錯(cuò)誤結(jié)果,例如攻擊者 A 可以解鎖用戶 B 手機(jī)中的人臉識(shí)別系統(tǒng)。攻擊者也可以誤導(dǎo)深度學(xué)習(xí)系統(tǒng)輸出非特定的錯(cuò)誤結(jié)果,例如攻擊者在監(jiān)控?cái)z像頭下實(shí)現(xiàn)人員隱身或身份誤判。
(3)學(xué)習(xí)框架安全風(fēng)險(xiǎn)。AI 算法基于學(xué)習(xí)框架完成模型搭建、訓(xùn)練和運(yùn)行,深度學(xué)習(xí)框架需要依賴于大量的基礎(chǔ)庫(kù)和第三方組件支持,組件的依賴復(fù)雜度會(huì)嚴(yán)重降低深度學(xué)習(xí)框架的安全性 。某個(gè)組件開(kāi)發(fā)者的疏忽,或者不同組件開(kāi)發(fā)者之間開(kāi)發(fā)規(guī)范的不統(tǒng)一,都可能向深度學(xué)習(xí)框架引入漏洞。攻擊者可以基于控制流改寫(xiě) AI 系統(tǒng)的關(guān)鍵數(shù)據(jù),或者通過(guò)數(shù)據(jù)流劫持控制代碼執(zhí)行,實(shí)現(xiàn)對(duì) AI 系統(tǒng)的干擾、控制甚至破壞。
(4)系統(tǒng)應(yīng)用安全風(fēng)險(xiǎn)。不當(dāng)使用(濫用、誤用)、外部攻擊(注入攻擊)和業(yè)務(wù)設(shè)計(jì)安全(權(quán)限設(shè)置、功能安全)都會(huì)引發(fā) AI 系統(tǒng)應(yīng)用安全風(fēng)險(xiǎn)。攻擊者通過(guò)提示詞技術(shù)輸入錯(cuò)誤數(shù)據(jù)使AI 系統(tǒng)自學(xué)習(xí)到錯(cuò)誤信息,也可以通過(guò)智能終端、應(yīng)用軟件的漏洞對(duì) AI 系統(tǒng)實(shí)施注入攻擊,如以人臉識(shí)別系統(tǒng)、智能語(yǔ)音助手為入口攻擊后臺(tái)業(yè)務(wù)系統(tǒng),還可以利用業(yè)務(wù)設(shè)計(jì)缺陷實(shí)施攻擊,如角色操作權(quán)限設(shè)置不當(dāng)、應(yīng)用場(chǎng)景風(fēng)險(xiǎn)考慮不足。
3能力現(xiàn)狀
目前,我國(guó)在 AI 安全領(lǐng)域已取得一定成果,但安全檢測(cè)、防護(hù)和監(jiān)測(cè)預(yù)警技術(shù)仍不夠完善,導(dǎo)致 AI 在高安全等級(jí)領(lǐng)域應(yīng)用落地受到制約。AI 安全治理是一個(gè)復(fù)雜龐大的系統(tǒng)性工程,需從 AI 安全理論、標(biāo)準(zhǔn)和檢測(cè) 3 個(gè)方面,全面夯實(shí) AI 安全體系。
學(xué)術(shù)界形成了 AI 魯棒性、公平性、可解釋性和隱私性等理論研究 。
在魯棒性方面,通過(guò)模型表現(xiàn)、樣本擾動(dòng)和模型邊界綜合評(píng)價(jià)模型的魯棒性,模型表現(xiàn)是指模型在不同對(duì)抗環(huán)境下的性能,樣本擾動(dòng)是指評(píng)估對(duì)抗樣本與自然樣本的平均結(jié)構(gòu)失真度,模型邊界是指在模型預(yù)測(cè)正確前提下的樣本擾動(dòng)程度。
在公平性方面,從數(shù)據(jù)群體和數(shù)據(jù)個(gè)體的角度評(píng)估數(shù)據(jù)集,訓(xùn)練并計(jì)算數(shù)據(jù)集的潛在歧視程度。
在可解釋性方面,通過(guò)解釋保真度、解釋可信度和平均定位準(zhǔn)確率等方法給出樣本可解釋性等級(jí)。
在隱私性方面,隱私性評(píng)估指標(biāo)代表數(shù)據(jù)泄露行為的風(fēng)險(xiǎn)等級(jí),分為低風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)與高風(fēng)險(xiǎn)。
國(guó)標(biāo)委制定了 AI 算法安全、數(shù)據(jù)安全和生成式 AI 服務(wù)安全等方面的標(biāo)準(zhǔn)規(guī)范。
在算法安全方面,國(guó)家標(biāo)準(zhǔn) GB/T 42888—2023《信息安全技術(shù) 機(jī)器學(xué)習(xí)算法安全評(píng)估規(guī)范》規(guī)定了機(jī)器學(xué)習(xí)算法技術(shù)和服務(wù)的安全要求與評(píng)估方法,以及機(jī)器學(xué)習(xí)算法安全評(píng)估流程,指導(dǎo)相關(guān)方保障機(jī)器學(xué)習(xí)算法生存周期安全及開(kāi)展機(jī)器學(xué)習(xí)算法安全評(píng)估。團(tuán)體標(biāo)準(zhǔn) AIOSS-01-2018《人工智能深度學(xué)習(xí)算法評(píng)估規(guī)范》提出了 AI 深度學(xué)習(xí)算法的評(píng)估指標(biāo)體系,制定了評(píng)估流程,以指導(dǎo)相關(guān)方對(duì)深度學(xué)習(xí)算法的可靠性開(kāi)展評(píng)估工作。
在數(shù)據(jù)安全方面,GB/T 37988—2019《信息安全技術(shù) 數(shù)據(jù)安全能力成熟度模型》評(píng)估機(jī)構(gòu)數(shù)據(jù)安全能力,用組織的能力成熟度來(lái)評(píng)估安全風(fēng)險(xiǎn),從技術(shù)維度對(duì)數(shù)據(jù)生存周期安全過(guò)程進(jìn)行測(cè)評(píng)。特別在生物特征識(shí)別領(lǐng)域有GB/T 41819—2022《信息安全技術(shù) 人臉識(shí)別數(shù)據(jù)安全要求》、GB/T 41773—2022《信息安全技術(shù) 步態(tài)識(shí)別數(shù)據(jù)安全要求》、GB/T 41807—2022《信息安全技術(shù) 聲紋識(shí)別數(shù)據(jù)安全要求》、GB/T 41806—2022《信息安全技術(shù) 基因識(shí)別數(shù)據(jù)安全要求》4 項(xiàng)數(shù)據(jù)安全標(biāo)準(zhǔn),規(guī)定了對(duì)人臉識(shí)別、步態(tài)識(shí)別、聲紋識(shí)別、基因識(shí)別的數(shù)據(jù)收集、存儲(chǔ)、傳輸、使用、加工、提供、公開(kāi)、刪除等數(shù)據(jù)處理活動(dòng)的安全要求。
在生成式 AI服務(wù)安全方面,在研國(guó)家標(biāo)準(zhǔn)《網(wǎng)絡(luò)安全技術(shù)生成式人工智能服務(wù)安全基本要求》《網(wǎng)絡(luò)安全技術(shù) 生成式人工智能數(shù)據(jù)標(biāo)注安全規(guī)范》《網(wǎng)絡(luò)安全技術(shù) 生成式人工智能預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)安全規(guī)范》,規(guī)定了生成式 AI 服務(wù)在語(yǔ)料安全、模型安全和安全措施等方面的基本要求,及預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)和數(shù)據(jù)標(biāo)注安全的要求及測(cè)評(píng)方法。
產(chǎn)業(yè)界研發(fā)了 AI 安全檢測(cè)、防護(hù)和監(jiān)測(cè)預(yù)警技術(shù)、工具和平臺(tái)。
在技術(shù)方面,重點(diǎn)研發(fā)模型數(shù)據(jù)泄露測(cè)評(píng)技術(shù)、數(shù)字世界和物理世界對(duì)抗攻擊測(cè)評(píng)和防護(hù)技術(shù)、模型后門檢測(cè)和防護(hù)技術(shù)、多場(chǎng)景模型安全測(cè)評(píng)技術(shù)、模型供應(yīng)鏈監(jiān)測(cè)預(yù)警技術(shù)等。
在工具方面,主要包括針對(duì)機(jī)器學(xué)習(xí)框架的安全性評(píng)測(cè)工具360 AIFater、對(duì)抗環(huán)境下的算法安全性檢測(cè)與加固的工具華為 MindArmour、百度 AdvBox。
在平臺(tái)方面,主要有通用 AI 安全檢測(cè)平臺(tái)、AI 算法安全檢測(cè)平臺(tái)、大模型安全檢測(cè)平臺(tái)、生態(tài)鏈安全檢測(cè)平臺(tái)和 AI 安全風(fēng)險(xiǎn)監(jiān)測(cè)預(yù)警平臺(tái)。
其中,通用 AI安全檢測(cè)平臺(tái)覆蓋數(shù)據(jù)、算法 / 模型、框架和系統(tǒng)多個(gè)維度,可全面評(píng)估 AI 系統(tǒng)安全狀況,如浙江大學(xué)“AI 安全評(píng)測(cè)平臺(tái) AIcert”;AI 算法安全檢測(cè)平臺(tái)支持針對(duì)對(duì)抗樣本攻擊、模型后門攻擊等安全風(fēng)險(xiǎn)的檢測(cè)和防御,如瑞萊智慧“AI安全平臺(tái) realsafe”;大模型安全檢測(cè)平臺(tái)針對(duì)大模型的幻覺(jué)、偏見(jiàn)歧視、數(shù)據(jù)隱私等安全風(fēng)險(xiǎn),以及生成式內(nèi)容濫用于惡意活動(dòng)的危害,提供全面系統(tǒng)的自動(dòng)化檢測(cè)和防御,如螞蟻科技“蟻天鑒大模型安全檢測(cè)平臺(tái)”;生態(tài)鏈安全檢測(cè)平臺(tái)覆蓋數(shù)據(jù)處理、訓(xùn)練,模型轉(zhuǎn)化、部署,服務(wù)上線、運(yùn)營(yíng),檢測(cè)范圍包含大模型應(yīng)用服務(wù)、機(jī)器學(xué)習(xí)運(yùn)維平臺(tái)、云端機(jī)器學(xué)習(xí)訓(xùn)練等 AI 軟件生態(tài)鏈安全檢測(cè),如奇虎科技“AI 系統(tǒng)安全檢測(cè)平臺(tái) AISE”;AI 安全風(fēng)險(xiǎn)監(jiān)測(cè)預(yù)警平臺(tái)面向制造、金融、政務(wù)、電商和交通等行業(yè),覆蓋圖像識(shí)別、人臉識(shí)別、目標(biāo)檢測(cè)和生成式 AI等關(guān)鍵應(yīng)用場(chǎng)景,通過(guò)捕獲智能系統(tǒng)在行業(yè)應(yīng)用的安全等級(jí)和需求,實(shí)時(shí)監(jiān)測(cè)業(yè)務(wù)場(chǎng)景并提供風(fēng)險(xiǎn)預(yù)警,如電子科技大學(xué)“AI 風(fēng)險(xiǎn)監(jiān)測(cè)預(yù)警平臺(tái)”。
4治理建議
我國(guó) AI 發(fā)展正進(jìn)入技術(shù)創(chuàng)新迭代持續(xù)加速和融合應(yīng)用拓展深化的新階段,亟須進(jìn)一步完善AI 發(fā)展應(yīng)用的治理方案、標(biāo)準(zhǔn)體系和檢測(cè)能力,為 AI 促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展提供有效安全保障。
一是研究 AI 安全可信指南,制訂適宜國(guó)情的治理方案。在全球化的背景與浪潮下,積極參與國(guó)際 AI 治理相關(guān)工作,提升我國(guó)國(guó)際規(guī)則制定的參與度和影響力。結(jié)合我國(guó) AI 產(chǎn)業(yè)的發(fā)展特點(diǎn),借鑒國(guó)外 AI 安全風(fēng)險(xiǎn)治理原則、政策和標(biāo)準(zhǔn)等,明晰各方責(zé)任、管理技術(shù)結(jié)合、貫穿生命周期和動(dòng)態(tài)平衡調(diào)整的要求,從內(nèi)設(shè)架構(gòu)、制度建設(shè)、目標(biāo)設(shè)計(jì)、數(shù)據(jù)管理、模型訓(xùn)練、測(cè)試驗(yàn)證、運(yùn)營(yíng)監(jiān)測(cè)和協(xié)同溝通 8 個(gè)維度開(kāi)展AI 設(shè)計(jì)、開(kāi)發(fā)、部署、使用和維護(hù)全生命周期的安全治理。
二是統(tǒng)籌規(guī)劃 AI 安全標(biāo)準(zhǔn)體系,加強(qiáng)基礎(chǔ)安全、應(yīng)用安全方面的標(biāo)準(zhǔn)制定。鼓勵(lì)產(chǎn)學(xué)研用各方積極參與國(guó)際標(biāo)準(zhǔn)化工作,加快制定國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)和團(tuán)體標(biāo)準(zhǔn)。研制 AI 通用安全參考架構(gòu),保障 AI 系統(tǒng)安全所涉及的利益相關(guān)方、相關(guān)方角色活動(dòng)和安全功能視圖等,為后續(xù)具體規(guī)范 AI 各方面安全提供參考。研制 AI開(kāi)源框架、AI 開(kāi)發(fā)平臺(tái)、AI 計(jì)算平臺(tái)方面的安全標(biāo)準(zhǔn),為 AI 核心資產(chǎn)提供安全的運(yùn)算環(huán)境以及具有針對(duì)性的安全保護(hù)措施。除此之外,還需深化 AI 應(yīng)用安全標(biāo)準(zhǔn)的研究,如大語(yǔ)言模型應(yīng)用安全技術(shù)規(guī)范。
三是加快建設(shè) AI 安全檢測(cè)能力,不斷提升AI 技術(shù)的安全性、可靠性、可控性和公平性。以數(shù)據(jù)、模型為兩大核心要素,實(shí)現(xiàn) AI 系統(tǒng)在數(shù)據(jù)采集、模型訓(xùn)練、模型推理及模型部署等全生命周期的安全性檢測(cè)、量化評(píng)估與防御加固,提升 AI 系統(tǒng)安全性與魯棒性,同時(shí)對(duì)人臉識(shí)別身份認(rèn)證和自動(dòng)駕駛智能感知等應(yīng)用場(chǎng)景下的模型提供防御加固能力。大模型的發(fā)展將會(huì)產(chǎn)生一些新的安全攻擊手段與漏洞,應(yīng)前置考慮大模型合規(guī)、幻覺(jué)、偏見(jiàn)歧視和數(shù)據(jù)隱私等問(wèn)題,防御思路從被動(dòng)變?yōu)橹鲃?dòng)。
5結(jié) 語(yǔ)
AI 大模型風(fēng)靡全球,從感知到認(rèn)知,從專用到通用,從判別式到生成式,從單模態(tài)到多模態(tài)交互,創(chuàng)造了通用 AI 到來(lái)的可能,AI 正在全球范圍內(nèi)迎來(lái)新一輪高速發(fā)展。我國(guó)發(fā)布《全球人工智能治理倡議》等文件,強(qiáng)調(diào)建立風(fēng)險(xiǎn)等級(jí)測(cè)試評(píng)估體系,利用 AI 技術(shù)防范風(fēng)險(xiǎn),提升治理能力。
此外,我國(guó) AI 治理方案、標(biāo)準(zhǔn)體系和檢測(cè)能力都已經(jīng)初步建立,下一步還需與應(yīng)用場(chǎng)景相結(jié)合深化現(xiàn)有治理能力,實(shí)現(xiàn) AI 促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展和高水平安全的統(tǒng)一。受限于作者的認(rèn)知水平,本文分析的 AI 安全檢測(cè)能力現(xiàn)狀的維度不夠全面,研究的技術(shù)深度不足。下一步,將與實(shí)際案例結(jié)合,深入研究如何通過(guò) AI 安全檢測(cè)護(hù)航 AI 安全。
文章選自《信息安全與通信保密》2024年第5期
24小時(shí)免費(fèi)咨詢
請(qǐng)輸入您的聯(lián)系電話,座機(jī)請(qǐng)加區(qū)號(hào)
