生成式AI安全管控任重而道遠(yuǎn)
灣區(qū)時(shí)訊(編輯/孫琳 通訊員/李雯霖 蘇申)生成式AI的廣泛應(yīng)用帶來(lái)了前所未有的創(chuàng)新機(jī)遇,從藝術(shù)創(chuàng)作到科學(xué)研究,其強(qiáng)大的內(nèi)容生成能力正深刻改變?nèi)祟惿a(chǎn)生活方式。然而,潛在的濫用風(fēng)險(xiǎn)(如深度偽造、信息操縱、隱私侵犯等)也對(duì)個(gè)人權(quán)益、社會(huì)秩序乃至國(guó)家安全構(gòu)成嚴(yán)峻挑戰(zhàn)。AI生成內(nèi)容的權(quán)責(zé)歸屬模糊、算法偏見引發(fā)的倫理爭(zhēng)議,以及技術(shù)自由創(chuàng)新與監(jiān)管必要性的矛盾,都要求我們明確劃定合理的邊界——既不能因過(guò)度限制扼殺技術(shù)進(jìn)步,也不能放任自流導(dǎo)致失控。針對(duì)這一問(wèn)題,5月23日下午,由YOCSEF廣州舉辦的YEF2025專題論壇《生成式AI的安全、自由與責(zé)任邊界探索》于會(huì)議中心 5F 509召開。論壇執(zhí)行主席由CCF YOCSEF廣州分論壇候任AC主席廣州大學(xué)教授蘇申、候任AC暨南大學(xué)教授夏志華共同擔(dān)任,30余名來(lái)自高校、科研院所、企業(yè)專家參與此專題論壇。
論壇執(zhí)行主席:蘇申、夏志華
第一環(huán)節(jié):劉文懋、趙正宇、胡志遠(yuǎn)作引導(dǎo)報(bào)告
劉文懋作《生成式人工智能的安全風(fēng)險(xiǎn)責(zé)任共擔(dān)》報(bào)告
綠盟科技首席創(chuàng)新官劉文懋博士在《生成式人工智能的安全風(fēng)險(xiǎn)責(zé)任共擔(dān)》報(bào)告中指出,生成式AI并非天生安全,其攻擊面廣泛,風(fēng)險(xiǎn)貫穿從模型構(gòu)建、數(shù)據(jù)引入、部署運(yùn)維到終端使用的全生命周期。強(qiáng)調(diào)基礎(chǔ)設(shè)施(如云算力平臺(tái))與模型服務(wù)、數(shù)據(jù)提供方之間復(fù)雜的責(zé)任邊界,主張構(gòu)建“責(zé)任共擔(dān),后果自負(fù)”的“雙軸框架”安全責(zé)任思路:縱軸對(duì)應(yīng)基礎(chǔ)設(shè)施至應(yīng)用層的責(zé)任上移,橫軸涵蓋從開發(fā)、測(cè)試到運(yùn)營(yíng)的職責(zé)延展。呼吁構(gòu)建多方協(xié)同、責(zé)任明晰的信任機(jī)制,各環(huán)節(jié)主體落實(shí)可見性、可控性與可溯性,實(shí)現(xiàn)技術(shù)發(fā)展與安全治理共進(jìn)。
趙正宇作《人工智能安全可信——從小模型到大模型(智能體)》報(bào)告
西安交通大學(xué)教授趙正宇在報(bào)告《人工智能安全可信——從小模型到大模型(智能體)》中指出,生成式AI應(yīng)用加速擴(kuò)展了系統(tǒng)攻擊面,安全風(fēng)險(xiǎn)已從輸入篡改、模型后門擴(kuò)展至幻覺(jué)輸出、內(nèi)容濫用與智能體協(xié)同漏洞。面向圖文生成、語(yǔ)音合成、視頻生成等場(chǎng)景,趙教授展示在內(nèi)容可溯源、安全水印與輸入檢測(cè)方面的研究成果。提出“安全內(nèi)生”應(yīng)嵌入AI系統(tǒng)設(shè)計(jì)之初,助力構(gòu)建可信、可控的下一代人工智能基礎(chǔ)。他強(qiáng)調(diào),人工智能安全絕非“后置補(bǔ)救”的工程問(wèn)題,而應(yīng)成為系統(tǒng)設(shè)計(jì)伊始即融入的核心范式,推動(dòng)“安全內(nèi)生”的可信、可控的技術(shù)倫理共同體建設(shè)。
胡志遠(yuǎn)作《生成式內(nèi)容識(shí)別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報(bào)告
維沃移動(dòng)通信有限公司首席安全研究專家胡志遠(yuǎn)博士作《生成式內(nèi)容識(shí)別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報(bào)告,聚焦可信溯源與虛假內(nèi)容識(shí)別兩個(gè)核心議題,指出主流技術(shù)路線:一是內(nèi)容來(lái)源信息跟蹤機(jī)制,即通過(guò)在生成之初嵌入元數(shù)據(jù),結(jié)合數(shù)字簽名與區(qū)塊鏈實(shí)現(xiàn)全鏈路可追溯;二是基于特征的生成內(nèi)容檢測(cè)機(jī)制,通過(guò)識(shí)別圖像異常像素、音頻非自然節(jié)律、語(yǔ)言模型植入標(biāo)志等“AI指紋”,實(shí)現(xiàn)自動(dòng)化甄別。胡志遠(yuǎn)提及2025年我國(guó)發(fā)布《生成內(nèi)容標(biāo)識(shí)方法》國(guó)家標(biāo)準(zhǔn),以及歐盟、美、日、韓等國(guó)際相關(guān)法規(guī),標(biāo)志全球在生成內(nèi)容治理方面正逐步形成共識(shí)。她指出相關(guān)標(biāo)準(zhǔn)與技術(shù)實(shí)現(xiàn)應(yīng)協(xié)同推進(jìn),構(gòu)建面向全球合規(guī)、安全可信的AI生成內(nèi)容管理體系。
第二環(huán)節(jié):結(jié)合論壇三個(gè)議題深入思辨及探討
首先,圍繞議題一“內(nèi)容安全與創(chuàng)新自由的矛盾:過(guò)濾機(jī)制的邊界如何界定?”及思辨點(diǎn)“生成式AI的內(nèi)容安全過(guò)濾機(jī)制(如防止虛假信息、仇恨言論)可能過(guò)渡依賴關(guān)鍵詞或語(yǔ)義攔截,導(dǎo)致對(duì)藝術(shù)創(chuàng)作、學(xué)術(shù)研究等領(lǐng)域的誤傷?”進(jìn)行討論。
劉文懋指出現(xiàn)有基于關(guān)鍵詞的內(nèi)容過(guò)濾機(jī)制難以準(zhǔn)確理解語(yǔ)義與語(yǔ)境,易誤傷創(chuàng)新表達(dá)。大模型雖能顯著提升語(yǔ)義理解,卻在價(jià)值評(píng)判上仍難取代人類的審慎裁量。因此,生成內(nèi)容治理應(yīng)在明確價(jià)值觀邊界的基礎(chǔ)上,融合技術(shù)手段與制度規(guī)范,通過(guò)責(zé)任壓實(shí)與分級(jí)監(jiān)管機(jī)制,實(shí)現(xiàn)內(nèi)容安全與創(chuàng)新自由的動(dòng)態(tài)平衡。
譚曉生作論壇思辨議題精彩發(fā)言
YOCSEF秘書長(zhǎng)譚曉生認(rèn)為當(dāng)前法規(guī)主導(dǎo)的合規(guī)方式雖為必要底線,但在處理生成式內(nèi)容時(shí)面臨諸多模糊邊界,尤其難以精準(zhǔn)區(qū)分內(nèi)容目的、語(yǔ)境與潛在影響。結(jié)合使用者身份、意圖與場(chǎng)景,實(shí)現(xiàn)更具彈性和上下文感知的“個(gè)性化合規(guī)”或?yàn)槔硐敕较?。他?qiáng)調(diào),內(nèi)容安全治理核心在于可追溯與責(zé)任可控,提出從傳播路徑而非生成意圖進(jìn)行風(fēng)險(xiǎn)防控的治理思路。
專家指出當(dāng)前依賴關(guān)鍵詞匹配與語(yǔ)義攔截的過(guò)濾方式,在面對(duì)語(yǔ)義多義性與復(fù)雜語(yǔ)境時(shí),易造成對(duì)合法藝術(shù)創(chuàng)作與學(xué)術(shù)研究的“誤傷”。專家強(qiáng)調(diào),過(guò)濾機(jī)制應(yīng)明確“法律合規(guī)”與“訪問(wèn)控制”邊界:前者是確保公共底線的統(tǒng)一規(guī)范,后者可依據(jù)用戶身份與使用目的靈活設(shè)定。專家主張以“技術(shù)+制度”協(xié)同路徑推進(jìn)治理,研究法律、倫理與社會(huì)影響之間的動(dòng)態(tài)平衡,構(gòu)建在合規(guī)底線、責(zé)任可追溯、傳播可控基礎(chǔ)上的過(guò)濾體系,在保障公共安全的同時(shí)最大限度包容合理創(chuàng)新,避免泛化治理壓制正當(dāng)表達(dá)。
然后,圍繞議題二“責(zé)任歸屬的模糊性:誰(shuí)為AI的“失控輸出”負(fù)責(zé)?”及思辨點(diǎn)“當(dāng)生成式AI輸出內(nèi)容導(dǎo)致顯示危害(如誹謗、教唆犯罪),責(zé)任應(yīng)由開發(fā)者、運(yùn)營(yíng)者、使用者(惡意提示)還是模型本身承擔(dān)?線性法律框架是否足以應(yīng)對(duì)“人機(jī)協(xié)作”場(chǎng)景下復(fù)雜追責(zé)?”展開討論。
蔡瑞初作思辨議題引導(dǎo)發(fā)言
廣東工業(yè)大學(xué)教授蔡瑞初認(rèn)為當(dāng)前面臨在人機(jī)協(xié)作場(chǎng)景下多角色責(zé)任劃分的復(fù)雜挑戰(zhàn)。AI內(nèi)容生成涉及訓(xùn)練者、數(shù)據(jù)提供者、模型部署者、平臺(tái)運(yùn)營(yíng)方與最終用戶等多個(gè)參與主體,責(zé)任鏈條長(zhǎng)、環(huán)節(jié)多,導(dǎo)致定責(zé)困難。借鑒因果推斷的分類思路,將行為過(guò)程中的主觀惡意與結(jié)果造成的社會(huì)危害區(qū)分處理,或可構(gòu)建更具適應(yīng)性的責(zé)任歸屬體系。
與會(huì)專家討論,AI系統(tǒng)失控輸出并非單點(diǎn)可控事件,其合規(guī)責(zé)任應(yīng)按照“誰(shuí)最接近決策邊界,誰(shuí)承擔(dān)主責(zé)”的原則進(jìn)行分配。一方面,出于監(jiān)管可控性的考慮;另一方面,出于對(duì)中間環(huán)節(jié)有效追責(zé)的現(xiàn)實(shí)困境。在執(zhí)行層面應(yīng)避免“一刀切”,結(jié)合上下游環(huán)節(jié)、意圖與后果設(shè)定“責(zé)任梯度”,建議引入?yún)^(qū)塊鏈等可追溯技術(shù)增強(qiáng)內(nèi)容來(lái)源與修改歷史的審查能力。專家認(rèn)為,生成式AI的責(zé)任分配不能僅依賴線性歸因和靜態(tài)合規(guī)框架,而應(yīng)建立涵蓋行為動(dòng)因、流程節(jié)點(diǎn)、數(shù)據(jù)來(lái)源與后果響應(yīng)的系統(tǒng)性責(zé)任網(wǎng)絡(luò),并在實(shí)踐中形成可操作的問(wèn)責(zé)機(jī)制,以適應(yīng)智能內(nèi)容生產(chǎn)時(shí)代的治理需求。
最后,探討議題三“AI公平還是人公平?”。
姚蘇作思辨議題引導(dǎo)發(fā)言
清華大學(xué)副研究員姚蘇認(rèn)為AI在規(guī)則明確、數(shù)據(jù)充分的任務(wù)中展現(xiàn)出執(zhí)行一致性與中立性,具備一定“結(jié)構(gòu)性公平”優(yōu)勢(shì),尤其適合承擔(dān)初步篩選與規(guī)則落實(shí)等大規(guī)模判斷工作。然而,真正的公平不僅源于技術(shù)中立,更依賴于人類社會(huì)共識(shí)與語(yǔ)境理解所定義的“價(jià)值判斷”。
與會(huì)專家指出,公平的標(biāo)準(zhǔn)本質(zhì)上是人類設(shè)定的,AI系統(tǒng)不過(guò)是規(guī)則的執(zhí)行工具,無(wú)法自行生成價(jià)值取向;其“學(xué)習(xí)”的對(duì)象亦源于人類既有偏見與結(jié)構(gòu)性不公的社會(huì)數(shù)據(jù)。因此,AI無(wú)法替代人的倫理判斷與“溫度感知”,在涉及文化、區(qū)域發(fā)展差異、個(gè)體境遇等需情境化評(píng)估的任務(wù)中,仍需由人主導(dǎo)決策。在治理機(jī)制上,專家建議應(yīng)構(gòu)建“人機(jī)協(xié)同”的公平體系,由人定義規(guī)則、AI輔助執(zhí)行、社會(huì)機(jī)制保障問(wèn)責(zé),從而實(shí)現(xiàn)效率與公正的平衡。唯有在價(jià)值明確、流程透明、責(zé)任可溯的前提下,AI才能成為推動(dòng)社會(huì)公平的技術(shù)力量,而非遮蔽責(zé)任與偏見的“中立幻覺(jué)”。
廣州市信息安全測(cè)評(píng)中心認(rèn)證部部長(zhǎng)薛詩(shī)蓓高度肯定了本次論壇的意義和話題質(zhì)量,并指出生成式?AI?治理建議從“開發(fā)者—使用者—運(yùn)營(yíng)者”三維度搭建分層責(zé)任體系,并引入?yún)^(qū)塊鏈等可信技術(shù),實(shí)現(xiàn)數(shù)據(jù)全流程存證與責(zé)任可追溯;可借鑒國(guó)際風(fēng)險(xiǎn)分級(jí)管理模式,在本地實(shí)踐中按風(fēng)險(xiǎn)梯度配置差異化監(jiān)管,提升治理精準(zhǔn)度;最終目標(biāo)是在守住安全底線的前提下充分激發(fā)技術(shù)創(chuàng)新活力,達(dá)成安全與發(fā)展的動(dòng)態(tài)平衡。
譚曉生總結(jié)指出當(dāng)前AI治理體系亟需構(gòu)建可追溯、可審查的技術(shù)與制度框架,以應(yīng)對(duì)生成式人工智能帶來(lái)的安全挑戰(zhàn)?,F(xiàn)有開發(fā)者、使用者與運(yùn)營(yíng)者之間的責(zé)任劃分機(jī)制仍顯模糊,亟待通過(guò)制度設(shè)計(jì)予以厘清。為在保障安全的同時(shí)激發(fā)創(chuàng)新,應(yīng)統(tǒng)籌兼顧技術(shù)演進(jìn)與價(jià)值底線,形成技術(shù)發(fā)展與合規(guī)監(jiān)管的動(dòng)態(tài)平衡。建議提升學(xué)術(shù)界在政策制定過(guò)程中的專業(yè)支撐能力,與監(jiān)管實(shí)踐實(shí)現(xiàn)良性互動(dòng)。
與會(huì)嘉賓合影
本次論壇圍繞生成式人工智能的安全治理與未來(lái)展開深入探討。與會(huì)專家從內(nèi)容安全與創(chuàng)新自由的張力、責(zé)任歸屬的模糊性、AI公平性的倫理邊界等議題切入,既追問(wèn)責(zé)任之歸屬,也叩問(wèn)公平之本源,于安全與自由之間探尋一條有溫度、有韌性的時(shí)代新徑。
評(píng)論 0