生成式AI安全管控任重而道遠(yuǎn)
灣區(qū)時訊(編輯/孫琳 通訊員/李雯霖 蘇申)生成式AI的廣泛應(yīng)用帶來了前所未有的創(chuàng)新機遇,從藝術(shù)創(chuàng)作到科學(xué)研究,其強大的內(nèi)容生成能力正深刻改變?nèi)祟惿a(chǎn)生活方式。然而,潛在的濫用風(fēng)險(如深度偽造、信息操縱、隱私侵犯等)也對個人權(quán)益、社會秩序乃至國家安全構(gòu)成嚴(yán)峻挑戰(zhàn)。AI生成內(nèi)容的權(quán)責(zé)歸屬模糊、算法偏見引發(fā)的倫理爭議,以及技術(shù)自由創(chuàng)新與監(jiān)管必要性的矛盾,都要求我們明確劃定合理的邊界——既不能因過度限制扼殺技術(shù)進步,也不能放任自流導(dǎo)致失控。針對這一問題,5月23日下午,由YOCSEF廣州舉辦的YEF2025專題論壇《生成式AI的安全、自由與責(zé)任邊界探索》于會議中心 5F 509召開。論壇執(zhí)行主席由CCF YOCSEF廣州分論壇候任AC主席廣州大學(xué)教授蘇申、候任AC暨南大學(xué)教授夏志華共同擔(dān)任,30余名來自高校、科研院所、企業(yè)專家參與此專題論壇。
論壇執(zhí)行主席:蘇申、夏志華
第一環(huán)節(jié):劉文懋、趙正宇、胡志遠(yuǎn)作引導(dǎo)報告
劉文懋作《生成式人工智能的安全風(fēng)險責(zé)任共擔(dān)》報告
綠盟科技首席創(chuàng)新官劉文懋博士在《生成式人工智能的安全風(fēng)險責(zé)任共擔(dān)》報告中指出,生成式AI并非天生安全,其攻擊面廣泛,風(fēng)險貫穿從模型構(gòu)建、數(shù)據(jù)引入、部署運維到終端使用的全生命周期。強調(diào)基礎(chǔ)設(shè)施(如云算力平臺)與模型服務(wù)、數(shù)據(jù)提供方之間復(fù)雜的責(zé)任邊界,主張構(gòu)建“責(zé)任共擔(dān),后果自負(fù)”的“雙軸框架”安全責(zé)任思路:縱軸對應(yīng)基礎(chǔ)設(shè)施至應(yīng)用層的責(zé)任上移,橫軸涵蓋從開發(fā)、測試到運營的職責(zé)延展。呼吁構(gòu)建多方協(xié)同、責(zé)任明晰的信任機制,各環(huán)節(jié)主體落實可見性、可控性與可溯性,實現(xiàn)技術(shù)發(fā)展與安全治理共進。
趙正宇作《人工智能安全可信——從小模型到大模型(智能體)》報告
西安交通大學(xué)教授趙正宇在報告《人工智能安全可信——從小模型到大模型(智能體)》中指出,生成式AI應(yīng)用加速擴展了系統(tǒng)攻擊面,安全風(fēng)險已從輸入篡改、模型后門擴展至幻覺輸出、內(nèi)容濫用與智能體協(xié)同漏洞。面向圖文生成、語音合成、視頻生成等場景,趙教授展示在內(nèi)容可溯源、安全水印與輸入檢測方面的研究成果。提出“安全內(nèi)生”應(yīng)嵌入AI系統(tǒng)設(shè)計之初,助力構(gòu)建可信、可控的下一代人工智能基礎(chǔ)。他強調(diào),人工智能安全絕非“后置補救”的工程問題,而應(yīng)成為系統(tǒng)設(shè)計伊始即融入的核心范式,推動“安全內(nèi)生”的可信、可控的技術(shù)倫理共同體建設(shè)。
胡志遠(yuǎn)作《生成式內(nèi)容識別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報告
維沃移動通信有限公司首席安全研究專家胡志遠(yuǎn)博士作《生成式內(nèi)容識別的技術(shù)及相關(guān)標(biāo)準(zhǔn)》報告,聚焦可信溯源與虛假內(nèi)容識別兩個核心議題,指出主流技術(shù)路線:一是內(nèi)容來源信息跟蹤機制,即通過在生成之初嵌入元數(shù)據(jù),結(jié)合數(shù)字簽名與區(qū)塊鏈實現(xiàn)全鏈路可追溯;二是基于特征的生成內(nèi)容檢測機制,通過識別圖像異常像素、音頻非自然節(jié)律、語言模型植入標(biāo)志等“AI指紋”,實現(xiàn)自動化甄別。胡志遠(yuǎn)提及2025年我國發(fā)布《生成內(nèi)容標(biāo)識方法》國家標(biāo)準(zhǔn),以及歐盟、美、日、韓等國際相關(guān)法規(guī),標(biāo)志全球在生成內(nèi)容治理方面正逐步形成共識。她指出相關(guān)標(biāo)準(zhǔn)與技術(shù)實現(xiàn)應(yīng)協(xié)同推進,構(gòu)建面向全球合規(guī)、安全可信的AI生成內(nèi)容管理體系。
第二環(huán)節(jié):結(jié)合論壇三個議題深入思辨及探討
首先,圍繞議題一“內(nèi)容安全與創(chuàng)新自由的矛盾:過濾機制的邊界如何界定?”及思辨點“生成式AI的內(nèi)容安全過濾機制(如防止虛假信息、仇恨言論)可能過渡依賴關(guān)鍵詞或語義攔截,導(dǎo)致對藝術(shù)創(chuàng)作、學(xué)術(shù)研究等領(lǐng)域的誤傷?”進行討論。
劉文懋指出現(xiàn)有基于關(guān)鍵詞的內(nèi)容過濾機制難以準(zhǔn)確理解語義與語境,易誤傷創(chuàng)新表達(dá)。大模型雖能顯著提升語義理解,卻在價值評判上仍難取代人類的審慎裁量。因此,生成內(nèi)容治理應(yīng)在明確價值觀邊界的基礎(chǔ)上,融合技術(shù)手段與制度規(guī)范,通過責(zé)任壓實與分級監(jiān)管機制,實現(xiàn)內(nèi)容安全與創(chuàng)新自由的動態(tài)平衡。
譚曉生作論壇思辨議題精彩發(fā)言
YOCSEF秘書長譚曉生認(rèn)為當(dāng)前法規(guī)主導(dǎo)的合規(guī)方式雖為必要底線,但在處理生成式內(nèi)容時面臨諸多模糊邊界,尤其難以精準(zhǔn)區(qū)分內(nèi)容目的、語境與潛在影響。結(jié)合使用者身份、意圖與場景,實現(xiàn)更具彈性和上下文感知的“個性化合規(guī)”或為理想方向。他強調(diào),內(nèi)容安全治理核心在于可追溯與責(zé)任可控,提出從傳播路徑而非生成意圖進行風(fēng)險防控的治理思路。
專家指出當(dāng)前依賴關(guān)鍵詞匹配與語義攔截的過濾方式,在面對語義多義性與復(fù)雜語境時,易造成對合法藝術(shù)創(chuàng)作與學(xué)術(shù)研究的“誤傷”。專家強調(diào),過濾機制應(yīng)明確“法律合規(guī)”與“訪問控制”邊界:前者是確保公共底線的統(tǒng)一規(guī)范,后者可依據(jù)用戶身份與使用目的靈活設(shè)定。專家主張以“技術(shù)+制度”協(xié)同路徑推進治理,研究法律、倫理與社會影響之間的動態(tài)平衡,構(gòu)建在合規(guī)底線、責(zé)任可追溯、傳播可控基礎(chǔ)上的過濾體系,在保障公共安全的同時最大限度包容合理創(chuàng)新,避免泛化治理壓制正當(dāng)表達(dá)。
然后,圍繞議題二“責(zé)任歸屬的模糊性:誰為AI的“失控輸出”負(fù)責(zé)?”及思辨點“當(dāng)生成式AI輸出內(nèi)容導(dǎo)致顯示危害(如誹謗、教唆犯罪),責(zé)任應(yīng)由開發(fā)者、運營者、使用者(惡意提示)還是模型本身承擔(dān)?線性法律框架是否足以應(yīng)對“人機協(xié)作”場景下復(fù)雜追責(zé)?”展開討論。
蔡瑞初作思辨議題引導(dǎo)發(fā)言
廣東工業(yè)大學(xué)教授蔡瑞初認(rèn)為當(dāng)前面臨在人機協(xié)作場景下多角色責(zé)任劃分的復(fù)雜挑戰(zhàn)。AI內(nèi)容生成涉及訓(xùn)練者、數(shù)據(jù)提供者、模型部署者、平臺運營方與最終用戶等多個參與主體,責(zé)任鏈條長、環(huán)節(jié)多,導(dǎo)致定責(zé)困難。借鑒因果推斷的分類思路,將行為過程中的主觀惡意與結(jié)果造成的社會危害區(qū)分處理,或可構(gòu)建更具適應(yīng)性的責(zé)任歸屬體系。
與會專家討論,AI系統(tǒng)失控輸出并非單點可控事件,其合規(guī)責(zé)任應(yīng)按照“誰最接近決策邊界,誰承擔(dān)主責(zé)”的原則進行分配。一方面,出于監(jiān)管可控性的考慮;另一方面,出于對中間環(huán)節(jié)有效追責(zé)的現(xiàn)實困境。在執(zhí)行層面應(yīng)避免“一刀切”,結(jié)合上下游環(huán)節(jié)、意圖與后果設(shè)定“責(zé)任梯度”,建議引入?yún)^(qū)塊鏈等可追溯技術(shù)增強內(nèi)容來源與修改歷史的審查能力。專家認(rèn)為,生成式AI的責(zé)任分配不能僅依賴線性歸因和靜態(tài)合規(guī)框架,而應(yīng)建立涵蓋行為動因、流程節(jié)點、數(shù)據(jù)來源與后果響應(yīng)的系統(tǒng)性責(zé)任網(wǎng)絡(luò),并在實踐中形成可操作的問責(zé)機制,以適應(yīng)智能內(nèi)容生產(chǎn)時代的治理需求。
最后,探討議題三“AI公平還是人公平?”。
姚蘇作思辨議題引導(dǎo)發(fā)言
清華大學(xué)副研究員姚蘇認(rèn)為AI在規(guī)則明確、數(shù)據(jù)充分的任務(wù)中展現(xiàn)出執(zhí)行一致性與中立性,具備一定“結(jié)構(gòu)性公平”優(yōu)勢,尤其適合承擔(dān)初步篩選與規(guī)則落實等大規(guī)模判斷工作。然而,真正的公平不僅源于技術(shù)中立,更依賴于人類社會共識與語境理解所定義的“價值判斷”。
與會專家指出,公平的標(biāo)準(zhǔn)本質(zhì)上是人類設(shè)定的,AI系統(tǒng)不過是規(guī)則的執(zhí)行工具,無法自行生成價值取向;其“學(xué)習(xí)”的對象亦源于人類既有偏見與結(jié)構(gòu)性不公的社會數(shù)據(jù)。因此,AI無法替代人的倫理判斷與“溫度感知”,在涉及文化、區(qū)域發(fā)展差異、個體境遇等需情境化評估的任務(wù)中,仍需由人主導(dǎo)決策。在治理機制上,專家建議應(yīng)構(gòu)建“人機協(xié)同”的公平體系,由人定義規(guī)則、AI輔助執(zhí)行、社會機制保障問責(zé),從而實現(xiàn)效率與公正的平衡。唯有在價值明確、流程透明、責(zé)任可溯的前提下,AI才能成為推動社會公平的技術(shù)力量,而非遮蔽責(zé)任與偏見的“中立幻覺”。
廣州市信息安全測評中心認(rèn)證部部長薛詩蓓高度肯定了本次論壇的意義和話題質(zhì)量,并指出生成式?AI?治理建議從“開發(fā)者—使用者—運營者”三維度搭建分層責(zé)任體系,并引入?yún)^(qū)塊鏈等可信技術(shù),實現(xiàn)數(shù)據(jù)全流程存證與責(zé)任可追溯;可借鑒國際風(fēng)險分級管理模式,在本地實踐中按風(fēng)險梯度配置差異化監(jiān)管,提升治理精準(zhǔn)度;最終目標(biāo)是在守住安全底線的前提下充分激發(fā)技術(shù)創(chuàng)新活力,達(dá)成安全與發(fā)展的動態(tài)平衡。
譚曉生總結(jié)指出當(dāng)前AI治理體系亟需構(gòu)建可追溯、可審查的技術(shù)與制度框架,以應(yīng)對生成式人工智能帶來的安全挑戰(zhàn)?,F(xiàn)有開發(fā)者、使用者與運營者之間的責(zé)任劃分機制仍顯模糊,亟待通過制度設(shè)計予以厘清。為在保障安全的同時激發(fā)創(chuàng)新,應(yīng)統(tǒng)籌兼顧技術(shù)演進與價值底線,形成技術(shù)發(fā)展與合規(guī)監(jiān)管的動態(tài)平衡。建議提升學(xué)術(shù)界在政策制定過程中的專業(yè)支撐能力,與監(jiān)管實踐實現(xiàn)良性互動。
與會嘉賓合影
本次論壇圍繞生成式人工智能的安全治理與未來展開深入探討。與會專家從內(nèi)容安全與創(chuàng)新自由的張力、責(zé)任歸屬的模糊性、AI公平性的倫理邊界等議題切入,既追問責(zé)任之歸屬,也叩問公平之本源,于安全與自由之間探尋一條有溫度、有韌性的時代新徑。
評論 0