91一级特黄大片|婷婷中文字幕在线|av成人无码国产|日韩无码一二三区|久久不射强奸视频|九九九久久久精品|国产免费浮力限制

研究院5項成果被計算機視覺頂級會議ICCV2021錄用
來源: 高峰/
中國海洋大學(xué)
3232
1
0
2021-09-06
2021年國際計算機視覺大會(ICCV)于近日放榜。中國海洋大學(xué)人工智能研究院的5篇論文被大會錄用。ICCV (International Conference on Computer Vision) 是計算機視覺領(lǐng)域的頂級會議,每兩年召開一次。ICCV2021收到有效投稿6236篇,最終錄用1617篇,錄用率為25.9%。
 
 
論文1: Invisible Backdoor Attack with Sample-Specific Triggers.
Yuezun Li, Yiming Li, Baoyuan Wu, Longkang Li, Ran He, Siwei Lyu.
后門攻擊是一種新興的人工智能安全問題,攻擊者通過污染深度模型的訓(xùn)練數(shù)據(jù)在深度模型中植入后門。該后門的表現(xiàn)是對于正常的輸入數(shù)據(jù),模型將輸出正確的預(yù)測,而對于被污染的輸入數(shù)據(jù),模型將輸出錯誤的預(yù)測。目前常用的污染策略是在輸入數(shù)據(jù)中加入可見且固定模式(sample-agnostic)的觸發(fā)器。然而由于其可見和固定的觸發(fā)器,現(xiàn)有的防御方法可以有效地對其進(jìn)行限制。因此,本文提出了一種不可見且樣本相關(guān)(sample-specific)的觸發(fā)器。該方法通過自編碼器將特定字串嵌入輸入數(shù)據(jù)作為該樣本的觸發(fā)器,不同的輸入數(shù)據(jù)具有不同的觸發(fā)器。相比于現(xiàn)有的后門攻擊方法,該方法更加的隱蔽,并且可以繞過大部分的防御策略。
 
 
論文2: Low rank tensor completion by approximating the tensor average rank.
Zhangliang Wang, Junyu Dong, Xinguo Liu, Xueying Zeng
本文研究了低秩張量填充問題,旨在從不完整的張量數(shù)據(jù)中恢復(fù)原始的張量。本文基于廣義的張量奇異值分解,定義了一種新的張量平均秩。通過對平均秩的近似,本文提出了一種非凸張量填充模型。一種鄰近塊迭代下降算法被用于求解該模型,并得到了一定的收斂性結(jié)果。實驗證明,與其他張量填充算法相比,我們提出的算法在恢復(fù)效果和效率上具有一定的優(yōu)勢。
 
論文3:Painting from Part.
Dongsheng Guo, Haoru Zhao, Yunhao Cheng, Haiyong Zheng, Zhaorui Gu, Bing Zheng
本文研究了從部分圖像恢復(fù)出整個圖像的問題。為了解決充分利用局部區(qū)域的信息恢復(fù)全局區(qū)域這一難題,我們根據(jù)對部分和整體之間關(guān)系的觀察,提出了一種全新的部分繪制方法,該方法包括三個階段:噪聲重啟、部分特征重繪和部分斑塊細(xì)化,通過利用特征級和斑塊級的區(qū)域以及生成式對抗網(wǎng)絡(luò)的強大表示能力來繪制整個圖像。本方法在當(dāng)前的圖像修復(fù)數(shù)據(jù)集上都取得了最先進(jìn)的性能,包括我們提出的不規(guī)則outpainting數(shù)據(jù)集。

論文4:Image Harmonization with Transformer.
Zonghui Guo, Dongsheng Guo, Haiyong Zheng, Zhaorui Gu, Bing Zheng, Junyu Dong
圖像協(xié)調(diào)(Image Harmonization),旨在使合成圖像看起來更真實,是一項重要的、具有挑戰(zhàn)性的任務(wù)。我們試圖用Transformer來解決圖像協(xié)調(diào)問題,利用其強大的長距離上下文關(guān)系建模能力,用于調(diào)整前景光,使其與背景光兼容,同時保持結(jié)構(gòu)和語義不變。通過設(shè)計協(xié)調(diào)Transformer框架,以及綜合實驗和消融實驗,說明了Transformer在圖像協(xié)調(diào)方面的作用。我們的方法在圖像協(xié)調(diào)和圖像修復(fù)/增強方面都取得了最先進(jìn)的性能。

論文5: Multi-Modal Multi-Action Video Recognition
Zhensheng Shi, Ju Liang, Qianqian Li, Haiyong Zheng, Zhaorui Gu, Junyu Dong, Bing Zheng
由于需要識別同時出現(xiàn)的多個動作,多動作視頻識別具有極大的挑戰(zhàn)性。建立多動作關(guān)系模型對于理解具有多個動作的視頻是有益的和關(guān)鍵的,我們通過利用關(guān)系圖卷積網(wǎng)絡(luò)(GCN)和視頻的多模態(tài)性,提出了一個新穎的視頻多動作關(guān)系模型。我們首先建立了多模態(tài)的GCNs來探索模態(tài)感知的多動作關(guān)系,將特定模態(tài)的動作表示作為節(jié)點特征,然后將多模態(tài)的CNN-GCN模型和多模態(tài)的特征表示聯(lián)合起來,學(xué)習(xí)更好的關(guān)系動作預(yù)測。消減實驗和多行動關(guān)系可視化分析,都顯示了我們的多模態(tài)多行動關(guān)系建模的強大能力。同時,我們方法在大規(guī)模多動作數(shù)據(jù)集M-MiT上取得了最當(dāng)前最好的性能。


登錄用戶可以查看和發(fā)表評論, 請前往  登錄 或  注冊。
SCHOLAT.com 學(xué)者網(wǎng)
免責(zé)聲明 | 關(guān)于我們 | 聯(lián)系我們
聯(lián)系我們: