91一级特黄大片|婷婷中文字幕在线|av成人无码国产|日韩无码一二三区|久久不射强奸视频|九九九久久久精品|国产免费浮力限制

研究院5項(xiàng)成果被計(jì)算機(jī)視覺(jué)頂級(jí)會(huì)議ICCV2021錄用
來(lái)源: 高峰/
中國(guó)海洋大學(xué)
3370
1
0
2021-09-06
2021年國(guó)際計(jì)算機(jī)視覺(jué)大會(huì)(ICCV)于近日放榜。中國(guó)海洋大學(xué)人工智能研究院的5篇論文被大會(huì)錄用。ICCV (International Conference on Computer Vision) 是計(jì)算機(jī)視覺(jué)領(lǐng)域的頂級(jí)會(huì)議,每?jī)赡暾匍_(kāi)一次。ICCV2021收到有效投稿6236篇,最終錄用1617篇,錄用率為25.9%。
 
 
論文1: Invisible Backdoor Attack with Sample-Specific Triggers.
Yuezun Li, Yiming Li, Baoyuan Wu, Longkang Li, Ran He, Siwei Lyu.
后門攻擊是一種新興的人工智能安全問(wèn)題,攻擊者通過(guò)污染深度模型的訓(xùn)練數(shù)據(jù)在深度模型中植入后門。該后門的表現(xiàn)是對(duì)于正常的輸入數(shù)據(jù),模型將輸出正確的預(yù)測(cè),而對(duì)于被污染的輸入數(shù)據(jù),模型將輸出錯(cuò)誤的預(yù)測(cè)。目前常用的污染策略是在輸入數(shù)據(jù)中加入可見(jiàn)且固定模式(sample-agnostic)的觸發(fā)器。然而由于其可見(jiàn)和固定的觸發(fā)器,現(xiàn)有的防御方法可以有效地對(duì)其進(jìn)行限制。因此,本文提出了一種不可見(jiàn)且樣本相關(guān)(sample-specific)的觸發(fā)器。該方法通過(guò)自編碼器將特定字串嵌入輸入數(shù)據(jù)作為該樣本的觸發(fā)器,不同的輸入數(shù)據(jù)具有不同的觸發(fā)器。相比于現(xiàn)有的后門攻擊方法,該方法更加的隱蔽,并且可以繞過(guò)大部分的防御策略。
 
 
論文2: Low rank tensor completion by approximating the tensor average rank.
Zhangliang Wang, Junyu Dong, Xinguo Liu, Xueying Zeng
本文研究了低秩張量填充問(wèn)題,旨在從不完整的張量數(shù)據(jù)中恢復(fù)原始的張量。本文基于廣義的張量奇異值分解,定義了一種新的張量平均秩。通過(guò)對(duì)平均秩的近似,本文提出了一種非凸張量填充模型。一種鄰近塊迭代下降算法被用于求解該模型,并得到了一定的收斂性結(jié)果。實(shí)驗(yàn)證明,與其他張量填充算法相比,我們提出的算法在恢復(fù)效果和效率上具有一定的優(yōu)勢(shì)。
 
論文3:Painting from Part.
Dongsheng Guo, Haoru Zhao, Yunhao Cheng, Haiyong Zheng, Zhaorui Gu, Bing Zheng
本文研究了從部分圖像恢復(fù)出整個(gè)圖像的問(wèn)題。為了解決充分利用局部區(qū)域的信息恢復(fù)全局區(qū)域這一難題,我們根據(jù)對(duì)部分和整體之間關(guān)系的觀察,提出了一種全新的部分繪制方法,該方法包括三個(gè)階段:噪聲重啟、部分特征重繪和部分斑塊細(xì)化,通過(guò)利用特征級(jí)和斑塊級(jí)的區(qū)域以及生成式對(duì)抗網(wǎng)絡(luò)的強(qiáng)大表示能力來(lái)繪制整個(gè)圖像。本方法在當(dāng)前的圖像修復(fù)數(shù)據(jù)集上都取得了最先進(jìn)的性能,包括我們提出的不規(guī)則outpainting數(shù)據(jù)集。

論文4:Image Harmonization with Transformer.
Zonghui Guo, Dongsheng Guo, Haiyong Zheng, Zhaorui Gu, Bing Zheng, Junyu Dong
圖像協(xié)調(diào)(Image Harmonization),旨在使合成圖像看起來(lái)更真實(shí),是一項(xiàng)重要的、具有挑戰(zhàn)性的任務(wù)。我們?cè)噲D用Transformer來(lái)解決圖像協(xié)調(diào)問(wèn)題,利用其強(qiáng)大的長(zhǎng)距離上下文關(guān)系建模能力,用于調(diào)整前景光,使其與背景光兼容,同時(shí)保持結(jié)構(gòu)和語(yǔ)義不變。通過(guò)設(shè)計(jì)協(xié)調(diào)Transformer框架,以及綜合實(shí)驗(yàn)和消融實(shí)驗(yàn),說(shuō)明了Transformer在圖像協(xié)調(diào)方面的作用。我們的方法在圖像協(xié)調(diào)和圖像修復(fù)/增強(qiáng)方面都取得了最先進(jìn)的性能。

論文5: Multi-Modal Multi-Action Video Recognition
Zhensheng Shi, Ju Liang, Qianqian Li, Haiyong Zheng, Zhaorui Gu, Junyu Dong, Bing Zheng
由于需要識(shí)別同時(shí)出現(xiàn)的多個(gè)動(dòng)作,多動(dòng)作視頻識(shí)別具有極大的挑戰(zhàn)性。建立多動(dòng)作關(guān)系模型對(duì)于理解具有多個(gè)動(dòng)作的視頻是有益的和關(guān)鍵的,我們通過(guò)利用關(guān)系圖卷積網(wǎng)絡(luò)(GCN)和視頻的多模態(tài)性,提出了一個(gè)新穎的視頻多動(dòng)作關(guān)系模型。我們首先建立了多模態(tài)的GCNs來(lái)探索模態(tài)感知的多動(dòng)作關(guān)系,將特定模態(tài)的動(dòng)作表示作為節(jié)點(diǎn)特征,然后將多模態(tài)的CNN-GCN模型和多模態(tài)的特征表示聯(lián)合起來(lái),學(xué)習(xí)更好的關(guān)系動(dòng)作預(yù)測(cè)。消減實(shí)驗(yàn)和多行動(dòng)關(guān)系可視化分析,都顯示了我們的多模態(tài)多行動(dòng)關(guān)系建模的強(qiáng)大能力。同時(shí),我們方法在大規(guī)模多動(dòng)作數(shù)據(jù)集M-MiT上取得了最當(dāng)前最好的性能。


登錄用戶可以查看和發(fā)表評(píng)論, 請(qǐng)前往  登錄 或  注冊(cè)。
SCHOLAT.com 學(xué)者網(wǎng)
免責(zé)聲明 | 關(guān)于我們 | 聯(lián)系我們
聯(lián)系我們: