近日,國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別頂級(jí)會(huì)議CVPR 2026 (IEEE/CVF Conference on Computer Vision and Pattern Recognition) 錄用結(jié)果公布。我院2023級(jí)碩士研究生鄒煥鑫作為第一作者、研究生導(dǎo)師吳志澤教授作為通訊作者撰寫(xiě)的學(xué)術(shù)論文《NRFP: A Noise-Robust Feature Plugin for Source-Free Domain Adaptation》被大會(huì)正式錄用。
這是我院在計(jì)算機(jī)視覺(jué)領(lǐng)域國(guó)際頂級(jí)會(huì)議(CCF-A類(lèi))上發(fā)表的首篇學(xué)術(shù)論文,標(biāo)志著我院在人工智能基礎(chǔ)前沿研究和高層次創(chuàng)新人才培養(yǎng)方面取得了重要突破。本次工作由合肥大學(xué)主導(dǎo),并與海河信創(chuàng)實(shí)驗(yàn)室、安徽大學(xué)的科研團(tuán)隊(duì)合作完成。
研究背景:無(wú)源域自適應(yīng)面臨的“噪音困境”
近年來(lái),無(wú)監(jiān)督域自適應(yīng)(UDA)在圖像分類(lèi)、目標(biāo)檢測(cè)等計(jì)算機(jī)視覺(jué)任務(wù)中取得了顯著進(jìn)展。然而,傳統(tǒng)UDA方法依賴(lài)于源域數(shù)據(jù)的持續(xù)訪(fǎng)問(wèn),這在實(shí)際應(yīng)用中往往受限于數(shù)據(jù)隱私和存儲(chǔ)成本。因此,無(wú)需源數(shù)據(jù)的無(wú)源域自適應(yīng)(SFDA)逐漸成為研究熱點(diǎn)。
在現(xiàn)有的SFDA范式中,數(shù)據(jù)增強(qiáng)(Data Augmentation)是提升模型泛化能力的核心手段。然而,研究團(tuán)隊(duì)敏銳地發(fā)現(xiàn):激進(jìn)或不恰當(dāng)?shù)臄?shù)據(jù)增強(qiáng)會(huì)引入嚴(yán)重的“語(yǔ)義噪聲”。例如,旋轉(zhuǎn)操作可能會(huì)將數(shù)字“6”變成視覺(jué)上合理的“9”,顏色擾動(dòng)可能會(huì)扭曲交通信號(hào)燈的語(yǔ)義。這些增強(qiáng)帶來(lái)的噪聲會(huì)分散模型的注意力,導(dǎo)致特征對(duì)齊次優(yōu),嚴(yán)重削弱了模型的穩(wěn)定性。這一痛點(diǎn)在現(xiàn)有的SFDA研究中長(zhǎng)期被忽視。

圖注:(a) 常見(jiàn)的增強(qiáng)操作可能導(dǎo)致語(yǔ)義不一致;(b) 噪聲數(shù)據(jù)訓(xùn)練導(dǎo)致模型注意力分散;(c) 清潔數(shù)據(jù)訓(xùn)練能保持緊湊一致的注意力。
創(chuàng)新成果:提出噪聲魯棒特征插件(NRFP)
為了解決上述挑戰(zhàn),吳志澤教授團(tuán)隊(duì)跳出了傳統(tǒng)數(shù)據(jù)增強(qiáng)的固有思路,從一個(gè)全新的“以噪聲為中心”的視角出發(fā),提出了一種即插即用的噪聲魯棒特征插件(NRFP)。
該插件僅利用少量低噪聲的輔助樣本即可增強(qiáng)域泛化能力,避免了對(duì)大規(guī)模或極端數(shù)據(jù)增強(qiáng)的依賴(lài)。NRFP由兩個(gè)相輔相成的核心模塊組成:
輔助樣本生成策略(ASGS):巧妙利用AIGC(人工智能生成內(nèi)容)技術(shù)和文本提示,合成語(yǔ)義一致且低噪聲的輔助樣本,為模型提供干凈的語(yǔ)義參考。
互斥樣本生成策略(MESGS):受到對(duì)抗性學(xué)習(xí)的啟發(fā),該策略構(gòu)建在特征空間上與輔助樣本互斥、但在視覺(jué)上與原始樣本保持一致的樣本。這迫使模型放棄對(duì)膚淺噪聲的依賴(lài),轉(zhuǎn)而關(guān)注目標(biāo)類(lèi)別的內(nèi)在、不變本質(zhì)特征。
實(shí)驗(yàn)成效與學(xué)術(shù)價(jià)值
實(shí)驗(yàn)證明,盡管NRFP的設(shè)計(jì)十分簡(jiǎn)潔,但它可以被無(wú)縫集成到現(xiàn)有的主流SFDA框架中。在多個(gè)主流SFDA基準(zhǔn)測(cè)試中,NRFP均展現(xiàn)出了一致且顯著的性能提升,達(dá)到了當(dāng)前領(lǐng)域的最優(yōu)水平。
該論文重新審視了無(wú)源域自適應(yīng)中的特征提取邏輯,為未來(lái)在隱私保護(hù)、數(shù)據(jù)受限條件下的穩(wěn)健視覺(jué)模型開(kāi)發(fā)提供了全新的理論支撐和極具實(shí)用價(jià)值的解決方案。
結(jié)語(yǔ)與展望
CVPR全稱(chēng)為IEEE/CVF Conference on Computer Vision and Pattern Recognition,是人工智能與計(jì)算機(jī)視覺(jué)領(lǐng)域全球最具影響力的頂級(jí)學(xué)術(shù)會(huì)議,屬中國(guó)計(jì)算機(jī)學(xué)會(huì)(CCF)推薦的A類(lèi)國(guó)際學(xué)術(shù)會(huì)議。
此次成果的發(fā)表,不僅是我院學(xué)科建設(shè)的重要碩果,更是我院研究生培養(yǎng)質(zhì)量穩(wěn)步提升的有力印證。近年來(lái),人工智能與大數(shù)據(jù)學(xué)院高度重視科研創(chuàng)新平臺(tái)建設(shè),鼓勵(lì)師生潛心鉆研學(xué)術(shù)前沿,腳踏實(shí)地開(kāi)展創(chuàng)新探索,積極參與國(guó)際前沿學(xué)術(shù)交流。未來(lái),學(xué)院將繼續(xù)秉持嚴(yán)謹(jǐn)治學(xué)的態(tài)度,力爭(zhēng)在人工智能前沿基礎(chǔ)研究與關(guān)鍵技術(shù)攻關(guān)上取得更多高質(zhì)量成果。
論文鏈接 / 項(xiàng)目主頁(yè):https://github.com/deep-wu/NRFP
(人工智能與大數(shù)據(jù)學(xué)院 撰稿:鄒煥鑫 初審:嵇圣硙 復(fù)審:吳志澤 終審:胡萍)