国模吧双双大尺度炮交gogo,国产午夜三级一区二区三,国产一区二区精品久久岳,国产精品熟妇一区二区三区四区,国产伦孑沙发午休精品

登錄注冊(cè)
新聞 經(jīng)濟(jì) 欄目首頁(yè) 聚焦 科技 連接 系統(tǒng) 產(chǎn)品 聯(lián)想專(zhuān)題 資訊 金融 科技 理財(cái) 財(cái)經(jīng) 知識(shí) 金融 游戲
首頁(yè) > > 正文

再登國(guó)際頂會(huì)!如視研究成果入選ICCV 2025

2025-08-08 18:22:22來(lái)源:實(shí)況網(wǎng)

近期,計(jì)算機(jī)視覺(jué)領(lǐng)域最具權(quán)威性的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議之一ICCV2025正式放榜,如視首席科學(xué)家潘慈輝及其團(tuán)隊(duì)科研成果《EDM: Efficient Deep Feature Matching》被接收并入選為Highlight論文。該論文聚焦高效的半稠密圖像特征匹配方向,提出突破性解決方案。

ICCV(國(guó)際計(jì)算機(jī)視覺(jué)大會(huì))與CVPR(計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議)、ECCV(歐洲計(jì)算機(jī)視覺(jué)會(huì)議)一同被視為計(jì)算機(jī)視覺(jué)領(lǐng)域的三大頂會(huì),在全球范圍內(nèi)有著極高的學(xué)術(shù)地位和行業(yè)影響力。數(shù)據(jù)顯示,今年ICCV共收到11239份有效投稿,最終接受2698篇論文,錄用率僅為24%。

本次入選ICCV 2025,是如視的科研成果繼CVPR 2023、CVPR 2022后又一次入選國(guó)際頂會(huì),代表著如視在視覺(jué)匹配這一重要的圖像處理研究?jī)?nèi)容上達(dá)到了國(guó)際前沿水平,也彰顯了如視將技術(shù)創(chuàng)新和產(chǎn)業(yè)應(yīng)用相結(jié)合的硬實(shí)力。

ICCV2025

打破技術(shù)瓶頸,填補(bǔ)學(xué)術(shù)空白

盡管基于深度學(xué)習(xí)的特征匹配方法近年取得顯著精度提升,但主流研究長(zhǎng)期受限于將匹配視為底層任務(wù)的傳統(tǒng)認(rèn)知,手工設(shè)計(jì)的特征描述以及當(dāng)前主流的神經(jīng)網(wǎng)絡(luò)的架構(gòu)設(shè)計(jì)局限在淺且寬的范式,導(dǎo)致深層語(yǔ)義信息捕獲不足且計(jì)算效率低下。

針對(duì)現(xiàn)有瓶頸,如視做出以下的研究突破:

更深更強(qiáng)的特征提取

突破傳統(tǒng)認(rèn)知,采用深層網(wǎng)絡(luò)捕捉高級(jí)語(yǔ)義信息,通過(guò)創(chuàng)新的 “相關(guān)性注入模塊”,將深層特征的全局關(guān)聯(lián)高效融入局部特征,兼顧精度與效率。

亞像素定位新范式

用輕量的、基于軸的雙向回歸頭來(lái)估計(jì)亞像素級(jí)的細(xì)粒度匹配,避免了過(guò)往計(jì)算繁重的特征上采樣和熱力圖定位特征點(diǎn)的問(wèn)題。

匹配選擇策略創(chuàng)新

為粗匹配和細(xì)匹配階段都設(shè)計(jì)了新的匹配選擇策略,在提升匹配精度的同時(shí)大幅優(yōu)化計(jì)算效率。

和當(dāng)前主流方法的精度和效率對(duì)比圖

如視團(tuán)隊(duì)的研究成果,填補(bǔ)了真正高效的半稠密匹配器缺失這一學(xué)術(shù)空白,自研了目前最高效且性能非常有競(jìng)爭(zhēng)力的半稠密匹配器,擁有廣泛的應(yīng)用前景。

流程圖

如視產(chǎn)品的技術(shù)落地

作為基礎(chǔ)視覺(jué)工具,這項(xiàng)特征匹配技術(shù)已在如視產(chǎn)品中得到應(yīng)用,大幅提升了圖像拼接的精度和效率。

例如,在多點(diǎn)位采集時(shí),伽羅華可以憑借精準(zhǔn)的特征匹配能力,確??臻g關(guān)鍵點(diǎn)位的記錄更精準(zhǔn),減少數(shù)據(jù)偏差;針對(duì)搭載多鏡頭的龐加萊通過(guò)校準(zhǔn)不同鏡頭拍攝圖像的特征關(guān)聯(lián),保障了多鏡頭畫(huà)面在色彩、視角和空間坐標(biāo)上的一致性,從源頭避免因圖像不一致導(dǎo)致的誤差;同時(shí),輕量版本的EDM技術(shù)支持端側(cè)實(shí)現(xiàn)高效的位姿拼接,讓設(shè)備在采集過(guò)程中能實(shí)時(shí)、流暢地完成空間數(shù)據(jù)的整合。在使用云臺(tái)采集、手機(jī)拍全景圖拼接時(shí),系統(tǒng)的魯棒性更佳,即使在復(fù)雜環(huán)境下也能實(shí)現(xiàn)流暢拼接。

與 LoFTR 和 EfficientLoFTR 相比,如視的方法在存在大視角變化和重復(fù)語(yǔ)義的場(chǎng)景中表現(xiàn)出更強(qiáng)的魯棒性

再比如在博物館的場(chǎng)景中,EDM通過(guò)精準(zhǔn)的視覺(jué)變換算法實(shí)現(xiàn)自然的素材對(duì)齊,讓高清細(xì)節(jié)照片與整體空間環(huán)境完美融合,仿佛原生生長(zhǎng)在場(chǎng)景中,既保留細(xì)節(jié)清晰度,又不破壞空間的整體透視邏輯,使得用戶在線觀展體驗(yàn)更加自然。

更廣闊的產(chǎn)業(yè)應(yīng)用

從更廣泛的產(chǎn)業(yè)實(shí)際應(yīng)用出發(fā),如視的這項(xiàng)成果可以通用于任何涉及到圖像匹配的視覺(jué)任務(wù)。

在AR導(dǎo)航、自動(dòng)駕駛、機(jī)器人視覺(jué)導(dǎo)航等空間智能領(lǐng)域,這項(xiàng)技術(shù)的價(jià)值也同樣顯著:通過(guò)實(shí)時(shí)匹配環(huán)境特征與預(yù)設(shè)數(shù)據(jù),讓 AR 虛擬信息精準(zhǔn)疊加在真實(shí)場(chǎng)景上;輔助自動(dòng)駕駛車(chē)輛迅速感知路況位置;讓機(jī)器人能夠在復(fù)雜環(huán)境中精確規(guī)劃路徑.....從底層提升各類(lèi)空間交互任務(wù)的精度與可靠性。

技術(shù)的進(jìn)步永不止步,榮登學(xué)界頂會(huì)是如視在此方向上長(zhǎng)期積累的結(jié)果。如視將在空間數(shù)智化領(lǐng)域不斷拓界,持續(xù)深耕技術(shù)研究與產(chǎn)業(yè)落地的閉環(huán),為行業(yè)貢獻(xiàn)更多前沿創(chuàng)新成果。




關(guān)鍵詞:

推薦內(nèi)容

熱點(diǎn)
39熱文一周熱點(diǎn)