国产成人激情在线_人人干日日干_365porn_在线一区视频_国产高清在线观看_91插插插影院

NeRF 新研究來了:3D 場景無痕移除不需要對象,精確到毛發(fā)

時間:2023-06-03 18:21:51 來源: 機器之心


機器之心報道


(資料圖片)

機器之心編輯部

神經(jīng)輻射場(Neural Radiance Fields,簡稱 NeRF)已經(jīng)成為一種流行的新視角合成方法。盡管 NeRF 迅速適應(yīng)了更廣泛的應(yīng)用領(lǐng)域,但直觀地編輯 NeRF 場景仍然是一個待解決的挑戰(zhàn)。其中一個重要的編輯任務(wù)是從 3D 場景中移除不需要的對象,以使替換區(qū)域在視覺上是合理的,并與其上下文保持一致。本文提出了一種新穎的 3D 修復(fù)方法來解決這些挑戰(zhàn)。

神經(jīng)輻射場(NeRF)已經(jīng)成為一種流行的新視圖合成方法。雖然 NeRF 正在快速泛化到更廣泛的應(yīng)用以及數(shù)據(jù)集中,但直接編輯 NeRF 的建模場景仍然是一個巨大的挑戰(zhàn)。一個重要的任務(wù)是從 3D 場景中刪除不需要的對象,并與其周圍場景保持一致性,這個任務(wù)稱為 3D 圖像修復(fù)。在 3D 中,解決方案必須在多個視圖中保持一致,并且在幾何上具有有效性。

本文來自三星、多倫多大學(xué)等機構(gòu)的研究人員提出了一種新的三維修復(fù)方法來解決這些挑戰(zhàn),在單個輸入圖像中給定一小組姿態(tài)圖像和稀疏注釋,提出的模型框架首先快速獲得目標(biāo)對象的三維分割掩碼并使用該掩碼,然后引入一種基于感知優(yōu)化的方法,該方法利用學(xué)習(xí)到的二維圖像再進行修復(fù),將他們的信息提取到三維空間,同時確保視圖的一致性。

該研究還通過訓(xùn)練一個很有挑戰(zhàn)性的現(xiàn)實場景的數(shù)據(jù)集,給評估三維場景內(nèi)修復(fù)方法帶來了新的基準(zhǔn)測試。特別是,該數(shù)據(jù)集包含了有或沒有目標(biāo)對象的同一場景的視圖,從而使三維空間內(nèi)修復(fù)任務(wù)能夠進行更有原則的基準(zhǔn)測試。

論文地址:https://arxiv.org/pdf/2211.12254.pdf

論文主頁:https://spinnerf3d.github.io/

下面為效果展示,在移除一些對象后,還能與其周圍場景保持一致性:

本文方法和其他方法的比較,其他方法存在明顯的偽影,而本文的方法不是很明顯:

方法介紹

作者通過一種集成的方法來應(yīng)對三維場景編輯任務(wù)中的各種挑戰(zhàn),該方法獲取場景的多視圖圖像,以用戶輸入提取到的 3D 掩碼,并用 NeRF 訓(xùn)練來擬合到掩碼圖像中,這樣目標(biāo)對象就被合理的三維外觀和幾何形狀取代?,F(xiàn)有的交互式二維分割方法沒有考慮三維方面的問題,而且目前基于 NeRF 的方法不能使用稀疏注釋得到好的結(jié)果,也沒有達到足夠的精度。雖然目前一些基于 NeRF 的算法允許去除物體,但它們并不試圖提供新生成的空間部分。據(jù)目前的研究進展,這個工作是第一個在單一框架中同時處理交互式多視圖分割和完整的三維圖像修復(fù)的方法。

研究者利用現(xiàn)成的、無 3D 的模型進行分割和圖像修復(fù),并以視圖一致性的方式將其輸出轉(zhuǎn)移到 3D 空間。建立在 2D 交互式分割工作的基礎(chǔ)上,作者所提出的模型從一個目標(biāo)對象上的少量用戶用鼠標(biāo)標(biāo)定的圖像點開始。由此,他們的算法用一個基于視頻的模型初始化掩碼,并通過擬合一個語義掩碼的 NeRF ,將其訓(xùn)練成一個連貫的 3D 分割。然后,再應(yīng)用預(yù)先訓(xùn)練的二維圖像修復(fù)到多視圖圖像集上,NeRF 擬合過程用于重建三維圖像場景,利用感知損失去約束 2 維畫圖像的不一致,以及畫深度圖像規(guī)范化掩碼的幾何區(qū)域??偟膩碚f,研究者們提供了一個完整的方法,從對象選擇到嵌入的場景的新視圖合成,在一個統(tǒng)一的框架中對用戶的負擔(dān)最小,如下圖所示。

綜上所述,這篇工作的貢獻如下:

一個完整的 3D 場景操作過程,從用戶交互的對象選擇開始,到 3D 修復(fù)的 NeRF 場景結(jié)束;

將二維的分割模型擴展到多視圖情況,能夠從稀疏注釋中恢復(fù)出具有三維一致的掩碼;

確保視圖一致性和感知合理性,一種新的基于優(yōu)化的三維修復(fù)公式,利用二維圖像修復(fù);

一個新的用于三維編輯任務(wù)評估的數(shù)據(jù)集,包括相應(yīng)的操作后的 Groud Truth。

具體到方法上面,該研究首先描述了如何從單視圖注釋中初始化一個粗略的 3D 掩碼。將已標(biāo)注的源代碼視圖表示為 I_1。將對象和源視圖的稀疏信息給一個交互式分割模型,用來估計初始源對象掩碼。然后將訓(xùn)練視圖作為一個視頻序列,與一起給出一個視頻實例分割模型 V ,以計算,其中是 I_i 的對象掩碼的初始猜測。初始的掩碼通常在邊界附近是不準(zhǔn)確的,因為訓(xùn)練視圖實際上并不是相鄰的視頻幀,而視頻分割模型通常是未知 3D 的。

多視圖分割模塊獲取輸入的 RGB 圖像、相應(yīng)的相機內(nèi)在和外部參數(shù),以及初始掩碼去訓(xùn)練一個語義 NeRF 。上圖描述了語義 NeRF 中使用的網(wǎng)絡(luò);對于點 x 和視圖目錄 d,除了密度 σ 和顏色 c 外,它還返回一個 pre-sigmoid 型的對象 logit,s ( x ) 。為了其快速收斂,研究者使用 instant-NGP 作為他們的 NeRF 架構(gòu)。與光線 r 相關(guān)聯(lián)的期望客觀性是通過在等式中呈現(xiàn) r 上的點的對數(shù)而不是它們相對于密度的顏色而得到的:

然后使用分類損失進行監(jiān)督:

用于監(jiān)督基于 NeRF 的多視圖分割模型的總體損失為:

最后,采用兩個階段進行優(yōu)化,進一步改進掩碼;在獲得初始三維掩碼后,從訓(xùn)練視圖呈現(xiàn)掩碼,并用于監(jiān)督二次多視圖分割模型作為初始假設(shè)(而不是視頻分割輸出)。

上圖顯示了視圖一致的修復(fù)方法概述。由于數(shù)據(jù)的缺乏妨礙了直接訓(xùn)練三維修改修復(fù)模型,該研究利用現(xiàn)有的二維修復(fù)模型來獲得深度和外觀先驗,然后監(jiān)督 NeRF 對完整場景的渲染擬合。這個嵌入的 NeRF 使用以下?lián)p失進行訓(xùn)練:

該研究提出具有視圖一致性的修復(fù)方法,輸入為 RGB。首先,該研究將圖像和掩碼對傳輸給圖像修復(fù)器以獲得 RGB 圖像。由于每個視圖都是獨立修復(fù)的,因此直接使用修復(fù)完的視圖監(jiān)督 NeRF 的重建。本文中,研究者并沒有使用均方誤差(MSE)作為 loss 生成掩碼,而是建議使用感知損失 LPIPS 來優(yōu)化圖像的掩碼部分,同時仍然使用 MSE 來優(yōu)化未掩碼部分。該損失的計算方法如下:

即使有感知損失,修復(fù)視圖之間的差異也會錯誤地引導(dǎo)模型收斂到低質(zhì)量幾何(例如,攝像機附近可能形成 " 模糊 " 幾何測量,以解釋每個視圖的不同信息)。因此,研究員使用已生成的深度圖作為 NeRF 模型的額外指導(dǎo),并在計算感知損失時分離權(quán)值,使用感知損失只擬合場景的顏色。為此,研究者使用了一個對包含不需要的對象的圖像進行了優(yōu)化的 NeRF,并渲染了與訓(xùn)練視圖對應(yīng)的深度圖。其計算方法是用到相機的距離而不是點的顏色代替的方法:

然后將渲染的深度輸入到修復(fù)器模型,以獲得修復(fù)完的深度圖。研究發(fā)現(xiàn),使用 LaMa 進行深度繪制,如 RGB,可以得到足夠高質(zhì)量的結(jié)果。這個 NeRF 可以是與用于多視圖分割的相同模型,若使用其他來源來獲取掩碼,如人工注釋的掩碼,一個新的 NeRF 將被安裝到場景中。然后,這些深度圖被用來監(jiān)督已修復(fù)的 NeRF 的幾何形狀,通過其渲染深度到修復(fù)的深度的距離:

實驗結(jié)果

多視圖分割:首先評估 MVSeg 模型,沒有任何編輯修復(fù)。在本實驗中,假設(shè)稀疏圖像點已經(jīng)給出了一個現(xiàn)成的交互式分割模型,并且源掩碼是可用的。因此,該任務(wù)是將源掩碼傳輸?shù)狡渌晥D中。下表顯示,新模型優(yōu)于 2D(3D 不一致)和 3D 基線。此外研究者提出的兩階段優(yōu)化有助于進一步改進所得到的掩碼。

定性分析來說,下圖將研究人員的分割模型的結(jié)果與 NVOS 和一些視頻分割方法的輸出進行了比較。與 3D 視頻分割模型的粗邊相比,他們的模型降低了噪聲并提高了視圖的一致性。雖然 NVOS 使用涂鴉(scribbles)不是研究者新模型中使用的稀疏點,但新模型的 MVSeg 在視覺上優(yōu)于 NVOS。由于 NVOS 代碼庫不可用,研究人員復(fù)制了已發(fā)布的 NVOS 的定性結(jié)果(更多的例子請參見補充文檔)。

下表顯示了 MV 方法與基線的比較,總的來說,新提出的方法明顯優(yōu)于其他二維和三維修復(fù)方法。下表進一步顯示,去除幾何圖形結(jié)構(gòu)的引導(dǎo)會降低已修復(fù)的場景質(zhì)量。

定性結(jié)果如圖 6、圖 7 所示。圖 6 表明,本文方法可以重建具有詳細紋理的視圖一致場景,包括有光澤和無光澤表面的連貫視圖。圖 7 表明, 本文的感知方法減少了掩碼區(qū)域的精確重建約束,從而在使用所有圖像時防止了模糊的出現(xiàn),同時也避免了單視圖監(jiān)督造成的偽影。

THE END

轉(zhuǎn)載請聯(lián)系本公眾號獲得授權(quán)

投稿或?qū)で髨蟮溃篶ontent@jiqizhixin.com

關(guān)鍵詞:

網(wǎng)站簡介 網(wǎng)站團隊 本網(wǎng)動態(tài) 友情鏈接 版權(quán)聲明 我要投稿

Copyright? 2014-2020 中原網(wǎng)視臺(www.b4dc4.cn) All rights reserved.

主站蜘蛛池模板: 欧美日本俄罗斯一级毛片 | 久久久久久噜噜噜久久久精品 | 夜间福利社 | 三级网站视频 | 久久99亚洲精品久久久久网站 | 亚洲av永久无码精品天堂动漫 | 日本理伦片和搜子同居的日子 | 国产成人久久精品二区三区 | 久久99精品久久久久久动态图 | 黄色片特级 | 在线视频观看亚洲 | 国产在线视频国产永久视频 | 综合在线视频精品专区 | 一级性爱视频 | 日韩欧美亚洲国产 | 欧美aaaa黄色一级毛片 | 一级夫妻生活片 | 欧美成人亚洲高清在线观看 | 国产欧美日韩综合 | 国产成人无码精品久久久性色 | 精品破处 | 久久精品片 | 福利视频一二区 | 九九视频在线观看6 | 国产人妻精品一区二区三区不卡 | 日韩丰满少妇无码内射 | 在线观看国产精品麻豆 | 午夜影院免费观看 | 精品一区二区三区 不卡高清 | 欧美日韩国产成人综合在线影院 | 久久电影精品久久99久久 | 亚洲中文字幕无码av永久 | 成人伊人亚洲人综合网站222 | 国产精品激情av久久久青桔 | 欧美日韩国产高清一区二区三区 | 国产美女精品视频线免费播放软件 | 欧美激情一区二区久久久 | 中文字幕亚洲一区二区va在线 | 99久久99久久免费精品小说 | 亚洲国产精品一区二区三区久久 | 日韩欧美人妻一区二区三区 |