子豪 發(fā)自 凹非寺
量子位 報(bào)道 | 公眾號(hào) QbitAI
先來看一張海島大片:
這可不是哪個(gè)攝影師的杰作,而是出自GANcraft之手。
原圖是「我的世界」中一個(gè)馬賽克畫質(zhì)的場(chǎng)景:
這下「我的世界」真的變成了,我的世界!
GANcraft由英偉達(dá)和康奈爾大學(xué)合作完成,它是一個(gè)無監(jiān)督3D神經(jīng)渲染框架,可以將大型3D塊狀世界生成為逼真圖像。
空前的真實(shí)感
究竟有多逼真?和與其他模型對(duì)比來看。
以下是在兩個(gè)場(chǎng)景中,分別使用MUNIT、GauGAN用到的SPADE、wc-vid2vid,以及NSVF-W(NSVF+NeRF-W)生成的效果。
再感受下GANcraft的效果:(色彩和畫質(zhì)有所壓縮)
通過對(duì)比可以看到:
諸如MUNIT和SPADE這類im2im(圖像到圖像轉(zhuǎn)換)方法,無法保持視角的一致性,這是因?yàn)槟P筒涣私?D幾何形狀,而且每個(gè)幀是獨(dú)立生成的。
wc-vid2vid產(chǎn)生了視圖一致的視頻,但是由于塊狀幾何圖形和訓(xùn)練測(cè)試域的誤差累積,圖像質(zhì)量隨著時(shí)間迅速下降。
NSVF-W也可以產(chǎn)生與視圖一致的輸出,但是看起來色彩暗淡,且缺少細(xì)節(jié)。
而GANcraft生成的圖像,既保持了視圖一致性,同時(shí)具有高質(zhì)量。
這是怎么做到的?
原理概述
GANcraft中神經(jīng)渲染的使用保證了視圖的一致性,而創(chuàng)新的模型架構(gòu)和訓(xùn)練方案實(shí)現(xiàn)了空前的真實(shí)感