導(dǎo)讀 谷歌宣布升級(jí)自家使用的2D圖像生成技術(shù),特點(diǎn)是可以根據(jù)一個(gè)視點(diǎn)看到的2D圖像,生成3D模型圖案,谷歌官方解釋最新的NERF采用最新自解碼器框架。
谷歌宣布升級(jí)自家使用的2D圖像生成技術(shù),特點(diǎn)是可以根據(jù)一個(gè)視點(diǎn)看到的2D圖像,生成3D模型圖案,谷歌官方解釋最新的NERF采用最新自解碼器框架,從一組圖像里面學(xué)習(xí)3d的結(jié)構(gòu)和外觀建模,這種軟件可以應(yīng)用在汽車和人類等領(lǐng)域,提取他們的特征制作2D圖像,然后做成3D模型,這種方式在電影領(lǐng)域也能發(fā)揮重要作用,自己感興趣的圖片只要拿出來一張就可以,完成訓(xùn)練以后,點(diǎn)擊生成便能出現(xiàn)對(duì)應(yīng)的三維模型。
這種概念的最早提出是在2020年,當(dāng)時(shí)神經(jīng)輻射場(chǎng)的模型發(fā)布,有人說根據(jù)二維圖像就能生成三維模型,這種想法被很多人認(rèn)為不可能,因?yàn)橥粋€(gè)場(chǎng)景的多個(gè)視圖,在不同角度下觀看是完全不同的,這要求生成的過程截取圖形的每一個(gè)截面,這對(duì)設(shè)備和技術(shù)的要求極高。因?yàn)榭梢暯嵌炔蛔悖虼俗龀鰜淼哪P秃苋菀妆罎?,成為一個(gè)平面?,F(xiàn)在谷歌最新NERF技術(shù)的研發(fā),說明這個(gè)問題已經(jīng)得到解決。
根據(jù)數(shù)據(jù)顯示,最新的LOLNeRF是對(duì)原有NeRF的升級(jí),這種使用機(jī)器學(xué)習(xí)的過程必然存在一定漏洞,但是通過計(jì)算3D空間里每個(gè)點(diǎn)的顏色和密度,可以實(shí)現(xiàn)一定程度上的以假亂真,根據(jù)已經(jīng)建立完成的3D模型實(shí)現(xiàn)精細(xì)化處理和進(jìn)一步著色設(shè)計(jì),有可能縮短3D建模流程,在3D視覺方面的效果更加顯著。這種預(yù)測(cè)的二維landmarks把渲染的數(shù)據(jù)投入原始模型,反映到具體的試圖渲染輻射場(chǎng)景,再生成原始圖像。
利用最新技術(shù)生成的3D模型,與原始二維圖像里的模型背面是存在區(qū)別的,因?yàn)槿狈?duì)背面場(chǎng)景的捕捉,最后生成的3D模型不會(huì)包括背面,但是這種方法可以減少對(duì)真實(shí)物體3D模擬的負(fù)擔(dān),減少他們的工作量。