• <rt id="2wkqu"><small id="2wkqu"></small></rt>
  • 您當(dāng)前的位置 :環(huán)球傳媒網(wǎng)>科技 > 正文
    可讓用戶即興創(chuàng)作!英偉達(dá)用AI將2D照片制成3D模型
    2022-07-04 09:40:39 來(lái)源: DeepTech深科技 編輯:

    NVIDIA 正在利用 AI 讓設(shè)計(jì)師、游戲開(kāi)發(fā)等人員在短時(shí)間內(nèi)用 3D 對(duì)象進(jìn)行創(chuàng)作。創(chuàng)作者們能夠使用其提出的 NVIDIA 3D MoMa 方法對(duì)內(nèi)容進(jìn)行快速導(dǎo)入、修改和更改材質(zhì)等工作。

    “逆渲染是一種將一系列靜態(tài)照片重建為物體或場(chǎng)景 3D 模型的技術(shù)。該技術(shù)長(zhǎng)期以來(lái)對(duì)統(tǒng)一計(jì)算機(jī)視覺(jué)和計(jì)算機(jī)圖形學(xué)至關(guān)重要。”NVIDIA 圖形研究副總裁大衛(wèi)·呂布克(David Luebke)說(shuō),“通過(guò)將逆渲染問(wèn)題的每一部分表述為 GPU 加速的可微分組件,NVIDIA 3D MoMa 渲染管道使用現(xiàn)代 AI 的機(jī)制和 NVIDIA GPU 的原始計(jì)算能力來(lái)快速生成 3D 對(duì)象,創(chuàng)作者可以在現(xiàn)有工具中不受限制地導(dǎo)入、編輯和擴(kuò)展。”

    傳統(tǒng)上,人們創(chuàng)建 3D 對(duì)象會(huì)使用攝影測(cè)量技術(shù),這涉及的是一個(gè)多階段、相當(dāng)耗時(shí)的過(guò)程。創(chuàng)作者需要通過(guò)大量的軟件工具和手動(dòng)調(diào)整來(lái)達(dá)到最終期望的 3D 模型效果。得一定優(yōu)勢(shì),并提供了高質(zhì)量的新視圖合成。

    然而,這些方法通常會(huì)產(chǎn)生將幾何圖形、材料和照明糾纏到神經(jīng)網(wǎng)絡(luò)中的表示形式,不能以三角形網(wǎng)格格式生成,因此很難支持場(chǎng)景編輯操作。“三角形網(wǎng)格是用于在 3D 圖形和建模中定義形狀的基礎(chǔ)框架,是此類(lèi) 3D 工具使用的通用語(yǔ)言。”研究者在 NVIDIA 官網(wǎng)博文中寫(xiě)到。

    另外,為了更為實(shí)用,3D 對(duì)象應(yīng)該適配眾多常用工具,比如,游戲引擎、3D 建模器和電影渲染器等。而要在傳統(tǒng)的圖形引擎中使用它們,需要使用諸如標(biāo)記立方體等方法從網(wǎng)絡(luò)中提取幾何圖形,這可能會(huì)導(dǎo)致較差的表面質(zhì)量,特別是在低三角形計(jì)數(shù)時(shí)。神經(jīng)網(wǎng)絡(luò)編碼的材料不能輕易地編輯或提取與傳統(tǒng)游戲引擎兼容的形式。

    相比之下,本次研究重建了與傳統(tǒng)圖形引擎兼容的 3D 內(nèi)容,支持重啟和場(chǎng)景編輯。由此產(chǎn)生的 3D 模型不需要轉(zhuǎn)換就可以在任何支持三角形渲染的設(shè)備上進(jìn)行部署,手機(jī)和網(wǎng)頁(yè)瀏覽器同樣適用。它可以在標(biāo)準(zhǔn)的游戲引擎中不經(jīng)修改地使用,并對(duì)所有階段進(jìn)行基于梯度的優(yōu)化。

    該三維重建方法 NVIDIA 3D MoMa 的相關(guān)論文,近日在 2022 年計(jì)算機(jī)視覺(jué)和模式識(shí)別會(huì)議(CVPR,Conference on Computer Vision and Pattern Recognition)上發(fā)表,并以《從圖像中提取三角形三維模型、材質(zhì)和照明》()為題提交在 arxiv 上。

    研究人員針對(duì)各種應(yīng)用程序來(lái)評(píng)估他們的系統(tǒng),對(duì)已有對(duì)象進(jìn)行重新編輯和模擬,以展示他們的方法顯式分解為三角形網(wǎng)格和材料,并與 NeRF、神經(jīng)反射分解(NeRD,Neural Reflectance Decomposition)等方法做了比較。

    值得一提的是,研究人員還做了一個(gè)虛擬樂(lè)隊(duì)視頻演示,以體現(xiàn) NVIDIA 3D MoMa 的強(qiáng)大功能。

    首先,他們從不同角度拍攝了約 100 張樂(lè)器圖像,并用新提出的研究方法將這些靜態(tài)圖像分別重建為 3D 表示和三角形網(wǎng)格。

    然后,將對(duì)象從原始場(chǎng)景中分離出,再導(dǎo)入 NVIDIA Omniverse 3D 平臺(tái)編輯。在廣泛使用的圖形引擎中,可輕易地將產(chǎn)生的形狀材料替換為黃金、木材等不同材質(zhì),就好像把網(wǎng)格裝扮成不同的裝飾一樣,也能將其放在任意虛擬場(chǎng)景(比如康奈爾盒,一種經(jīng)典圖形測(cè)試)中。

    最后證明,不同的虛擬樂(lè)器對(duì)光有不同反應(yīng),跟在現(xiàn)實(shí)中幾乎相同。新生成的對(duì)象能夠用作復(fù)雜畫(huà)場(chǎng)景的構(gòu)建塊。

    (來(lái)源:NVIDIA 官網(wǎng))

    值得注意的是,研究人員在論文中還表示:“為了加速優(yōu)化,選擇了簡(jiǎn)化的著色模型,也沒(méi)有考慮全局照明或陰影。這種選擇是材料提取和回收的限制因素。在未來(lái)的工作中,隨著目前在可微路徑跟蹤方面的進(jìn)展,這一限制有望得到解除。”

    總的來(lái)說(shuō),本研究展示了一種與最先進(jìn)的視圖合成等技術(shù)相媲美的方法,同時(shí)還有著優(yōu)化的三角形網(wǎng)格、兼容傳統(tǒng)圖形引擎和建模工具等優(yōu)勢(shì),并由渲染模型的外觀驅(qū)動(dòng)來(lái)執(zhí)行端到端優(yōu)化。

    這簡(jiǎn)化了進(jìn)行 3D 內(nèi)容創(chuàng)作人員的大量工作流程,極大節(jié)省他們的時(shí)間和提升效率。該研究方法還可以作為外觀感知轉(zhuǎn)換器,補(bǔ)充了許多最近的技術(shù)。

    關(guān)鍵詞: 傳統(tǒng)圖形引擎 圖形引擎 英偉達(dá)3D模型 英偉達(dá)模型

    分享到:
    版權(quán)和免責(zé)申明

    凡注有"環(huán)球傳媒網(wǎng)"或電頭為"環(huán)球傳媒網(wǎng)"的稿件,均為環(huán)球傳媒網(wǎng)獨(dú)家版權(quán)所有,未經(jīng)許可不得轉(zhuǎn)載或鏡像;授權(quán)轉(zhuǎn)載必須注明來(lái)源為"環(huán)球傳媒網(wǎng)",并保留"環(huán)球傳媒網(wǎng)"的電頭。

    Copyright ? 1999-2017 cqtimes.cn All Rights Reserved 環(huán)球傳媒網(wǎng)-重新發(fā)現(xiàn)生活版權(quán)所有 聯(lián)系郵箱:8553 591@qq.com
    久久激情五月网站,一本色道综合亚洲精品精品,午夜电影久久久久久,中文无码AV片在线 成a在线观看视频播放 婷婷色中文在线观看
  • <rt id="2wkqu"><small id="2wkqu"></small></rt>