久久综合久久美丽坚合_特级a毛片免费无码看_国产成人啪精品视频网站_87亚洲午夜福利网

心肺復蘇模型

我差點以為是我!這個3D人體生成模型,很神奇。也可以自己換個姿勢。

我差點以為是我!這個3D人體生成模型,很神奇。也可以自己換個姿勢。

發(fā)布日期:2022-12-06 作者:康為 點擊:

豐富的色彩來自奧菲斯| QbitAI的量子位報告,微信官方賬號

很多3D人體模型很厲害,但是“裸奔”總是不可避免的。

像打造一個真正的人類“頭像”模型,衣服和頭發(fā)缺一不可。

然而,這些元素的精確3D數(shù)據(jù)非常稀少且難以獲得。


1.jpg

三星AI中心(莫斯科)和其他團隊的技術人員一直致力于這項研究,最后他們開發(fā)了這樣一個模型:

生成的3D人物,穿著他們原來的衣服和發(fā)型,也毫無保留的呈現(xiàn)出來。

乍一看,“像個真人”。

更好的是,不用模特示范,模型可以“舉一反三”,擺出各種姿勢!

效果是這樣的:


2.jpg

模型名為StylePeople。

讓我們看看是怎么發(fā)生的!模型(神經(jīng)修整模型)

其實不僅僅是“裸奔”,很多3D人體還是“剛性”的:模特擺什么姿勢,模型就跟什么姿勢。

就像之前一樣,隱函數(shù)生成的三維人體模型可以高度還原模特的著裝和發(fā)型,但是人物的姿勢還是不夠靈活,只能從原模特的幾個特定視角生成。

贊美詩也是這個團隊的研究成果。

所以在為3D人體模型還原衣服的顏色、褶皺、發(fā)型的同時,還需要保證人物的姿勢能夠舉一反三。

因此,研究者采用多邊形實體網(wǎng)格建模和神經(jīng)紋理相結合的方法。

多邊形負責控制和建模人體的粗略幾何姿態(tài),神經(jīng)渲染負責添加衣服和頭發(fā)。

首先,他們設計了一個神經(jīng)包扎模型模型,它結合了可變形網(wǎng)格建模和神經(jīng)渲染,如下圖所示。


3.jpg

左欄顯示了可視化的前三個PCA成分。

第二列和第三列是疊加在SMPL-X建模的人體網(wǎng)格上的“人體頭像”的紋理

列4和列5是通過光柵化渲染網(wǎng)絡渲染的結果。

能優(yōu)雅地處理寬松的衣服和長發(fā)以及復雜的穿衣結構!

接下來,基于上述神經(jīng)敷料模型,研究人員創(chuàng)造了一個可以生成“芬布迪”的3D人體模型。

最終一代架構是StyleGANv2和神經(jīng)敷料的結合。

在StyleGAN部分,神經(jīng)紋理由反向傳播算法生成,然后疊加在SMPL-X網(wǎng)格上,由神經(jīng)渲染器渲染。


4.jpg

在對抗性學習中,鑒別者將每一對圖像視為同一個人。提高從視頻和少量圖像生成3D人體模型的技術水平。

在對神經(jīng)包扎方法效果的驗證中,研究人員首先基于視頻資料對3D模型生成結果進行了評估。

如文章開頭的圖片所示,左邊是樣本源幀,其余圖片是左邊視頻人物的“頭像”。在簡單的增強現(xiàn)實程序背景下,呈現(xiàn)出模型之前從未擺過的各種姿勢。

接下來,基于小樣本圖像資料評估神經(jīng)包扎效果。

研究人員使用只有兩個人的人物快照數(shù)據(jù)集,將他們的神經(jīng)包扎方法與其他方法(如360度等)進行比較。,請參見表)。

衡量生成模型質量的指標有LPIPS(感知相似度)、SSIM(結構相似度)、FID(真實樣本與生成樣本在特征空間的距離)、IS(清晰度和多樣性評分)。

結果表明,該方法在各項指標上都有優(yōu)勢,

除了IS,影響不大,因為和視覺質量的相關性最小。


5.jpg

最后,團隊表示,他們的模型生成效果(如下圖)仍然受到當前樣本數(shù)據(jù)規(guī)模和質量的限制,未來的工作將致力于提高這種模型的數(shù)據(jù)利用率。


6.jpg

有興趣的同學可以隨時關注團隊的研究進展。

參考鏈接:

[1]https://arxiv . org/ABS/2104.08363

—結束—

量子qbitai頭條號簽約

關注我們,第一時間獲悉前沿科技動態(tài)。



本文網(wǎng)址:http://m.veggoos.com/news/1943.html

相關標簽:模型

最近瀏覽:

在線客服
分享