Uploads%2farticles%2f16040%2fwechatae054abb4d7754a7d99aabebb299d80d
|
2023-05-10

OpenAI 推出文本生成 3D 新模型 Shap-E捌蚊,不弱于圖像顯示生成

算力要求高,對(duì)于復(fù)雜的物體近弟,仍然需要一段時(shí)間的學(xué)習(xí)缅糟。

近日 OpenAI 分享了通過文本生成 3D 對(duì)象的新進(jìn)展祷愉,新發(fā)布的模型名為 Shap-E窗宦,相比去年發(fā)布的 Point-E 模型,有著對(duì)生成 3D 模型更精細(xì)二鳄、準(zhǔn)確的優(yōu)勢(shì)赴涵。

WeChat2f368b396ff82dc880ecf786fd656f96

和此前 Point-E 一樣,Shap-E 也主要基于點(diǎn)云來(lái)生成 3D 對(duì)象订讼。

同時(shí)髓窜,Shap-E 還融入了神經(jīng)輻射場(chǎng)(NeRFs),用以直接生成文本所要求的 3D 對(duì)象形狀和紋理躯嫉。

Shap-E 開發(fā)人員表示纱烘,在給定相同的數(shù)據(jù)集、模型架構(gòu)和訓(xùn)練計(jì)算的情況下祈餐,Shap-E 表現(xiàn)并不弱于通過圖像的顯式生成模型擂啥。

純文本條件模型可以生成多樣化、有趣的對(duì)象帆阳,而無(wú)需依賴圖像作為中間件哺壶,特別是在 3D 等領(lǐng)域屋吨,它們可以提供比顯式表示更大的靈活性。

不過開發(fā)人員也承認(rèn)山宾,與 Point-E 的點(diǎn)云方法相比至扰,其調(diào)用的算力將更高。對(duì)于復(fù)雜的物體资锰,仍然需要一段時(shí)間的學(xué)習(xí)敢课。

編輯:達(dá)達(dá) / 深圳灣

>>
Back to top btn
亚洲AV无码国产精品网址,久久亚洲AV成人出白浆无码国产,日韩AV美乳欧美,永久免费AV无码软件app下载