图片转3D模型?用Aiuni来实现

近日,Github上发布了一个类似于Tripo的模型–aiuni,它是由一个清北背景的AI团队,主要用AI将图片转3D,该项目地址:https://wukailu.github.io/Unique3D/。目前该团队也上线了内测C端产品Aiuni,和开源模型Unique3D主要的区别在于:Aiuni的数据集涵盖了更多高质量高审美的商用数据,因此生成的效果会更精美;此外,比起Web Demo也有更产品化人性化的操作页面设计,更适合绝大多数有3D生成需求的创作者。网址是https://aiuni.ai/

由于目前还在内测阶段,对产品感兴趣的小伙伴们可以添加小助手号aiuni_ai或AVAR_AI获得邀请码。

论文发布在了:https://arxiv.org/pdf/2405.20343

其实网格重构是 3D 内容创建的关键方面,网格被广泛应用于 Blender 和 Maya等流行的 3D 引擎中。早期的网格重建方法涉及复杂的摄影测量管道,采用运动结构 (sFM) 和多视角立体声 (MVS)等技术。网格重建的最新进展侧重于通过基于梯度的优化和大型前馈重建网络来提高效率和质量。数据驱动的二维扩散模型在图像和视频生成方面取得了成功,并努力将这些模型扩展到三维生成。

所以从上面的实现思想可以看出,该工具是通过利用Unique3D来实现。Unique3D,是一种用于将单视图图像高效转换为高质量三维模型的框架,可解决一致性和分辨率限制问题。Unique3D 结合了多视图扩散模型、正态扩散模型、多级升级过程和 ISOMER 网格重建算法,以获得细节和纹理化的 3D 结果,在保真度和效率方面超越了现有方法。

实现过程包括以下几个步骤:

  1. 多视图扩散模型:从单个输入图像生成多个正交视图。

  2. 高分辨率升级:使用多级升级过程逐步提高生成图像的分辨率。

  3. 法线贴图生成:为多视图图像预测法线贴图,以捕捉表面细节。

  4. ISOMER算法:一种即时且一致的网格重建算法,整合了颜色和几何先验知识,生成详细且准确的3D网格。

其中,根据论文解读,ISOMER 网格重通过了四个步骤:

估算拓扑结构:ISOMER首先估算三维物体的粗略拓扑结构,然后根据该估计值直接生成初始网格。

粗到精策略:然后,它采用粗到精的策略来进一步近似目标形状,从而完善网格重建过程。

解决视图不一致问题:ISOMER 明确解决了多个视图中的不一致问题,以重建最终网格输出中的高保真度和复杂细节。

效率:整个网格重建过程旨在坚固、准确和高效,完成时间不超过 10 秒,使其成为从多视图图像生成 3D 网格的快速而有效的方法。

直接网格重建:与某些基于场和计算密集型的现有方法不同,ISOMER 直接根据输入图像重建网格,从而提高了更高分辨率应用程序的效率和可扩展性。

大概了解实现原理后,自己可以尝试一下该工具,以下是在线测试地址:

https://u45213-bcf9-ef67553e.westx.seetacloud.com:8443,选择下面对应的图片点击【generate 3D】即可在线生成,因为是Demo界面,现如今还不支持自定义图片的3D生成。

HuggingFace测试地址:https://huggingface.co/spaces/Wuvin/Unique3D

我们可以看到,aiuni可以准确的描绘出生成效果,生成的3D模型与实体非常接近,并不存在网格面错乱、有违正常逻辑的问题,模型侧面和背部根据原有图片均能正常实现模型重建。

该3D工具会在在多个领域中具有广泛的应用潜力,包括游戏开发、建筑设计、艺术创作、动画制作、电商展示、虚拟现实和增强现实以及医疗影像等。该技术可以从单张图像生成高质量的3D模型,极大提升各行业的工作效率,减少美术设计时间和成本,并拓展创意可能性。例如,它能快速生成游戏中的3D角色和场景,方便建筑师虚拟展示设计,帮助电商提供更直观的商品展示,以及在医疗领域从影像生成手术规划所需的3D模型,期待它未来的表现。


请使用浏览器的分享功能分享到微信等