3d Mesh 生成

less than 1 minute read

3D Mesh 生成

  • NeuralNetworksSketchbook - github
    • stable diffusion
    • blender
    • 1698393912605
    • 格栅化反传
  • TEXTure: Text-Guided Texturing of 3D Shapes
    • 20231027175344
    • iteration[“keep”, “refine”, “generate”]
    • 多较多球面参数化,获得高清纹理
    • 20231027183619
  • Magic123 - One Image to High-Quality 3D Object Generation Using Both 2D and 3D Diffusion Priors
    • 采用两阶段的3dmesh生成方法
      • 第一阶段使用nerf生成粗糙的3d mesh表示
      • 第二阶段用可微的神经网络对粗糙的3d mesh表示进行精细化
    • 引入了2D和3D扩散先验的结合
    • 20231112184946
    • 论文中提到了姿势化,姿势化是指目标物体或人体在图像中的姿势和表情。在一个单一的未指定姿势的图像中,姿势化是指通过计算机视觉技术和深度学习模型,从图像中推断出物体或人体的三维姿势和形状
  • Wonder3D: Single Image to 3D using Cross-Domain Diffusion
    • 20231112190551
    • 目前的3d生成任务,在面临多头一致性问题时,不管是边缝还是patch融合,作为一种后处理的方式,在基于nerf的求解框架下无法得到很好的解决,因此有很多基于2步的3d mesh和纹理生成任务的工作,但是这些工作都没有从根本上解决该问题,本论文提出了一种基于法向的mesh生成方案,在传统的mesh生成任务中,多头任务都是基于2d图片的,在2d图片中,法向信息被丢失,因此本文提出的wonder3d利用sd的扩散功能在生成2d images时,一并生成了对应角度的法向信息。同时,作者还引入了一种新颖的法线融合算法,可以从多视图的表示中提取出高质量的表面几何。
    • 20231112191602
  • Zero123: Zero-shot One Image to 3D Object
    • 20231230233016
    • 使用合成数据集训练一个具有先验知识的大模型,用于对单张图片进行多视角的预测
      • 数据合成使用blender进行渲染
      • 论文使用图片的相对视角进行合成
    • 训练方法
      • 算法目标,计算出合成图片$\hat{x}_{R,T}=f(x,R,T)$
      • 训练输入,${(x, x_{(R,T),R,T})}$
      • 其中,引入$c(x, R,T)$进行embedding:High-resolution image synthesis with latent diffusion models
    • 算法管道: txt->img->3d
  • Zero123++: a Single Image to Consistent Multi-view Diffusion Base Model
    • 20231231022408
    • 使用多视图的联合分布,而不是单张图片,以进行更加完整的一致性
    • 改进了Condition,使用线性噪声表
    • 利用Depth control net进行控制(好像不是特别明显的贡献)
    • 主要对比了 zero123, zero123 xl, SyncDreamer
  • SyncDreamer: Generating Multiview-consistent Images from a Single-view Image
    • 20231231030127
    • 数据集
      • Google Scan Dataset
    • 主要框架
      • 使用目标视角进行通过unet训练,作者弄了个共享噪声预测器用于共享信息
      • 在图像生成方面,主要使用了zero123的生成能力,上图黄色部分为zero的模型
      • 论文好像水了一部分对比实验,在后文中,使用初始的stable diffusion进行对比,说效果比zero123差,额。。
  • One-2-3-45: Any Single Image to 3D Mesh in 45 Seconds without Per-Shape Optimization
    • 20231231032857
    • 45秒左右将单个图像转换为高质量的360度纹理网格,无需进行形状优化
    • 几何重建通过引入了SDF信息,进行几何估计,主要用到了相机视角加图片的方法进行体素估计,再转化为SDF,最后进行拍照比对
    • 可以无缝地扩展到支持文本到3D的任务,为文本到网格生成等应用提供了可行的解决方案。
    • 图片生成也主要依赖于zero123
      • 其中,对elevation的估计进行了优化
  • MVDREAM: MULTI-VIEW DIFFUSION FOR 3D GENERATION
    • 20231231034409
    • 灵感:视频->3d
    • 改进了现有的Score Distillation Sampling(SDS)方法
      • SDS方法首先使用多视角扩散模型生成一组候选图像。然后,通过计算每个候选图像的分数,选择与输入文本条件最相匹配的候选图像
      • 评分蒸馏采样 (SDS),它在参数空间而不是像素空间中进行采样
        • ProlificDream使用变分评分蒸馏(Variational Score Distillation,VSD)

数据集

Reference

Categories: ,

Updated: