Giter Club home page Giter Club logo

Comments (6)

TQTQliu avatar TQTQliu commented on September 18, 2024 4

您好,谢谢您对我们工作的关注。

泛化新视图合成的任务设定是:首先在某一个数据集上训练模型,得到预训练好的模型后,就可以在新的场景或者新的数据集上直接推理渲染,而不需要重新训练优化。您提到的“一个场景35张图片,我用其中的3张训练,其余的用训练好的模型进行渲染并比较”这种是Few-shot Novel View Synthesis的任务设定,比如SparseNeRF。这些方法和NeRF一样,对每个新场景仍然需要重新训练优化,只是输入的是few-shot视图。

在我们的实验中,我们的模型是在DTU训练集上训练的,然后在DTU测试集、LLFF、NeRF Synthetic 和Tanks and Temples数据集上对预训练的模型进行测试评估的。所以在Readme中Train generalizable model部分里只提供了在DTU上训练的运行命令。

如果您想在LLFF数据集上训练,更换config文件即可,即:

python train_net.py --cfg_file configs/mvsgs/llff_eval.yaml

如果想在某一个场景上训练,比如LLFF数据集中的flower场景,

python train_net.py --cfg_file configs/mvsgs/llff/flower.yaml

值得注意的是,在训练开始之前,脚本会先检查trained_model/mvsgs/exp_name路径下是否有checkpoint,如果有,就会加载最新的checkpoint(即默认resume,从断点开始继续训练)。所以你可以通过修改config文件中的exp_name字段的值来控制是train from scratch还是fine-tuning。对单个场景的fine-tuning可以参考这里。同时您可以在这里指定训练的epoch数量,或者在单个场景的config文件中指定,在这里指定flower场景的训练的epoch的数量。

from mvsgaussian.

TQTQliu avatar TQTQliu commented on September 18, 2024 4

我们follow前人的工作(比如MVSNeRF和ENeRF),从两个方面对我们的方法进行评估:
1)评估其泛化能力。即利用预训练好的模型在新的场景、新的数据集上直接推理,一次前向推理就能得到新视图;
2)评估其对特定场景的拟合能力。上述的泛化推理速度较快,但合成质量可能不够理想,特别是训练数据和测试数据domain差别较大时,这时可以选择per-scene optimization,这里的逐场景优化也就是微调的意思。我们提供了两种策略,一种是利用预训练模型得到的点云作为3DGS的初始化来拟合特定场景,另一种是在特定场景上对模型进行微调。我们推荐第一种优化的方式,因为其速度快以及渲染的视图质量更好。在这里提供了两种方式的运行指南。

上述两个评估赛道对应了两种选择,泛化推理仅需要前向推理即可,不需要重新训练或者微调,但可能对于特定场景的合成质量不如逐场景优化后的效果,用户可权衡自己的需求来选择。

from mvsgaussian.

520jz avatar 520jz commented on September 18, 2024

您好,谢谢您对我们工作的关注。

泛化新视图合成的任务设定是:首先在某一个数据集上训练模型,得到预训练好的模型后,就可以在新的场景或者新的数据集上直接推理渲染,而不需要重新训练优化。您提到的“一个场景35张图片,我用其中的3张训练,其余的用训练好的模型进行渲染并比较”这种是Few-shot Novel View Synthesis的任务设定,比如SparseNeRF。这些方法和NeRF一样,对每个新场景仍然需要重新训练优化,只是输入的是few-shot视图。

在我们的实验中,我们的模型是在DTU训练集上训练的,然后在DTU测试集、LLFF、NeRF Synthetic 和Tanks and Temples数据集上对预训练的模型进行测试评估的。所以在Readme中Train generalizable model部分里只提供了在DTU上训练的运行命令。

如果您想在LLFF数据集上训练,更换config文件即可,即:

python train_net.py --cfg_file configs/mvsgs/llff_eval.yaml

如果想在某一个场景上训练,比如LLFF数据集中的flower场景,

python train_net.py --cfg_file configs/mvsgs/llff/flower.yaml

值得注意的是,在训练开始之前,脚本会先检查trained_model/mvsgs/exp_name路径下是否有checkpoint,如果有,就会加载最新的checkpoint(即默认resume,从断点开始继续训练)。所以你可以通过修改config文件中的exp_name字段的值来控制是train from scratch还是fine-tuning。对单个场景的fine-tuning可以参考这里。同时您可以在这里指定训练的epoch数量,或者在单个场景的config文件中指定,在这里指定flower场景的训练的epoch的数量。

哦哦哦,明白了谢谢大佬,我惊讶于竟然只需要在dtu的训练集上训练就可以泛化到LLFF和NeRF Synthetic等数据集,感觉这几个数据集场景差别蛮大的。

from mvsgaussian.

520jz avatar 520jz commented on September 18, 2024

您好,谢谢您对我们工作的关注。

泛化新视图合成的任务设定是:首先在某一个数据集上训练模型,得到预训练好的模型后,就可以在新的场景或者新的数据集上直接推理渲染,而不需要重新训练优化。您提到的“一个场景35张图片,我用其中的3张训练,其余的用训练好的模型进行渲染并比较”这种是Few-shot Novel View Synthesis的任务设定,比如SparseNeRF。这些方法和NeRF一样,对每个新场景仍然需要重新训练优化,只是输入的是few-shot视图。

在我们的实验中,我们的模型是在DTU训练集上训练的,然后在DTU测试集、LLFF、NeRF Synthetic 和Tanks and Temples数据集上对预训练的模型进行测试评估的。所以在Readme中Train generalizable model部分里只提供了在DTU上训练的运行命令。

如果您想在LLFF数据集上训练,更换config文件即可,即:

python train_net.py --cfg_file configs/mvsgs/llff_eval.yaml

如果想在某一个场景上训练,比如LLFF数据集中的flower场景,

python train_net.py --cfg_file configs/mvsgs/llff/flower.yaml

值得注意的是,在训练开始之前,脚本会先检查trained_model/mvsgs/exp_name路径下是否有checkpoint,如果有,就会加载最新的checkpoint(即默认resume,从断点开始继续训练)。所以你可以通过修改config文件中的exp_name字段的值来控制是train from scratch还是fine-tuning。对单个场景的fine-tuning可以参考这里。同时您可以在这里指定训练的epoch数量,或者在单个场景的config文件中指定,在这里指定flower场景的训练的epoch的数量。

对了,大佬我还想再问一下这个优化是什么意思呢?我在dtu数据集上train好的模型直接Evaluation不就已经可以获得渲染的视图了吗?为什么还要去optimization,里面还提到的优化高斯点云是什么意思呢?
image

from mvsgaussian.

520jz avatar 520jz commented on September 18, 2024

您好,谢谢您对我们工作的关注。

泛化新视图合成的任务设定是:首先在某一个数据集上训练模型,得到预训练好的模型后,就可以在新的场景或者新的数据集上直接推理渲染,而不需要重新训练优化。您提到的“一个场景35张图片,我用其中的3张训练,其余的用训练好的模型进行渲染并比较”这种是Few-shot Novel View Synthesis的任务设定,比如SparseNeRF。这些方法和NeRF一样,对每个新场景仍然需要重新训练优化,只是输入的是few-shot视图。

在我们的实验中,我们的模型是在DTU训练集上训练的,然后在DTU测试集、LLFF、NeRF Synthetic 和Tanks and Temples数据集上对预训练的模型进行测试评估的。所以在Readme中Train generalizable model部分里只提供了在DTU上训练的运行命令。

如果您想在LLFF数据集上训练,更换config文件即可,即:

python train_net.py --cfg_file configs/mvsgs/llff_eval.yaml

如果想在某一个场景上训练,比如LLFF数据集中的flower场景,

python train_net.py --cfg_file configs/mvsgs/llff/flower.yaml

值得注意的是,在训练开始之前,脚本会先检查trained_model/mvsgs/exp_name路径下是否有checkpoint,如果有,就会加载最新的checkpoint(即默认resume,从断点开始继续训练)。所以你可以通过修改config文件中的exp_name字段的值来控制是train from scratch还是fine-tuning。对单个场景的fine-tuning可以参考这里。同时您可以在这里指定训练的epoch数量,或者在单个场景的config文件中指定,在这里指定flower场景的训练的epoch的数量。

对了,大佬我还想再问一下这个优化是什么意思呢?我在dtu数据集上train好的模型直接Evaluation不就已经可以获得渲染的视图了吗?为什么还要去optimization,里面还提到的优化高斯点云是什么意思呢?
image

from mvsgaussian.

520jz avatar 520jz commented on September 18, 2024

我们follow前人的工作(比如MVSNeRF和ENeRF),从两个方面对我们的方法进行评估: 1)评估其泛化能力。即利用预训练好的模型在新的场景、新的数据集上直接推理,一次前向推理就能得到新视图; 2)评估其对特定场景的拟合能力。上述的泛化推理速度较快,但合成质量可能不够理想,特别是训练数据和测试数据domain差别较大时,这时可以选择per-scene optimization,这里的逐场景优化也就是微调的意思。我们提供了两种策略,一种是利用预训练模型得到的点云作为3DGS的初始化来拟合特定场景,另一种是在特定场景上对模型进行微调。我们推荐第一种优化的方式,因为其速度快以及渲染的视图质量更好。在这里提供了两种方式的运行指南。

上述两个评估赛道对应了两种选择,泛化推理仅需要前向推理即可,不需要重新训练或者微调,但可能对于特定场景的合成质量不如逐场景优化后的效果,用户可权衡自己的需求来选择。

明白了!谢谢大佬!

from mvsgaussian.

Related Issues (20)

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.