嘘~ 正在从服务器偷取页面 . . .

NeRF


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-11-27 更新

Proxy-Free Gaussian Splats Deformation with Splat-Based Surface Estimation

Authors:Jaeyeong Kim, Seungwoo Yoo, Minhyuk Sung

We introduce SpLap, a proxy-free deformation method for Gaussian splats (GS) based on a Laplacian operator computed from our novel surface-aware splat graph. Existing approaches to GS deformation typically rely on deformation proxies such as cages or meshes, but they suffer from dependency on proxy quality and additional computational overhead. An alternative is to directly apply Laplacian-based deformation techniques by treating splats as point clouds. However, this often fail to properly capture surface information due to lack of explicit structure. To address this, we propose a novel method that constructs a surface-aware splat graph, enabling the Laplacian operator derived from it to support more plausible deformations that preserve details and topology. Our key idea is to leverage the spatial arrangement encoded in splats, defining neighboring splats not merely by the distance between their centers, but by their intersections. Furthermore, we introduce a Gaussian kernel adaptation technique that preserves surface structure under deformation, thereby improving rendering quality after deformation. In our experiments, we demonstrate the superior performance of our method compared to both proxy-based and proxy-free baselines, evaluated on 50 challenging objects from the ShapeNet, Objaverse, and Sketchfab datasets, as well as the NeRF-Synthetic dataset. Code is available at https://github.com/kjae0/SpLap.

我们介绍了SpLap,一种无需代理的高斯splat(GS)变形方法,该方法基于从我们新型的表面感知splat图计算得出的拉普拉斯算子。现有的GS变形方法通常依赖于如笼子或网格等变形代理,但它们依赖于代理质量,并伴随着额外的计算开销。另一种方法是直接将splat视为点云,应用基于拉普拉斯的变形技术。然而,由于缺乏明确的结构,这通常无法正确捕获表面信息。为了解决这个问题,我们提出了一种新型方法,构建了一个表面感知的splat图,使得从它衍生出的拉普拉斯算子能够支持更逼真的变形,保留细节和拓扑结构。我们的核心思想是利用splat中的空间排列,定义相邻的splat不仅仅是通过它们中心之间的距离,而是通过它们的交集来定义。此外,我们引入了一种高斯核适应技术,在变形过程中保留表面结构,从而提高变形后的渲染质量。在我们的实验中,我们对ShapeNet、Objaverse、Sketchfab数据集以及NeRF-Synthetic数据集上的50个具有挑战性的对象进行了测试,证明了我们的方法相较于基于代理和无代理基线方法的优越性能。相关代码可在https://github.com/kjae0/SpLap找到。

论文及项目相关链接

PDF 17 pages, Accepted to 3DV 2026 (IEEE/CVF International Conference on 3D Vision)

Summary

本文介绍了SpLap,一种基于拉普拉斯算子的无代理变形方法,用于高斯喷溅(GS)。该方法通过构建表面感知喷溅图来克服现有GS变形方法依赖代理质量和计算开销的问题。SpLap不仅考虑喷溅间的距离,还通过它们的交集来定义相邻喷溅,从而更有效地捕获表面信息,并在变形过程中保持表面结构。实验结果表明,该方法在ShapeNet、Objaverse、Sketchfab以及NeRF-Synthetic数据集上的性能优于基于代理和无代理的基线方法。

Key Takeaways

  1. SpLap是一种基于拉普拉斯算子的无代理变形方法,用于高斯喷溅(GS)。
  2. 现有GS变形方法通常依赖代理,存在质量依赖和计算开销问题。
  3. SpLap通过构建表面感知喷溅图,使拉普拉斯算子支持更逼真的变形,保持细节和拓扑。
  4. SpLap考虑喷溅间的空间排列,通过喷溅的交集定义相邻关系。
  5. 引入高斯核适应技术,在变形过程中保持表面结构,提高渲染质量。
  6. 实验结果表明,SpLap在多个数据集上的性能优于其他方法。

Cool Papers

点此查看论文截图

FastGS: Training 3D Gaussian Splatting in 100 Seconds

Authors:Shiwei Ren, Tianci Wen, Yongchun Fang, Biao Lu

The dominant 3D Gaussian splatting (3DGS) acceleration methods fail to properly regulate the number of Gaussians during training, causing redundant computational time overhead. In this paper, we propose FastGS, a novel, simple, and general acceleration framework that fully considers the importance of each Gaussian based on multi-view consistency, efficiently solving the trade-off between training time and rendering quality. We innovatively design a densification and pruning strategy based on multi-view consistency, dispensing with the budgeting mechanism. Extensive experiments on Mip-NeRF 360, Tanks & Temples, and Deep Blending datasets demonstrate that our method significantly outperforms the state-of-the-art methods in training speed, achieving a 3.32$\times$ training acceleration and comparable rendering quality compared with DashGaussian on the Mip-NeRF 360 dataset and a 15.45$\times$ acceleration compared with vanilla 3DGS on the Deep Blending dataset. We demonstrate that FastGS exhibits strong generality, delivering 2-7$\times$ training acceleration across various tasks, including dynamic scene reconstruction, surface reconstruction, sparse-view reconstruction, large-scale reconstruction, and simultaneous localization and mapping. The project page is available at https://fastgs.github.io/

主导的三维高斯展开(3DGS)加速方法未能正确调节训练过程中的高斯数量,导致冗余的计算时间开销。在本文中,我们提出了FastGS,这是一种新颖、简单且通用的加速框架,它充分考虑了每个高斯的重要性,基于多视角一致性,有效地解决了训练时间和渲染质量之间的权衡问题。我们创新地设计了基于多视角一致性的密集化和修剪策略,摒弃了预算机制。在Mip-NeRF 360、Tanks & Temples和Deep Blending数据集上的大量实验表明,我们的方法在训练速度上显著优于最先进的方法,在Mip-NeRF 360数据集上与DashGaussian相比实现了3.32倍的训练加速和可比的渲染质量,在Deep Blending数据集上与基本的3DGS相比实现了15.45倍加速。我们证明FastGS具有很强的通用性,在各种任务中实现了2-7倍的训练加速,包括动态场景重建、表面重建、稀疏视图重建、大规模重建以及同时定位和地图构建。项目页面可在https://fastgs.github.io/访问。

论文及项目相关链接

PDF Project page: https://fastgs.github.io/

Summary
本文提出一种名为FastGS的新型加速框架,解决了现有3D高斯喷绘加速方法在训练过程中无法适当调控高斯数量的问题,导致计算时间冗余。FastGS基于多视角一致性考虑每个高斯的重要性,实现了训练时间和渲染质量之间的平衡。通过密集化和基于多视角一致性的修剪策略,摒弃了预算机制。在Mip-NeRF 360、Tanks & Temples和Deep Blending数据集上的实验表明,该方法在训练速度上显著优于现有技术,实现了3.32倍的训练加速并保持了与DashGaussian相当的渲染质量,并在Deep Blending数据集上实现了与基本3DGS相比的15.45倍加速。FastGS表现出强烈的一般性,在各种任务中实现了2-7倍的训练加速,包括动态场景重建、表面重建、稀疏视图重建、大规模重建以及同时定位和地图绘制。

Key Takeaways

  1. FastGS是一个新型加速框架,旨在解决现有3DGS方法在训练过程中的冗余计算问题。
  2. FastGS基于多视角一致性来评估每个高斯的重要性,实现了训练时间和渲染质量的平衡。
  3. 密集化和基于多视角一致性的修剪策略是FastGS的两个核心组成部分,提高了训练效率。
  4. 在多个数据集上的实验表明,FastGS在训练速度上显著优于现有方法。
  5. FastGS在多种任务中表现出强烈的一般性,包括动态场景重建、表面重建等。
  6. FastGS实现了显著的训练加速,例如,在Mip-NeRF 360数据集上与DashGaussian相比实现了3.32倍的加速。

Cool Papers

点此查看论文截图

LiHi-GS: LiDAR-Supervised Gaussian Splatting for Highway Driving Scene Reconstruction

Authors:Pou-Chun Kung, Xianling Zhang, Katherine A. Skinner, Nikita Jaipuria

Photorealistic 3D scene reconstruction plays an important role in autonomous driving, enabling the generation of novel data from existing datasets to simulate safety-critical scenarios and expand training data without additional acquisition costs. Gaussian Splatting (GS) facilitates real-time, photorealistic rendering with an explicit 3D Gaussian representation of the scene, providing faster processing and more intuitive scene editing than the implicit Neural Radiance Fields (NeRFs). While extensive GS research has yielded promising advancements in autonomous driving applications, they overlook two critical aspects: First, existing methods mainly focus on low-speed and feature-rich urban scenes and ignore the fact that highway scenarios play a significant role in autonomous driving. Second, while LiDARs are commonplace in autonomous driving platforms, existing methods learn primarily from images and use LiDAR only for initial estimates or without precise sensor modeling, thus missing out on leveraging the rich depth information LiDAR offers and limiting the ability to synthesize LiDAR data. In this paper, we propose a novel GS method for dynamic scene synthesis and editing with improved scene reconstruction through LiDAR supervision and support for LiDAR rendering. Unlike prior works that are tested mostly on urban datasets, to the best of our knowledge, we are the first to focus on the more challenging and highly relevant highway scenes for autonomous driving, with sparse sensor views and monotone backgrounds. Visit our project page at: https://umautobots.github.io/lihi_gs

真实感三维场景重建在自动驾驶中扮演着重要角色。它可以从现有的数据集中生成新的数据,模拟关键安全场景,并且在不需要额外采集成本的情况下扩展训练数据。高斯拼贴(GS)技术通过场景的三维高斯显式表示,实现了实时真实感渲染,相较于隐式神经辐射场(NeRF),其处理速度更快,场景编辑更直观。尽管关于高斯拼贴的研究已经取得了在自动驾驶应用中的许多有前途的进展,但它们忽略了两个关键方面:首先,现有方法主要集中在低速和特征丰富的城市场景上,忽略了高速公路场景在自动驾驶中的重要作用。其次,虽然激光雷达在自动驾驶平台中很普遍,但现有方法主要依赖于图像学习,并且仅使用激光雷达进行初步估计或不进行精确的传感器建模,从而错过了利用激光雷达提供的丰富深度信息的机会,并限制了合成激光雷达数据的能力。在本文中,我们提出了一种新的高斯拼贴方法,用于动态场景合成和编辑。通过激光雷达监督和支持激光雷达渲染,我们改进了场景重建。据我们所知,与主要测试于城市数据集的前期作品不同,我们首次将焦点放在更具挑战性和高度相关的高速公路场景上,这些场景具有稀疏的传感器视角和单调的背景。请访问我们的项目页面了解更多信息:https://umautobots.github.io/lihi_gs

论文及项目相关链接

PDF RA-L 2025

Summary

本文介绍了在自动驾驶领域中,基于高斯贴图(GS)技术的实时渲染技术对于场景重建的重要性。文章强调了现有的GS方法在高速公路场景上的不足,并提出了一个新的GS方法来解决这些问题。新方法能够利用激光雷达进行更精确的监督和学习,从而改善场景重建效果并支持激光雷达渲染。此外,该研究首次专注于高速公路场景的自动驾驶研究,具有稀疏传感器视图和单调背景的挑战性场景。

Key Takeaways

  1. 高斯贴图(GS)技术用于自动驾驶中的场景重建和渲染。
  2. 现有GS方法主要关注低速和特征丰富的城市场景,忽略了高速公路场景的重要性。
  3. 新的GS方法解决了高速公路场景的自动驾驶研究中的挑战性问题,如稀疏传感器视图和单调背景。
  4. 新方法利用激光雷达进行更精确的监督和学习,提高了场景重建的准确性并支持激光雷达渲染。
  5. 与先前的研究不同,该研究将激光雷达数据作为核心信息来源,并将其融入到场景中。
  6. 新方法有助于生成更多样化的数据,模拟安全关键场景并扩大训练数据集,无需额外的采集成本。这对于自动驾驶技术的实际应用具有重要意义。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 上一篇
Diffusion Models Diffusion Models
Diffusion Models 方向最新论文已更新,请持续关注 Update in 2025-11-27 PixelDiT Pixel Diffusion Transformers for Image Generation
下一篇 
3DGS 3DGS
3DGS 方向最新论文已更新,请持续关注 Update in 2025-11-27 Wanderland Geometrically Grounded Simulation for Open-World Embodied AI
2025-11-27
  目录