⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-11-25 更新
SING3R-SLAM: Submap-based Indoor Monocular Gaussian SLAM with 3D Reconstruction Priors
Authors:Kunyi Li, Michael Niemeyer, Sen Wang, Stefano Gasperini, Nassir Navab, Federico Tombari
Recent advances in dense 3D reconstruction enable the accurate capture of local geometry; however, integrating them into SLAM is challenging due to drift and redundant point maps, which limit efficiency and downstream tasks, such as novel view synthesis. To address these issues, we propose SING3R-SLAM, a globally consistent and compact Gaussian-based dense RGB SLAM framework. The key idea is to combine locally consistent 3D reconstructions with a unified global Gaussian representation that jointly refines scene geometry and camera poses, enabling efficient and versatile 3D mapping for multiple downstream applications. SING3R-SLAM first builds locally consistent submaps through our lightweight tracking and reconstruction module, and then progressively aligns and fuses them into a global Gaussian map that enforces cross-view geometric consistency. This global map, in turn, provides feedback to correct local drift and enhance the robustness of tracking. Extensive experiments demonstrate that SING3R-SLAM achieves state-of-the-art tracking, 3D reconstruction, and novel view rendering, resulting in over 12% improvement in tracking and producing finer, more detailed geometry, all while maintaining a compact and memory-efficient global representation on real-world datasets.
近年来,密集的三维重建技术取得了进展,能够准确地捕捉局部几何结构;然而,将其集成到SLAM中却具有挑战性,因为漂移和冗余点图限制了效率和下游任务,例如新型视图合成。为了解决这些问题,我们提出了SING3R-SLAM,这是一个基于全局一致性和紧凑高斯表示的密集RGB SLAM框架。主要思想是将局部一致的三维重建与统一的全局高斯表示相结合,共同优化场景几何和相机姿态,为多个下游应用提供高效且通用的三维映射。SING3R-SLAM首先通过我们的轻量级跟踪和重建模块构建局部一致子图,然后逐步对其对齐和融合,形成强制跨视图几何一致性的全局高斯图。全局图反过来又提供反馈,以校正局部漂移并增强跟踪的稳健性。大量实验表明,SING3R-SLAM在跟踪、三维重建和新型视图渲染方面达到了最新水平,在真实世界数据集上跟踪改进了超过12%,并产生了更精细、更详细的几何结构,同时保持了全局表示法的紧凑性和内存效率。
论文及项目相关链接
Summary
近期三维重建技术取得进展,但将其融入SLAM系统面临挑战。为解决这些问题,提出了SING3R-SLAM框架,结合局部一致的三维重建和全局高斯表示,提高效率和下游任务性能。通过构建局部一致子图,逐步对齐融合成全局高斯地图,实现跨视图几何一致性。全局地图反馈校正局部漂移,提高跟踪稳健性。实验证明,SING3R-SLAM在跟踪、三维重建和新视图渲染方面表现优异。
Key Takeaways
- 近期三维重建技术进步,但融入SLAM系统存在挑战。
- SING3R-SLAM框架结合局部一致的三维重建和全局高斯表示。
- 通过构建局部一致子图,实现高效和多功能的三维映射。
- 逐步对齐融合子图形成全局高斯地图,强调跨视图几何一致性。
- 全局地图提供反馈,校正局部漂移,增强跟踪稳健性。
- 实验证明SING3R-SLAM在跟踪、三维重建和新视图渲染方面表现优秀。
点此查看论文截图
REArtGS++: Generalizable Articulation Reconstruction with Temporal Geometry Constraint via Planar Gaussian Splatting
Authors:Di Wu, Liu Liu, Anran Huang, Yuyan Liu, Qiaoyu Jun, Shaofan Liu, Liangtu Song, Cewu Lu
Articulated objects are pervasive in daily environments, such as drawers and refrigerators. Towards their part-level surface reconstruction and joint parameter estimation, REArtGS~\cite{wu2025reartgs} introduces a category-agnostic approach using multi-view RGB images at two different states. However, we observe that REArtGS still struggles with screw-joint or multi-part objects and lacks geometric constraints for unseen states. In this paper, we propose REArtGS++, a novel method towards generalizable articulated object reconstruction with temporal geometry constraint and planar Gaussian splatting. We first model a decoupled screw motion for each joint without type prior, and jointly optimize part-aware Gaussians with joint parameters through part motion blending. To introduce time-continuous geometric constraint for articulated modeling, we encourage Gaussians to be planar and propose a temporally consistent regularization between planar normal and depth through Taylor first-order expansion. Extensive experiments on both synthetic and real-world articulated objects demonstrate our superiority in generalizable part-level surface reconstruction and joint parameter estimation, compared to existing approaches. Project Site: https://sites.google.com/view/reartgs2/home.
关节式物体在日常环境中普遍存在,例如抽屉和冰箱。关于其部分级别的表面重建和关节参数估计,REArtGS[引用](此处应有文献引用)引入了一种使用两种不同状态下多视角RGB图像进行类别无关的方法。然而,我们观察到REArtGS在螺丝关节或多部件物体方面仍然面临挑战,并且对未观察到的状态缺乏几何约束。在本文中,我们提出了REArtGS++,这是一种具有时间几何约束和平面高斯扩散的新型通用关节物体重建方法。我们首先为每个关节建立解耦的螺丝运动,无需类型先验,并通过部分运动混合联合优化部分感知高斯和关节参数。为了引入关节建模的时间连续几何约束,我们鼓励高斯平面化,并通过泰勒一阶展开提出平面法线和深度之间的时间一致性正则化。对合成和真实世界的关节物体的广泛实验表明,我们在通用的部分级别表面重建和关节参数估计方面优于现有方法。项目网站:https://sites.google.com/view/reartgs2/home。
论文及项目相关链接
PDF 10 pages, 7 figures
Summary
REArtGS++解决了REArtGS在关节式物体重建中的一些问题,提出了一种新的通用化方法,通过时间几何约束和平面高斯散斑技术,实现了关节式物体的部分级表面重建和关节参数估计。新方法能够解耦关节的旋转运动,通过优化部分感知的高斯分布和关节参数,引入时间连续的几何约束,提高模型性能。与现有方法相比,在合成和真实世界的关节式物体上的广泛实验证明了REArtGS++在部分级表面重建和关节参数估计方面的优越性。
Key Takeaways
- REArtGS++是对REArtGS方法的改进,针对关节式物体的重建问题。
- 新方法实现了部分级表面重建和关节参数估计,适用于多种类型的关节式物体。
- 通过解耦关节的旋转运动,提高了模型的灵活性。
- 引入时间连续的几何约束,提高了模型的性能。
- 优化部分感知的高斯分布和关节参数,实现了更好的重建效果。
- 广泛实验证明REArtGS++在合成和真实世界的关节式物体上的优越性。
点此查看论文截图
Gradient-Driven Natural Selection for Compact 3D Gaussian Splatting
Authors:Xiaobin Deng, Qiuli Yu, Changyu Diao, Min Li, Duanqing Xu
3DGS employs a large number of Gaussian primitives to fit scenes, resulting in substantial storage and computational overhead. Existing pruning methods rely on manually designed criteria or introduce additional learnable parameters, yielding suboptimal results. To address this, we propose an natural selection inspired pruning framework that models survival pressure as a regularization gradient field applied to opacity, allowing the optimization gradients–driven by the goal of maximizing rendering quality–to autonomously determine which Gaussians to retain or prune. This process is fully learnable and requires no human intervention. We further introduce an opacity decay technique with a finite opacity prior, which accelerates the selection process without compromising pruning effectiveness. Compared to 3DGS, our method achieves over 0.6 dB PSNR gain under 15% budgets, establishing state-of-the-art performance for compact 3DGS. Project page https://xiaobin2001.github.io/GNS-web.
3DGS使用大量高斯原始数据来拟合场景,导致大量的存储和计算开销。现有的修剪方法依赖于手动设计的标准或引入额外的可学习参数,导致结果不理想。为了解决这个问题,我们提出了一种受自然选择启发的修剪框架,该框架将生存压力建模为应用于不透明度的正则化梯度场,允许由最大化渲染质量目标驱动的优化梯度自主地确定要保留或修剪的高斯。这个过程是完全可以学习的,不需要人工干预。我们还引入了一种具有有限不透明度先验的不透明度衰减技术,这可以在不损害修剪效果的情况下加速选择过程。与3DGS相比,我们的方法在预算为15%的情况下实现了超过0.6dB的PSNR增益,为紧凑型3DGS建立了最先进的性能表现。项目页面https://xiaobin2001.github.io/GNS-web。
论文及项目相关链接
Summary
本文提出一种基于自然选择理念的修剪框架,通过将生存压力建模为应用于不透明度的正则化梯度场,使优化梯度能够自主决定保留或修剪的高斯。框架完全可学习,无需人工干预。此外,引入具有有限不透明度先验的不透明度衰减技术,加快选择过程,同时不损害修剪效果。该方法实现了紧凑的3DGS的先进性能。
Key Takeaways
- 3DGS使用大量高斯原始数据拟合场景,造成大量的存储和计算开销。
- 现有修剪方法依赖手动设计标准或引入可学习参数,导致结果不尽人意。
- 提出一种自然选择启发式的修剪框架,模拟生存压力作为正则化梯度场应用于不透明度。
- 优化梯度由最大化渲染质量的目标驱动,自主决定保留或修剪的高斯。
- 框架完全可学习,无需人工干预。
- 引入具有有限不透明度先验的不透明度衰减技术,加快选择过程。
点此查看论文截图
One Walk is All You Need: Data-Efficient 3D RF Scene Reconstruction with Human Movements
Authors:Yiheng Bian, Zechen Li, Lanqing Yang, Hao Pan, Yezhou Wang, Longyuan Ge, Jeffery Wu, Ruiheng Liu, Yongjian Fu, Yichao chen, Guangtao xue
Reconstructing 3D Radiance Field (RF) scenes through opaque obstacles is a long-standing goal, yet it is fundamentally constrained by a laborious data acquisition process requiring thousands of static measurements, which treats human motion as noise to be filtered. This work introduces a new paradigm with a core objective: to perform fast, data-efficient, and high-fidelity RF reconstruction of occluded 3D static scenes, using only a single, brief human walk. We argue that this unstructured motion is not noise, but is in fact an information-rich signal available for reconstruction. To achieve this, we design a factorization framework based on composite 3D Gaussian Splatting (3DGS) that learns to model the dynamic effects of human motion from the persistent static scene geometry within a raw RF stream. Trained on just a single 60-second casual walk, our model reconstructs the full static scene with a Structural Similarity Index (SSIM) of 0.96, remarkably outperforming heavily-sampled state-of-the-art (SOTA) by 12%. By transforming the human movements into its valuable signals, our method eliminates the data acquisition bottleneck and paves the way for on-the-fly 3D RF mapping of unseen environments.
通过不透明障碍物重建3D辐射场(RF)场景是一个长期的目标,但从根本上受到繁重的数据采集过程的限制,该过程需要数千个静态测量值,并将人类运动视为需要过滤的噪音。这项工作引入了一种新的模式,其核心目标是使用仅一次短暂的人类行走,实现快速、高效和高保真度的遮挡3D静态场景的RF重建。我们认为,这种非结构化运动并非噪音,而实际上是一种可用于重建的富含信息的信号。为了实现这一点,我们设计了一个基于复合3D高斯展布(3DGS)的分解框架,该框架学习从原始RF流中的持久静态场景几何来建模人类运动的动态效应。仅在一次60秒的随意行走中进行训练,我们的模型重建了完整的静态场景,结构相似性指数(SSIM)为0.96,显著优于重采样过的最新技术(SOTA)12%。通过将人类运动转化为有价值的信号,我们的方法消除了数据采集的瓶颈,为即时3DRF地图绘制未知环境铺平了道路。
论文及项目相关链接
摘要
通过对单幅简短动态影像中的原始射频流进行结构化解析与信号化运动学习,提出了一种新型的射颞成像方法,对跨越遮蔽障碍物的三维静态场景进行快速、高效、高保真度的重建。通过基于复合三维高斯溅射技术的分解框架,实现对人体运动动态效应的建模,进而实现对原始静态场景几何结构的重建。在仅对单次六十秒随意行走数据进行训练后,本模型能够以高达结构相似性指数(SSIM)0.96的水平重构整个静态场景,明显优于大量采用当前先进技术的高采样率。本方法转化了人体动作信息并将其作为有价值信号进行处理,突破了数据采集瓶颈,为后续对未知环境的即时射频测绘打下了坚实基础。这项技术的成功运用将在城市规划、环境探测等多个领域发挥巨大的价值。
关键要点
一、本研究提出了一种新型三维射频重建方法,只需单幅短暂动态影像即可完成对跨越障碍物的三维静态场景的重建。
二、该研究利用了人体运动的动态效应,将其视为有价值信号进行建模,突破了传统数据采集的局限性。
三、本研究基于复合三维高斯溅射技术设计了一种分解框架,实现了对原始静态场景几何结构的重建。
四、实验结果显示,本模型在结构相似性指数(SSIM)上的表现远超当前先进技术,重建结果的精度和真实度较高。
五、此技术将为城市规划、环境探测等领域带来极大的便利和价值,有助于推动相关领域的技术进步。
六、该方法的成功应用,对于解决复杂环境下的射频重建问题具有重要意义。
点此查看论文截图
A Machine Learning-Driven Solution for Denoising Inertial Confinement Fusion Images
Authors:Asya Y. Akkus, Bradley T. Wolfe, Pinghan Chu, Chengkun Huang, Chris S. Campbell, Mariana Alvarado Alvarez, Petr Volegov, David Fittinghoff, Robert Reinovsky, Zhehui Wang
Neutron imaging is important in optimizing analysis of inertial confinement fusion (ICF) events such as those at the National Ignition Facility (NIF) and improving current and future ICF platforms. However, images of neutron sources are often degraded by various types of noise. Most commonly, Gaussian and Poisson noise often coexist within one image, obscuring fine details and blurring edges. These noise types often overlap, making them difficult to distinguish and remove using conventional filtering and thresholding methods. As a result, noise removal techniques that preserve image fidelity are important for analyzing and interpreting images of a neutron source. Current solutions include a combination of filtering and thresholding methodologies. In the past, machine learning approaches were rarely implemented due to a lack of ground truth neutron imaging data for ICF processes. However, recent advances in synthetic data production, particularly in the fusion imaging field, have opened opportunities to investigate new denoising procedures using both supervised and unsupervised machine learning methods. In this study, we implement an unsupervised autoencoder with a Cohen-Daubechies- Feauveau (CDF 97) wavelet transform in the latent space for mixed Gaussian-Poisson denoising. The network successfully denoises neutron imaging data. Additionally, it demonstrates lower reconstruction error and superior edge preservation metrics when benchmarked with data generated by a forward model and compared to non-ML-based filtering mechanisms such as Block-matching and 3D filtering (BM3D). This approach presents a promising advancement in neutron image noise reduction and three-dimensional reconstruction analysis of ICF experiments.
中子成像对于优化惯性约束聚变(ICF)事件的分析,如国家点火设施(NIF)中的事件,以及改善当前和未来的ICF平台具有重要意义。然而,中子源图像通常受到各种噪声的干扰。最常见的是,高斯噪声和泊松噪声往往在同一图像中共存,掩盖了细节并模糊了边缘。这些噪声类型经常重叠,使用传统的过滤和阈值方法很难区分和去除。因此,能够保持图像保真度的降噪技术在分析的中子源图像中显得尤为重要。目前的解决方案包括过滤和阈值方法相结合的方法。过去由于缺乏用于ICF过程的中子成像的真实数据,机器学习的方法很少应用。然而,合成数据生产的最新进展,特别是融合成像领域的发展,已经提供了机会利用监督和无监督的机器学习方法来研究新的降噪程序的机会。在本研究中,我们在潜在空间中使用Cohen-Daubechies-Feauveau(CDF 97)小波变换实现了一种无监督的自编码器用于混合高斯泊松降噪。该网络成功地消除了中子成像数据中的噪声。此外,当它使用正向模型生成的数据进行基准测试时,与传统的非机器学习过滤机制(如块匹配和三维过滤(BM3D))相比,它在重建误差和边缘保留指标方面表现出更低的重建误差和更优越的性能。这种方法在中子图像降噪和ICF实验的三维重建分析中显示出有前途的进展。
论文及项目相关链接
摘要
中子成像对优化惯性约束聚变(ICF)事件的分析至关重要,如国家点火设施(NIF)等。然而,中子源图像常常受到各种噪声的干扰。最常见的是高斯噪声和泊松噪声在同一图像中同时存在,掩盖了细节并模糊了边缘。过去由于缺乏ICF过程中的真实中子成像数据,机器学习的方法很少应用。但合成数据生产的进步为使用有监督和无监督的机器学习方法进行去噪提供了新的机会。本研究实现了潜伏空间中的Cohen-Daubechies-Feauveau(CDF 97)小波变换的无监督自编码器,用于混合高斯-泊松去噪。该网络成功地对中子成像数据进行了去噪,并在与前向模型生成的数据的基准测试中表现出较低的重建误差和优越的边缘保留指标,与传统的非ML过滤机制(如BM3D)相比具有优势。这为中子图像降噪和ICF实验的三维重建分析提供了有前途的进展。
关键见解
- 中子成像对于优化和分析惯性约束聚变(ICF)事件至关重要。
- 中子源图像常常受到高斯和泊松噪声的干扰,这些噪声类型经常重叠,使得使用传统过滤和阈值方法难以区分和去除。
- 由于缺乏地面真实的中子成像数据,过去很少在ICF过程中应用机器学习。
- 合成数据生产的进步使得使用机器学习方法进行去噪成为可能。
- 研究中使用的无监督自编码器与CDF 97小波变换结合,成功应用于混合高斯-泊松去噪。
- 该网络在中子成像数据的去噪方面表现出优越性能,与前向模型生成的数据基准测试相比,具有较低的重建误差和优秀的边缘保留能力。
点此查看论文截图
SF-Recon: Simplification-Free Lightweight Building Reconstruction via 3D Gaussian Splatting
Authors:Zihan Li, Tengfei Wang, Wentian Gan, Hao Zhan, Xin Wang, Zongqian Zhan
Lightweight building surface models are crucial for digital city, navigation, and fast geospatial analytics, yet conventional multi-view geometry pipelines remain cumbersome and quality-sensitive due to their reliance on dense reconstruction, meshing, and subsequent simplification. This work presents SF-Recon, a method that directly reconstructs lightweight building surfaces from multi-view images without post-hoc mesh simplification. We first train an initial 3D Gaussian Splatting (3DGS) field to obtain a view-consistent representation. Building structure is then distilled by a normal-gradient-guided Gaussian optimization that selects primitives aligned with roof and wall boundaries, followed by multi-view edge-consistency pruning to enhance structural sharpness and suppress non-structural artifacts without external supervision. Finally, a multi-view depth-constrained Delaunay triangulation converts the structured Gaussian field into a lightweight, structurally faithful building mesh. Based on a proposed SF dataset, the experimental results demonstrate that our SF-Recon can directly reconstruct lightweight building models from multi-view imagery, achieving substantially fewer faces and vertices while maintaining computational efficiency. Website:https://lzh282140127-cell.github.io/SF-Recon-project/
轻量级建筑表面模型对于数字城市、导航和快速地理空间分析至关重要。然而,传统的多视角几何流水线仍然因为依赖于密集重建、网格生成和随后的简化,变得累赘且质量敏感。本文提出了SF-Recon方法,它能够从多视角图像直接重建轻量级建筑表面,无需后续网格简化。我们首先训练初始的3D高斯样条(3DGS)场,以获得一致的视图表示。然后,通过法线梯度引导的高斯优化提取建筑结构,选择符合屋顶和墙壁边界的基本形状,随后通过多视角边缘一致性修剪增强结构清晰度,抑制非结构伪影,无需外部监督。最后,基于多视角深度约束的Delaunay三角剖分将结构化高斯场转换为轻量级、结构真实的建筑网格。基于提出的SF数据集,实验结果表明,我们的SF-Recon方法能够从多视角图像直接重建轻量级建筑模型,在保持计算效率的同时,实现更少的面和顶点。网站链接:https://lzh282140127-cell.github.io/SF-Recon-project/。
论文及项目相关链接
PDF This paper has been submitted to the 2026 ISPRS Congress
Summary
基于多视角图像,本文提出一种名为SF-Recon的轻量化建筑表面模型重建方法,无需后续网格简化步骤。通过训练初始的3D高斯喷涂(3DGS)场获得视角一致表示,随后通过法线梯度引导的高斯优化和基于多视角边缘一致性的修剪来提取建筑结构,最后转换为轻量级的结构忠实建筑网格。
Key Takeaways
- 轻量化建筑表面模型对数字城市、导航和快速地理空间分析至关重要。
- 传统多视角几何处理流程依赖于密集重建、网格生成和简化,过程繁琐且对质量敏感。
- SF-Recon方法直接从多视角图像重建轻量化建筑表面,无需后续网格简化。
- 通过训练3D高斯喷涂(3DGS)场获得视角一致表示。
- 采用法线梯度引导的高斯优化和基于多视角边缘一致性的修剪来提取建筑结构。
- 多视角深度约束Delaunay三角剖分将结构化高斯场转换为轻量级、结构忠实的建筑网格。
点此查看论文截图
Wideband RF Radiance Field Modeling Using Frequency-embedded 3D Gaussian Splatting
Authors:Zechen Li, Lanqing Yang, Yiheng Bian, Hao Pan, Yongjian Fu, Yezhou Wang, Zhuxi Chen, Yi-Chao Chen, Guangtao Xue
Indoor environments typically contain diverse RF signals distributed across multiple frequency bands, including NB-IoT, Wi-Fi, and millimeter-wave. Consequently, wideband RF modeling is essential for practical applications such as joint deployment of heterogeneous RF systems, cross-band communication, and distributed RF sensing. Although 3D Gaussian Splatting (3DGS) techniques effectively reconstruct RF radiance fields at a single frequency, they cannot model fields at arbitrary or unknown frequencies across a wide range. In this paper, we present a novel 3DGS algorithm for unified wideband RF radiance field modeling. RF wave propagation depends on signal frequency and the 3D spatial environment, including geometry and material electromagnetic (EM) properties. To address these factors, we introduce a frequency-embedded EM feature network that utilizes 3D Gaussian spheres at each spatial location to learn the relationship between frequency and transmission characteristics, such as attenuation and radiance intensity. With a dataset containing sparse frequency samples in a specific 3D environment, our model can efficiently reconstruct RF radiance fields at arbitrary and unseen frequencies. To assess our approach, we introduce a large-scale power angular spectrum (PAS) dataset with 50,000 samples spanning 1 to 94 GHz across six indoor environments. Experimental results show that the proposed model trained on multiple frequencies achieves a Structural Similarity Index Measure (SSIM) of 0.922 for PAS reconstruction, surpassing state-of-the-art single-frequency 3DGS models with SSIM of 0.863.
室内环境通常包含分布在多个频带的多种射频信号,包括NB-IoT、Wi-Fi和毫米波。因此,宽带射频建模对于实际应用至关重要,例如异构射频系统的联合部署、跨频带通信和分布式射频感知。虽然3D高斯喷射技术可以有效地重建单频的射频辐射场,但它们无法对宽范围内任意或未知频率的场进行建模。在本文中,我们提出了一种新型的3DGS算法,用于统一宽带射频辐射场建模。射频波的传播取决于信号频率和三维空间环境,包括几何形状和材料电磁特性。为了解决这些因素,我们引入了一个频率嵌入的电磁特征网络,该网络利用每个空间位置的3D高斯球体来学习频率与传输特性之间的关系,如衰减和辐射强度。使用包含特定三维环境中稀疏频率样本的数据集,我们的模型可以有效地重建任意和未见过的频率的射频辐射场。为了评估我们的方法,我们引入了一个大规模功率角谱数据集,包含跨越六个室内环境从1到94 GHz的5万个样本。实验结果表明,在多个频率上训练的模型在功率角谱重建方面达到了结构相似性指数度量(SSIM)为0.922,超过了最先进的单频3DGS模型的SSIM值(0.863)。
论文及项目相关链接
Summary
本文介绍了一种新型3DGS算法,用于统一的宽频RF辐射场建模。该算法通过引入频率嵌入的电磁特征网络,利用三维高斯球来学习频率与传输特性之间的关系,如衰减和辐射强度。在特定3D环境中,使用稀疏频率样本数据集,该模型可有效地重建任意和未见过的频率的RF辐射场。实验结果表明,该模型在功率角谱重建方面表现出优异的性能。
Key Takeaways
- 室内环境包含多种RF信号,需要进行宽频RF建模。
- 传统的3DGS技术无法对任意或未知频率的广泛范围进行建模。
- 引入了一种新型的3DGS算法,用于统一的宽频RF辐射场建模。
- 算法通过使用频率嵌入的电磁特征网络和三维高斯球来学习频率与传输特性之间的关系。
- 该模型可以在特定的3D环境中,使用稀疏频率样本数据集有效地重建RF辐射场。
- 模型在功率角谱重建方面的性能表现优异,达到了较高的结构相似性指数(SSIM)。
点此查看论文截图
REArtGS: Reconstructing and Generating Articulated Objects via 3D Gaussian Splatting with Geometric and Motion Constraints
Authors:Di Wu, Liu Liu, Zhou Linli, Anran Huang, Liangtu Song, Qiaojun Yu, Qi Wu, Cewu Lu
Articulated objects, as prevalent entities in human life, their 3D representations play crucial roles across various applications. However, achieving both high-fidelity textured surface reconstruction and dynamic generation for articulated objects remains challenging for existing methods. In this paper, we present REArtGS, a novel framework that introduces additional geometric and motion constraints to 3D Gaussian primitives, enabling realistic surface reconstruction and generation for articulated objects. Specifically, given multi-view RGB images of arbitrary two states of articulated objects, we first introduce an unbiased Signed Distance Field (SDF) guidance to regularize Gaussian opacity fields, enhancing geometry constraints and improving surface reconstruction quality. Then we establish deformable fields for 3D Gaussians constrained by the kinematic structures of articulated objects, achieving unsupervised generation of surface meshes in unseen states. Extensive experiments on both synthetic and real datasets demonstrate our approach achieves high-quality textured surface reconstruction for given states, and enables high-fidelity surface generation for unseen states. Project site: https://sites.google.com/view/reartgs/home.
关节式物体作为人类生活中普遍存在的实体,其3D表示在各种应用中扮演着至关重要的角色。然而,对于现有方法来说,实现关节式物体的高保真纹理表面重建和动态生成仍然是一个挑战。在本文中,我们提出了REArtGS,一个引入额外的几何和运动约束到3D高斯原始数据的新框架,从而实现关节式物体的逼真表面重建和生成。具体来说,给定关节式物体的任意两种状态的多视角RGB图像,我们首先引入无偏符号距离场(SDF)指导来规范高斯不透明度场,增强几何约束,提高表面重建质量。然后,我们为3D高斯建立可变形场,受关节式物体的运动结构约束,实现未见状态的表面网格的无监督生成。在合成和真实数据集上的大量实验表明,我们的方法实现了给定状态的高质量纹理表面重建,并实现了未见状态的高保真表面生成。项目网站地址为:https://sites.google.com/view/reartgs/home。
论文及项目相关链接
PDF 11pages, 6 figures
Summary
本文提出了一种名为REArtGS的新型框架,该框架引入额外的几何和运动约束到三维高斯原始模型上,实现了对关节活动物体的真实表面重建和生成。通过多视角RGB图像,对关节活动物体的任意两种状态进行表面重建和生成。引入无偏的带符号距离场(SDF)指导高斯透明度场,增强几何约束并提高表面重建质量。建立可变形场,用于约束关节活动物体的三维高斯运动模型,实现了对未观察状态表面网格的无监督生成。本研究可在合成数据集和真实数据集上进行高质量纹理表面重建和未知状态的高保真表面生成。
Key Takeaways
- REArtGS框架引入额外的几何和运动约束到三维高斯原始模型上,实现了关节活动物体的真实表面重建和生成。
- 使用多视角RGB图像进行表面重建和生成。
- 无偏的带符号距离场(SDF)指导高斯透明度场,增强几何约束,提高表面重建质量。
- 建立可变形场,用于约束关节活动物体的三维高斯运动模型。
- 实现未观察状态表面网格的无监督生成。
- 在合成数据集和真实数据集上进行高质量纹理表面重建。
点此查看论文截图
TrackGS: Optimizing COLMAP-Free 3D Gaussian Splatting with Global Track Constraints
Authors:Dongbo Shi, Shen Cao, Lubin Fan, Bojian Wu, Jinhui Guo, Ligang Liu, Renjie Chen
We present TrackGS, a novel method to integrate global feature tracks with 3D Gaussian Splatting (3DGS) for COLMAP-free novel view synthesis. While 3DGS delivers impressive rendering quality, its reliance on accurate precomputed camera parameters remains a significant limitation. Existing COLMAP-free approaches depend on local constraints that fail in complex scenarios. Our key innovation lies in leveraging feature tracks to establish global geometric constraints, enabling simultaneous optimization of camera parameters and 3D Gaussians. Specifically, we: (1) introduce track-constrained Gaussians that serve as geometric anchors, (2) propose novel 2D and 3D track losses to enforce multi-view consistency, and (3) derive differentiable formulations for camera intrinsics optimization. Extensive experiments on challenging real-world and synthetic datasets demonstrate state-of-the-art performance, with much lower pose error than previous methods while maintaining superior rendering quality. Our approach eliminates the need for COLMAP preprocessing, making 3DGS more accessible for practical applications.
我们提出了一种名为TrackGS的新型方法,它将全局特征轨迹与3D高斯splat(3DGS)相结合,用于无COLMAP的新视角合成。虽然3DGS的渲染质量令人印象深刻,但它对预先计算准确的相机参数的依赖仍然是一个重大限制。现有的无COLMAP方法依赖于局部约束,在复杂场景中会失效。我们的关键创新之处在于利用特征轨迹来建立全局几何约束,从而实现相机参数和3D高斯的同时优化。具体来说,我们:(1)引入受轨迹约束的高斯作为几何锚点,(2)提出新的2D和3D轨迹损失以强制执行多视图一致性,(3)推导出用于相机内参优化的可微公式。在具有挑战性的真实和合成数据集上的广泛实验证明了我们的方法具有最先进的性能,相较于以前的方法具有更低的姿态误差,同时保持了出色的渲染质量。我们的方法消除了对COLMAP预处理的需求,使3DGS更易于实际应用。
论文及项目相关链接
Summary
本文介绍了TrackGS方法,这是一种将全局特征轨迹与三维高斯拼贴(3DGS)相结合进行无COLMAP(协同重建和图像分析模型库)新型视角合成的方法。通过引入特征轨迹约束的高斯几何锚点、提出新型二维和三维轨迹损失来强制执行多视角一致性,以及推导可微形式的相机内参优化,解决了现有方法依赖准确预计算相机参数的局限性。实验证明,该方法性能优于传统方法,大幅降低姿态误差同时保持卓越渲染质量。这一方法的推出,让依赖COLMAP预处理成为不必要,让三维高斯拼贴在实用领域更易接近。
Key Takeaways
- TrackGS是一种结合全局特征轨迹与三维高斯拼贴(3DGS)的方法,用于无COLMAP预处理的新型视角合成。
- 引入特征轨迹约束的高斯几何锚点,为全局几何约束提供了关键创新。
- 提出新型二维和三维轨迹损失,以强制执行多视角一致性。
- 通过推导可微形式的相机内参优化,解决了依赖准确预计算相机参数的局限性。
- 在具有挑战性的真实和合成数据集上进行广泛实验,证明了其卓越性能。
- 与之前的方法相比,该方法具有更低的姿态误差和出色的渲染质量。
点此查看论文截图
MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction
Authors:Kunyi Li, Michael Niemeyer, Zeyu Chen, Nassir Navab, Federico Tombari
Accurate meshing from monocular images remains a key challenge in 3D vision. While state-of-the-art 3D Gaussian Splatting (3DGS) methods excel at synthesizing photorealistic novel views through rasterization-based rendering, their reliance on sparse, explicit primitives severely limits their ability to recover watertight and topologically consistent 3D surfaces.We introduce MonoGSDF, a novel method that couples Gaussian-based primitives with a neural Signed Distance Field (SDF) for high-quality reconstruction. During training, the SDF guides Gaussians’ spatial distribution, while at inference, Gaussians serve as priors to reconstruct surfaces, eliminating the need for memory-intensive Marching Cubes. To handle arbitrary-scale scenes, we propose a scaling strategy for robust generalization. A multi-resolution training scheme further refines details and monocular geometric cues from off-the-shelf estimators enhance reconstruction quality. Experiments on real-world datasets show MonoGSDF outperforms prior methods while maintaining efficiency.
从单目图像中进行精确网格化仍然是3D视觉领域的一个关键挑战。虽然最先进的3D高斯拼贴(3DGS)方法在基于光栅化的渲染中通过合成逼真的新视角表现出色,但它们对稀疏、明确的原始模型的依赖严重限制了其在恢复无泄漏且拓扑一致的3D表面方面的能力。我们引入了MonoGSDF这一新方法,它将基于高斯模型的原始数据与神经有向距离场(SDF)相结合,以实现高质量重建。在训练过程中,SDF引导高斯的空间分布,而在推理过程中,高斯作为重建表面的先验知识,无需使用内存密集型的八叉立方体算法。为了处理任意规模的场景,我们提出了一种稳健的泛化尺度策略。多分辨率训练方案进一步提高了细节精度,而现成的估计器中的单目几何线索增强了重建质量。在真实世界数据集上的实验表明,MonoGSDF在保持高效率的同时优于先前的方法。
论文及项目相关链接
Summary
该摘要针对真实感视图的合成问题,提出了一种新的方法MonoGSDF。该方法结合了基于高斯的基础知识和神经有向距离场(SDF),实现了高质量的三维重建。训练过程中,SDF引导高斯的空间分布;在推理阶段,高斯作为重建表面的先验知识,无需占用大量内存的魔方立方体即可重建表面。此外,还提出了一种多分辨率训练方案,用于完善细节,并通过现成的估计器增强单眼几何线索,从而提高重建质量。实验表明,MonoGSDF在真实世界数据集上的表现优于以前的方法,同时保持了高效率。
Key Takeaways
- 3D Gaussian Splatting (3DGS)方法在合成真实感新视图方面表现出色,但在恢复无泄漏和拓扑一致的3D表面方面存在局限性。
- MonoGSDF方法结合了基于高斯的基础知识和神经Signed Distance Field(SDF),以实现高质量的三维重建。
- 训练过程中,SDF引导高斯的空间分布,提高了重建质量。
- 在推理阶段,高斯作为重建表面的先验知识,不需要像传统的魔方立方体那样占用大量内存。
- 提出了多分辨率训练方案,以改善细节并进一步提高重建质量。
- 通过现成的几何估算器增强单眼几何线索,进一步提升了重建质量。