嘘~ 正在从服务器偷取页面 . . .

检测/分割/跟踪


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-11-11 更新

LG-NuSegHop: A Local-to-Global Self-Supervised Pipeline For Nuclei Instance Segmentation

Authors:Vasileios Magoulianitis, Catherine A. Alexander, Jiaxin Yang, C. -C. Jay Kuo

Nuclei segmentation is the cornerstone task in histology image reading, shedding light on the underlying molecular patterns and leading to disease or cancer diagnosis. Yet, it is a laborious task that requires expertise from trained physicians. The large nuclei variability across different organ tissues and acquisition processes challenges the automation of this task. On the other hand, data annotations are expensive to obtain, and thus, Deep Learning (DL) models are challenged to generalize to unseen organs or different domains. This work proposes Local-to-Global NuSegHop (LG-NuSegHop), a self-supervised pipeline developed on prior knowledge of the problem and molecular biology. There are three distinct modules: (1) a set of local processing operations to generate a pseudolabel, (2) NuSegHop a novel data-driven feature extraction model and (3) a set of global operations to post-process the predictions of NuSegHop. Notably, even though the proposed pipeline uses { no manually annotated training data} or domain adaptation, it maintains a good generalization performance on other datasets. Experiments in three publicly available datasets show that our method outperforms other self-supervised and weakly supervised methods while having a competitive standing among fully supervised methods. Remarkably, every module within LG-NuSegHop is transparent and explainable to physicians.

细胞核分割是组织学图像阅读中的核心任务,有助于揭示潜在的分子模式,并为疾病或癌症诊断提供指引。然而,这是一项繁琐的工作,需要经验丰富的医生的专业知识。不同器官组织和采集过程中细胞核的巨大变化给这项任务的自动化带来了挑战。另一方面,获取数据标注非常昂贵,因此深度学习(DL)模型在应用于未见过的器官或不同领域时面临挑战。这项工作提出了Local-to-Global NuSegHop(LG-NuSegHop),这是一种基于问题的先验知识和分子生物学开发的自监督管道。它包括三个独特模块:(1)生成伪标签的一系列局部处理操作;(2)NuSegHop是一种新型的数据驱动特征提取模型;(3)一系列全局操作,用于对NuSegHop的预测进行后处理。值得注意的是,尽管所提出的管道没有使用任何手动注释的训练数据或领域自适应,但它在其他数据集上仍然保持良好的泛化性能。在三个公开数据集上的实验表明,我们的方法在其他自监督和弱监督方法中具有出色的表现,同时在全监督方法中也有竞争地位。值得一提的是,LG-NuSegHop中的每个模块对医生来说都是透明和可解释的。

论文及项目相关链接

PDF 42 pages, 8 figures, 7 tables

Summary

本文介绍了细胞核分割在医学图像分析中的重要性及其面临的挑战,如不同器官组织和采集过程中的细胞核变异以及数据标注的高成本。针对这些问题,提出了一种基于先验知识和分子生物学知识的局部到全局NuSegHop(LG-NuSegHop)自监督管道。该管道包括三个模块:生成伪标签的局部处理操作、数据驱动的特征提取模型NuSegHop和用于后处理NuSegHop预测的全球操作。实验表明,该管道在没有手动标注的训练数据或域适应的情况下仍具有良好的泛化性能,并且在公开数据集上的表现优于其他自监督和弱监督方法,并且在全监督方法中也有竞争力。此外,LG-NuSegHop的每个模块对医生来说都是透明和可解释的。

Key Takeaways

  • 原子核分割是医学图像阅读中的核心任务,有助于揭示潜在分子模式并进行疾病或癌症诊断。
  • 传统方法面临专业医师参与和大规模数据标注的挑战,以及不同器官组织和采集过程中的细胞核变异问题。
  • 提出了一种名为LG-NuSegHop的自监督管道,包括伪标签生成、数据驱动特征提取模型和后处理模块。
  • 该方法无需手动标注的训练数据或域适应,具有良好的泛化性能。
  • 实验证明,该管道性能优于其他自监督和弱监督方法,并与全监督方法具有竞争力。

Cool Papers

点此查看论文截图

An Active Learning Pipeline for Biomedical Image Instance Segmentation with Minimal Human Intervention

Authors:Shuo Zhao, Yu Zhou, Jianxu Chen

Biomedical image segmentation is critical for precise structure delineation and downstream analysis. Traditional methods often struggle with noisy data, while deep learning models such as U-Net have set new benchmarks in segmentation performance. nnU-Net further automates model configuration, making it adaptable across datasets without extensive tuning. However, it requires a substantial amount of annotated data for cross-validation, posing a challenge when only raw images but no labels are available. Large foundation models offer zero-shot generalizability, but may underperform on specific datasets with unique characteristics, limiting their direct use for analysis. This work addresses these bottlenecks by proposing a data-centric AI workflow that leverages active learning and pseudo-labeling to combine the strengths of traditional neural networks and large foundation models while minimizing human intervention. The pipeline starts by generating pseudo-labels from a foundation model, which are then used for nnU-Net’s self-configuration. Subsequently, a representative core-set is selected for minimal manual annotation, enabling effective fine-tuning of the nnU-Net model. This approach significantly reduces the need for manual annotations while maintaining competitive performance, providing an accessible solution for biomedical researchers to apply state-of-the-art AI techniques in their segmentation tasks. The code is available at https://github.com/MMV-Lab/AL_BioMed_img_seg.

生物医学图像分割对于精确结构轮廓和下游分析至关重要。传统方法在处理噪声数据时往往表现不佳,而U-Net等深度学习模型在分割性能上设定了新的基准。nnU-Net进一步自动化了模型配置,使其能够在不同数据集之间进行适应,无需大量调整。然而,它需要进行大量的标注数据进行交叉验证,这对于仅提供原始图像而无标签的数据构成了挑战。大型基础模型提供了零射击的通用性,但在具有独特特性的特定数据集上可能表现不佳,限制了其直接用于分析。本工作通过提出一种以数据为中心的AI工作流程来解决这些瓶颈,该流程结合了传统神经网络和大型基础模型的优点,同时最小化人工干预。该流程首先使用基础模型生成伪标签,然后用于nnU-Net的自我配置。随后选择具有代表性的核心集进行最小手动注释,实现对nnU-Net模型的有效微调。这种方法在保持竞争力的同时显著减少了对手动注释的需求,为生物医学研究人员在其分割任务中应用最先进的AI技术提供了可行的解决方案。代码可在 https://github.com/MMV-Lab/AL_BioMed_img_seg 中找到。

论文及项目相关链接

PDF 6 pages, 4 figures, presented at Bildverarbeitung f"ur die Medizin (BVM) 2025, Wiesbaden, Germany

Summary

生物医学图像分割对于精确结构界定和下游分析至关重要。深度学习模型如U-Net在分割性能上树立了新标杆,而nnU-Net进一步实现了模型配置的自动化,提高了跨数据集的适应性。然而,它需要在大量标注数据上进行交叉验证,这给仅拥有原始图像而没有标签的情况带来了挑战。本研究通过提出一种以数据为中心的AI工作流程来解决这些瓶颈,该流程结合了传统神经网络和大型基础模型的优点,并最小化了人工干预。流程首先通过基础模型生成伪标签,用于nnU-Net的自我配置。然后,选择具有代表性的核心集进行最小手动注释,实现对nnU-Net模型的有效微调。这种方法在减少手动注释需求的同时保持了竞争力,为生物医学研究人员在其分割任务中应用最新AI技术提供了可行的解决方案。

Key Takeaways

  1. 生物医学图像分割对于后续分析至关重要,深度学习模型如U-Net和nnU-Net在该领域表现出色。
  2. nnU-Net需要大量标注数据进行模型配置和交叉验证,给缺乏标注数据的场景带来挑战。
  3. 大型基础模型虽然具有零样本通用性,但在特定数据集上可能表现不佳,限制了其直接应用。
  4. 本研究提出了一种以数据为中心的AI工作流程,结合传统神经网络和基础模型的优点,减少了对人工注释的依赖。
  5. 该流程通过基础模型生成伪标签,用于nnU-Net的自我配置,并选择了具有代表性的核心集进行最小手动注释。
  6. 此方法旨在减少手动注释需求的同时保持高性能,为生物医学图像分割提供了切实可行的解决方案。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 上一篇
无监督/半监督/对比学习 无监督/半监督/对比学习
无监督/半监督/对比学习 方向最新论文已更新,请持续关注 Update in 2025-11-11 TRACE Contrastive learning for multi-trial time-series data in neuroscience
下一篇 
视频理解 视频理解
视频理解 方向最新论文已更新,请持续关注 Update in 2025-11-11 TimeSearch-R Adaptive Temporal Search for Long-Form Video Understanding via Self-Verification Reinforcement Learning
2025-11-11
  目录