⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-11-08 更新
Building Trust in Virtual Immunohistochemistry: Automated Assessment of Image Quality
Authors:Tushar Kataria, Shikha Dubey, Mary Bronner, Jolanta Jedrzkiewicz, Ben J. Brintz, Shireen Y. Elhabian, Beatrice S. Knudsen
Deep learning models can generate virtual immunohistochemistry (IHC) stains from hematoxylin and eosin (H&E) images, offering a scalable and low-cost alternative to laboratory IHC. However, reliable evaluation of image quality remains a challenge as current texture- and distribution-based metrics quantify image fidelity rather than the accuracy of IHC staining. Here, we introduce an automated and accuracy grounded framework to determine image quality across sixteen paired or unpaired image translation models. Using color deconvolution, we generate masks of pixels stained brown (i.e., IHC-positive) as predicted by each virtual IHC model. We use the segmented masks of real and virtual IHC to compute stain accuracy metrics (Dice, IoU, Hausdorff distance) that directly quantify correct pixel - level labeling without needing expert manual annotations. Our results demonstrate that conventional image fidelity metrics, including Frechet Inception Distance (FID), peak signal-to-noise ratio (PSNR), and structural similarity (SSIM), correlate poorly with stain accuracy and pathologist assessment. Paired models such as PyramidPix2Pix and AdaptiveNCE achieve the highest stain accuracy, whereas unpaired diffusion- and GAN-based models are less reliable in providing accurate IHC positive pixel labels. Moreover, whole-slide images (WSI) reveal performance declines that are invisible in patch-based evaluations, emphasizing the need for WSI-level benchmarks. Together, this framework defines a reproducible approach for assessing the quality of virtual IHC models, a critical step to accelerate translation towards routine use by pathologists.
深度学习模型可以从苏木精和伊红(H&E)图像生成虚拟免疫组织化学(IHC)染色,为实验室IHC染色提供一种可扩展且低成本的替代方案。然而,可靠地评估图像质量仍然是一个挑战,因为目前的纹理和分布度量主要是衡量图像的保真度,而不是IHC染色的准确性。在这里,我们介绍了一个自动化且以准确性为基础的框架,用于确定十六个配对或非配对图像翻译模型的图像质量。我们使用颜色反卷积生成由每个虚拟IHC模型预测的棕色染色(即阳性)像素的掩膜。我们使用真实和虚拟IHC的分割掩膜来计算染色准确度指标(Dice系数、IoU、Hausdorff距离),这些指标可以直接量化正确的像素级标记,无需专家手动注释。我们的结果表明,传统的图像保真度指标(包括Frechet Inception Distance(FID)、峰值信噪比(PSNR)和结构相似性(SSIM))与染色准确性和病理学家评估的相关性较差。配对模型如PyramidPix2Pix和AdaptiveNCE的染色准确度最高,而基于扩散和无配对的GAN模型在提供准确的IHC阳性像素标签方面不太可靠。此外,全幻灯片图像(WSI)揭示了性能下降的情况,这在基于补丁的评估中是看不见的,这强调了需要在WSI级别制定基准测试。总之,该框架定义了一种可重复的方法来评估虚拟IHC模型的质量,这是加速病理学家常规使用翻译的一个关键步骤。
论文及项目相关链接
Summary
深度学习模型能够从苏木精和伊红染色图像生成虚拟免疫组织化学染色,为实验室免疫组织化学染色提供了一种可扩展且低成本的选择。然而,可靠的图像质量评估仍然是挑战,因为当前的纹理和分布指标只衡量图像保真度而不是免疫组织化学染色的准确性。本文介绍了一个自动化框架,用于评估图像质量。利用颜色反卷积生成预测虚拟免疫组织化学模型染色的像素掩膜,计算真实与虚拟免疫组织化学染色分割掩膜的染色准确度指标(如Dice系数、IoU系数和Hausdorff距离),直接量化正确的像素级标签,无需专家手动注释。研究结果表明,传统的图像保真度指标(如Frechet Inception Distance、峰值信噪比和结构相似性)与染色准确性和病理学家评估的相关性较差。配对模型(如PyramidPix2Pix和AdaptiveNCE)的染色准确度最高,而基于扩散和无配对GAN的模型在提供准确的免疫组织化学阳性像素标签方面可靠性较低。此外,全切片图像揭示了性能下降的情况,这在基于补丁的评估中是看不见的,强调了全切片图像级别基准测试的需要。总的来说,本文提出的框架为评估虚拟免疫组织化学模型的质量提供了一种可重复的方法,这是加快病理学家常规使用的重要一步。
Key Takeaways
- 深度学习模型可从H&E图像生成虚拟免疫组织化学染色,作为低成本替代方案。
- 当前纹理和分布指标无法准确评估免疫组织化学染色的准确性。
- 提出自动化框架评估虚拟免疫组织化学模型的图像质量。
- 通过颜色反卷积生成像素级预测染色掩膜,计算染色准确度指标。
- 传统图像保真度指标与染色准确性和病理学家评估相关性差。
- 配对模型在染色准确度上表现最佳,而基于扩散和GAN的无配对模型可靠性较低。
点此查看论文截图