⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-06-26 更新
UltraAD: Fine-Grained Ultrasound Anomaly Classification via Few-Shot CLIP Adaptation
Authors:Yue Zhou, Yuan Bi, Wenjuan Tong, Wei Wang, Nassir Navab, Zhongliang Jiang
Precise anomaly detection in medical images is critical for clinical decision-making. While recent unsupervised or semi-supervised anomaly detection methods trained on large-scale normal data show promising results, they lack fine-grained differentiation, such as benign vs. malignant tumors. Additionally, ultrasound (US) imaging is highly sensitive to devices and acquisition parameter variations, creating significant domain gaps in the resulting US images. To address these challenges, we propose UltraAD, a vision-language model (VLM)-based approach that leverages few-shot US examples for generalized anomaly localization and fine-grained classification. To enhance localization performance, the image-level token of query visual prototypes is first fused with learnable text embeddings. This image-informed prompt feature is then further integrated with patch-level tokens, refining local representations for improved accuracy. For fine-grained classification, a memory bank is constructed from few-shot image samples and corresponding text descriptions that capture anatomical and abnormality-specific features. During training, the stored text embeddings remain frozen, while image features are adapted to better align with medical data. UltraAD has been extensively evaluated on three breast US datasets, outperforming state-of-the-art methods in both lesion localization and fine-grained medical classification. The code will be released upon acceptance.
医学图像中的精确异常检测对于临床决策至关重要。虽然最近基于大规模正常数据训练的监督或无监督异常检测方法显示出有希望的结果,但它们缺乏精细的区分度,如良性和恶性肿瘤。此外,超声(US)成像对设备和采集参数的变化高度敏感,导致超声图像中存在明显的领域差异。为了应对这些挑战,我们提出了UltraAD,这是一种基于视觉语言模型(VLM)的方法,它利用少量超声示例进行通用的异常定位和精细分类。为了增强定位性能,首先融合查询视觉原型的图像级令牌和可学习的文本嵌入。然后,将图像信息提示特征与补丁级令牌进一步集成,细化局部表示以提高准确性。对于精细分类,从少量图像样本和相应的文本描述中构建了一个内存银行,以捕获解剖学和异常特征。在训练过程中,存储的文本嵌入保持不变,而图像特征则更好地适应医学数据。UltraAD在三个乳腺超声数据集上进行了广泛评估,在病灶定位和精细医学分类方面均优于最新方法。代码将在接受后发布。
论文及项目相关链接
Summary
本文提出一种基于视觉语言模型(VLM)的UltraAD方法,用于医学超声图像中的异常检测与精细分类。该方法通过融合图像级令牌与可学习文本嵌入,提高定位性能。同时,利用少量超声图像样本及其文本描述构建记忆库,实现精细分类。在三个乳腺超声数据集上的实验表明,UltraAD在病灶定位和精细分类方面均优于现有方法。
Key Takeaways
- UltraAD是一种基于视觉语言模型(VLM)的方法,用于医学超声图像中的异常检测与精细分类。
- UltraAD通过融合图像级令牌和文本嵌入来提高异常定位性能。
- UltraAD利用少量超声图像样本和其文本描述构建记忆库,实现精细分类。
- UltraAD能够处理设备差异和采集参数变化对超声图像产生的影响。
- UltraAD在病灶定位方面表现出优异性能。
- UltraAD在三个乳腺超声数据集上的实验表现优于现有方法。
点此查看论文截图


