⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-11-06 更新
DIsoN: Decentralized Isolation Networks for Out-of-Distribution Detection in Medical Imaging
Authors:Felix Wagner, Pramit Saha, Harry Anthony, J. Alison Noble, Konstantinos Kamnitsas
Safe deployment of machine learning (ML) models in safety-critical domains such as medical imaging requires detecting inputs with characteristics not seen during training, known as out-of-distribution (OOD) detection, to prevent unreliable predictions. Effective OOD detection after deployment could benefit from access to the training data, enabling direct comparison between test samples and the training data distribution to identify differences. State-of-the-art OOD detection methods, however, either discard the training data after deployment or assume that test samples and training data are centrally stored together, an assumption that rarely holds in real-world settings. This is because shipping the training data with the deployed model is usually impossible due to the size of training databases, as well as proprietary or privacy constraints. We introduce the Isolation Network, an OOD detection framework that quantifies the difficulty of separating a target test sample from the training data by solving a binary classification task. We then propose Decentralized Isolation Networks (DIsoN), which enables the comparison of training and test data when data-sharing is impossible, by exchanging only model parameters between the remote computational nodes of training and deployment. We further extend DIsoN with class-conditioning, comparing a target sample solely with training data of its predicted class. We evaluate DIsoN on four medical imaging datasets (dermatology, chest X-ray, breast ultrasound, histopathology) across 12 OOD detection tasks. DIsoN performs favorably against existing methods while respecting data-privacy. This decentralized OOD detection framework opens the way for a new type of service that ML developers could provide along with their models: providing remote, secure utilization of their training data for OOD detection services. Code: https://github.com/FelixWag/DIsoN
在医学影像等安全关键领域部署机器学习(ML)模型时,需要检测训练期间未见特征的输入,这称为离群分布(OOD)检测,以防止产生不可靠的预测。部署后的有效OOD检测可以得益于访问训练数据,使测试样本与训练数据分布进行直接比较以识别差异。然而,最先进的OOD检测方法要么在部署后丢弃训练数据,要么假设测试样本和训练数据集中存储在一起,这在现实世界的场景中很少成立。这是因为由于训练数据库的大小以及专有或隐私约束,通常不可能将训练数据与部署的模型一起传输。我们引入了隔离网络(Isolation Network),这是一种OOD检测框架,通过解决二分类任务来量化将目标测试样本与训练数据分开的难度。然后,我们提出了分散式隔离网络(DIsoN),在数据共享不可能的情况下,通过仅在训练和部署的远程计算节点之间交换模型参数,实现对训练和测试数据的比较。我们进一步将DIsoN扩展到类条件,仅将目标样本与其预测类的训练数据进行比较。我们在四个医学影像数据集(皮肤科、胸部X射线、乳腺超声、组织病理学)上对DIsoN进行了12项OOD检测任务评估。DIsoN在现有方法中有很好的表现,同时尊重数据隐私。这种分散式的OOD检测框架为ML开发者提供了一种新的服务方式:远程、安全地利用其训练数据进行OOD检测服务。代码地址:https://github.com/FelixWag/DIsoN
论文及项目相关链接
PDF Accepted at NeurIPS 2025
摘要
在医学成像等安全关键领域,部署机器学习模型时,需要检测具有未在训练期间见过的特征的输入,这被称为“未知分布检测”,以防止出现不可靠的预测。有效的未知分布检测可得益于访问训练数据,使测试样本与训练数据分布进行直接比较以识别差异。然而,当前先进的未知分布检测方法要么在部署后丢弃训练数据,要么假设测试样本和训练数据集中存储在一起。这在现实场景中几乎不可能实现,因为由于训练数据库的大小以及专有或隐私约束,通常不可能将训练数据与部署的模型一起发送。我们引入了隔离网络,这是一种未知分布检测框架,它通过解决二分类任务来量化将目标测试样本与训练数据分开的难度。然后我们提出了去中心化隔离网络(DIsoN),在数据共享不可能的情况下,通过仅在训练和部署的远程计算节点之间交换模型参数,使比较训练和测试数据成为可能。我们进一步扩展了带有类别条件的DIsoN,仅将目标样本与其预测类别中的训练数据进行比较。我们在四个医学影像数据集(皮肤科、胸部X光、乳腺超声、组织病理)上对DIsoN进行了评估,涵盖了12个未知分布检测任务。DIsoN在现有方法中有很好的表现,同时尊重数据隐私。这种去中心化的未知分布检测框架为ML开发人员提供了一种新型服务:在提供模型的同时提供远程、安全的利用他们的训练数据进行未知分布检测服务。相关代码可以在公开链接中找到:https://github.com/FelixWag/DIsoN。
关键见解
- 在安全关键的医疗成像领域部署机器学习模型时,需要进行未知分布检测以防止不可靠预测。
- 隔离网络是一种新颖的未知分布检测框架,通过解决二分类任务来量化测试样本与训练数据的差异。
- 去中心化隔离网络(DIsoN)允许在训练和部署阶段比较训练和测试数据,即使数据没有集中存储。
- DIsoN通过交换模型参数在远程计算节点之间进行通信,解决了数据隐私和安全性问题。
- 扩展了带有类别条件的DIsoN,专注于目标样本与其预测类别中的训练数据的比较。
- 在多个医学影像数据集上的评估表明,DIsoN在未知分布检测任务上的表现优于现有方法。
点此查看论文截图