嘘~ 正在从服务器偷取页面 . . .

人脸相关


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-10-10 更新

DiffMI: Breaking Face Recognition Privacy via Diffusion-Driven Training-Free Model Inversion

Authors:Hanrui Wang, Shuo Wang, Chun-Shien Lu, Isao Echizen

Face recognition poses serious privacy risks due to its reliance on sensitive and immutable biometric data. While modern systems mitigate privacy risks by mapping facial images to embeddings (commonly regarded as privacy-preserving), model inversion attacks reveal that identity information can still be recovered, exposing critical vulnerabilities. However, existing attacks are often computationally expensive and lack generalization, especially those requiring target-specific training. Even training-free approaches suffer from limited identity controllability, hindering faithful reconstruction of nuanced or unseen identities. In this work, we propose DiffMI, the first diffusion-driven, training-free model inversion attack. DiffMI introduces a novel pipeline combining robust latent code initialization, a ranked adversarial refinement strategy, and a statistically grounded, confidence-aware optimization objective. DiffMI applies directly to unseen target identities and face recognition models, offering greater adaptability than training-dependent approaches while significantly reducing computational overhead. Our method achieves 84.42%–92.87% attack success rates against inversion-resilient systems and outperforms the best prior training-free GAN-based approach by 4.01%–9.82%. The implementation is available at https://github.com/azrealwang/DiffMI.

人脸识别依赖于敏感且不可更改的生物识别数据,因此带来了严重的隐私风险。虽然现代系统通过将面部图像映射到嵌入来减轻隐私风险(通常被认为可以保护隐私),但模型反转攻击表明,身份信息仍然可以恢复,暴露出关键漏洞。然而,现有攻击通常计算量大且缺乏通用性,特别是那些需要针对特定目标进行训练的方法。即使是无训练的方法也面临着身份可控性有限的问题,阻碍了微妙或未见身份的忠实重建。在这项工作中,我们提出了DiffMI,首个无训练模型反转攻击中的扩散驱动方法。DiffMI引入了一种新颖的流程,结合了稳健的潜在代码初始化、排名对抗性细化策略以及统计基础、信心感知的优化目标。DiffMI可直接应用于未见目标身份和人脸识别模型,与依赖于训练的方法相比,提供了更大的适应性,并大大减少了计算开销。我们的方法针对抗反转系统的攻击成功率达到了84.42%~92.87%,并且比最佳的前期无训练GAN方法高出4.01%~9.82%。实施细节可在https://github.com/azrealwang/DiffMI找到。

论文及项目相关链接

PDF

Summary
人脸识别技术依赖敏感且不可更改的生物识别数据,存在严重的隐私风险。尽管现代系统通过面部图像映射到嵌入来减轻这些风险,但模型反演攻击显示仍能恢复身份信息,暴露出重大漏洞。本文提出的DiffMI是一种无需训练的反演攻击方法,通过结合稳健的潜在代码初始化、排名对抗性优化策略和统计置信度优化目标,直接应用于未见过的目标身份和人脸识别模型。此方法提高了适应性并降低了计算开销。

Key Takeaways

  1. 人脸识别技术存在隐私风险,因为依赖敏感生物识别数据。
  2. 现代系统采用面部图像映射到嵌入的方法以保护隐私,但仍存在模型反演攻击。
  3. 当前攻击方法计算成本高且缺乏通用性,需要针对目标进行特定训练。
  4. 无需训练的反演攻击方法存在身份控制性有限的问题,难以准确重建微妙或未见过的身份。
  5. DiffMI是首个基于扩散驱动、无需训练的反演攻击方法。
  6. DiffMI通过结合稳健的潜在代码初始化、排名对抗性优化策略和统计优化目标,提高了攻击成功率并降低了计算开销。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 上一篇
无监督/半监督/对比学习 无监督/半监督/对比学习
无监督/半监督/对比学习 方向最新论文已更新,请持续关注 Update in 2025-10-10 The best performance in the CARE 2025 -- Liver Task (LiSeg-Contrast) Contrast-Aware Semi-Supervised Segmentation with Domain Generalization and Test-Time Adaptation
下一篇 
检测/分割/跟踪 检测/分割/跟踪
检测/分割/跟踪 方向最新论文已更新,请持续关注 Update in 2025-10-10 Semantic Segmentation Algorithm Based on Light Field and LiDAR Fusion
  目录