⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-09-18 更新
Detection of Synthetic Face Images: Accuracy, Robustness, Generalization
Authors:Nela Petrzelkova, Jan Cech
An experimental study on detecting synthetic face images is presented. We collected a dataset, called FF5, of five fake face image generators, including recent diffusion models. We find that a simple model trained on a specific image generator can achieve near-perfect accuracy in separating synthetic and real images. The model handles common image distortions (reduced resolution, compression) by using data augmentation. Moreover, partial manipulations, where synthetic images are blended into real ones by inpainting, are identified and the area of the manipulation is localized by a simple model of YOLO architecture. However, the model turned out to be vulnerable to adversarial attacks and does not generalize to unseen generators. Failure to generalize to detect images produced by a newer generator also occurs for recent state-of-the-art methods, which we tested on Realistic Vision, a fine-tuned version of StabilityAI’s Stable Diffusion image generator.
本文介绍了对合成人脸图像检测的实验研究。我们收集了一个名为FF5的数据集,包含五种虚假人脸图像生成器,包括最新的扩散模型。我们发现,在特定图像生成器上训练的简单模型在区分合成图像和真实图像时可以达到接近完美的准确率。该模型通过使用数据增强来处理常见的图像失真(降低分辨率、压缩)。此外,该模型还能识别部分操纵,其中合成图像通过修复技术融合到真实图像中,并使用YOLO架构的简单模型对操纵区域进行定位。然而,该模型容易受到对抗性攻击的影响,且不能推广到未见过的生成器。我们在经过微调的稳定扩散图像生成器Realistic Vision上测试了最近先进的方法,对于检测由最新生成器生成的图像也出现了无法推广的情况。
论文及项目相关链接
PDF The paper was presented at the DAGM German Conference on Pattern Recognition (GCPR), 2025
Summary
基于FF5数据集对合成人脸图像检测进行了实验研究。研究发现特定图像生成器的简单模型可以近乎完美地分离合成图像和真实图像。该模型通过数据增强处理常见的图像失真,并且可以识别并定位合成图像与真实图像的混合部分。然而,该模型易受对抗性攻击的影响,不能很好地推广未见过的生成器。最新的先进技术方法也未能实现在由经过微调的稳定扩散图像生成器上检测的通用性。
Key Takeaways
- 使用FF5数据集研究合成人脸图像检测。
- 特定图像生成器的简单模型能近乎完美地区分合成和真实图像。
- 模型通过数据增强处理图像失真。
- 模型能够识别并定位合成与真实图像的混合部分。
- 模型易受对抗性攻击的影响,难以推广至未见过的生成器。
- 最新技术方法在未经过训练的生成器上也无法实现通用性。
点此查看论文截图



