⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-10-22 更新
Latent Spaces Beyond Synthesis: From GANs to Diffusion Models
Authors:Ludovica Schaerf
This paper examines the evolving nature of internal representations in generative visual models, focusing on the conceptual and technical shift from GANs and VAEs to diffusion-based architectures. Drawing on Beatrice Fazi’s account of synthesis as the amalgamation of distributed representations, we propose a distinction between “synthesis in a strict sense”, where a compact latent space wholly determines the generative process, and “synthesis in a broad sense,” which characterizes models whose representational labor is distributed across layers. Through close readings of model architectures and a targeted experimental setup that intervenes in layerwise representations, we show how diffusion models fragment the burden of representation and thereby challenge assumptions of unified internal space. By situating these findings within media theoretical frameworks and critically engaging with metaphors such as the latent space and the Platonic Representation Hypothesis, we argue for a reorientation of how generative AI is understood: not as a direct synthesis of content, but as an emergent configuration of specialized processes.
本文探讨了生成视觉模型内部表示(internal representations)的不断演变性质,重点关注从生成对抗网络(GANs)和变分自编码器(VAEs)到基于扩散的架构的概念和技术转变。本文借鉴了Beatrice Fazi关于合成是分布式表示的融合的观点,我们提出了“严格意义上的合成”和“广义上的合成”之间的区别。其中,“严格意义上的合成”是指一个紧凑的潜在空间完全决定生成过程,而“广义上的合成”则是指表征工作分布在各层的模型的特征。通过对模型架构的细致阅读和有针对性的实验设置,干预分层表示,我们展示了扩散模型如何分散表示的负担,从而挑战了统一内部空间的假设。通过将这些发现置于媒体理论框架内,并与潜在空间和柏拉图表征假设等隐喻进行批判性互动,我们主张重新理解生成人工智能的方式:不是作为内容的直接合成,而是作为专门过程的突发配置。
论文及项目相关链接
PDF Presented and published at Ethics and Aesthetics of Artificial Intelligence Conference (EA-AI’25)
Summary
这篇论文探讨了生成视觉模型内部表示形式的演变性质,重点关注从GAN和VAE到基于扩散的架构的概念和技术转变。文章借鉴了Beatrice Fazi关于合成是分布式表示融合的观点,提出了“严格意义上的合成”和“广义上的合成”的区别。通过细读模型架构和有针对性的实验设置,文章展示了扩散模型如何分担表示的负担,从而挑战了统一内部空间的假设。文章将这些发现置于媒体理论框架内,并与潜在空间和柏拉图表征假设等隐喻进行批判性互动,主张重新理解生成人工智能:不是作为内容的直接合成,而是作为专门过程的突发配置。
Key Takeaways
- 论文探讨了生成视觉模型内部表示形式的演变,从GAN和VAE转向扩散架构。
- 区分了“严格意义上的合成”和“广义上的合成”,前者指由紧凑的潜在空间完全决定的生成过程,后者指表示工作分布在各层的模型。
- 通过实验验证,发现扩散模型分担表示的负担,挑战了统一内部空间的假设。
- 论文结合媒体理论框架,批判性地探讨了潜在空间和柏拉图表征假设等隐喻。
- 论文主张重新理解生成人工智能,认为它不是内容的直接合成,而是专门过程的突发配置。
- 文章通过细读模型架构,展示了如何理解生成模型内部的复杂性。
点此查看论文截图



