嘘~ 正在从服务器偷取页面 . . .

NeRF


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-10-22 更新

Latent Spaces Beyond Synthesis: From GANs to Diffusion Models

Authors:Ludovica Schaerf

This paper examines the evolving nature of internal representations in generative visual models, focusing on the conceptual and technical shift from GANs and VAEs to diffusion-based architectures. Drawing on Beatrice Fazi’s account of synthesis as the amalgamation of distributed representations, we propose a distinction between “synthesis in a strict sense”, where a compact latent space wholly determines the generative process, and “synthesis in a broad sense,” which characterizes models whose representational labor is distributed across layers. Through close readings of model architectures and a targeted experimental setup that intervenes in layerwise representations, we show how diffusion models fragment the burden of representation and thereby challenge assumptions of unified internal space. By situating these findings within media theoretical frameworks and critically engaging with metaphors such as the latent space and the Platonic Representation Hypothesis, we argue for a reorientation of how generative AI is understood: not as a direct synthesis of content, but as an emergent configuration of specialized processes.

本文探讨了生成视觉模型内部表示(internal representations)的不断演变性质,重点关注从生成对抗网络(GANs)和变分自编码器(VAEs)到基于扩散的架构的概念和技术转变。本文借鉴了Beatrice Fazi关于合成是分布式表示的融合的观点,我们提出了“严格意义上的合成”和“广义上的合成”之间的区别。其中,“严格意义上的合成”是指一个紧凑的潜在空间完全决定生成过程,而“广义上的合成”则是指表征工作分布在各层的模型的特征。通过对模型架构的细致阅读和有针对性的实验设置,干预分层表示,我们展示了扩散模型如何分散表示的负担,从而挑战了统一内部空间的假设。通过将这些发现置于媒体理论框架内,并与潜在空间和柏拉图表征假设等隐喻进行批判性互动,我们主张重新理解生成人工智能的方式:不是作为内容的直接合成,而是作为专门过程的突发配置。

论文及项目相关链接

PDF Presented and published at Ethics and Aesthetics of Artificial Intelligence Conference (EA-AI’25)

Summary
这篇论文探讨了生成视觉模型内部表示形式的演变性质,重点关注从GAN和VAE到基于扩散的架构的概念和技术转变。文章借鉴了Beatrice Fazi关于合成是分布式表示融合的观点,提出了“严格意义上的合成”和“广义上的合成”的区别。通过细读模型架构和有针对性的实验设置,文章展示了扩散模型如何分担表示的负担,从而挑战了统一内部空间的假设。文章将这些发现置于媒体理论框架内,并与潜在空间和柏拉图表征假设等隐喻进行批判性互动,主张重新理解生成人工智能:不是作为内容的直接合成,而是作为专门过程的突发配置。

Key Takeaways

  1. 论文探讨了生成视觉模型内部表示形式的演变,从GAN和VAE转向扩散架构。
  2. 区分了“严格意义上的合成”和“广义上的合成”,前者指由紧凑的潜在空间完全决定的生成过程,后者指表示工作分布在各层的模型。
  3. 通过实验验证,发现扩散模型分担表示的负担,挑战了统一内部空间的假设。
  4. 论文结合媒体理论框架,批判性地探讨了潜在空间和柏拉图表征假设等隐喻。
  5. 论文主张重新理解生成人工智能,认为它不是内容的直接合成,而是专门过程的突发配置。
  6. 文章通过细读模型架构,展示了如何理解生成模型内部的复杂性。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 上一篇
Diffusion Models Diffusion Models
Diffusion Models 方向最新论文已更新,请持续关注 Update in 2025-10-22 Beyond Binary Out-of-Distribution Detection Characterizing Distributional Shifts with Multi-Statistic Diffusion Trajectories
下一篇 
3DGS 3DGS
3DGS 方向最新论文已更新,请持续关注 Update in 2025-10-22 Botany-Bot Digital Twin Monitoring of Occluded and Underleaf Plant Structures with Gaussian Splats
2025-10-22
  目录