嘘~ 正在从服务器偷取页面 . . .

Text-to-Motion


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-09-28 更新

Lagrangian Motion Fields for Long-term Motion Generation

Authors:Yifei Yang, Zikai Huang, Chenshu Xu, Shengfeng He

Long-term motion generation is a challenging task that requires producing coherent and realistic sequences over extended durations. Current methods primarily rely on framewise motion representations, which capture only static spatial details and overlook temporal dynamics. This approach leads to significant redundancy across the temporal dimension, complicating the generation of effective long-term motion. To overcome these limitations, we introduce the novel concept of Lagrangian Motion Fields, specifically designed for long-term motion generation. By treating each joint as a Lagrangian particle with uniform velocity over short intervals, our approach condenses motion representations into a series of “supermotions” (analogous to superpixels). This method seamlessly integrates static spatial information with interpretable temporal dynamics, transcending the limitations of existing network architectures and motion sequence content types. Our solution is versatile and lightweight, eliminating the need for neural network preprocessing. Our approach excels in tasks such as long-term music-to-dance generation and text-to-motion generation, offering enhanced efficiency, superior generation quality, and greater diversity compared to existing methods. Additionally, the adaptability of Lagrangian Motion Fields extends to applications like infinite motion looping and fine-grained controlled motion generation, highlighting its broad utility. Video demonstrations are available at https://plyfager.github.io/LaMoG.

长期运动生成是一项具有挑战性的任务,需要生成连贯和逼真的长期序列。当前的方法主要依赖于逐帧运动表示,只能捕捉静态的空间细节,而忽略了时间动态。这种方法导致时间维度上的大量冗余,使得有效生成长期运动更加复杂。为了克服这些局限性,我们引入了专为长期运动生成设计的拉格朗日运动场的新概念。通过将每个关节视为在短时间间隔内以恒定速度运动的拉格朗日粒子,我们的方法将运动表示浓缩为一系列“超级运动”(类似于超像素)。这种方法无缝集成了静态空间信息与可解释的临时动态,超越了现有网络架构和运动序列内容类型的局限性。我们的解决方案通用且轻便,无需神经网络预处理。我们的方法在长期音乐到舞蹈生成和文本到运动生成等任务中表现出色,与现有方法相比,具有更高的效率、更高的生成质量和更大的多样性。此外,拉格朗日运动场的适应性可扩展至无限运动循环和精细控制运动生成等应用,凸显了其广泛的实用性。视频演示请访问:LaMoG的官方网站链接

论文及项目相关链接

PDF Accepted by IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2025

Summary

本文提出一种名为拉格朗日运动场的新概念,用于长期运动生成。该方法将每个关节视为具有短时间间隔内均匀速度的拉格朗日粒子,将运动表示浓缩为一系列“超级运动”(类似于超像素)。这种方法结合了静态空间信息和可解释的临时动态,克服了现有网络架构和运动序列内容类型的局限性。该方法适用于长期音乐到舞蹈生成和文本到运动生成等任务,与现有方法相比,具有更高的效率、更高的生成质量和更大的多样性。

Key Takeaways

  1. 拉格朗日运动场是为了解决长期运动生成而提出的新概念。
  2. 该方法通过将运动表示浓缩为超级运动,克服了现有方法仅依赖帧级运动表示的局限性。
  3. 拉格朗日运动场结合了静态空间信息和可解释的临时动态。
  4. 该方法适用于多种任务,如长期音乐到舞蹈生成和文本到运动生成。
  5. 与现有方法相比,拉格朗日运动场具有更高的效率、更高的生成质量和更大的多样性。
  6. 拉格朗日运动场具有广泛的适用性,可应用于无限运动循环和精细控制运动生成等应用。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
  目录