⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验
2025-06-25 更新
TCDiff++: An End-to-end Trajectory-Controllable Diffusion Model for Harmonious Music-Driven Group Choreography
Authors:Yuqin Dai, Wanlu Zhu, Ronghui Li, Xiu Li, Zhenyu Zhang, Jun Li, Jian Yang
Music-driven dance generation has garnered significant attention due to its wide range of industrial applications, particularly in the creation of group choreography. During the group dance generation process, however, most existing methods still face three primary issues: multi-dancer collisions, single-dancer foot sliding and abrupt swapping in the generation of long group dance. In this paper, we propose TCDiff++, a music-driven end-to-end framework designed to generate harmonious group dance. Specifically, to mitigate multi-dancer collisions, we utilize a dancer positioning embedding to better maintain the relative positioning among dancers. Additionally, we incorporate a distance-consistency loss to ensure that inter-dancer distances remain within plausible ranges. To address the issue of single-dancer foot sliding, we introduce a swap mode embedding to indicate dancer swapping patterns and design a Footwork Adaptor to refine raw motion, thereby minimizing foot sliding. For long group dance generation, we present a long group diffusion sampling strategy that reduces abrupt position shifts by injecting positional information into the noisy input. Furthermore, we integrate a Sequence Decoder layer to enhance the model’s ability to selectively process long sequences. Extensive experiments demonstrate that our TCDiff++ achieves state-of-the-art performance, particularly in long-duration scenarios, ensuring high-quality and coherent group dance generation.
音乐驱动的舞蹈生成因其广泛的工业应用而受到广泛关注,特别是在群体舞蹈创作领域。然而,在群体舞蹈生成过程中,大多数现有方法仍然面临三个主要问题:舞者间的碰撞、单个舞者的足部滑动以及在长舞蹈中生成的突然换装。在本文中,我们提出了TCDiff++,这是一个音乐驱动的端到端框架,旨在生成和谐的群体舞蹈。具体来说,为了减轻舞者间的碰撞,我们利用舞者定位嵌入来更好地保持舞者之间的相对位置。此外,我们引入了一个距离一致性损失,以确保舞者之间的距离保持在合理的范围内。为了解决单个舞者的足部滑动问题,我们引入了交换模式嵌入来表示舞者的交换模式,并设计了一个足部适配器来优化原始运动,从而最小化足部滑动。对于长舞蹈的群体生成,我们提出了一种长组扩散采样策略,通过向噪声输入中注入位置信息来减少突然的位移。此外,我们集成了一个序列解码层,以提高模型处理长序列的选择性能力。大量实验表明,我们的TCDiff++达到了最新性能水平,特别是在长时间场景中,确保了高质量和连贯的群体舞蹈生成。
论文及项目相关链接
Summary
本文提出了一种音乐驱动端到端的框架TCDiff++,用于生成和谐群体舞蹈。该框架通过舞者定位嵌入、距离一致性损失、交换模式嵌入、足工作适配器和长组扩散采样策略等技术解决了群体舞蹈生成过程中的舞者碰撞、单个舞者足部滑动以及长群体舞蹈生成中的突兀交换问题。实验证明,该框架在长时间场景下的性能达到了领先水平,能确保高质量和连贯的群体舞蹈生成。
Key Takeaways
- 音乐驱动的舞蹈生成在工业界广泛应用,尤其是群体舞蹈的创作中。
- 目前的方法在群体舞蹈生成过程中面临三大问题:舞者间的碰撞、单个舞者的足部滑动和长舞蹈中的突兀交换。
- TCDiff++框架通过舞者定位嵌入和距离一致性损失来解决舞者间的碰撞问题。
- 引入交换模式嵌入和足工作适配器来减少单个舞者的足部滑动。
- 采用长组扩散采样策略来减少长舞蹈中的突兀位置变化。
- 序列解码层增强了模型处理长序列的能力。
点此查看论文截图


