返回论文列表
Paper Detail
V-Dreamer: Automating Robotic Simulation and Trajectory Synthesis via Video Generation PriorsV-Dreamer:基于视频生成先验的机器人仿真与轨迹合成自动化
cs.CVCV热门获取3D检测具身智能多模态
Anonymous
2026年03月19日
arXiv: 2603.18811v1

作者人数

1

标签数量

5

内容状态

含 PDF

原文 + 中文

同页查看标题和摘要的双语信息

PDF 预览

直接在详情页阅读或下载论文全文

深度分析

继续下钻到 AI 生成的结构化解读

摘要 / Abstract

This paper presents V-Dreamer, a fully automated framework for generating simulation-ready manipulation environments and executable robot trajectories from natural language instructions. The system leverages large language models and 3D generative models to construct physically grounded 3D scenes validated by geometric constraints for stable, collision-free layouts. Video generation models serve as rich motion priors for behavior synthesis, which are then mapped to executable robot trajectories through a Sim-to-Gen visual-kinematic alignment module using CoTracker3 and VGGT. This approach enables high visual diversity and physical fidelity for robotic manipulation training.

本文提出V-Dreamer,一个完全自动化的框架,能够从自然语言指令生成仿真就绪的操作环境和可执行的机器人轨迹。该系统利用大语言模型和3D生成模型构建基于物理学的3D场景,并通过几何约束验证以确保布局的稳定性和无碰撞性。视频生成模型作为行为合成的丰富运动先验,通过使用CoTracker3和VGGT的Sim-to-Gen视觉-运动对齐模块映射为可执行的机器人轨迹。该方法为机器人操作训练提供了高视觉多样性和物理保真度。

PDF 预览
1
在 arXiv 查看下载 PDF

分类 / Categories

cs.CVcs.RO

深度分析

AI 深度理解论文内容,生成具有洞见性的总结