We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
hi,最近尝试了一下motioNet,有几个问题想请教一下: 1.关于测试时的IMAGE_WIDTH,这里应该就用图片宽度吗,还是需要最长边? 2.MotioNet论文中最吸引我的是能够相对准确的回归global root position,事实上目前绝大多数3D pose的方法在这方面都比较糟糕。然而我看到测试时有 translation[:, :2] = translation[:, :2]*3;translation[:, 2] = translation[:, 2]*1.5,这里的scale系数是怎么得到的呢?经验值?在我测试自己的视频时对这个有什么建议吗? 3.演示视频里下面这个视频的global translation看起来效果很好,请问是有做什么其他的操作嘛?靠这个库的代码和模型能做到吗? 4.我自己测试了如下视频,发现效果并不好,动作错误较多,而且global translation基本固定在原地(实际上视频中的人从左走到右有比较明显的位移),我使用evaluate.py的默认设置(IMAGE_WIDTH改为视频的宽度),请问是还需要修改什么才能达到较好的效果呢?还是说我这个视频本身不太符合训练集的分布?
translation[:, :2] = translation[:, :2]*3;translation[:, 2] = translation[:, 2]*1.5
The text was updated successfully, but these errors were encountered:
Hi @MioChiu ,
IMAGE_WIDTH = 480 IMAGE_HEIGHT = 270 ... poses_2d = np.concatenate(pose_batch, axis=0) poses_2d[:, np.arange(0, poses_2d.shape[-1], 2)] /= (IMAGE_WIDTH*1) # 1 是一个调整参数,尽可能使人物在图片中的比例接近原始数据集 poses_2d[:, np.arange(1, poses_2d.shape[-1], 2)] /= (IMAGE_HEIGHT*1) # 1
Sorry, something went wrong.
No branches or pull requests
hi,最近尝试了一下motioNet,有几个问题想请教一下:
1.关于测试时的IMAGE_WIDTH,这里应该就用图片宽度吗,还是需要最长边?
2.MotioNet论文中最吸引我的是能够相对准确的回归global root position,事实上目前绝大多数3D pose的方法在这方面都比较糟糕。然而我看到测试时有
translation[:, :2] = translation[:, :2]*3;translation[:, 2] = translation[:, 2]*1.5
,这里的scale系数是怎么得到的呢?经验值?在我测试自己的视频时对这个有什么建议吗?3.演示视频里下面这个视频的global translation看起来效果很好,请问是有做什么其他的操作嘛?靠这个库的代码和模型能做到吗?
4.我自己测试了如下视频,发现效果并不好,动作错误较多,而且global translation基本固定在原地(实际上视频中的人从左走到右有比较明显的位移),我使用evaluate.py的默认设置(IMAGE_WIDTH改为视频的宽度),请问是还需要修改什么才能达到较好的效果呢?还是说我这个视频本身不太符合训练集的分布?
The text was updated successfully, but these errors were encountered: