Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

训练时如何获取每张图像的grasp标签 #4

Open
yimingli1998 opened this issue Oct 14, 2020 · 5 comments
Open

训练时如何获取每张图像的grasp标签 #4

yimingli1998 opened this issue Oct 14, 2020 · 5 comments

Comments

@yimingli1998
Copy link

Hello Fang,

非常感谢你的工作。我的理解是训练时需要把grasp映射到每张深度图上,请问这个变换关系是直接根据相机坐标的转换关系得到的吗,我在目前放出的代码里没有找到这部分。

非常感谢!

@Fang-Haoshu
Copy link
Owner

您好 我们是把grasp投影到点云上 参考:https://github.com/Fang-Haoshu/graspnetAPI/blob/master/examples/exam_vis.py#L27

@yimingli1998
Copy link
Author

谢谢。我已经解决了这个问题,不过仍然有一些需要请教的地方:
1、直接用graspnetAPI提供的grasp似乎难以生成论文中用于训练的label,因为矩阵的维度太大了。是否需要将API中提供的grasp改成带mask的形式?
2、loadGrasp中的templete view就是approachnet中预定义的view吗?
不知能否可以开源处理dataset部分的代码?
非常感谢!

@Fang-Haoshu
Copy link
Owner

训练的话场景sample 20000个点即可
对的
dataset部分API里的vis grasp其实就是大部分处理代码了

@yimingli1998
Copy link
Author

恩,谢谢。不过我还有一些不太确定的地方:
1、数据集中提供的标签是每个场景的grasp标签吧,不是场景中每个点云的标签。点云的标签需要根据5mm和5度的限制算一遍,从而得到graspable的点和方向标签吗?
2、如果需要计算,大概需要多久?
3、是否有提供这部分的代码?

@Fang-Haoshu
Copy link
Owner

点云的标签不需要根据5mm和5度的限制算一遍, 标签就是很dense的

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants