We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好,非常棒的文章,也非常感谢您的及时开源。对论文中的一些细节有些疑问想请教下作者:
理解的不到位地方请您海涵,期待您的解惑。
The text was updated successfully, but these errors were encountered:
您好,非常感谢对我们工作的关注和认可。
以检测为例,Obj2Seq确实是顺序依次输出x,y,w,h,在head中您可以找到对应的for循环语句。至于速度,我们的模型不会比其他模型慢很多,主要原因有二: (1)Obj2Seq仅在predictor处执行顺序输出,仅涉及一层self-attention,这一部分较为轻量。模型的其他部分均为并行执行。 (2)Obj2Seq回归序列长度较短,检测输出序列长度为4。即每个物体的x,y,w,h串行输出,而不同物体对应的输出序列会并行推理。
我们在定义位姿估计的输出序列时将检测框与关键点位置均包括在内,具体而言输出序列首先检测人的检测框,而后相对检测框预测关键点。 除此之外,Obj2Seq和DETR均也可以在不进行目标检测的情况下直接执行位姿估计任务,需要对predictor和loss进行修改。目前有其他相关工作(POET)进行过类似尝试。
希望我的回答可以解决您的疑惑。
Sorry, something went wrong.
谢谢分享解惑🙏
No branches or pull requests
您好,非常棒的文章,也非常感谢您的及时开源。对论文中的一些细节有些疑问想请教下作者:
理解的不到位地方请您海涵,期待您的解惑。
The text was updated successfully, but these errors were encountered: