We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
作者您好!很抱歉再次打扰您了。 我这次想请问一下类似图4的绘制中,我们应该如何获取各个官能团的重要性?例如对于第一个分子的吡啶基官能团的关注度很深,而苯基的关注度却很小。我想知道如何对于任意的分子都获取模型对他们的注意力的大小。 感谢您的回复!祝您生活愉快!
The text was updated successfully, but these errors were encountered:
您好,如上图第三部分所示,提取每个官能团在最后一层self-attention的注意力权重并做归一化,可以获得注意力具体数值。
Sorry, something went wrong.
作者您好,十分感谢您的回复。 您文中所述的可解释性图(图4)是功能提示增强微调过程时加给各原子的额外权重。不知道我的理解是否正确。 然后,能否请问一下对于不同的下游任务,这个权重图会是一样的吗?以及我在predict.py里面如果强行加入step为functional_prompt的话,得到的权重是否可以解释为这部分结构对下游任务的性质的贡献大小? 我感觉我对这部分内容一直存在疑问,希望您能解惑。谢谢!
No branches or pull requests
作者您好!很抱歉再次打扰您了。
![微信图片_20240509161207](https://private-user-images.githubusercontent.com/35156118/329175036-3fae3836-ddcd-4a26-b528-3f12704d765b.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MjEyNzk2OTcsIm5iZiI6MTcyMTI3OTM5NywicGF0aCI6Ii8zNTE1NjExOC8zMjkxNzUwMzYtM2ZhZTM4MzYtZGRjZC00YTI2LWI1MjgtM2YxMjcwNGQ3NjViLnBuZz9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDA3MTglMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQwNzE4VDA1MDk1N1omWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPTZlMmZmYjA5OGE4OWZmYjU2ZmUwZTVlYjk0NjA3ZGNlMWM0NTZkNWNjNGY1NzdlYjkzOTY0NGIwNmE3N2EwOGImWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0JmFjdG9yX2lkPTAma2V5X2lkPTAmcmVwb19pZD0wIn0.HtTC0IIABxDo-5kK71Wx2WspQyU8eimny8zVlpLxwIs)
我这次想请问一下类似图4的绘制中,我们应该如何获取各个官能团的重要性?例如对于第一个分子的吡啶基官能团的关注度很深,而苯基的关注度却很小。我想知道如何对于任意的分子都获取模型对他们的注意力的大小。
感谢您的回复!祝您生活愉快!
The text was updated successfully, but these errors were encountered: