-
Notifications
You must be signed in to change notification settings - Fork 13
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问论文当中地标法有开源吗? #1
Comments
地標法的程式放在 https://github.com/stdio2016/pfa |
那么后续还会补充吗? |
之後會加上README說明編譯和執行方法 |
|
由於我在原論文發布原始碼之前就嘗試重現,因此有部分的參數和原論文不同 |
如果要盡量接近原論文,可以用 genquery_naf.py 來產生查詢資料 |
您好,使用genquery_naf.py生成1s的数据,在fma_full上查询的基线是多少呢? |
hi,您是否有时间来回答一下我的疑问呢?请问您在您的毕业论文当中使用的是哪一个 genquery呢?我看您好像使用的是genquery.py,而我用genquery.py得出的基线效果大概在85%?您使用genquery_naf和genquery产生查询的效果差别大吗? |
我大概理解您的做法了,您是建库只是1万+500首歌曲,且准确率是用的歌曲准确率,而不是片段准确率。 |
抱歉我現在已經沒有可用的電腦來重現我過去的結果了,還在努力賺錢中 |
嗯嗯,没有关系。我只是想知道,这个repo的实现和原论文的接近程度。因为确实通过genquery_naf.py产生的音频效果和原论文非常接近,而genquery.py产生的效果要差很多,exact片段准确率大概只有88%左右,这让我很困惑。 |
genquery_naf.py是我參考原始論文後,重新實作的查詢產生器,精准度的結果較接近原論文 |
我了解您的意思,但我想知道您是否曾用官方提供的数据集来测试过您的实现呢?我目前正在尝试用官方提供的mini数据集(10G)来测试一下您的实现,并对比两种实现的效果。 |
原論文的程式碼並不會產生查詢音訊檔,而是沿用訓練時的資料擴增程式碼,從測試音樂中每0.5秒取出1秒音訊,並將這些有重疊的音訊片段輸入神經網路後預先計算輸出向量。 |
是的,我了解您的意思。我目前是使用的原论文提供的数据集v1.1当中的1万条30秒音频进行训练(号称可以提高8%的准确率),用原论文提供的1万条30秒的音频进行建库,用原论文提供的500条30秒音频使用generay_naf.py生成2000条1秒的和2000条2秒的音频进行查询,本实现的准确率为79.30%,95.25%. 而对于原论文,我使用的是他提供的训练好的模型进行测试,训练的数据集、建库的数据集应该都是相同的,而查询的话都是从同一批500首歌曲中产生的,但正如您说的,不完全相同,原论文准确率在78.15%,94.65%。 |
No description provided.
The text was updated successfully, but these errors were encountered: