-
Notifications
You must be signed in to change notification settings - Fork 21
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
ACL2020论文的疑惑 #14
Comments
@Helen-Hang 谢谢关注提问。 Q1: 您的前四个baseline跟Yao的无论哪一种设置的实验结果有点不一样,是不是自己复现的结果? Q1:论文中没有考虑到AUC评估吗? |
@Helen-Hang 我们复现的dev/test的F1跟Yao的很接近。IgnF1有些不同,我们当时复现的结果应该是比Yao的高一些,可能需要重新跑一下要的代码确认。 |
@Helen-Hang 你好,谢谢提问关注。我重新运行了 https://github.com/thunlp/DocRED 中的BiLSTM,从复现结果可以看出无论F1和IgnF1跟我们paper中Table2的数据很接近,其中F1跟Yao的基本一致,我们复现的IgnF1比Yao的要高很多。 基本环境 ubuntu16.04/Pytorch 1.5.1/CUDA10.1/Python3.6 | step 1 | time: 66.82 |
@Helen-Hang 这个应该就是原因,DocRED原作者他们去年8月9日才更新正确的效果,所以aclweb上DocRED的paper可能是旧版的效果 |
@nanguoshun 作者您好,我在thunlp/DocRED#47中也提到了ignore计算的问题,能否麻烦你们确认一下你们的逻辑,并更新至你们代码和arxiv,因为我们最近做实验发现你们ignore的效果好像挺低的 |
作者您好,有三个问题想请教您:
请问您table2上备注的结果是不是只考虑了人工标注的场景,没有在远程监督的场景下进行实验?
您的前四个baseline跟Yao的无论哪一种设置的实验结果有点不一样,是不是自己复现的结果?
论文中没有考虑到AUC评估吗?
The text was updated successfully, but these errors were encountered: