晚上收到ACL Anthology负责人Min-Yen Kan发给ACL Anthology Google Group的邮件,通知说目前ACL 2010的文章已经可以下载,包括full papers, short papers, student research workshop papers, demonstrations, tutorial abstracts以及所有的workshops的Paper,才想起今天(7月11号)ACL 2010会议召开。以下是具体的下载地址,有兴趣的读者可以关注一下。
一、ACL 2010大会论文集:
Proceedings of the ACL 2010 conference can be found here:
http://www.aclweb.org/anthology/P/P10/
These include both volumes: (I) full papers and (II) short papers,student research workshop papers, demonstrations and tutorial abstracts.
二、Workshop论文集:
The proceedings of the workshops and conferences co-located with ACL 2010 are now online.
http://www.aclweb.org/anthology/W/W10/
(scroll towards the bottom of the table of contents)
* Joint Fifth Workshop on Statistical Machine Translation and MetricsMATR
* Fourth Linguistic Annotation Workshop
* 2010 Workshop on Biomedical Natural Language Processing
* 2010 Workshop on Cognitive Modeling and Computational Linguistics
* 2010 Workshop on NLP and Linguistics: Finding the Common Ground
* 11th Meeting of the ACL Special Interest Group on Computational Morphology and Phonology
* TextGraphs-5 - 2010 Workshop on Graph-based Methods for Natural Language Processing
* 2010 Named Entities Workshop
* 2010 Workshop on Applications of Tree Automata in Natural Language Processing
* 2010 Workshop on Domain Adaptation for Natural Language Processing
* 2010 Workshop on Companionable Dialogue Systems
* 2010 Workshop on GEometrical Models of Natural Language Semantics
注:转载请注明出处“我爱自然语言处理”:www.52nlp.cn
本文链接地址:https://www.52nlp.cn/acl-2010文章已可下载
News Recommendation in Forum-Based Social Media, Jia Wang et. al. aaai 2010
News Recommendation in Forum-Based Social Media(accept后改名), Jia Wang et. al. acl 2010
这两篇文章给我感觉基本上一样,而且两文中也不存在互相REFERENCE。楼主怎么看?
[回复]
52nlp 回复:
13 7 月, 2010 at 20:20
没看原文,感觉是一稿多投都中了的缘故吧,作者可能还不清楚这样做是不合适的。
[回复]
Tiger 回复:
28 7 月, 2010 at 17:02
下载两篇论文看了,才明白作者为什么能冒天下之大不韪,发两篇论文了。两篇论文承接的是同一个理论框架,但ACL
运用了新的设计和实验,通过对比论坛和博客的特性,对AAAI
的论文中的单一新闻论坛特性作了有力的补充和修正。两篇强调的内容完全不一样,有一定内容重复,仅限于基本背景框架上,不到30%。
唉,不多说了,大家看原文吧。
[回复]
52nlp 回复:
28 7 月, 2010 at 21:22
抱歉,之前没有看原文,您说了之后简单对比了一下两篇原文,没有仔细看,以下观点如有不妥请指正。
“两篇论文承接的是同一个理论框架,但ACL
运用了新的设计和实验,通过对比论坛和博客的特性,对AAAI的论文中的单一新闻论坛特性作了有力的补充和修正。”
两篇论文的确承接的是同一个理论框架,只不过ACL并非运用了新的设计和实验,只是加了一组关于博客的实验,是做了一些补充,论文篇幅也相应的长了。
“两篇强调的内容完全不一样,有一定内容重复,仅限于基本背景框架上,不到30%。”
这段话不敢苟同,如果从字面意义上来说,不到30%是有可能的,不过ACL的论文感觉从题目到文字重新“改头换面”而已,譬如:
AAAI: Actually, threshold values need to be set through amachine learning process, which identifies proper values based on a given training sample.
ACL: Ideally, threshold values would need to be set through a machine learning process, which identifies proper values based on a given training sample.
对比扫读两篇文章的过程中感觉很多都是这样,只能说作者在ACL文章的撰写上下足了功夫!
不管怎么说,我还是很佩服作者这么年纪轻轻就能出如此高质量的文章。
[回复]
AAAI是绝对不允许一稿多投的,ACL倒是可以中了后再撤稿,不过作者似乎两边都没有撤稿
[回复]
anonymous 回复:
14 7 月, 2010 at 15:15
我倒是希望作者自己处理掉,这么明显的东西,迟早被人发现。美国人也一稿多投,但是中了一篇以后,会绝对会自己撤掉另一篇。如果这次的事情被国外的人发现,整个国内NLP研究圈子的口碑都要下降。不过似乎作者现在也没意识到,两边都跑去开会了。
[回复]
52nlp 回复:
14 7 月, 2010 at 21:49
解铃还须系铃人~
[回复]
Cheng 回复:
20 7 月, 2010 at 15:19
口碑?哈哈。。。现在注重的是数量,全国各地都是如此啊,口碑不重要
[回复]
谢谢楼主的指点,希望大家仔细阅读了两篇论文后,给予更多的技术上的指点。我和作者在会议上碰到,当时,她和我聊起两篇论文的研究经过。在完成第一篇AAAi论文时,作者得出structural information 在social media recommendation 中提供了重要的贡献可以忽略content information 的贡献。 可是后来,作者在和公司的合作研究中,发现在social media 中的blog 中,该结论并不一定成立,甚至完全相悖。 于是展开了进一步的研究,提出了user authority 弥补structural information, 并指出不同的social media 内容,应该根据其特性进行合理的应用wisdom information,修正了第一篇的结论. 并根据此撰写了ACL. 主要想是为了弥补第一篇的偏颇,为后来的研究人员提供进一步的帮助。在ACL论文中,我们可以看见作者做了大量的比较研究forum-based discussion 和blog 之间的区别,根据不同性质设计两种推荐思路,实验很深入透彻。
是否是一稿多投,可以仔细阅读了两遍文章进行判断。我个人感觉两篇文章并非是一稿多投,而是同一研究更深入的报告。由于使用的是同一个理论框架,其中部分技术是雷同的。第二篇论文的发表并非作者想灌水,主要是怕第一篇论文的结论将social medial recommendation 的研究引入误区。
仔细阅读文章后,发现的确是一个不错的思路,英文也可以。希望多多鼓励。
[回复]
52nlp 回复:
29 7 月, 2010 at 06:41
抱歉,我对于作者的这个研究方向不太明白,所以昨晚的比较也很肤浅,谢谢您专业角度的客观分析。
[回复]