晚上收到ACL Anthology负责人Min-Yen Kan发给ACL Anthology Google Group的邮件,通知说目前ACL 2010的文章已经可以下载,包括full papers, short papers, student research workshop papers, demonstrations, tutorial abstracts以及所有的workshops的Paper,才想起今天(7月11号)ACL 2010会议召开。以下是具体的下载地址,有兴趣的读者可以关注一下。

  一、ACL 2010大会论文集:
  Proceedings of the ACL 2010 conference can be found here:
  http://www.aclweb.org/anthology/P/P10/
  These include both volumes: (I) full papers and (II) short papers,student research workshop papers, demonstrations and tutorial abstracts.

  二、Workshop论文集:
  The proceedings of the workshops and conferences co-located with ACL 2010 are now online.
  http://www.aclweb.org/anthology/W/W10/
(scroll towards the bottom of the table of contents)

* Joint Fifth Workshop on Statistical Machine Translation and MetricsMATR
* Fourth Linguistic Annotation Workshop
* 2010 Workshop on Biomedical Natural Language Processing
* 2010 Workshop on Cognitive Modeling and Computational Linguistics
* 2010 Workshop on NLP and Linguistics: Finding the Common Ground
* 11th Meeting of the ACL Special Interest Group on Computational Morphology and Phonology
* TextGraphs-5 - 2010 Workshop on Graph-based Methods for Natural Language Processing
* 2010 Named Entities Workshop
* 2010 Workshop on Applications of Tree Automata in Natural Language Processing
* 2010 Workshop on Domain Adaptation for Natural Language Processing
* 2010 Workshop on Companionable Dialogue Systems
* 2010 Workshop on GEometrical Models of Natural Language Semantics

注:转载请注明出处“我爱自然语言处理”:www.52nlp.cn

本文链接地址:https://www.52nlp.cn/acl-2010文章已可下载

作者 52nlp

《ACL 2010文章已可下载》有10条评论
  1. News Recommendation in Forum-Based Social Media, Jia Wang et. al. aaai 2010

    News Recommendation in Forum-Based Social Media(accept后改名), Jia Wang et. al. acl 2010

    这两篇文章给我感觉基本上一样,而且两文中也不存在互相REFERENCE。楼主怎么看?

    [回复]

    52nlp 回复:

    没看原文,感觉是一稿多投都中了的缘故吧,作者可能还不清楚这样做是不合适的。

    [回复]

    Tiger 回复:

    下载两篇论文看了,才明白作者为什么能冒天下之大不韪,发两篇论文了。两篇论文承接的是同一个理论框架,但ACL
    运用了新的设计和实验,通过对比论坛和博客的特性,对AAAI
    的论文中的单一新闻论坛特性作了有力的补充和修正。两篇强调的内容完全不一样,有一定内容重复,仅限于基本背景框架上,不到30%。
    唉,不多说了,大家看原文吧。

    [回复]

    52nlp 回复:

    抱歉,之前没有看原文,您说了之后简单对比了一下两篇原文,没有仔细看,以下观点如有不妥请指正。

    “两篇论文承接的是同一个理论框架,但ACL
    运用了新的设计和实验,通过对比论坛和博客的特性,对AAAI的论文中的单一新闻论坛特性作了有力的补充和修正。”
    两篇论文的确承接的是同一个理论框架,只不过ACL并非运用了新的设计和实验,只是加了一组关于博客的实验,是做了一些补充,论文篇幅也相应的长了。

    “两篇强调的内容完全不一样,有一定内容重复,仅限于基本背景框架上,不到30%。”
    这段话不敢苟同,如果从字面意义上来说,不到30%是有可能的,不过ACL的论文感觉从题目到文字重新“改头换面”而已,譬如:
    AAAI: Actually, threshold values need to be set through amachine learning process, which identifies proper values based on a given training sample.
    ACL: Ideally, threshold values would need to be set through a machine learning process, which identifies proper values based on a given training sample.
    对比扫读两篇文章的过程中感觉很多都是这样,只能说作者在ACL文章的撰写上下足了功夫!

    不管怎么说,我还是很佩服作者这么年纪轻轻就能出如此高质量的文章。

    [回复]

  2. AAAI是绝对不允许一稿多投的,ACL倒是可以中了后再撤稿,不过作者似乎两边都没有撤稿

    [回复]

    anonymous 回复:

    我倒是希望作者自己处理掉,这么明显的东西,迟早被人发现。美国人也一稿多投,但是中了一篇以后,会绝对会自己撤掉另一篇。如果这次的事情被国外的人发现,整个国内NLP研究圈子的口碑都要下降。不过似乎作者现在也没意识到,两边都跑去开会了。

    [回复]

    52nlp 回复:

    解铃还须系铃人~

    [回复]

    Cheng 回复:

    口碑?哈哈。。。现在注重的是数量,全国各地都是如此啊,口碑不重要

    [回复]

  3. 谢谢楼主的指点,希望大家仔细阅读了两篇论文后,给予更多的技术上的指点。我和作者在会议上碰到,当时,她和我聊起两篇论文的研究经过。在完成第一篇AAAi论文时,作者得出structural information 在social media recommendation 中提供了重要的贡献可以忽略content information 的贡献。 可是后来,作者在和公司的合作研究中,发现在social media 中的blog 中,该结论并不一定成立,甚至完全相悖。 于是展开了进一步的研究,提出了user authority 弥补structural information, 并指出不同的social media 内容,应该根据其特性进行合理的应用wisdom information,修正了第一篇的结论. 并根据此撰写了ACL. 主要想是为了弥补第一篇的偏颇,为后来的研究人员提供进一步的帮助。在ACL论文中,我们可以看见作者做了大量的比较研究forum-based discussion 和blog 之间的区别,根据不同性质设计两种推荐思路,实验很深入透彻。

    是否是一稿多投,可以仔细阅读了两遍文章进行判断。我个人感觉两篇文章并非是一稿多投,而是同一研究更深入的报告。由于使用的是同一个理论框架,其中部分技术是雷同的。第二篇论文的发表并非作者想灌水,主要是怕第一篇论文的结论将social medial recommendation 的研究引入误区。

    仔细阅读文章后,发现的确是一个不错的思路,英文也可以。希望多多鼓励。

    [回复]

    52nlp 回复:

    抱歉,我对于作者的这个研究方向不太明白,所以昨晚的比较也很肤浅,谢谢您专业角度的客观分析。

    [回复]

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注