你和“认识AI”之间只有一篇论文
很多读者在后台给新军留言,说看了比较简单的AI科普和AI方法论,想看有深度、有厚度、有视野……有重口味的专业论文。
因此,在人工智能领域许多专家学者的帮助下,我们翻译了一批顶级论文。每篇论文的翻译校对完成后,辛骏和编辑部的老师们会一起笑塌。当然,有些论文会让我们哭。
现在的学生看得懂不重要,但是信君可以保证你有一天会爱上一个新的AI世界。
核心阅读读者论文交流群,请加一个小微信号:知知诸暨。等你。
这是关于核心阅读的第102篇论文
美国公民自由联盟2018年长篇论文
Event2Mind:事件、意图和反应的常识推理
事件2发现:对事件、意图和反应的常识推理
华盛顿大学
华盛顿大学
本文是华盛顿大学在《美国公民自由联盟2018》上发表的作品。本文研究了一个新的常识推理任务:给定一个在短自由文本中描述的事件(“X早上喝咖啡”),系统推理参与者可能的意图(“X想保持清醒”)和相对反应(“X感觉警觉”)。为了支持这项研究,我们构建了一个新的众包语料库,包含25,000个事件短语,涵盖了各种日常事件和场景。实验表明,神经编解码模型能够成功地合成未知事件的嵌入表示,并推断出可能的意图和反应。此外,我们展示了意图和反应的常识推理如何帮助揭示现代电影剧本中存在的隐性性别偏见。
1 引言理解一个叙事需要对人们对事件的心理状态进行常识性推理。例如,如果“亚历克斯在工作中拖后腿”,亚历克斯意图的语用含义是“亚历克斯想避免做事”(如下)。我们也可以推断亚历克斯的情绪反应可能是“懒惰”或“无聊”。另外,虽然没有明确提到,但我们可以推断,除了亚历克斯之外的所有人都受到这种情况的影响,这些人可能会感到“沮丧”或“冲动”。
2数据
尽管以前有许多关于短语层面的解释和短语层面的含义的研究,但相对较少的研究关注需要语用或常识解释的短语层面的推理。我们将我们的研究范围扩展到两种不同的推理类型:给定描述事件的短语,我们推断引起事件或受事件影响的人的可能意图和情绪反应;通过关注事件与人的心理状态之间的因果关系进行推理;它进一步补充了以前工作的不完整性。
我们从故事、博客和维基习语中收集了大量的短语事件描述。与以往关于短语嵌入的工作相比,我们的工作通过引入(类型)变量来概括短语。我们用类型化变量替换实体引用或代词对应的词,比如PersonX或PersonY,如下表所示。我们提取的短语是动词谓语和部分实例化参数的组合。如果它们出现的频率足够高,我们会把特定的参数和谓词结合起来(比如PersonX晚饭吃面食)。否则,该参数被替换为无类型的空(例如,PersonX吃饭时吃)。本文研究的是个人变量的分型,以后会考虑其他类型的研究。
3型号
给定一个事件短语,我们的模型旨在生成三个特定的语用推理:PersonX的意图、PersonX的反应和其他人的反应。模型架构如下图所示。
被压缩为H维的词嵌入hE。编码事件:输入事件短语e被压缩成h维单词,并通过编码公式嵌入hE。
语用推理解码:我们使用三个解码模块,采用嵌入在he中的事件短语和可能的PersonX意图(vi)、PersonX反应(vx)和其他反应(vo)的输出分布。我们试验了两种不同的解码器设置。
首先,我们在N-gram重排序中做实验,考虑我们的标注中最频繁的{1,2,3}语法。每个解码器将嵌入he的事件短语投影到|V|维向量中,然后通过softmax函数传递向量。例如,PersonX意图的分布是:
其次,我们用序列生成进行实验,使用RNN解码器生成文本描述。将嵌入hE的事件短语设置为三个解码器RNNs(使用GRU单元)的初始状态hdec,然后每个字输出意图/反应(在测试时使用beam-search)。例如,事件的意图序计算如下:其次,我们进行了序列生成实验,并使用RNN解码器生成文本描述。将嵌入hE中的事件短语设置为三个解码器RNNs的初始状态hdec(使用GRU单元),然后输出每个单词的意图/反应(在测试期间使用波束搜索)。例如,事件的意图顺序计算如下:
训练目标:我们最小化预测单词和短语分布之间的交叉熵,而不是数据集中实际观察到的交叉熵。此外,我们采用多任务学习,并在每次迭代中最小化所有三个解码器的损失。
训练细节:我们修复了输入的嵌入式表示,在Google News中使用300维跳格进行词向量训练。对于解码,在N-gram重新排序设置中,词汇大小设置为v = 14034。对于序列解码设置,我们只考虑V中的一元语法,每个时间步长产生7110 空的输出。
我们将我们的24716个唯一事件集(57094个注释)随机分为80/10/ 10%的训练/验证/测试集。有些标注有多个反应(即众包给出多个可能的意图和反应)。在这种情况下,我们将他们反应的每个组合作为一个单独的训练示例。
4实验
下表总结了不同编码模型对开发和测试集的影响。不出所料,我们可以看到,当使用更多的编码器模型(ConvNet和BiRNN)时,召回率和交叉熵都有所提高。此外,BiRNN模型在解码设置上优于具有交叉熵的ConvNets。看看意向和响应标签的回忆分割(“意向”、“xroad”和“OReact”列),我们可以看到在使用这两个模型预测personx的意向方面有很大的改进。请注意,“OReact”的召回率要高得多,因为大多数事件不涉及其他人。
5摘要本文介绍了一个新的语料库、任务和模型,用于对文本中描述的日常事件进行常识推理,重点是事件中涉及的人物的意图和反应。我们的语料库支持学习不同事件范围的表示,并推断出以前从未见过的事件的可能意图和反应。我们还表明,这一推论有助于揭示隐藏的性别偏见。论文下载链接:
http://aclweb.org/anthology/P18-1043
留言赞朋友圈
我们一起分享人工智能学习和开发的干货
1.《event2 华盛顿大学:Event2Mind:事件、意图和反应的常识推荐》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《event2 华盛顿大学:Event2Mind:事件、意图和反应的常识推荐》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/guoji/680398.html