梦的早晨鲍文发源于凹秘史
量子比特报告|公众号QbitAI
一名北京大学硕士生在校期间一次性在国际峰会ACL中标了8篇论文,其中2篇上了热搜。
那次热搜后,这个“论文队”似乎逐渐消失了踪影。
今天,她带着阿里达摩院的深度语言模型系统AliceMind回来了。
被外界称为“AI Lori”的这个Lopoly负责此次AliceMind中7个型号的开源。
她的经历说来有点“传说”。
上大学之前没怎么接触过计算机,不小心撞上了北师大的计算机专业。
刚入学的时候,基础成绩跌到了谷底,因此通过努力跃升至第一、第二位。
大三的时候考入北京大学语言计算研究所,选择NLP作为自己的科研方向,在三个月内自学了Python,投了一篇最高会论文(非一作)。
保研考入了北京大学,硕士在两年的国际峰会上发表了20篇以上的论文。
但是她意外地没有选择继续读博,而是想在2020年毕业后进入阿里达摩院进行切实的研究。
进入工业界两年后,她发的论文明显减少。
读书的时候,周围的评价机制都很在意你的论文数。但是工业界已经不追求数量了。主要是做这件事是否真的有落地价值,在这个领域是否有影响力。(大卫亚设)。
她在达摩院主导了跨语言的事前训练模式VECO,成为AliceMind的八大模式之一。这次AliceMind集体开赛,她挑起了大梁。
简洁是最好的。
罗保利在业界工作的一年里,与学术界相比,心态发生了很大变化。
学校总是追求提出复杂的模式。大家不理解,论文评审也不理解,但是到了工业界,你会发现一眼就能看懂,有效的模式是最优秀的。(约翰f肯尼迪)。
这就是她所在的达摩院深度语言模型组的想法。他们创建的八大AliceMind型号被列入GLUE、CLUE、XTREME、VQA Challenge、DocVQA和MS MARCO六大NLP权威名单。
在AliceMind中,Alice的意思很简单。这就是Alibaba ' s collection of encoder-decoders。
其中,模型也像这个名字一样朴素,从实际业务需求出发,以编码器-编码器为基础进行创新和改进。
通用语言模型StructBERT在BERT中增加了单词水平和句子水平两个新的目标函数,相当于AI掌握了“汉字顺序不影响阅读”的能力。
这是因为团队发现,在阿里的工作中,用户在轻松使用电商、娱乐产品等场景时,经常会出现语法、语序不正确等现象。
为此,语言模式在面对语序错乱和语法不规范的短语时,必须能够正确理解和提供正确的表达和回应。
AliceMind刚刚再次登上了多模态权威目录VQA Challenge 2021。
VQA Challenge的比赛任务和图片问答差不多,给出一张图像和图像的自然语言问题,AI需要提供准确的自然语言答案。
对此,AliceMind的多模态模型StructVBERT基于通用模型StructBERT引入文本
和图像模态。利用更高效的视觉特征和创新的交叉注意力机制,在统一的多模态语义空间进行联合建模。
除了跨模态,罗福莉主导的跨语言模型VECO也被顶会ACL2021录用。
VECO中也引入了交叉注意力机制,改变了以往跨语言信息在隐藏层中自动建模的不稳定性,而是“显式”地完成。
VECO的另一项创新是在预训练的过程中,充分学习用于语言理解(NLU)和生成(NLG)任务,并让二者互相学习提高彼此。
如今罗福莉再回顾VECO这个工作,也有一些感慨:
如果是两年前还在学校的我,会觉得这好简单,我可以加上很多的花式技巧。但是到了工业界要考虑到架构在不同业务场景下的通用性,只好牺牲一些复杂有趣的模型设计。
AliceMind中的生成式语言模型PALM,则是将预训练目标从重构输入文本,改成了预测后续文本。
这样一个改动就促使模型对输入文本进行更深入地理解,在问答生成、文本复述、回复生成、文本摘要等任务上都取得了更好的效果。
还有结构化语言模型StructuralLM、机器阅读理解模型UED和知识驱动的语言模型LatticeBERT,都在各自的领域取得了明显地优势。
除了此次开源的7个模型,AliceMind中还包括了超大规模中文理解和生成统一模型PLUG。
AliceMind中的模型,看起来有一个共同特点,就是擅长”跨界“。
从跨语言、跨模态到语言理解和生成的统一,都是基于Transformer架构将不同地输入在一个更大的编码空间上统一建模。
罗福莉补充道:
AliceMind的这种将Transformer作为统一模型架构的解决方案已经比较成熟,但要做到更好“跨界”,接下来努力的方向是解决不同类型或粒度输入的深度融合和匹配问题。
从基础模型扩展出能力多样的模型,再把它们在实际业务中结合使用,让AliceMind成了业界能力最全面的深度语言模型体系。
那么AliceMind都用到了哪些地方?
落地是个系统化的工程
AliceMind已经上线到阿里内部的NLP平台,可以提供给不同部门的业务使用。
在官方网站上也提供了Demo,比如这个基于PLUG模型的语言生成模块。
输入红楼梦选段:
就能生成一段续写:
而像这样可供大家试玩的Demo还有几十个。
不过这些官网上的服务并非都是由AliceMind提供技术支持,很多都只是这一体系启发下的小模型。
那么这次开源的几大核心目前都在哪里打工呢?
应用最广泛的,就是电商。
尤其是阿里巴巴国际事业部(ICBU)或像速卖通(AliExpress)这样拥有跨境电商业务的部门,就是多语言模型VECO的直接受益者。
VECO是AliceMind体系中的8大模型之一,用于多语言理解和跨语种的文本嵌入、分类,掌握了100多种语言。
阿里内部基于AliceMind的翻译平台日调用量约10亿次,创造了数亿美元的国际跨境贸易和其他国际业务商业价值。
就像达摩院深度语言模型团队负责人黄松芳所说“语言模型落地是个系统化的工程”:
语言模型从训练、微调到蒸馏、压缩,到整个部署上线都在平台上面完成,上线之后跟业务方的系统连在一起,能够直接嵌到他们的业务逻辑、业务系统里面去。
我们更熟悉的淘宝拍照识图、天猫精灵智能音箱中也有AliceMind的贡献。
目前,AliceMind已经在阿里内部数十个核心业务落地,日均调用50亿次,活跃场景超过200个。
在阿里之外,医疗领域尤其是癌症治疗上,AliceMind同样出力不少。
作为一个具有自主学习能力的深度学习语言模型体系,AliceMind应用在搜索引擎上时会有一个重排机制。
以具体某一类医学文献为目标,AliceMind在粗排先捞了一批相关文本后,还会再次结合文章类型、引用图谱等信息,进行不断地重排。
同时将抽取获得的信息与已知的结构化知识做融合,构建知识体系,最终得到最高质量的临床文献。
在最近16支世界知名团队参加的精准医学国际评测中,凭借这一精准医学搜索引擎,阿里团队在两项临床证据质量评估上均取得第一:
这样高精度的专业医学搜索引擎能够在疾病治疗时,为临床医生做提供高质量的临床决策辅助。
法律领域也有AliceMind的出没。
浙江省高级人民法院就与达摩院合作,实现了从立案到裁判文书生成的全流程智能化审判系统。
而在这一试点单位中,AI对法官工作量的分担使当庭宣判率提升至90%,结案时间也从平均40天缩短到50分钟。
现在,基于AliceMind的AliNLP平台日均累计调用量超过数万亿次,每天有超过每天有超过1000个业务方使用。
电商、教育、医疗、能源,通信、法律、内容搜索、城市大脑……越来越多的领域在AliceMind的加入下变得更加便利,更加智能。
开源之后要做什么?
现在,预训练语言模型目前在NLP领域以及整个学习界都非常热门,超大规模参数的模型已成为一种趋势。
对此,达摩院深度语言模型团队的负责人,也是AliceMind的总负责人黄松芳表示:
我们这边其实不会一味地追求大,而是非常强调它的落地。
一个语言模型从研究开发到投入实际应用,不是一家企业就能做到的。
还需要整个社区的开发者都参与,才有可能将学术论文中的公式算法用到大家的生活便利上。
达摩院希望通过开源,能降低业界研究和创新应用的门槛,使语言AI进入大工业时代。
下一步,AliceMind打算与语言学、神经科学等跨学科的单位加强合作,将语言AI扩展到更大的应用中。
开源地址:
AliceMind官网:
相关论文:
通用预训练模型StructBERT:
多语言预训练模型VECO:
生成式预训练模型PALM:
多模态预训练模型E2E-VLP:
结构化预训练模型StructuralLM:
阅读理解模型:
融合知识的预训练模型Lattice-BERT:
参考链接:
[1]
[2]
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一时间获知前沿科技动态
1.《【alin】一次8篇顶会论文的北京大学95后《AI Lory》现在是开源7大NLP模式。》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《【alin】一次8篇顶会论文的北京大学95后《AI Lory》现在是开源7大NLP模式。》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/yule/2270645.html