论文翻译

如何确保论文翻译的专业性? 论…

翻译认证盖章

翻译认证盖章服务条款 尊敬的客户感谢…

展会口译

展会口译服务简介:上海迪朗翻译公司是…

视频翻译

为什么要翻译视频字幕翻译视频字幕使您…

双语主持

迪朗上海翻译是一家专业的上海双语主持…

同声传译

迪朗(上海)翻译公司是严格按照ITC…

«
»

有关神经机器翻译的十大最具影响力的研究论文

在开拓性语言服务提供商(LSP)和购买者组织首次部署神经机器翻译(NMT)大约半年后,现在该回顾一下最具创新性的研究并阐明该行业如何建立新常态的时候了。

Slator根据自发表以来每篇论文被引用的次数,对涉及NMT的最有影响力研究进行了排名,该方法是对Semantic Sc​​holar和Google Scholar报道的平均被引次数进行平均。

该列表专门针对与NMT相关的论文。因此,例如,尽管2014年6月的论文《使用RNN编码器-解码器进行统计机器翻译》被引用了10,000次以上,但由于其主题是统计性机器翻译而不是神经机器翻译,因此此处未包括在内。

广告
;ID=167169;size=728x90;setID=332285;type=img;click=CLICK MACRO PLACEHOLDER - 有关神经机器翻译的十大最具影响力的研究论文

请注意,列表上的最新发布日期是2017年;考虑到随着时间的流逝和领域的发展,研究真正突破新领域变得更加困难。

该清单也是Slator竞标神经机器翻译中“神经”的方式,因为大多数行业现在将NMT简称为MT。

#1通过共同学习对齐和翻译
引文进行的神经机器翻译:≈14,400
发布日期:2014年9月
作者:Dzmitry Bahdanau(德国不来梅雅各布斯大学),Kyunghyun Cho,Yoshua Bengio(蒙特利尔大学)

第一NMT模型通常将源句子编码为固定长度的向量,解码器从该向量生成翻译。Bahdanau,Cho和Bengio将固定长度矢量确定为翻译质量的玻璃天花板,特别是对于长句子。他们提出的模型RNNsearch的体系结构“只关注与生成下一个目标词有关的信息”。作者将模型的性能描述为惊人,“考虑到所提出的体系结构或整个神经机器翻译家族直到最近才被提出。”

#2基于注意力的神经机器翻译的有效方法
引文:≈4,490
发布日期:2015年9月
作者:Minh-Thang Luong,Hieu Pham,Christopher D.Manning (斯坦福大学)

在将注意机制集成到NMT中的启发下,Luong,Pham和Manning在翻译过程中将模型集中于源句子的选定部分,Luong,Pham和Manning探索了两种潜在的基于注意的NMT有用的体系结构:一种全局方法,该方法查看所有源词以及一种本地方法,该方法每次都会查看源词的子集。当将其应用于英语和德语之间的WMT翻译任务时,这两种设置均显示可提高翻译质量,而本地注意力会产生可观的收益(以BLEU衡量),并且集成模型为WMT14建立了新的最新结果和15。

LocJobs.com我正在招聘人才。 找工作

LocJobs是新的语言行业人才中心,候选人可以在其中找到新的机会,而雇主可以找到翻译和本地化行业中最合格的专业人员。现在浏览80多个新职位。

LocJobs.com我正在招聘人才。找工作

#3 Google的神经机器翻译系统:弥合人与机器翻译之间的鸿沟
引文:≈3,250发表
日期:2016年9月
首席研究员:吴永辉,迈克·舒斯特,陈志峰,Quoc V. Le,穆罕默德·诺鲁兹(Google)

谷歌的神经机器翻译系统(GNMT)被誉为与人类翻译几乎“几乎无法区分”的翻译,旨在通过减少培训时间,加快最终翻译速度并改进稀有词来扩大NMT在现实世界中的工作量。波束搜索技术促进了输出句子更可能覆盖源句子中的所有单词,而“词片”建模则说明了形态丰富的语言。与谷歌以前的基于短语的生产系统相比,对简单句子的人工并排评估显示翻译错误减少了60%。作者得出结论,长度标准化和覆盖范围惩罚等详细信息“对于使NMT系统在真实数据上正常运行至关重要。”

#4关于神经机器翻译的属性:编码器-解码器方法
引文:≈3,035
发布日期:2014年9月
作者:Kyunghyun Cho,Bart van Merrienboer,Yoshua Bengio(蒙特利尔大学),Dzmitry Bahdanau(德国不莱梅雅各布斯大学)

研究人员比较了两种带有不同类型编码器的NMT模型:一种是带有门控隐藏单元的RNN,另一种是门控递归卷积神经网络(grConv)。尽管这两种模型都能正确地翻译出没有未知单词的短句,但随着句子长度的增加和包含更多未知单词的出现,质量会受到影响。作者写道:“重要的是找到一种在计算和内存方面扩大训练神经网络的方法,以便可以使用更多的源语言和目标语言词汇,”作者写道,并补充说“一种根本不同的方法”具有丰富形态的语言可能需要

SlatorPod –新闻,分析,来宾

语言行业每周播客。在Youtube,Apple Podcasts,Spotify,Google Podcasts和所有其他主要平台上。立即订阅

SlatorPod –新闻,分析,来宾

#5带有子词单位的稀有词的神经机器翻译
引文:≈2,960
发布日期:2015年8月
作者:Rico Sennrich,Barry Haddow,Alexandra Birch(爱丁堡大学)

早在2015年,NMT模型在遇到稀有或未知单词时就会“退缩”到字典中。但是,Sennrich,Haddow和Birch认为NMT系统有一种方法可以将翻译视为“开放词汇问题”。如果各种单词类别(例如名称,同源词和外来词)“可以通过比单词小的单位进行翻译”,那么将诸如“子单词单位序列”之类的稀有和未知单词编码可以帮助NMT系统处理它们。研究人员研究了几种分词技术,他们的子词模型显示出WMT 15的英语-德语和英语-俄语翻译任务比“后退字典基线”有所改进。

#6 OpenNMT:用于神经机器翻译的开源工具包
引文:≈1,050
发布日期:2017年1月
作者:Guillaume Klein,Jean Senellart(Systran),Yoon Kim,Yuntian Deng,Alexander M.Rush(哈佛大学)

是什么使NMT成为有用的开源工具包?对于OpenNMT背后的Systran和哈佛大学的研究人员来说,它是“建模和翻译支持以及有关基础技术的详细教学文档。” OpenNMT旨在优先考虑效率和模块化,其目的是支持NMT对模型体系结构,功能表示和源模态的研究,并为生产使用提供稳定的框架。同时,OpenNMT还旨在保持竞争表现和合理的培训要求。

Slator Medtech翻译和本地化报告

Slator 2020 Medtech翻译和本地化报告

数据与研究,SLATOR报告
44页的medtech翻译和本地化报告。市场概述,内容类型和服务,买家和供应商,销售洞察力等等。
$ 290立即购买

#7使用单语数据
引用改进神经机器翻译模型:≈1,015
发布日期:2016年6月
作者:Rico Sennrich,Barry Haddow,Alexandra Birch(爱丁堡大学)

已知目标方单语数据可以帮助提高基于短语的统计MT的流利性,但是本文证明了它对于NMT也可能是一项资产。研究人员通过将单语言训练数据与自动回译配对来训练NMT模型,然后将此合成数据视为其他训练数据。由于可以在不更改神经网络体系结构的情况下集成单语种训练数据,因此作者认为他们的方法对不同类型的NMT系统抱有希望,但他们承认,最终其有效性将取决于用于反向翻译和翻译的NMT系统的质量。可用的并行和单语数据量。

#8 Google的多语言神经机器翻译系统:启用零射门翻译
引用:≈950
发布日期:2016年11月
首席研究员:Melvin Johnson,Mike Schuster,Quoc V. Le,Maxim Krikun,Wu Yonghui,Chen Zhifeng,Nikhil Thorat(Google )

Google针对多语言NMT的“简单”解决方案很快变成了更大的东西。研究人员使用单个NMT模型,通过在每个输入句子的开头引入人工标记来指定所需的目标语言,从而启用多语言NMT。其余参数保持不变,并在所有语言中共享。他们最大的模型包括多达12种语言对,并可以更好地翻译许多对语言。然而,研究人员没有想到的是,模型要学习在训练期间从未明确看到的线对之间进行桥接,这是“首次了解我们的情况”,证明传递学习和零射翻译对于NMT确实是可能的。

2020年Slator翻译和本地化购买者报告

2020年Slator翻译和本地化购买者报告

数据与研究,SLATOR报告
2020年以来的11种翻译和本地化买家功能,以及典型的买家职位和Slator的语言行业市场矩阵。
$ 68立即购买

#9关于使用非常大的目标词汇量进行神经机器翻译的
引用次数:≈785
发布日期:2014年12月
作者:SébastienJean,Kyunghyun Cho,Roland Memisevic,Yoshua Bengio(蒙特利尔大学)

尽管NMT优于统计MT,但庞大的词汇量仍然构成挑战。随着目标词数量的增加,训练和解码的复杂度呈指数增长。为了利用非常大的目标词汇表而又不增加训练的复杂性,位于蒙特利尔的研究人员提出了一种基于重要性采样的新方法,其中,解码仅针对整个目标词汇表的一小部分。以这种方式训练的模型只用很小的词汇量就可以匹配甚至优于基线模型。

#10神经机器翻译的建模覆盖范围
引文:≈520
发布:2016年1月
作者:涂兆鹏,卢正东,刘小华,李航(华为技术有限公司,香港),刘洋(清华大学,北京)

注意力机制通过共同学习对齐和翻译来促进最先进的NMT,被认为是一把双刃剑,因为它也可以忽略过去的对齐方式,从而导致翻译过度和翻译不足。将覆盖向量提供给注意力模型,以帮助其将注意力更多地集中在未翻译的单词上,可以缓解这些问题。本文提出和探讨的两个模型-语言覆盖率(利用更多的语言信息)和基于NN的覆盖率(借助神经网络逼近的灵活性)-均实现了“翻译质量和对齐质量均明显提高。没有覆盖的NMT。”


迪朗翻译如何保证翻译质量?

迪朗上海翻译公司是一家正规的上海认证翻译机构,迪朗翻译将质量看做是企业的生命,我们通过以下几方面来保证我们自始至终为客户提供着高质量的翻译服务: 项目资源不仅包括译员,还包括从事翻译校对、页面布局、质量控制、编辑和语料库采编和建立的翻译辅助人员,项目经理是整个翻译团队的负责人,负责项目小组的组建、协调和管控。我们的所有翻译都拥有全国翻译专业资格(水平)证书,同时都具备五年以上的翻译经验。全国翻译专业资格(水平)考试(China Accreditation Test for Translators and Interpreters – CATTI)是受国家人力资源和社会保障部委托,由中国外文出版发行事业局(China Foreign Languages Publishing Administration)负责实施与管理的一项职业资格考试,已经纳入国家职业资格证书制度,是一项在全国实行的、统一的、面向全社会的翻译专业资格(水平)认证,是对参试人员口译或笔译方面双语互译能力和水平的评价与认定。翻译专业资格(水平)考试开设多个语种,包括英、日、俄、德、法、西班牙、阿拉伯等语种,各语种分设四个级别。考试等级划分与专业能力如下:

1 资深翻译:
长期从事翻译工作,具有广博科学文化知识和国内领先水平的双语互译能力,能够解决翻译工作中的重大疑难问题,在理论和实践上对翻译事业的发展和人才培养作出重大贡献。
2 一级口译、笔译翻译:
具有较为丰富的科学文化知识和较高的双语互译能力,能胜任范围较广、难度较大的翻译工作,能够解决翻译工作中的疑难问题,能够担任重要国际会议的口译或译文定稿工作。
3 二级口译、笔译翻译:
具有一定的科学文化知识和良好的双语互译能力,能胜任一定范围、一定难度的翻译工作。
4 三级口译、笔译翻译:
具有基本的科学文化知识和一般的双语互译能力,能完成一般的翻译工作。
人事部翻译专业资格证书三级 人事部翻译专业资格证书二级

 

 

翻译语种

关键词