
罗马——2024年11月4日
今天,我们举办了一场独特的活动,探索语言的力量以及我们在通用翻译器方面取得的进展。我们推出了世界上最好的翻译人工智能Lara,以及支持翻译人员、内容创作者和公司本地化需求的新工具。
介绍Lara
我们的首席执行官Marco Trombetti介绍了Lara,这是15年多来机器翻译研究的结晶。2011年,我们率先推出了自适应机器翻译。自2017年以来,我们一直在使用Transformer模型为我们的神经机器翻译系统提供动力,该模型是为翻译而发明的,后来成为生成式人工智能的基础。在ChatGPT发布后,大型语言模型开始流行起来,许多人对它们的流畅性和处理大型上下文的能力感到惊讶,但也对它们缺乏准确性感到沮丧。我们已经孜孜不倦地将大型语言模型的强大功能与机器翻译的准确性相结合。今天,我们很自豪地达到了这一里程碑,将两者与世界上最好的翻译人工智能Lara相结合。
Lara通过解释其选择、利用上下文理解和推理来提供用户可信赖的专业级翻译,从而重新定义了机器翻译。它是在全球可用的最大、最精选的真实世界翻译数据集上进行训练的。得益于我们与NVIDIA的长期合作,Lara在NVIDIA AI平台上使用了120万个GPU小时进行训练。
翻译9个结果照片
借助Lara,企业可以解决以前难以想象的本地化项目。翻译人员和多语言创作者将在他们的日常工作中享受Lara带来的便利,从而提高生产力和准确性。
Lara的错误率仅为每千词2.4个。2025年,我们的目标更高——计划利用2000万个GPU小时来进一步实现语言奇异性。