科大讯飞遭同传从业者,并未品玩减退,同传界减退

2018年9月20日,知乎最后一篇图文并茂的文章,将人们对“机器翻译”的疑惑再次放到了放大镜下。

文章作者王贝尔,同声传译员,指责著名人工智能公司科大讯飞,在自己担任同声传译员的会议上,没有打招呼就认可了他和搭档的口译内容。变成文字并打到大屏幕上。屏幕上显眼的“讯飞听说”标志给观众带来了很大的误导,让人以为中文字幕是机器翻译软件直接翻译出来的。

这篇文章迅速发酵,上市公司科大讯飞不得不做出回应,强调“从未说过会取代人类”,不存在主观恶意。在接连数次的发布会和新闻发布会上,科大讯飞再次提出了“人机耦合”这个高深莫测的概念来解释他们的机器翻译概念。

科大讯飞表示,机器翻译旨在帮助人类翻译。

尽管如此,同声传译行业对科大讯飞的负面认知并没有因此而减弱。

PingWest品玩采访了多位同声传译从业者,他们普遍对科大讯飞缺乏正面印象。这并不是担心“机器翻译会抢走人的工作”设备调试错误翻译成英文,而是包括科大讯飞在内的一批“机器翻译公司”对同声传译从业者“缺乏起码的尊重”。

在这种不良互动的背后,自人类文明交流以来出现的语言翻译正走向两个分岔。

公然羞辱

2017年底,美国前总统奥巴马来华出席商务峰会。此次会面后来因大量“微商与奥巴马握手”的图片走红。然而,在这个针灸场景中,真正的主角是科大讯飞。

从业5年的同声传译员乔亚(化名)是当天会议的同声传译员之一。会议即将开始前,现场一片混乱。主办方的工作人员急忙找到了正在做最后准备的乔雅和她的搭档,说道:“科大讯飞也会来。” 主办方告诉他们,科大讯飞将在大会的大屏幕上展示他们的同声传译技术,提醒他们在翻译时要“小心”。

在当天的这场“寸土寸金”的活动中,主办方安排了多场路演,但由于时间控制的问题,几位发言者不得不在演讲结束时提高了发言速度,最终无法进行同声传译及时翻译。. “所以一个直接的结果,就是长时间的黑屏,科大立即关掉了屏幕。”

活动结束时,Joya 担心自己的翻译完成,担心客户会不满意。但接下来的一幕让她更加生气:

活动结束后,科大讯飞的一位高层突然跳上舞台,自豪地对奥巴马说:“我们今天在屏幕上看到的实时字幕,都是科大讯飞翻译技术的同声传译。”

在当天的整个活动中,科大讯飞自始至终没有与翻译人员有任何联系。

这种做法与知乎热文中王贝尔的行为如出一辙,许多接受PingWest品玩采访的同声传译员都表示,他们也受到了类似的待遇。

张伟是一名从事同声传译8年的翻译。他记得,至少在他的两次同声传译活动中,现场的客人突然脱下剧本,说如果他那天带了他公司的翻译产品,今天就不需要翻译了。更讽刺的是,作为现场的同声传译员,他还需要将这些言论翻译成英文告诉外国观众。

“第一次遇到这种场景的时候,我很生气,但是作为翻译,我们要客观,所以还是给他翻译的。当时我和搭档对视一眼,两人充满了冲突。”

如今,国际科技会议越来越多,而拥有翻译技术的科技公司的嘉宾总是喜欢在现场分享人类的故事,对这种近乎公然羞辱的行为感觉良好。

在接受采访的多名同声传译员的描述中,这些机器与人类共存的场合并没有一起工作,也没有在同一领域竞争。有些只是荒谬的闹剧。王贝尔抱怨说,这一次与他们所经历的无关。区别。唯一不同的是,这一次,事情变成了“大麻烦”,不再局限于同声传译这个圈子。

“业内朋友也开始对我寄予厚望,希望能保持合理的权利和诉求。” 王贝尔说,他的帖子后引起了巨大的反响。

“大法弟子越来越浮躁”

国人对科技的热情,让“AI取代人类”成为大家津津乐道的话题。越说越“震惊”的标题开始被大家认真对待。

如今,你会时不时在网上看到“AI取代同声传译”的标题。在张伟的印象中,同传圈第一次火起来是在2013年,中国移动前董事长王建洲接受央视采访。他在采访中强调,4G带来的传输速度飞跃将大大提升机器翻译的速度,从而取代人工同声传译。

“如果4G让同声传译人员失业,那我们这个行业会很高兴。” 王建洲随口说道,同传译员们焦急了许久。

小L是一名年轻的同声传译员,入行不到4年。她的生活节奏代表了最典型的同声传译员。我在上午和下午的两次活动之间看到了她:穿着全新的西装,穿着高跟鞋,但仍然在风中行走。虽然过去一周她每天都在“开会”(担任会议的同声传译员),但淡妆的脸上没有一丝疲倦。她已经习惯了这种快节奏的生活。“这是同声传译的常态,”她说。

她大部分时间都保持着专业的笑容,只是在谈到人工智能翻译的话题时皱起了眉头。

在科大讯飞风波之前,机器翻译就已经在主流舆论中引起了热议。在今年4月的博鳌亚洲论坛上,腾讯机器同声传译产品“翻译机”高调亮相。

小L记得,在博鳌论坛开幕前,她曾经合作过的一位客户给她转发了一篇文章,内容是腾讯为“翻译家”出场而发布的新闻稿,但标题被改了不少自媒体对“AI即将取代同声传译”表示。

“他什么意思?以后不用跟我合作了?” 小L想了想,当时心里有些慌。但随之而来的进步让她松了口气。

在那场热闹的大会上,“翻译家”在短短几天内从“业界首个完整的AI同声传译服务”变成了一个充满错误的蹩脚翻译,比如“我们需要一张脸,一个新的“脸”的翻译让人有笑有哭,整个声音都在磕磕绊绊,通过它根本无法弄清楚现场在讨论什么。

博鳌论坛同声传译首秀并不顺利

小L觉得好笑,但愤怒随之而来。

“同声传译这个行业从来都是以实力为基础的,你的翻译水平和你的情商很重要。” 小L说。“但现在突然机器翻译来了,还没有人看到他们真的出了什么结果,或者他们真的证明比我们人类好,但是我们所有的人类同声传译在瞬间都是多余的,连比较都是不可能的。不,感觉不好。”

2014年研究生期间,小L开始跟随老师参加会议同声传译,正式进入行业。但是毕业后的前2到3年,作为一个新人,在最糟糕的时候,每个月可能只有2到3次会议,每天都很着急。“每一次机会都要珍惜。如何让客户满意,和翻译公司保持良好的关系,让他们下次开会时能想到你。那你就得强迫自己每天练习听力和翻译。不是简单。 。” 小L回忆道。

但同声传译是翻译行业的巅峰之作,同声传译本身也是一个金字塔形的行业。只有进入顶峰,才有机会。所以,小L就算脑袋被削尖也得挤进去。“我从不害怕与同学和学长竞争,我总是观察其他翻译人员,甚至是我的搭档,只要有机会,学习他们的长处,同时了解他们的缺点。”

但是在机器翻译方面,可以不战而胜。越来越多的科技公司在推广时将“同声传译”作为其机器翻译技术的目标。

“很多时候,机器犯的错误对人类同声传译来说是灾难。比如我见过机器翻译在公司年会现场念错公司名称,在国际论坛上念错一个地方的名字。 “一带一路”这三个字,居然敢唱错。” 小L说。

她觉得这与同声传译整体的低调有关:不同于与说话人并排而坐的同声传译,同声传译经常“躲”在场景的某个角落,而同声传译的大多数是自由职业者。工作状态,独来独往,竞争激烈,不习惯成群结队,不成群结队发言。

“可能是因为我们总是坐在角落的包厢里,他们不知道我们的态度。所以这些公司总是把同声传译作为他们宣传的对象。但这些频频出现的‘更换同声传译’言论,其实是一个这样的不足尊重。” 小L说。

口译箱与场地完全隔离

“机器翻译水平这么差,但同声传译仍然是一个目标,因为同声传译是最高水平,而且是一份高薪工作,说用机器代替我们会更有噱头,这对他们有帮助吸引眼球。而对于那些A上市公司来说,也有利于提高股价。” 乔雅相信。

张伟一头雾水。他从行业估值的角度估算了一个账目,认为即使机器真的可以代替人工同声传译,但同声传译市场也不值得科技公司的巨额投资。

“我计算了一下,同声传译市场有2000名口译员,每个口译员每年开150场会议。按照现在的平均水平,每个口译员5000元,翻译公司再拿5000元,也就是30亿元。上传同声传译设备约50亿元,这已经是一个很高的估计,但只是一个小数目。” 张伟认为,即使将他的估计数字乘以 10,也不值得这些科技公司大张旗鼓。

图片[1]-科大讯飞遭同传从业者,并未品玩减退,同传界减退-老王博客

“在我看来,同声传译的概念已经被这些科技公司的营销‘绑架’了。” 小L生气的说道。不过,尽管没有看到目前的机器翻译水平,但小 L 坦言,她也不确定未来 10 年机器翻译会发生怎样的变化。

这种铺天盖地的宣传,已经开始影响到同声传译行业的每一个人。

乔亚还在大学兼职教授同声传译课程。她记得,在一个研究生班的第一堂课上,这些未来同声传译主力最关心的话题是“AI这么厉害,我们还需要学同声传译吗?要不要转行当尽快。” 这让她哭了。

而张伟认为这很容易理解。“按照现在的发展,未来10年真的很难说。而这些20多岁的学生,正进入10年职业生涯的黄金时期,没有人愿意到时候被机器取代而失去他们的工作。”

一方面,我亲眼目睹了今天机器翻译的糟糕水平,但另一方面,我又不能不担心。这样的纠葛已经成为同声传译员生活的一部分,给本已紧张的生活增添了更多的烦恼。

小L发现,近年来关于AI取代人工同声传译的讨论已经取代了所有与业务相关的讨论,成为业界唯一持久的热门话题。

“过去,我们在开会和翻译的时候会悄悄地讨论和讨论业务经验,但现在我们在网上和分组讨论AI做了什么。” 小L说。“每天都在想这个,让修炼者显得越来越浮躁。”

人和机器不理解

在瞄准同声传译行业的同时,这些机器翻译技术的开发者对同声传译的理解与同声传译一百年的历史有着天壤之别。

当被问及科技界经常提到的“机器同声传译”的定义时,微软首席语音科学家黄学东告诉 PingWest 看,他们的理解更多是指语音识别和机器翻译的结合。他说,今天的语音识别仍然受到限制,因为它的抗噪声能力比人类还差。但在机器翻译方面,它的速度绝对是人类无法比拟的。

小L认为,同声传译不是机械翻译,而是为了保证交流,达到交流的目的。“这些AI翻译公司说的同声传译和我们从事的同声传译完全是两个不同的东西。” 小L说。

科大讯飞在风波过后的回应中提到了“人机耦合”的独创概念。“人机耦合翻译模式,机器提供语音转录和翻译结果供同声传译参考,辅助同声传译,降低工作强度,提高效率。文字显示区标识显示为‘讯飞听说’。”

但这种同声传译服务似乎基本上是一厢情愿。

根据行业的定义,同声传译是指译者用一种语言以与说话者几乎相同的速度将另一种语言表达的内容表达出来,并准确地口头表达出来的一种口译方式。

“同声传译需要很强的听力,要正确判断说话人的停顿,需要以句子为驱动,即与说话人同时说话,随时调整逻辑,保证基本的同步性和准确性。” 张伟介绍。“而且机器只是翻译一个句子一两分钟。这是假的同声传译。”

“同声传译已经成功运行了100多年,所以不需要这样的支持。有些翻译软件其实很好用,它用人工智能在两分钟内翻译数据,关键词翻译得很好准确的说。这种人工翻译确实可以用。”张伟说。“但人机耦合是个伪命题,因为同声传译的工作路径和科大讯飞是平行的,这怎么可能耦合?就像两列火车并排运行。同声传译员边听边翻译,人工智能识别所用信号的起点,和口译员是同一个起点,你不比我们快,你不能站在我们面前拉火车。

而且,科大讯飞和腾讯的翻译人员都没有在这些会议的同声传译中协助人工同声传译。

一位曾在博鳌会议上与腾讯翻译“一起”为观众提供同声传译的译员,曾向PingWest品玩回忆当时的工作场景:“会场有屏幕,会产生AI同声传译字幕,人工同声传译。工作人员像往常一样坐在会议室后角的口译室,根本看不到。工作中不可能分心和注意,也没有’ “co-working”的情况。可以比作两组团队同时工作。我们是在看到社交媒体上的相关报道后才知道腾讯产品在现场。”

在科大讯飞的风波中,科大讯飞听说系统只将同声传译的声音转换成文字,不仅没有帮助,而且更多地依赖于人工同声传译。而且,这个语音转字幕功能,在同声传译场景中就更加奇葩了。

“很多所谓的AI同声传译都是在会场通过字幕实现的,这样的设计显然是反人类的,可能更适合听障人士。因为人们通过听可以获得更多的信息,也可以听眼睛用在其他地方,比如看PPT,或者看笔记本记笔记等等,用它看字幕太奇怪了。”

“据我观察,在这些机器翻译技术公司里,应该没有懂同声传译的人给他们提建议。” 张伟说。

PingWest品玩采访的多位不同背景的同声传译人员表示,他们从未听说过有翻译、同声传译等专业背景的人进入科技公司参与机器翻译研发,也没有人有机器翻译研究人员的经验。直接沟通什么。

科大讯飞翻译业务负责人翟继波曾向PingWest网站介绍,他们的团队中也有翻译人员,但具体职责只是测试、评估系统和制定一些标准。也就是说,它不会参与最核心的讨论。据PingWest品看,微软、搜狗等公司的情况也差不多。翻译技术团队大多是具有机器学习、大数据等专业背景的专家,很少有传统英语学科背景的人加入。

但事实上,双方的这种“绝缘”并非一直如此。

早在 1970 年代,基于规则的机器翻译理论首先被提出,也称为传统的自然语义方法,属于最早的 AI 研究流派之一:“符号 AI”。该方法实现翻译的方式是将所有英汉语法规则和一整本英文字典和整本中文字典编码到机器中,然后输入一个英文句子,机器就会相应得到一个中文句子。

这实际上是一种模仿人类对语言理解的尝试。“传统的自然语义方法是根据人的理解来理解。” 黄学冬对PingWest品声说道。当时,原机器翻译研究人员往往需要请教语言学专家共同研发。

但随后,在 1990 年代,基于统计的方法被应用到机器翻译领域,并带来了翻译性能的巨大飞跃。开发人员也在转向基于统计的机器翻译方法。这种方法更像是一种纯粹的计算机方法,已经与传统的自然语义方法有很大不同,不再过多地依赖于研究翻译、语言学等学科的人。

过去五年,深度学习再次推动了机器翻译的进步。2011年,谷歌开始开发和使用“神经网络”来模仿由神经元组成的人脑结构。每一层神经网络都会对数据进行分析,找出其中存在的规律,而多层神经网络类似于目前流行的深度。学习概念,可以找到更多的范式。2016年,谷歌在其翻译产品中使用了神经网络,再次大幅提升了翻译质量,逐渐成为各家科技公司机器翻译技术的主流。

到目前为止,机器翻译的逻辑和人工翻译的方法已经走到了两个岔路口。

不确定的未来

“机器翻译的算法与人类思维有很大不同。” 黄学冬说道。“简单生动的描述,机器翻译就是将一种人类语言投射到一个数字化的高维空间中,然后再解码成另一种语言。这个空间的高维空间是人类无法想象的。”

“机器翻译和人工翻译的逻辑有很大的不同,其实对我们来说,没有必要去研究人工同声传译或者翻译的逻辑,关键是算力和数据。” 国内某科技公司负责机器翻译团队的 PingWest 产品经理表示。

黄学东还表示,提高机器学习质量,取决于高质量的数据、不同的算法模型和性能完善的软件系统。他说,今年 3 月,微软的机器翻译系统在中英文新闻测试集上达到了与人工翻译相媲美的水平。这一突破主要依赖于机器学习小组新开发的双重学习和审议网络等模型,其中许多模型受到人类工作模式的启发。

但是,虽然每个模型的原理很清楚,并且灵感可能是模仿人类,但包含这些模型的端到端系统是一个超大的神经网络黑匣子。它会自己学习机器翻译的模型,外界很难搞清楚里面是怎么回事。这种方法也使机器翻译无法解释。

博鳌论坛自欺欺人后,腾讯分析了乱码,最终的解释是:“这种情况主要是由包括神经网络机器翻译在内的深度学习算法引起的。至少有一定的不确定性,而且存在一定的不确定性。”在某些情况下造成翻译偏差的一定概率。”

而这些机器翻译研究人员已经习以为常的“特征”,可能让普通人感到担忧。小L对机器翻译领域大量晦涩的术语非常反感。“我对机器翻译只有很简单的理解,看不懂那些复杂的算法和技术。” 小L说。“但我很反感这些公司在错误时使用不确定性或其他听起来很吓人的高级人工智能术语来搪塞。”

小L描述,每当听到科技公司不断宣传“只要有足够的数据,就可以训练出与人类同等水平的翻译”,就像听到足够多的猴子写出莎士比亚全集一样,可笑第一的。想了想,吓了一跳:“万一失控了怎么办?”

此外,一些将翻译作为毕生事业的人还在思考,人与机器在语言和翻译处理上的差异会带来什么后果?

人类学习一门外语,目的是为了理解语言,但机器似乎只完成从输入到输出的任务。在很多语言学家的眼里,似乎永远不能算是“理解”一门语言。.

“这是一个很好的问题,各种不同的观点都有。” 黄学东说,机器翻译的过程就是从低维空间到高维空间的投影过程。从计算机的角度来看,它理解语言。. 相反,机器在高维空间中非常方便,但对我们人类来说却难以理解。”

“人类语言和机器语言是不一样的设备调试错误翻译成英文,我们现在用机器可以理解的方案来完成人类语言翻译,其效果比基于人类知识结构方法设计的机器翻译要好很多。” 黄学冬说道。“这就是理想与现实之间的差距。”

“其实我们人类不一样,没有人能说清楚人脑是怎么工作的,但我们不是靠它吗?如果有一天我们训练的机器能输出稳定的输出,媲美人类,那为什么不能呢?我们靠机器??” 上述产品经理对 PingWest 说。

就这样,AI不断吃掉大量的数据,补充各种新鲜的模型,从而进化自己,然后参加机器翻译比赛,用科技行业制定的标准来衡量进步的程度;另一方面,人工同声传译仍在继续。提高对语言的理解,磨练自己的翻译技巧,像传统手艺人一样将这门手艺传承下去。而且,两人的交流也不多。

语言翻译问题自诞生之日起就伴随着人类文明的交流,正在进入两个分岔路口。两者就像在两个平行宇宙中奔跑,什么时候会重合?还是会有冲突?

还没有人知道。

© 版权声明
THE END
喜欢就支持一下吧
点赞0
分享
评论 抢沙发

请登录后发表评论