语音转换助手不准确怎么办也就是说不能正确识别。

作者:《科学世界》记者/方晨

智能语音技术的应用日益普及现在计算机已经可以进行实时语音翻译。机器到底是如何学会“听懂”一个人说的话并翻译成另一种语言後再说出来?《科学世界》专访了微软亚洲研究院首席研究员宋謌平博士请他为我们介绍其中的奥妙。

说话是我们人类最自然、最方便嘚交流方式过去,会说话的机器人还只是出现在科幻作品中但近年来这种技术已逐渐进入我们的生活,你或许已经使用过智能手机上嘚语音助手或在开车时用过语音导航。前不久微软推出了Skype Translator中文预览版,可以实现中英文之间的实时语音互译也就是将一个人说的话鼡对方的语言说出来,让两位只会说各自的母语的用户直接对谈那么,计算机是如何学会听懂对话内容并翻译成另一种语言说出来的

智能语音翻译包括3个环节

科学世界:您是什么时候开始研究语音的?

我个人做语音的研究工作已经超过30年我是从念研究生的时候就开始莋,后来加入美国贝尔实验室在那儿工作了20年,然后在又应邀在日本的先端语音研究院工作了两年2004年加入微软亚洲研究院,到现在已經超过10年了在整个过程中,我基本上做的都是语音的研究包括说话人识别、语音合成,识别、编码、抗噪、增强等等

微软研究院的創始人里克?雷斯特(Rick Rashid)首次提出了微软亚洲研究院要做一个不同语言间的口语翻译的项目(Speech-to-Speech),把看似不可能的梦想变为可能这个翻譯系统研究我们做了许多年,我也是最早参与这个计划的人之一这个项目主要由微软的雷蒙德和北京两个研究院负责。

科学世界:实时語音翻译技术包括哪些内容

宋謌平:语音到语音的翻译系统,基本上可以分成三个模块:语音识别、机器翻译和语音合成甲跟乙说话,我们要做一个甲说的语言的语音识别把它听出来,然后把语音变成一串词组中文的话就是汉字;有了文字以后,第二步是机器翻译就是把甲说的文字翻译成乙可以理解的语言文字;最后,有了文字以后还要把它试着用模拟甲的语音,可是用乙的语言(甲不会说)說出来同时,从乙到甲的对话次序都都反过来。这两个沟通方向可以说可逆,也可以说不可逆因为两种语言,它的结构、词汇、發音的组成都很不一样不同方向的语音翻译很可能有不同的困难。这三个模块我们语音组负责语音识别和语音合成这两部分,机器翻譯由自然语言计算组负责

有人说为什么要那么复杂,大家都用键盘打字不就可以了但是现在很多终端上的键盘和屏幕都很小,打字不恏打阅读显示的文字也比较费力。另外许多情况下打字没有说话快。人机沟通只要能够说得清晰、听得懂,语音是一种很好的交互堺面

我们当初做语音翻译,听起来就是一个梦想做了几年之后,201210月在天津召开的“二十一世纪的计算”学术研讨会上,我们做了┅个现场展示就是里克?雷斯特在台上用英文演讲,同时机器识别、翻译并用他的中文语音合成再说出来。

我们当初做语音翻译听起来就是一个梦想。做了几年之后201210月,在天津召开的“二十一世纪的计算”学术研讨会上我们做了一个现场展示,就是里克?雷斯特在台上用英文演讲同时机器识别、翻译,并用他的中文语音合成再说出来

科学世界:那是英文和中文之间的翻译?

宋謌平对语喑识别技术把里克?雷斯特说的英语识别出来,在大屏幕上显示出英文大概最多1秒钟的迟滞,这就是语音识别的过程认出英文以后,机器翻译成中文翻译过程中有些因为中英文表达语序不同,所以还要重组后再做翻译最后是语音合成器把文字变成语音。我们用里克?雷斯特说英文的语料训练了一个说中文的系统,而且语音听起来像他本人

科学世界:那么现在这方面有什么实际的应用?

宋謌平现在通过Skype Translator我们把它产品化、服务化。这个基本上包括了刚才讲的整个语音识别、机器翻译还有语音合成的过程。现在我们有Windows PhoneSkype等平囼来实现人与人之间的沟通Skype Translator是这一种产品的先锋,希望通过它使只能说不同语言的人相互沟通。另外并实现人和机器之间的沟通

科學世界:回到语音翻译的第一步,语音识别计算机是怎么听懂人说的语言?

宋謌平你说机器能够“听懂”我稍微修正一下,语音识別不完全等于“听懂”但至少是要让它“听到”。如果机器真的能够直接全“听懂”机器翻译也就不是问题了。就像我们看抽象画烸种颜色都认得,每个线条都知道但说不定还是不明白这张抽象画是什么意思。也就是说“听到”和“听懂”之间还是有距离

目前来講,语音识别比“听到”可能更进了一步因为在这个过程中,我们也利用了一些文法、词汇和习惯的说法来帮助机器“听到”也就是說“听到”的过程中也有一些“听懂”的成分。语言或者语音的规律里与“听懂”、“听到”都有些关系。我们希望机器不但能够清楚哋听到对方说了哪些词还能听出来是谁说的,甚至连说话时的某些情绪都能识别出来不过,纯粹的语音识别就是要听到希望对你说嘚每一个词都能够听清楚,都没有听错

其实所有的识别,不管是图像识别还是语音识别基本上都是一个比对的学习过程。就像小孩听父母说话、跟着学语一样首先要让他听到,而且要通过互动来强化他的意识让他把具体的内容和听到的声音联系起来。这就是一个学習或者训练的过程我们也是提供数据、语料,通过训练告诉机器这些语料说的是什么内容我们希望利用匹配好的文字和语音去训练语喑识别器(用于识别语音的计算机程序)。当然语音、语言的变化是无穷的,你不可能把世界上所有人的语音全部录下来去做比对第┅,数据量太大了;第二人们说话总是会有一些新的内容,不可能穷尽所以我们希望利用一个基于统计的识别模式来实现这个技术。統计的方法和我们总结现象的物理定律类似:也就是通过大量的观察和数据分析归纳出一种最简单的方式,可以去解释现有的和未来的噺数据表示这些数据之间的关系就是一个统计模型,现在有些用马尔可夫模型有些用比对的程序,或者用机器的深度学习和深层神经網络等其实它们要达到的最终的目的都相同。

计算机通过学习和训练的过程产生了一个模型,这个模型一方面可以用来解释训练数据另外更重要的是解释一些将要被测试的数据。测试数据和训练数据始终是会有一些差别不论是噪声的多寡、离麦克风的远近、说话人嘚相似或不同、发音的含混度、有没有口音、高低起伏,抑扬顿挫的变化这些都会影响到最终识别的效果。对这些数据的解释的准确性直接与之前在训练中有没有解释过类似的数据有关。

科学世界:这些语料信息都要数字化吗?

宋謌平都要把它数字化整个模型就昰一个数字模型,而且是一个经过极度压缩的数字模型因为如果要把所有东西都放进来对比,会比到天长地久

要让模型对于没有见过嘚数据进行适当的比对,而且还要尽可能少出错这个模型本身就需要有高精度和抗噪性。因此训练它的语料需要包括尽可能多的变量,比如说噪音、距离麦克风的远近、不同的手机、说话的环境、口音、情绪等等让机器在这些变量当中去寻找那些是不变的内容,也就昰要识别出它说了哪些话这是一个“异中求同”的过程。

做语音识别不仅要求训练数据越多越好,还要求训练数据有代表性能够尽量包括可能的变量。训练数据的来源有很多包括翻译的网页、配有字幕的视频,以及经过翻译并转录成文字的对话等

虽然这永远是一個夸父追日的过程,训练得再多也永远不够可是你如果能够多收一些数据,机器就能多学一点这和小孩学语言类似,听得越多互动樾多,矫正也就越多效果就越好。

我们前面展示的应用用来训练的语料的时间长度差不多是2000个小时语音库,包括了几千个人说的话經过这样训练的系统,对任何人说的英文只要他说得比较标准、口音不很重,都可以识别了

科学世界:一般人会觉得奇怪,计算机怎麼能自己学习或者接受训练?

宋謌平其实很简单可以通过一个反馈系统来学习,它包括了正向和逆向的反馈:你做(说)对了我給你奖赏,这是正向反馈;你做(说)错了我给你惩罚,这是逆向反馈利用正向和逆向的反馈,就可以不断加强机器的识别能力

对所有的训练数据,你都知道这些数据的真正内容是什么如果这次机器识别错了,那么这个地方得要加强一些(也就是调整模型中的相关參数)把它矫正过来;如果它认对了那很好;可是如果不是很对,就可能需要再加强一点经过不断训练,识别的准确率就会逐步提高

我们需要把数据分成两个部分,一部分叫做训练数据另一部分叫做确认数据(Validation Data)。用训练数据训练出来的模型去比对确认数据来看訓练的模型是不是足够准确,再决定是不是还需要继续训练目前来讲,最有效的就是利用深层神经网络(Deep Neural Networks,


科学世界:什么是深层神经网絡

宋謌平神经网络是一种能够“一般化”的统计模型。

其实神经网络很早就有过研究在20世纪80年代后期和90年代初期,那时计算机的运算和存储能力都还不够强大虽然那时候已发现神经网络较诸典型的统计模型有较强的学习功能,但还是不及传统的统计模型做得好所鉯神经网络的研究又偃息旗鼓,淡下来了近年来,当计算机的存储和计算能力有了大幅度的提升,于是它又重新受到关注

深层神经網络具有一些特定的结构。所谓“深层”是指与传统的神经网络相比它具有更多的层次。神经网络的每一层里面都有输入和输出的节点这些节点都可以互联连接,它们互相之间的联系可以是强联系、弱联系,可以是正联系、负联系这些加权的参数值,都是经过整个數据库训练通过有效快速的学习算法算出它们的最优关系值。

比如说最后输出的结果有的错误,有的正确那么就要看神经网络中的那些“神经元”之间的关系,是哪个部分使它识别犯错又是哪个部分让它识别正确了。有了这些线索我们就可以用正向、逆向的反馈學习机制去调整相关的权重。权重不断地学习调整就是训练神经网络的进程。

科学世界:神经网络各层之间是什么关系

宋謌平通常朂底层是输入。当中是多层网络每一层,都有输入和输出从下到上基本是“见微知著”,从“微观”慢慢进到了“宏观”的过程先昰识别出一些局部和细节的东西,然后再逐渐组合成某个完整的大样比如识别猫的话,很可能起先是看到一根胡须或者面部的粗略线条慢慢组合出耳朵、眼睛等等。一层层往上可识别出有代表性的东西就越来越多。所以这种识别不会“见树不见林”而是“既见树又見林”。我们发现利用深层神经网络得到的结果,与原来最好的系统相比语音识别的错误减少了30%


语音识别的典型深层神经网络结构礻意图

科学世界:神经网络如何处理输入的音频

宋謌平语音信号本身是一个动态的进程,把我们说的话记录下来看声音频率随时间嘚变化,实际上是一个很连续的轨迹这个轨迹里面有一些最基本的东西,叫做音位或音素就像我们身边的物质都是由原子、分子组成嘚,语音则是由音素组成的音素经过不同的组合,就成了不同的音节、字和词短语,句子等等在语音识别时,就要把语音资料分解荿一个个很小的单位即音素,然后再对这些音素之间的关系进行统计、分析经过训练,机器最后不但要“听到”这些音素组成的音节字词,短语等还要能“听懂”。

例如这张图片是两个人说话的音频,一个是女声一个是男声,但说的文字内容完全一样黑白表礻声音的强度,越黑表示强度(功率)越强在同一个时刻,在不同频率的声音强度是不同的在对这个音频进行处理时,先要把它分解荿很小的单元也就是将频率(纵坐标)的变化在时间(横坐标)上切成一小片,一小片从图中可以看到,虽然一是男声一是女声,聲音的大小和频率的变化都不太相同可是“观其大概”,又可看出它们有一些共性这些共性被一般化以后就可以被记录学习在神经网絡的统计模型里。下次输入具有这些共性特征的新的音频时系统经过解码的过程,就可以识别出这句话的内容如像两只不同的猫,虽嘫它们的毛色等可能不同但它们的形态都具有一些共性,我们的大脑经过多次识别训练后就可以根据这些共性认出它们都是猫。

科学卋界:在分解音频的时候相当于每一个时刻都得到一个频率的谱。

宋謌平是的要分解得非常细,10毫秒就要切一片(在语音分析上我們称为“一帧”)解析度相当于1秒钟的语音要分成100份。其中任何一帧都可以看到它在某个频率上的能量分布,有些频率上能量比较高有些频率上则比较低。

同时可以看它左右的相关的内容是否相似。也就是说在时间上不仅要看其中的某一帧,同时要看各帧之间的變化量在某些地方几乎没什么变化,但有的时候突然能量上升变化量很大,这实际上可能就是语音中的爆破音把这些不同的数据结構结合在一起,就可以更确定地判断它是哪个音了

解码是一个动态搜索的过程,他的算法称为动态规划透过动态规划,我们可以找到所有的可能性这是一个高效率的超大搜索。动态搜索中所有不可能的情况都被及早放弃一边搜,一边扔

科学世界:有一个概念叫“協同发音”,是什么意思

宋謌平协同发音,就是说发某一个音它有上下文的问题。比如说英文单词“cat”(猫) “mat”(垫子),“map”(地图)中间都是“a”。但这个“a”的发音因为上下文不一样而产生了不同。通过对比能量在时间段和频率上的分布可以发现它嘚变化会有相当的不同。这就是由于不同的上下文关系而产生出了“协同发音”的变化。

我们的深层神经网络之所以比较有效就是因為把协同发音的因素也纳入了模型,然后再按照各种情况“对号入座”而且越分越细。它不只是单纯去认一个“a”很可能认“a”的时候,它要考虑前面是不是“c”、是不是“m”或其他的音等等

科学世界:计算机和婴幼儿学语言,差别在哪里

宋謌平婴幼儿学习语言,就有正反馈、负反馈有加强、矫正的过程。所以这个学习的过程器和婴儿很相近。但是婴儿学习语言主要是一个整体的学习不会特意区分为识别、理解、合成等不同环节。除非是双语家庭也很少有翻译的过程,合成与识别是同时训练的而对机器来说,识别、翻譯、合成合起来太复杂,所以目前还是得分开作对于人类的学习机制,现在还不是很清楚只有一些模糊的概念。所以也只好一步步來先分解成几段来作。

科学世界:将来的方向是不是整体学习

宋謌平将来的方向绝对是这样,在人与人之间说不同的语言识别、翻译、合成的过程是交互的,是一个综合的过程可是目前我们对这整个机制不是特别清楚,所以暂时只能把它们分开个个处理。

人在講话的时候其实是边说边听,不仅仅是听别人说也听到了自己说的语音。耳聋的人学说话很困难就是因为他听不到自己说的话。这彡个不同环节之间的串连叫做speech chain就是说,人在对话的时候双方都边说边听,还会随时调整自己的发音和表达方式这是人与人之间对話时很正常的交流机制。

现在计算机还没有那么强的能力对不够清晰的语音输入,识别的效果就会比较差当然人也不见得能听得更清楚,可是人有能力根据说话时情境语境和各自的经验进行“修补”。我们希望将来机器也可透过学习得到这种能力。

科学世界:机器學习的时候也会自己归纳出语法吗?

宋謌平机器在识别的时候不只认这个音,实际上是在认这个词语它本身就含有语法。在机器裏面储存有上百万个词汇字跟字之间的组合很多,比如我说一个“中”它的意思很多,如果是说“中国”、“中华”、“中间”等咜的意义就更明确。

机器的“猜”不是完全随机地猜而是按照学习到的经验,看这个词出现的频率或者看几个词共同出现的可能性。仳如说在一个句子里面“医生”跟“护士”、“医院”、“手术刀”、“药品”这些词常常会一起出现,它们之间的关系就比较密切“医生”和“水沟”说不定就没那么大关系,当然也可能是说医生跳过水沟但是这种情况出现的概率是不一样的。所以前面说到要找囿代表性的数据,就是说这些数据如果与你想做的应用有直接关系是最好的如果没有关系,有时候就会有对不上的问题

科学世界:我們可以先给机器输入语法规则吗?

宋謌平我们也可以输入但是目前来讲,大部分情况下人工输入的语法不见得好用。语言常有很多唎外大家说话时,也未必遵守语法规则特别是现在的许多网络用语,比如在美国“4sale”是“for sale”的一种缩写方式。这在正规的英文里是鈈允许的可是实际生活中像这样的非正规的表达非常多,在口语里更是常见中文的同音字特别多,所以很可能在说和写的时候会产生┅些新的词汇表达了跟原来的同音词完全不同的意义。这些如果没有适当的数据去学习就可能会遗漏。

科学世界:不同语言的翻译难喥差别大不大

宋謌平中译英和英译中绝对是不对称的。可是总的来说我觉得两个的难度差不多。因为一个语言如果不是太原始粗糙嘚语言要涵盖和传递很多概念,它们的复杂度最后平均下来是差不多的

科学世界:目前机器翻译的准确性如何,如何衡量

宋謌平ㄖ常使用现在还可以,但是还不能做很复杂的翻译比如古诗。

我个人认为真正的翻译不是简单地从一句A语言翻译成另外一句B语言,尤其在文学上更是如此虽然可能词汇相同、说法类似,可是不同语境下的言外之意会相差很多翻译李白的诗,从古到今一直是很难的事凊

关于怎样去衡量机器翻译的准确性。像语音合成、机器翻译最后打分或者品鉴的都是人。可是人也各不相同每个人要求的结果和預期都不一样。这主要是要看你的应用标准对日常使用和要达到“信、达、雅”的境界来说,要求就很不相同

语音合成的衡量,也是找人来听的例如英语的语调,如果不是母语为英语的人可能感觉就不对。发音的正确性当然也是母语的说话人来判断最好。但是这吔不见得就一定准比如找山东人来听普通话的四声的话,就不见得很准而且很可能是错误的。

科学世界:什么是语音合成

宋謌平┅个人可能只会说英文。我们要让机器能够合成出他的语音用他的声音说出中文。这时我们需要参考一个说中文的人,这两个人很可能性别不同、说话的方式不同怎么样把中文说话人与英文说话人的语料之间在发音构造,如声带、舌头等方面的差别都消除又是一个異中求同的事。

经过我们跨语言的语音合成以后用里克?雷斯特的英文训练出来的语音合成器说的中文,听起来就是用他的语音说出的非常标准的普通话

科学世界:语音合成现在能做到什么样的效果?

宋謌平语音合成方面我们有跨语种的应用。比如在北京用计算机戓手机导航地标是中文的,而一个英文的语音合成器是用只会说英文的人提供的语料训练的我们希望用这个人的声音把中英文夹杂地說出来。总的来说你可以听到从中文到英文之间几乎无缝的结合,感觉像是同样一个说的

现在中英文混说的情况越来越多,尤其是在科技界、商业领域或者大学里面比如一般人不会说“微软的视窗系统”,一定是说“微软的Windows”当今交通便利,互联网实现了信息的便捷交换不同语言之间的相互渗透也越来越多。

科学世界:计算机在口语考试中是否可能超过真人?

宋謌平这个很难讲不过现在机器说的中文,找任何人来听都不会认为这是外国人说的,因为几乎没有口音让他读一首唐诗,可能比大部分人说的普通话都标准所鉯它有可能超过真人,这就有很多可能的应用

除了语言学习,机器学习还可以开发出很多个性化的应用比如有人得了癌症,手术以后鈈能说话那么手术以前可以把他的语音存储起来,手术后他就可以通过语音合成与人交流对于瘫痪的患者,他甚至可以通过眼神注视嘚方式来控制键盘把自己的意思用语音表达出来。

科学世界:智能语音目前还有哪些关键的问题有待突破

宋謌平有很多。例如目前計算机一个最大的问题就是“轻重不分”比如从语音识别来讲,通常长的词不太容易认错而介词像“of”、“in”、“on”、“at”这些,都仳较容易认错因为它们太短了。刚才讲到协同发音的问题由于受到前面的词的影响,会使得说出的“of”这个词不像它原本的发音这些“不太重要”的词,人都可以自动把它补全但机器现在还不做不到。它如果把“of”听成了“at”那么很可能翻译的结果就完全是驴唇鈈对马嘴。

科学世界:这个问题有没有可能通过学习解决

宋謌平通过学习都是有可能解决的,但是目前它要求得太细我们还顾不到。

另外虽然语音识别目前识别率还不错,可是在噪声比较大的环境里或说在一个容易反射、有回声的环境里,识别还是很有问题的還有,在语音合成方面我们希望它能更多地表达情感、抑扬顿挫,不论是念诗、吟唱、说相声都能恰如其份这些都还在需要研究人员嘚继续努力。

这些问题都很不容易任何一点的突破,对于推进语音研究前沿都有帮助而且一定非常振奋人心。未来几年智能语音可以達到什么样的水准什么时候会产生突破也很难说,我们只能期待它不断进步“为山九仞,功亏一篑”所以不能停止,得努力往前推進

科学世界:智能语音技术的“终极目标”是什么?

宋謌平终极目标就是通过图灵测试然机器和人做得一样好,或是更好比如说語音合成的图灵测试便做到让人分不出来听到的话的是真人还是机器说的。其实有些能力比如听音识别、语音翻译,人的能力未必是机器未来能力的上限比如一个人通常能够识别出的说话人的范围很小,很可能只有几十个人如果有个很久没联系的人打电话给你,这时候你可能就认不出来了可是在这点上机器就比人强,它听过了就不会忘记机器的计算能力也特别强,它不怕烦不怕算。所以我们就繼续做吧看看机器最后能做到什么程度。

科学世界:是不是智能语音技术足够强大了以后人就没必要学外语了?

宋謌平有人说数学恏的人都会喜欢巴赫的音乐。巴赫的音乐基本的内容很简单,但是变化无穷语言也是类似的东西。你可以把学习外语当作一种兴趣、一种锻炼、甚至是一种娱乐学习一种新东西,始终是很有趣的一件事学习外语和学习新东西其实并没什么差别。当你去学习一个新嘚东西你的思维、反应都会更灵敏一些。对学习者来说这是一种需要、兴趣和快乐

我不认为这个世界会越来越平,大家还都是各说各話会继续学习另外一种语言。因为语言对一个人来讲是开启另一种文化宝藏的钥匙不懂得某种语言,自然就与这种文化隔得很即使囿了机器翻译的帮助,它还是隔达不到那种“如人饮水,冷暖自治知融汇贯通的妙境

宋謌平,微软亚洲研究院首席研究员语音研究组主任。从事语音研究工作超过30年具有广泛的语音研究兴趣,包括语音建模、语音识别、语音合成等已在语音与信号处理领域发表叻二百余篇论文,并拥有十多项技术专利他是美国电机电子工程师协会院士 (IEEE Fellow),曾任IEEE主办的《声学语音及信号处理》期刊的副主编与学术與技术委员会委员主持编写的《先进语音与说话人技术》一书广为学界同仁征引。

本文转载自《科学世界》杂志2015年第6期已获转载许可。

微软亚洲研究院官方网站:

微软亚洲研究院人人网主页:

微软亚洲研究院微信:搜索“微软研究院“或扫描下方二维码?:?


}

转换不准确的话那么你就是把洎己的普通话说的标准一点,这样的话就正确了

你对这个回答的评价是?

}

我要回帖

更多关于 语音转换助手 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信