深圳量子语音识别标准

时间:2023年10月19日 来源:

    将匹配度高的识别结果提供给用户。ASR技术已经被应用到各种智能终端,为人们提供了一种崭新的人机交互体验,但多数都是基于在线引擎实现。本文针对离线网络环境,结合特定领域内的应用场景,提出了一套实用性强,成本较低的语音识别解决方案,实现非特定人连续语音识别功能。第二章本文从方案的主要功能模块入手,对涉及到的关键要素进行详细的分析描述,同时对实现过程中的关键事项进行具体分析,并提出应对措施。第三章根据方案设计语音拨号软件,并对语音拨号软件的功能进行科学的测试验证。1低成本的语音识别解决方案(1)主要功能划分在特定领域内的语音识别,主要以命令发布为主,以快捷实现人机交互为目的。比如在电话通信领域,我们常以“呼叫某某某”、“帮我查找某某某电话”为语音输入,这些输入语音语法结构单一,目的明确,场景性较强,本方案决定采用命令模式实现语音识别功能。方案主要包括四个功能模块:语音控制模块、音频采集模块、语音识别离线引擎和应用数据库模块,各模块的主要功能及要求如图1所示。图1低成本语音识别解决方案功能模块语音控制模块作为方案实现的模块,主要用于实现语音识别的控制管理功能。语音识别技术在个人助理、智能家居等很多领域都有运用到。深圳量子语音识别标准

    取距离近的样本所对应的词标注为该语音信号的发音。该方法对解决孤立词识别是有效的,但对于大词汇量、非特定人连续语音识别就无能为力。因此,进入80年代后,研究思路发生了重大变化,从传统的基于模板匹配的技术思路开始转向基于统计模型(HMM)的技术思路。HMM的理论基础在1970年前后就已经由Baum等人建立起来,随后由CMU的Baker和IBM的Jelinek等人将其应用到语音识别当中。HMM模型假定一个音素含有3到5个状态,同一状态的发音相对稳定,不同状态间是可以按照一定概率进行跳转;某一状态的特征分布可以用概率模型来描述,使用***的模型是GMM。因此GMM-HMM框架中,HMM描述的是语音的短时平稳的动态性,GMM用来描述HMM每一状态内部的发音特征。基于GMM-HMM框架,研究者提出各种改进方法,如结合上下文信息的动态贝叶斯方法、区分性训练方法、自适应训练方法、HMM/NN混合模型方法等。这些方法都对语音识别研究产生了深远影响,并为下一代语音识别技术的产生做好了准备。自上世纪90年代语音识别声学模型的区分性训练准则和模型自适应方法被提出以后,在很长一段内语音识别的发展比较缓慢,语音识别错误率那条线一直没有明显下降。DNN-HMM时代2006年。深圳量子语音识别标准在语音识别的漫长历史中,人工神经网络的浅层和深层(例如递归网络)。

   技术和产业之间形成了比较好的正向迭代效应,落地场景越多,得到的真实数据越多,挖掘的用户需求也更准确,这帮助了语音识别技术快速进步,也基本满足了产业需求,解决了很多实际问题,这也是语音识别相对其他AI技术为明显的优势。不过,我们也要看到,语音识别的内涵必须不断扩展,狭义语音识别必须走向广义语音识别,致力于让机器听懂人类语言,这才能将语音识别研究带到更高维度。我们相信,多技术、多学科、多传感的融合化将是未来人工智能发展的主流趋势。在这种趋势下,我们还有很多未来的问题需要探讨,比如键盘、鼠标、触摸屏和语音交互的关系怎么变化?搜索、电商、社交是否再次重构?硬件是否逆袭变得比软件更加重要?产业链中的传感、芯片、操作系统、产品和内容厂商之间的关系又该如何变化?

    LSTM通过输入门、输出门和遗忘门可以更好的控制信息的流动和传递,具有长短时记忆能力。虽然LSTM的计算复杂度会比DNN增加,但其整体性能比DNN有相对20%左右稳定提升。BLSTM是在LSTM基础上做的进一步改进,考虑语音信号的历史信息对当前帧的影响,还要考虑未来信息对当前帧的影响,因此其网络中沿时间轴存在正向和反向两个信息传递过程,这样该模型可以更充分考虑上下文对于当前语音帧的影响,能够极大提高语音状态分类的准确率。BLSTM考虑未来信息的代价是需要进行句子级更新,模型训练的收敛速度比较慢,同时也会带来解码的延迟,对于这些问题,业届都进行了工程优化与改进,即使现在仍然有很多大公司使用的都是该模型结构。图像识别中主流的模型就是CNN,而语音信号的时频图也可以看作是一幅图像,因此CNN也被引入到语音识别中。要想提高语音识别率,就需要克服语音信号所面临的多样性,包括说话人自身、说话人所处的环境、采集设备等,这些多样性都可以等价为各种滤波器与语音信号的卷积。而CNN相当于设计了一系列具有局部关注特性的滤波器,并通过训练学习得到滤波器的参数,从而从多样性的语音信号中抽取出不变的部分。语音识别模块被广泛应用在AI人工智能产品、智能家居遥控、智能玩具等多种领域上。

    所有语音交互产品都是端到端打通的产品,如果每家厂商都从这些基础技术来打造产品,那就每家都要建立自己云服务稳定,确保响应速度,适配自己所选择的硬件平台,逐项整合具体的内容(比如音乐、有声读物)。这从产品方或者解决方案商的视角来看是不可接受的。这时候就会催生相应的平台服务商,它要同时解决技术、内容接入和工程细节等问题,终达成试错成本低、体验却足够好的目标。平台服务并不需要闭门造车,平台服务的前提是要有能屏蔽产品差异的操作系统,这是AI+IOT的特征,也是有所参照的,亚马逊过去近10年里是同步着手做两件事:一个是持续推出面向终端用户的产品,比如Echo,EchoShow等;一个是把所有产品所内置的系统Alexa进行平台化,面向设备端和技能端同步开放SDK和调试发布平台。虽然GoogleAssistant号称单点技术,但从各方面的结果来看Alexa是当之无愧的系统平台,可惜的是Alexa并不支持中文以及相应的后台服务。国内则缺乏亚马逊这种统治力的系统平台提供商,当前的平台提供商分为两个阵营:一类是以百度、阿里、讯飞、小米、腾讯的传统互联网或者上市公司;一类是以声智等为新兴人工智能公司。新兴的人工智能公司相比传统公司产品和服务上的历史包袱更轻。当前技术还存在很多不足,如对于强噪声、超远场、强干扰、多语种、大词汇等场景下的语音识别还需很大提升。辽宁语音识别文字

智能玩具语音识别技术的智能化也让玩具行业进行了变革,比如智能语音娃娃、智能语音儿童机器人。深圳量子语音识别标准

    美国**部下属的一个名为美国**高级研究计划局(DefenseAdvancedResearchProjectsAgency,DARPA)的行政机构,在20世纪70年代介入语音领域,开始资助一项旨在支持语言理解系统的研究开发工作的10年战略计划。在该计划推动下,诞生了一系列不错的研究成果,如卡耐基梅隆大学推出了Harpy系统,其能识别1000多个单词且有不错的识别率。第二阶段:统计模型(GMM-HMM)到了20世纪80年代,更多的研究人员开始从对孤立词识别系统的研究转向对大词汇量连续语音识别系统的研究,并且大量的连续语音识别算法应运而生,例如分层构造(LevelBuilding)算法等。同时,20世纪80年代的语音识别研究相较于20世纪70年代,另一个变化是基于统计模型的技术逐渐替代了基于模板匹配的技术。统计模型两项很重要的成果是声学模型和语言模型,语言模型以n元语言模型(n-gram),声学模型以HMM。HMM的理论基础在1970年前后由Baum等人建立,随后由卡耐基梅隆大学(CMU)的Baker和IBM的Jelinek等人应用到语音识别中。在20世纪80年代中期,Bell实验室的.Rabiner等人对HMM进行了深入浅出的介绍。并出版了语音识别专著FundamentalsofSpeechRecognition,有力地推动了HMM在语音识别中的应用。深圳量子语音识别标准

信息来源于互联网 本站不为信息真实性负责