CN111599363B - 一种语音识别的方法及其装置 - Google Patents

一种语音识别的方法及其装置 Download PDF

Info

Publication number
CN111599363B
CN111599363B CN201910104761.4A CN201910104761A CN111599363B CN 111599363 B CN111599363 B CN 111599363B CN 201910104761 A CN201910104761 A CN 201910104761A CN 111599363 B CN111599363 B CN 111599363B
Authority
CN
China
Prior art keywords
candidate
model
speech
voice
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910104761.4A
Other languages
English (en)
Other versions
CN111599363A (zh
Inventor
赵洲
李林琳
仇伟
陈漠沙
司罗
孟令涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910104761.4A priority Critical patent/CN111599363B/zh
Publication of CN111599363A publication Critical patent/CN111599363A/zh
Application granted granted Critical
Publication of CN111599363B publication Critical patent/CN111599363B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种语音识别的方法及其装置,所述方法包括:将与获取的语音对应的声谱图输入到语音模型,获取与所述语音对应的多个候选分句;利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值;将候选值最高的候选分句确定为目标识别文本。采用本申请,可利用多层评价模型对利用语音模型输出的多个候选分句执行量化处理,从而能够更准确且直观地确定目标识别文本。

Description

一种语音识别的方法及其装置
技术领域
本申请涉及计算机技术领域,尤其涉及一种语音识别的方法及其装置。
背景技术
随着信息化社会的发展以及信息技术的进步,语音识别技术经历了从无到有,从稚嫩到成熟的发展过程,现有语音识别技术无论是从识别速度上还是从识别准确度上,均可满足人们对语音识别的基本需求。
但是在很多场景中对语音识别的准确度提出了更高的挑战,例如,医疗场景中,如何能够更准确且高效地识别医务工作人员的语音信息且自动转化成文字信息,可以极大提升医院的整体效率,需要一种能够更准确地执行语音识别的技术方案。
发明内容
本申请的主要目的之一在于提供一种语音识别的方法及其装置,旨在至少解决以上提到的问题
本申请实施例提供一种语音识别的方法,所述方法包括:将与获取的语音对应的声谱图输入到语音模型,获取与所述语音对应的多个候选分句;利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值;将候选值最高的候选分句确定为目标识别文本。
本申请实施例还提供一种语音识别装置,包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行如上方法。
本申请实施例提供一种语音识别的方法,所述方法包括:获取与语音对应的多个候选分句;利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值;将候选值最高的候选分句确定为目标识别文本。
本申请实施例提供一种语音识别的方法,所述方法包括:将与获取的语音对应的声谱图输入到多层语音识别模型,获取数值最高的候选分句作为与所述语音对应的目标识别文本。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:
根据本申请的示例性实施例的语音识别的方法及其装置可利用多层评价模型对利用语音模型输出的多个候选分句执行量化处理,从而能够更准确且直观地确定目标识别文本。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请的示例性实施例的语音识别方法的场景图;
图2是根据本申请的示例性实施例的语音识别方法的流程图;
图3是根据本申请的示例性实施例的语音识别方法的示图;
图4是根据本申请的示例性实施例的语音识别装置的框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于更清楚地理解本申请,以下将对本申请中涉及的术语进行解释。
语音识别,也被称为自动语音识别(Automatic Speech Recognition,ASR),是指可通过识别和理解,将输入的语音信号转变为相应的文字或命令输出。
声谱图(Sonogram)是指将整个音频范围用不同颜色记录的资料。在声谱图中,横轴表示时间,而纵轴表示该时间的频率分量。由于声谱图中包括大量的信息,因此可作为输入信息直接进行处理,而无需将其转换为二维数据(例如,向量)。
卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,人工神经元可以响应周围单元,从而提取出声谱图中的特征。
循环神经网络(Recurrent Neural Network,RNN)是一种节点定向连接成环的人工神经网络。这种网络的内部状态可以展示动态时序行为。不同于前馈神经网络的是,RNN可以利用它内部的记忆来处理任意时序的输入序列,有效提取声谱图中的时序信息。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1是根据本申请的示例性实施例的语音识别方法的场景图。
如图1所述,用户根据自身情况发出语音,随后,该语音可被电子终端100接收到,例如,用户可利用移动终端的麦克风向移动终端输入语音信息,随后,移动终端可将接收到的语音信息进行处理。
电子终端100可在接收到语音信息后,利用自身的软/硬件对所述语音信息进行处理,但应注意,由于处理的计算量很大,因此,通常可将该语音信息发送到与电子终端对应的服务器200执行根据本申请的示例性实施例的语音识别方法,虽然图1中仅示出了一个服务器,但应理解,可利用多个服务器来执行所述方法。
图2是根据本申请的示例性实施例的语音识别方法的流程图。在执行所述方法之前,可生成与获取的语音对应的声谱图。所述语音可以是在预定时间段内(例如,5秒内)获取的语音,此外,按照发声规律,用户说完一句话后会自然停顿,随后继续说下一句,因此,可将用户自然停顿之前的语音作为获取的语音进行处理,也就是说,可以是间隔预定时间短内获取的语音。随后,可根据获取的语音随时间变化的频率和振幅,生成该语音的声谱图。
在步骤S210,将与获取的语音对应的声谱图输入到语音模型,获取与所述语音对应的多个候选分句。在利用语音模型对所述声谱图进行处理时,可逐帧输入声谱图,也就是说,输入声谱图帧。
所述语音模型可以是基于神经网络模型的模型,也就是说,可利用神经网络模型对所述声谱图帧执行处理,获取与所述语音对应的多个候选分句。应注意,在利用神经网络模型执行处理之前,需要先对所述神经网络模型进行训练,从而获取语音模型。具体来说,可利用各声谱图与对应的语音标签(例如,字/字符)的对应关系进行训练,使语音模型的参数达到设定的条件,例如,使得语音模型的准确率达到80%以上。
所述语音模型可包括输入层、神经网络层、全连接层以及输出层,其中,神经网络层可包括卷积层、池化层。也就是说,进入该语音模型的数据依次经过输入层、多个网络层、全连接层以及输出层后输出。
具体来说,输入层可以是指输入的声谱图,也就是说,将声谱图作为图像执行以下操作,而输出层可以是利用softmax函数执行归一化后的结果。在数学,尤其是概率论和相关领域中,Softmax函数(归一化指数函数)是逻辑函数的一种,它能将一个含任意实数的K维向量“压缩”到另一个K维实向量中,使得每一个元素的范围都在[0,1]之间,并且所有元素的和为1。
全连接层是指每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性,一般全连接层的参数也是最多的。例如在VGG16中,第一个全连接层FC1有4096个节点,上一层池化层是7*7*512=25088个节点,则该传输需要4096*25088个权值,需要耗很大的内存。
所述多个网络层可以是多个相同的神经网络模型,也可以是多个不同的神经网络模型。根据本申请的示例性实施例,所述多个网络层的种类包括卷积神经网络(CNN)、循环神经网络(RNN)以及门控循环单元(GRU)中的一个或多个。其中,CNN、RNN以及GRU均是本领域技术人员熟知的神经网络模型,在此将不再详述。
优选地,所述多个网络层可包括如图3所示的包括两个卷积层的卷积神经网络以及三个循环神经网络,后续将参照图3进行详细描述,在此将不再展开。可选地,所述网络层还包括注意力网络,其中,注意力网络也是本领域技术人员熟知的神经网络模型,在此将不再详述。
最后,利用所述语音模型可获取到与每帧声谱图对应的标签构成的候选分句以及与该候选分句对应的概率分布。具体来说,可利用所述语音模型获取长度为T的候选序列a,其概率分布可按照如下公式1进行计算:
Figure BDA0001966462330000051
其中,x表示输入的声谱图,at表示输出的候选序列中的第t个标签,P(at,t|x)该输出候选序列中第t个标签的概率分布,随后,对搜书候选序列执行清洗处理,即,去除候选分句中的重复标签(即,汉字)或者无效输入,获取如公式2的候选分句以及概率分布:
Figure BDA0001966462330000052
其中,
Figure BDA0001966462330000053
表示对公式1中候选序列a执行清洗处理后获取的候选分句/>
Figure BDA0001966462330000054
对应的概率分布。随后,这些候选分句可被执行步骤S230。
在步骤S220,利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值,其中,所述多层评价模型实际上是对候选分句在不同层次上进行评价后进行综合评价,可以理解为所述多层评价模型可以是不同层次上的评价模型进行耦合后获取的模型,因此,所述多层评价模型可包括在不同层次上的多个层次评价模型。
利用多层评价模型确定候选值需要首先确定与所述多个层次评价模型分别对应的多个评价值,在实施中,利用从所述语音模型中获取的与所述多个层次评价模型分别对应的参数值,计算与所述多个层次评价模型分别对应的多个评价值。随后,可利用所述多个评价值确定与每个候选分句对应的候选值。
以上所述的多个层次评价模型至少包括基于有效信息的评价模型。也就是说,在对候选分句进行评价时,会根据有效信息的准确性来确定目标识别文本。基于有效信息的评价模型是通过从所述语音模型中获取的每个候选分句中的有效候选分词的数量与无效候选分词的数量而获取的。在实施中,可根据如下公式3来实现基于有效信息的评价模型:
RM(y)=γp*num(posword)+γn*num(negword) (3)
其中,y表示候选分句,num(posword)为候选分句中出现的有效词语的数量,num(negword)为候选分句中出现的无效词语的数量,以上参数均可通过步骤S210中的语音模型获取。γp与γn为提前设置的参数,这可以是默认设置的或者是本领域技术人员根据需要设置的。
此外,所述多个层次评价模型还可包括基于字符的评价模型或基于词语的评价模型等在不同层次上评价候选分句的模型。也就是说,所有在不同层次上对所述候选分句进行量化评价的模型均可应用于本申请。
基于字符的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选字符在出现前两个候选字符的情况下出现第三个候选字符的概率值而获取的。在实施例中,可利用公式4来实现该模型:
CM(y)=logP(y1|ys,ys)+logP(y2|ys,y1)+logP(y3|y1,y2)+...+logP(ye|yn-1,yn) (4)
其中,y1,y2,...,yn表示候选分句y中的n个汉字,P(yk|yk-1,yk-2)表示在出现yk-1,yk-2两个汉字的条件下,出现yk的概率。
此外,基于词语的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选分词在出现前两个候选分词的情况下出现第三个候选分词的概率值而获取的。在实施例中,可利用以下公式5来实现该模型:
Figure BDA0001966462330000071
其中,
Figure BDA0001966462330000072
表示出现/>
Figure BDA0001966462330000073
两个候选分词的条件下,出现候选分词
Figure BDA0001966462330000074
的概率。
当然,所述多个层次评价模型可以包括基于字符的评价模型、基于词语的评价模型以及基于有效信息的评价模型这三个模型。在这种情况下,三种模型可通过预定规则组合起来生成多层评价模型。在实施例中,可利用以下公式6来确定多层评价模型:
Score(y)=α*CM(y)+β*WM(y)+γ*RM(y) (6)
其中,α、β、γ为提前设置的参数,CM(y)、WM(y)、RM(y)可分别按照如上的公式利用从语音模型中获取的参数值来获取。
在步骤S230,将候选值最高的候选分句确定为目标识别文本。
在另一示例性实施例中,还可将语音模型与多层评价模型耦合在一起,生成多层语音识别模型,将声谱图输入到该多层语音识别模型后,可直接获取到目标识别文本,也就是说,根据本申请的示例性实施例的语音识别的方法,包括将获取的语音对应的声谱图输入到多层语音识别模型,获取数值最高的候选分句作为与所述语音对应的目标识别文本。
在另一示例性实施例中,提供一种语音识别的方法,所述方法包括:获取与语音对应的多个候选分句;利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值;将候选值最高的候选分句确定为目标识别文本。
综上可述,根据本申请的示例性实施例的语音识别的方法可通过将声谱图输入语音模型生成多个候选分句,将语音信号分析获取的频谱图作为图像进行处理,使得语音识别的速度和准确性都得到了极大的提高,此外,还可利用多层评价模型对利用语音模型输出的多个候选分句执行量化处理,从而能够更准确且直观地确定目标识别文本。更进一步地,所述语音识别模型可以是基于利用训练集进行训练后的神经网络而形成的模型,利用这种语音识别模型可利用卷积神经网络在时间和空间上的平移不变性卷积,从而利用卷积的不变性来克服语音信号本身的多样性。更进一步地,所述神经网络层可包括卷积神经网络获取语音特征的情况下利用循环神经网络获取语音的时序信息,从而能够更准确地提高识别的准确性。更进一步地,所述神经网络层还可包括注意力机制,从而增加语音模型的泛化能力。更进一步地,所述多层评价模型能够在不同层次上对候选分句进行量化评价,因此能够从多个候选分句中选出最准确的语音识别信息。更进一步地,所述多层评价模型至少包括基于有效信息的评价模型,这样能够在对候选分句进行评价时考虑到有效信息获取的准确性。更进一步地,所述多层评价模型可包括基于字符的评价模型、基于词语的评价模型以及基于有效信息的评价模型,因此能够在字、词、有效信息三个层面上对候选分句进行量化评价,并根据需要对这三个层次的量值分配不同的权重,从而能够根据用户需求更准确地评价候选分句。
为了更清楚地描述本申请的示例性实施例,以下将结合图3具体描述优选实施例。
如图3所述,在获取到语音后,可将语音对应的声谱图作为输入输入到语音模型中,在实施中,将每帧对应的声谱图帧作为输入进行输入,所述声谱图在经过两个卷积神经网络、三个循环网络层、一个全连接层以及一个输出层(softmax函数层)后,可获取包括由多个声谱图帧对应的标签构成的候选分句。随后,可将所述候选分句输入到多层评价模型,其中,所述多层评价模型可包括基于字符的评价模型(CM)、基于词语的评价模型(DM)以及基于有效信息的评价模型(RM)。最后,数值最高的候选分句作为目标识别文本输出。
在本实施例中,可根据本申请的示例性实施例的语音识别方法处理测试语音集来评价所述方法。例如,可使用字符错误率(Character Error Rate,(CER))、有效信息准确率(Effective Information Accuracy(EIA))这两种评价标准来对于本发明的效果进行评价,得到的CER为3.95%且EIA为90.87%,因此可以看出,所述方法在保证整体错误率(CER)降低的同时,保证了有效信息提取率(EIA)的提升。
为了更清楚地明白本申请的示例性实施例的发明构思,以下将参照图4描述本申请的示例性实施例的语音识别装置的框图。本领域普通技术人员将理解:图4中的装置仅示出了与本示例性实施例相关的组件,所述装置中还包括除了图4中示出的组件之外的通用组件。
图4示出本申请的示例性实施例的语音识别装置的框图。参考图4,在硬件层面,该装置包括处理器、内部总线和计算机可读存储介质,其中,所述计算机可读存储介质包括易失性存储器和非易失性存储器。处理器从非易失性存储器中读取对应的计算机程序然后运行。当然,除了软件实现方式之外,本申请并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
具体来说,所述处理器执行以下操作:将与获取的语音对应的声谱图输入到语音模型,获取与所述语音对应的多个候选分句;利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值;将候选值最高的候选分句确定为目标识别文本。
可选地,所述多层评价模型包括在不同层次上的多个层次评价模型。
可选地,所述处理器在实现步骤利用多层评价模型确定候选值包括:确定与所述多个层次评价模型分别对应的多个评价值;利用所述多个评价值确定与每个候选分句对应的候选值。
可选地,所述处理器在实现步骤确定与所述多个层次评价模型分别对应的多个评价值包括:利用从所述语音模型中获取的与所述多个层次评价模型分别对应的参数值,计算与所述多个层次评价模型分别对应的多个评价值。
可选地,所述多个层次评价模型包括基于字符的评价模型、基于词语的评价模型以及基于有效信息的评价模型。
可选地,基于字符的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选字符在出现前两个候选字符的情况下出现第三个候选字符的概率值而获取的。
可选地,基于词语的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选分词在出现前两个候选分词的情况下出现第三个候选分词的概率值而获取的。
可选地,基于有效信息的评价模型是通过从所述语音模型中获取的每个候选分句中的有效候选分词的数量与无效候选分词的数量而获取的。
可选地,所述处理器实现步骤将所述声谱图输入到语音模型获取与所述语音对应的多个候选分句包括:将所述声谱图输入到语音模型,获取与所述语音对应的多个获选序列;通过将所述多个候选序列中的重复标签或空白标签去除执行对所述多个候选序列的清洗处理,获取所述多个候选分句。
可选地,所述语音模型是利用各声谱图与语音识别分句之间的对应关系进行训练而获取的模型。
可选地,所述语音模型包括输入层、输出层、全连接层以及由多个网络层。
可选地,所述多个网络层的种类包括卷积神经网络层、循环神经网络层以及门控循环单元(GRU)中的一个或多个。
可选地,所述多个神经网络包括具有两个卷积层的卷积神经网络层以及三个循环神经网络层。
可选地,所述多个网络层还包括注意力网络层。
综上可述,根据本申请的示例性实施例的语音识别的方法可通过将声谱图输入语音模型生成多个候选分句,将语音信号分析获取的频谱图作为图像进行处理,使得语音识别的速度和准确性都得到了极大的提高,此外,还可利用多层评价模型对利用语音模型输出的多个候选分句执行量化处理,从而能够更准确且直观地确定目标识别文本。更进一步地,所述语音识别模型可以是基于利用训练集进行训练后的神经网络而形成的模型,利用这种语音识别模型可利用卷积神经网络在时间和空间上的平移不变性卷积,从而利用卷积的不变性来克服语音信号本身的多样性。更进一步地,所述神经网络层可包括卷积神经网络获取语音特征的情况下利用循环神经网络获取语音的时序信息,从而能够更准确地提高识别的准确性。更进一步地,所述神经网络层还可包括注意力机制,从而增加语音模型的泛化能力。更进一步地,所述多层评价模型能够在不同层次上对候选分句进行量化评价,因此能够从多个候选分句中选出最准确的语音识别信息。更进一步地,所述多层评价模型至少包括基于有效信息的评价模型,这样能够在对候选分句进行评价时考虑到有效信息获取的准确性。更进一步地,所述多层评价模型可包括基于字符的评价模型、基于词语的评价模型以及基于有效信息的评价模型,因此能够在字、词、有效信息三个层面上对候选分句进行量化评价,并根据需要对这三个层次的量值分配不同的权重,从而能够根据用户需求更准确地评价候选分句。
需要说明的是,实施例1所提供方法的各步骤的执行主体均可以是同一设备,或者,该方法也由不同设备作为执行主体。比如,步骤21和步骤22的执行主体可以为设备1,步骤23的执行主体可以为设备2;又比如,步骤21的执行主体可以为设备1,步骤22和步骤23的执行主体可以为设备2;等等。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (12)

1.一种语音识别的方法,其特征在于,包括:
将与获取的语音对应的声谱图输入到语音模型,获取与所述语音对应的多个候选分句;
利用多层评价模型确定与所述多个候选分句中每个候选分句对应的候选值,所述多层评价模型包括基于字符的评价模型、基于词语的评价模型以及基于有效信息的评价模型,所述基于有效信息的评价模型是通过从所述语音模型中获取的每个候选分句中的有效候选分词的数量与无效候选分词的数量而获取的;
将候选值最高的候选分句确定为目标识别文本。
2.如权利要求1所述的方法,其特征在于,利用多层评价模型确定候选值包括:
确定与所述多层评价模型分别对应的多个评价值;
利用所述多个评价值确定与每个候选分句对应的候选值。
3.如权利要求2所述的方法,其特征在于,确定与所述多层评价模型分别对应的多个评价值包括:
利用从所述语音模型中获取的与所述多层评价模型分别对应的参数值,计算与所述多层评价模型分别对应的多个评价值。
4.如权利要求1所述的方法,其特征在于,基于字符的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选字符在出现前两个候选字符的情况下出现第三个候选字符的概率值而获取的。
5.如权利要求1所述的方法,其特征在于,基于词语的评价模型是通过从所述语音模型中获取的每个候选分句的各个候选分词在出现前两个候选分词的情况下出现第三个候选分词的概率值而获取的。
6.如权利要求1所述的方法,其特征在于,将所述声谱图输入到语音模型获取与所述语音对应的多个候选分句包括:
将所述声谱图输入到语音模型,获取与所述语音对应的多个候选序列;
通过将所述多个候选序列中的重复标签或空白标签去除来执行对所述多个候选序列的清洗处理,获取所述多个候选分句。
7.如权利要求6所述的方法,其特征在于,所述语音模型是利用各声谱图与语音标签之间的对应关系进行训练而获取的模型。
8.如权利要求7所述的方法,其特征在于,所述语音模型包括输入层、输出层、全连接层以及多个网络层。
9.如权利要求8所述的方法,其特征在于,所述多个网络层的种类包括卷积神经网络层、循环神经网络层以及门控循环单元(GRU)中的至少一个。
10.如权利要求9所述的方法,其特征在于,所述多个网络层包括具有两个卷积层的卷积神经网络层以及三个循环神经网络层。
11.如权利要求10所述的方法,其特征在于,所述多个网络层还包括注意力网络层。
12.一种语音识别装置,其特征在于,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行权利要求1至11中的任一权利要求所述的方法。
CN201910104761.4A 2019-02-01 2019-02-01 一种语音识别的方法及其装置 Active CN111599363B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910104761.4A CN111599363B (zh) 2019-02-01 2019-02-01 一种语音识别的方法及其装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910104761.4A CN111599363B (zh) 2019-02-01 2019-02-01 一种语音识别的方法及其装置

Publications (2)

Publication Number Publication Date
CN111599363A CN111599363A (zh) 2020-08-28
CN111599363B true CN111599363B (zh) 2023-03-31

Family

ID=72191999

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910104761.4A Active CN111599363B (zh) 2019-02-01 2019-02-01 一种语音识别的方法及其装置

Country Status (1)

Country Link
CN (1) CN111599363B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933113B (zh) * 2020-09-29 2021-03-02 北京捷通华声科技股份有限公司 一种语音识别的方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2160184A1 (en) * 1994-12-29 1996-06-30 James Lee Hieronymus Language identification with phonological and lexical models
JP2001142485A (ja) * 1999-11-17 2001-05-25 Sharp Corp 音声認識方法および装置ならびに携帯電話機
CN101923854A (zh) * 2010-08-31 2010-12-22 中国科学院计算技术研究所 一种交互式语音识别系统和方法
CN106558306A (zh) * 2015-09-28 2017-04-05 广东新信通信息系统服务有限公司 用于语音识别的方法、装置和设备
CN108091328A (zh) * 2017-11-20 2018-05-29 北京百度网讯科技有限公司 基于人工智能的语音识别纠错方法、装置及可读介质
CN108399914A (zh) * 2017-02-06 2018-08-14 北京搜狗科技发展有限公司 一种语音识别的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2160184A1 (en) * 1994-12-29 1996-06-30 James Lee Hieronymus Language identification with phonological and lexical models
JP2001142485A (ja) * 1999-11-17 2001-05-25 Sharp Corp 音声認識方法および装置ならびに携帯電話機
CN101923854A (zh) * 2010-08-31 2010-12-22 中国科学院计算技术研究所 一种交互式语音识别系统和方法
CN106558306A (zh) * 2015-09-28 2017-04-05 广东新信通信息系统服务有限公司 用于语音识别的方法、装置和设备
CN108399914A (zh) * 2017-02-06 2018-08-14 北京搜狗科技发展有限公司 一种语音识别的方法和装置
CN108091328A (zh) * 2017-11-20 2018-05-29 北京百度网讯科技有限公司 基于人工智能的语音识别纠错方法、装置及可读介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
利用无监督自适应的兴奋解说检测和体育比赛精彩片断提取;孙怿等;《计算机应用与软件》;20081115(第11期);全文 *

Also Published As

Publication number Publication date
CN111599363A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
CN110263324B (zh) 文本处理方法、模型训练方法和装置
CN106328147B (zh) 语音识别方法和装置
US20200301954A1 (en) Reply information obtaining method and apparatus
CN105183720B (zh) 基于rnn模型的机器翻译方法和装置
CN111741330B (zh) 一种视频内容评估方法、装置、存储介质及计算机设备
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN111694940B (zh) 一种用户报告的生成方法及终端设备
CN111539197A (zh) 文本匹配方法和装置以及计算机系统和可读存储介质
CN111475622A (zh) 一种文本分类方法、装置、终端及存储介质
WO2022188644A1 (zh) 词权重的生成方法、装置、设备及介质
CN112434533B (zh) 实体消歧方法、装置、电子设备及计算机可读存储介质
CN114339450B (zh) 视频评论生成方法、系统、设备及存储介质
CN110968725B (zh) 图像内容描述信息生成方法、电子设备及存储介质
CN115662435B (zh) 一种虚拟教师拟真化语音的生成方法及终端
WO2023137922A1 (zh) 语音消息生成方法和装置、计算机设备、存储介质
CN113656563A (zh) 一种神经网络搜索方法及相关设备
CN111488813B (zh) 视频的情感标注方法、装置、电子设备及存储介质
CN114627868A (zh) 意图识别方法、装置、模型及电子设备
CN116881470A (zh) 一种生成问答对的方法及装置
KR102435035B1 (ko) 가짜 뉴스 동영상 탐지 시스템 및 그의 방법
CN111599363B (zh) 一种语音识别的方法及其装置
CN111445545B (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN111340329B (zh) 演员评估方法、装置及电子设备
CN113111855A (zh) 一种多模态情感识别方法、装置、电子设备及存储介质
CN110569331A (zh) 一种基于上下文的关联性预测方法、装置及存储设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant