CN110931000A - 语音识别的方法和装置 - Google Patents
语音识别的方法和装置 Download PDFInfo
- Publication number
- CN110931000A CN110931000A CN201811099967.4A CN201811099967A CN110931000A CN 110931000 A CN110931000 A CN 110931000A CN 201811099967 A CN201811099967 A CN 201811099967A CN 110931000 A CN110931000 A CN 110931000A
- Authority
- CN
- China
- Prior art keywords
- phoneme
- data
- model
- character
- feature code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000006243 chemical reaction Methods 0.000 claims abstract description 50
- 238000013527 convolutional neural network Methods 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 23
- 230000004927 fusion Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 description 13
- 230000002093 peripheral effect Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种语音识别的方法和装置,属于语音识别领域。所述方法包括:获取待识别的语音数据;确定所述语音数据对应的音素数据;将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。采用本发明,可以提高语音数据识别的准确度。
Description
技术领域
本发明涉及语音识别技术领域,特别涉及一种语音识别的方法和装置。
背景技术
随着科学技术的不断发展,语音智能控制技术也有了很大的进步,语音控制家用电器已经在日常生活中得到了应用。
相关技术的语音识别处理,主要采用语音识别模型将语音数据直接转换为文字数据,该模型可以通过训练学习得到。
发明人发现如果采用将语音数据转换为文字数据的处理方式,准确度比较低,因此,急需有一种能够提供更高的语音识别准确度的方法。
发明内容
针对上述技术问题,本申请实施例提供了一种语音识别的方法和装置。
第一方面,本申请实施例提供了一种语音识别的方法,所述方法包括:
获取待识别的语音数据;
确定所述语音数据对应的音素数据;
将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
可选的,所述方法还包括:
获取样本音素数据和对应的样本文字数据;
将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
可选的,所述确定所述语音数据对应的音素数据,包括:
基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
可选的,所述音素汉字转换模型,包括编码器模型、解码器模型、注意力机制模型和空间搜索模型;
所述将所述音素数据,输入预先训练的音素汉字转换模型,得到所述语音数据对应的汉字文本,包括:
将所述音素数据输入所述编码器模型,得到所述音素数据对应的第一特征码;
将所述第一特征码输入所述注意力机制模型,得到所述音素数据对应的第二特征码;
将所述第二特征码输入所述解码器模型,得到所述音素数据中第1个音素单元对应的文字的特征码;
设置所述音素数据对应的文字顺序号i等于1;
将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码,输入所述注意力机制模型,得到所述第i个音素单元对应的文字的融合特征码;
将所述第i个音素单元对应的文字的融合特征码,输入所述空间搜索模型,得到所述第i个音素单元对应的文字;
如果所述第i个音素单元不是所述音素数据中的最后一个音素单元,则将所述第i个音素单元对应的文字和所述第二特征码,输入所述解码器模型,得到所述音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码输入所述注意力机制模型的处理步骤;
如果所述第i个音素单元是所述音素数据中的最后一个音素单元,则将通过空间搜索模型得到的每个音素单元对应的文字,按照对应的音素单元在所述音素数据中的排序,组合在一起,得到所述语音数据对应的文字数据。
可选的,所述编码器模型为卷积神经网络CNN,所述解码器模型为卷积神经网络CNN。
第二方面,本申请实施例提供了一种语音识别的装置,所述装置包括:
获取模块,用于获取待识别的语音数据;
确定模块,用于确定所述语音数据对应的音素数据;
转换模块,用于将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
可选的,所述装置还包括训练模块,用于:
获取样本音素数据和对应的样本文字数据;
将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
可选的,所述确定模块,用于:
基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
可选的,所述音素汉字转换模型,包括编码器模型、解码器模型、注意力机制模型和空间搜索模型;
所述转换模块,用于:
将所述音素数据输入所述编码器模型,得到所述音素数据对应的第一特征码;
将所述第一特征码输入所述注意力机制模型,得到所述音素数据对应的第二特征码;
将所述第二特征码输入所述解码器模型,得到所述音素数据中第1个音素单元对应的文字的特征码;
设置所述音素数据对应的文字顺序号i等于1;
将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码,输入所述注意力机制模型,得到所述第i个音素单元对应的文字的融合特征码;
将所述第i个音素单元对应的文字的融合特征码,输入所述空间搜索模型,得到所述第i个音素单元对应的文字;
如果所述第i个音素单元不是所述音素数据中的最后一个音素单元,则将所述第i个音素单元对应的文字和所述第二特征码,输入所述解码器模型,得到所述音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码输入所述注意力机制模型的处理步骤;
如果所述第i个音素单元是所述音素数据中的最后一个音素单元,则将通过空间搜索模型得到的每个音素单元对应的文字,按照对应的音素单元在所述音素数据中的排序,组合在一起,得到所述语音数据对应的文字数据。
可选的,所述编码器模型为卷积神经网络CNN,所述解码器模型为卷积神经网络CNN。
第三方面,本申请实施例提供了一种终端,所述终端包括处理器和存储器,所述存储器中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如上述第一方面所述的语音识别的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述至少一条指令由所述处理器加载并执行以实现如上述第一方面所述的语音识别的方法。
本申请实施例提供的技术方案带来的有益效果至少包括:
本申请实施例中,将语音数据识别过程分为两部分,首先将语音数据转换为音素数据,然后再利用音素文字转换模型将音素数据转换为文字数据。这种转换方式,相对于直接将语音数据转换为文字数据,降低了数据转换的跨度,语音数据向音素数据的转换,以及音素数据向文字数据的转换具有更高的准确度。因而,本方案对语音数据的识别有更高的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种语音识别的方法的流程图;
图2是本申请实施例提供的一种语音识别的方法的流程图;
图3是本申请实施例提供的一种语音识别的方法的流程图;
图4是本申请实施例提供的一种语音识别的装置的结构示意图;
图5是本申请实施例提供的一种终端的结构示意图;
图6是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
本申请实施例提供了一种语音识别的方法,该方法可以由终端或服务器实现。其中,终端可以是具有语音采集功能的设备,如手机、电脑、空调或电视等;服务器可以是具有语音采集功能的是设备的后台服务器。
本实施例,仅以终端为执行主体为例进行说明,其它情况与此类似,在此不做累述。
如图1所示,该方法的处理流程可以包括如下的步骤:
在步骤101中,获取待识别的语音数据。
在实施中,用户想要通过语音对终端进行控制时,可以先开启终端的语音识别功能,然后对着该终端说出相应的控制语。例如,用户想要控制手机中的即时通信应用向张三发送某文字信息时,可以对手机说“打开即时通信应用,向张三发送:今天下雨”;或者,用户想要控制空调的温度时,可以对空调说“将温度调整到25度”。终端通过音频采集设备采集到相应的语音数据,自用户开始说话起,直到检测到的音量低于预设阈值为止,此时获取的语音数据即为待识别的语音数据。当用户说话的内容比较多时,相应的持续时间也会比较长,终端自用户开始说话起,按预设时长获取多段语音数据,每段语音数据分别可以作为待识别的语音数据。
在步骤102中,确定待识别的语音数据对应的音素数据。
其中,音素数据是用于表示发音的标识组成的数据,例如,对于汉语来说,音素数据为汉字所对应的拼音。音素数据中可以包括一个或多个音素单元,每个音素单元对应一个字,每个音素单元可以由一个或多个发音的标识组成,对于汉语来说,发音的标识为每个拼音中的声母和韵母,例如,“我”字对应的音素单元为wǒ。例如,日语中“か”对应的音速单元为“ka”。
可选的,为了使语音数据转换为音素数据准确率和效率更高,可以采用机器训练模型进行转换,相应的,在步骤102的处理可以如下:基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
其中,语音声学模型为基于CNN和RNN(Recurrent Neural Network,循环神经网络)构建的模型。
在实施中,要预先对语音声学模型进行训练,技术人员可以从已有的数据库中获取语音数据及其对应的音素数据,或者从互联网获取语音数据,再由人工根据语音数据得到音素数据,其中,语音数据为样本语音数据,作为样本输入数据,音素数据为样本音素数据,作为样本输出数据,组成训练样本,对初始的语音声学模型进行训练,得到所需的语音声学模型。在语音声学模型的训练过程中,由于样本数据量庞大,所以可以在服务器中进行。
对于确定语音数据所对应的音素数据的处理过程,可以在终端中进行。以用户实时说话所产生的语音数据作为该语音声学模型的输入为例:当用户向终端说出一句话时,终端对语音数据进行获取,并将其输入到语音声学模型中,语音模型会经过CNN对语音数据进行特征提取再经过RNN(Recurrent Neural Network,循环神经网络)的处理后,得到相应的音素数据。
在步骤103中,将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
其中,音素文字转换模型为机器训练模型。
在实施中,终端将语音数据经语音声学模型转换得到的音素数据,输入到预先训练好的音素文字转换模型,即可得到该音素数据所对应的文字数据。终端可以对文字数据进行显示,例如,在即时通信应用中,用户可以通过语音输入文字,终端显示文字数据之后,用户还可以对显示的文字数据进行编辑。或者终端可以基于文字数据,执行对应的操作,例如,在智能手机的语音助手中,可以对其说出操作指令,“给李四打电话”,语音助手会在界面显示“给李四打电话”,并执行此操作。
可选的,在进行音素文字转换之前,要预先训练音素文字转换模型,相应的,处理可以如下:获取样本音素数据和对应的样本文字数据;将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
在实施中,由于要利用近六百万的训练样本对初始音素文字转换模型进行训练,所以该训练过程可以在服务器中进行。对于样本音素数据和其对应的样本文字数据的获取,可以由技术人员先从互联网或者已存的数据库中获取文字数据,作为样本文字数据,再通过发音字典得到文字数据相对应的音素数据,作为样本音素数据。将样本音素数据作为样本输入数据,将与样本音素数据相对应的样本文字数据作为样本输出数据,组成训练样本。本方案可以采用反向传播算法作为预设的训练算法,对初始音素文字转换模型进行训练。将样本输入数据输入到初始音素文字转换模型中,得到输出数据,再由服务器基于输出数据、样本输出数据和预设的训练算法,确定模型中每个待调整参数的调整值,对相应的待调整参数进行调整。对于每个训练样本,都按照上述流程进行处理,得到最终的音素文字转换模型。
可选的,音素汉字转换模型包括编码器模型、解码器模型、注意力机制模型和空间搜索模型,相应的,如图3所示,在步骤103的处理可以如下:
步骤1031,将音素数据输入编码器模型,得到音素数据对应的第一特征码。
步骤1032,将第一特征码输入注意力机制模型,得到音素数据对应的第二特征码。
步骤1033,将第二特征码输入解码器模型,得到音素数据中第1个音素单元对应的文字的特征码;设置音素数据对应的文字顺序号i等于1。
步骤1034,将第一特征码和音素数据中第i个音素单元对应的文字的特征码,输入注意力机制模型,得到第i个音素单元对应的文字的融合特征码。
步骤1035,将第i个音素单元对应的文字的融合特征码,输入空间搜索模型,得到第i个音素单元对应的文字。
步骤1036,如果第i个音素单元不是音素数据中的最后一个音素单元,则将第i个音素单元对应的文字和第二特征码,输入解码器模型,得到音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行步骤四。
步骤1037,如果第i个音素单元是音素数据中的最后一个音素单元,则将通过空间搜索模型得到的每个音素单元对应的文字,按照对应的音素单元在音素数据中的排序,组合在一起,得到语音数据对应的文字数据。
其中,上述的编码器模型和解码器模型均可采用CNN(Convolutional NeuralNetwork,卷积神经网络)。
在实施中,对由上述语音声学模型得到的音素数据,以One-Hot(独热)编码形式编码,得到相应的输入序列,再将该输入序列输入编码器模型,在编码器模型中,通过Embeding(嵌入)操作,将输入序列映射到一个统一维度,以使输入序列中各元素间的关系更有效的表示。在编码器模型中,CNN网络中的每个卷积层间均采用残差连接,因此就要在该编码器模型输出之前进行Linear Mapping(线性映射)以改变向量维度。然后编码器模块便会输出音素数据对应的第一特征码,该第一特征码,可以是特征向量的形式。再将该第一特征码注意力机制模型,得到与音素数据相对应的第二特征码。
然后由编码器模块得到的第一特征码和该音素数据的第一个音素单元所对应的文字的特征码,输入到注意力机制模型中,得到该第一个音素单元对应的文字的融合特征码。再将该第一个音素单元对应的文字的融合特征码,输入到空间搜索模型,便可以得到该第1个音素单元对应的文字。
再将上述的第二特征码和第1个音素单元对应的文字,输入到解码器模型中,便可以得到第2个音素单元对应的文字的特征码。其中,解码器中也同样会进行Embeding(嵌入)操作,采用残差连接,在输出之前进行Linear Mapping(线性映射)操作。然后将由编码器模型得到的第一特征码和由解码器模型得到第2个音素单元对应的文字的特征码,输入注意力机制模型中,得到第2个音素单元对应的文字的融合特征码,再第2个音素单元对应的文字的融合特征码,输入到空间搜索模型中,便可以得到第2个音素单元对应的文字。对后续的第3个音素单元、第4个音素单元等均要进行上述操作,在此不做赘述。该循环的操作过程,直到音素数据的最后一个音素单元所对应的文字数据输出为止。
另外需要注意,与音素文字转换模型使用过程不同的是,在训练音素文字转换模型时,待训练的解码器模型的输入不再是用模型预测的上一个音素单元对应的文字,而是用上一个音素单元对应的正确的文字来输入。
如上所述,本实施例所描述的语音识别方法,通过基于卷积的序列学习的模型实现,在语音数据到文字数据的转换速度也有所提升。
基于相同的技术构思,本申请实施例还提供了一种语音识别的装置,该装置可以为上述实施例中的终端,如图4所示,该装置包括:获取模块401,确定模块402,转换模块403和训练模块404。
获取模块401,用于获取待识别的语音数据;
确定模块402,用于确定所述语音数据对应的音素数据;
转换模块403,用于将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
可选的,所述装置还包括训练模块404,用于:
获取样本音素数据和对应的样本文字数据;
将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
可选的,所述确定模块402,用于:
基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
可选的,所述音素汉字转换模型,包括编码器模型、解码器模型、注意力机制模型和空间搜索模型;
所述转换模块403,用于:
将所述音素数据输入所述编码器模型,得到所述音素数据对应的第一特征码;
将所述第一特征码输入所述注意力机制模型,得到所述音素数据对应的第二特征码;
将所述第二特征码输入所述解码器模型,得到所述音素数据中第1个音素单元对应的文字的特征码;
设置所述音素数据对应的文字顺序号i等于1;
将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码,输入所述注意力机制模型,得到所述第i个音素单元对应的文字的融合特征码;
将所述第i个音素单元对应的文字的融合特征码,输入所述空间搜索模型,得到所述第i个音素单元对应的文字;
如果所述第i个音素单元不是所述音素数据中的最后一个音素单元,则将所述第i个音素单元对应的文字和所述第二特征码,输入所述解码器模型,得到所述音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码输入所述注意力机制模型的处理步骤;
如果所述第i个音素单元是所述音素数据中的最后一个音素单元,则将得到的每个音素单元对应的文字,按照对应的音素单元在所述音素数据中的排序,组合在一起,得到所述语音数据对应的文字数据。
可选的,所述编码器模型为卷积神经网络CNN,所述解码器模型为卷积神经网络CNN。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
需要说明的是:上述实施例提供的语音识别的装置在语音识别时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的语音识别的装置与语音识别的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5是本申请实施例提供的一种终端的结构框图。该终端500可以是便携式移动终端,比如:智能手机、平板电脑。终端500还可能被称为用户设备、便携式终端等其他名称。
通常,终端500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是有形的和非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器501所执行以实现本申请中提供的语音识别方法。
在一些实施例中,终端500还可选包括有:外围设备接口503和至少一个外围设备。具体地,外围设备包括:射频电路504、触摸显示屏505、音频电路506和电源507中的至少一种。
外围设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和外围设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和外围设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
触摸显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。触摸显示屏505还具有采集在触摸显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。触摸显示屏505用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,触摸显示屏505可以为一个,设置终端500的前面板;在另一些实施例中,触摸显示屏505可以为至少两个,分别设置在终端500的不同表面或呈折叠设计;在再一些实施例中,触摸显示屏505可以是柔性显示屏,设置在终端500的弯曲表面上或折叠面上。甚至,触摸显示屏505还可以设置成非矩形的不规则图形,也即异形屏。触摸显示屏505可以采用LCD(LiquidCrystal Display,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
音频电路506用于提供用户和终端500之间的音频接口。音频电路506可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路506还可以包括耳机插孔。
电源507用于为终端500中的各个组件进行供电。电源507可以是交流电、直流电、一次性电池或可充电电池。当电源507包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
本领域技术人员可以理解,图5中示出的结构并不构成对终端500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机可读存储介质,存储介质中存储有至少一条指令,至少一条指令由处理器加载并执行以实现上述实施例中的识别动作类别的方法。例如,所述计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图6是本申请实施例提供的一种服务器的结构示意图,该服务器600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)601和一个或一个以上的存储器602,其中,所述存储器602中存储有至少一条指令,所述至少一条指令由所述处理器601加载并执行以实现上述语音识别的方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种语音识别的方法,其特征在于,所述方法包括:
获取待识别的语音数据;
确定所述语音数据对应的音素数据;
将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取样本音素数据和对应的样本文字数据;
将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
3.根据权利要求1所述方法,其特征在于,所述确定所述语音数据对应的音素数据,包括:
基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
4.根据权利要求1所述的方法,其特征在于,所述音素汉字转换模型,包括编码器模型、解码器模型、注意力机制模型和空间搜索模型;
所述将所述音素数据,输入预先训练的音素汉字转换模型,得到所述语音数据对应的汉字文本,包括:
将所述音素数据输入所述编码器模型,得到所述音素数据对应的第一特征码;
将所述第一特征码输入所述注意力机制模型,得到所述音素数据对应的第二特征码;
将所述第二特征码输入所述解码器模型,得到所述音素数据中第1个音素单元对应的文字的特征码;
设置所述音素数据对应的文字顺序号i等于1;
将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码,输入所述注意力机制模型,得到所述第i个音素单元对应的文字的融合特征码;
将所述第i个音素单元对应的文字的融合特征码,输入所述空间搜索模型,得到所述第i个音素单元对应的文字;
如果所述第i个音素单元不是所述音素数据中的最后一个音素单元,则将所述第i个音素单元对应的文字和所述第二特征码,输入所述解码器模型,得到所述音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码输入所述注意力机制模型的处理步骤;
如果所述第i个音素单元是所述音素数据中的最后一个音素单元,则将通过空间搜索模型得到的每个音素单元对应的文字,按照对应的音素单元在所述音素数据中的排序,组合在一起,得到所述语音数据对应的文字数据。
5.根据权利要求4所述的方法,其特征在于,所述编码器模型为卷积神经网络CNN,所述解码器模型为卷积神经网络CNN。
6.一种语音识别的装置,其特征在于,所述装置包括:
获取模块,用于获取待识别的语音数据;
确定模块,用于确定所述语音数据对应的音素数据;
转换模块,用于将所述音素数据,输入预先训练的音素文字转换模型,得到所述语音数据对应的文字数据。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括训练模块,用于:
获取样本音素数据和对应的样本文字数据;
将所述样本音素数据作为样本输入数据,所述样本文字数据作为样本输出数据,对初始音素文字转换模型进行训练,得到所述音素文字转换模型。
8.根据权利要求6所述方法,其特征在于,所述确定模块,用于:
基于预先训练的语音声学模型,确定所述语音数据对应的音素数据。
9.根据权利要求6所述的装置,其特征在于,所述音素汉字转换模型,包括编码器模型、解码器模型、注意力机制模型和空间搜索模型;
所述转换模块,用于:
将所述音素数据输入所述编码器模型,得到所述音素数据对应的第一特征码;
将所述第一特征码输入所述注意力机制模型,得到所述音素数据对应的第二特征码;
将所述第二特征码输入所述解码器模型,得到所述音素数据中第1个音素单元对应的文字的特征码;
设置所述音素数据对应的文字顺序号i等于1;
将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码,输入所述注意力机制模型,得到所述第i个音素单元对应的文字的融合特征码;
将所述第i个音素单元对应的文字的融合特征码,输入所述空间搜索模型,得到所述第i个音素单元对应的文字;
如果所述第i个音素单元不是所述音素数据中的最后一个音素单元,则将所述第i个音素单元对应的文字和所述第二特征码,输入所述解码器模型,得到所述音素数据中第i+1个音素单元对应的文字的特征码,将i的数值加1,并转至执行将所述第一特征码和所述音素数据中第i个音素单元对应的文字的特征码输入所述注意力机制模型的处理步骤;
如果所述第i个音素单元是所述音素数据中的最后一个音素单元,则将通过空间搜索模型得到的每个音素单元对应的文字,按照对应的音素单元在所述音素数据中的排序,组合在一起,得到所述语音数据对应的文字数据。
10.根据权利要求9所述的装置,其特征在于,所述编码器模型为卷积神经网络CNN,所述解码器模型为卷积神经网络CNN。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811099967.4A CN110931000B (zh) | 2018-09-20 | 2018-09-20 | 语音识别的方法和装置 |
PCT/CN2019/106909 WO2020057624A1 (zh) | 2018-09-20 | 2019-09-20 | 语音识别的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811099967.4A CN110931000B (zh) | 2018-09-20 | 2018-09-20 | 语音识别的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110931000A true CN110931000A (zh) | 2020-03-27 |
CN110931000B CN110931000B (zh) | 2022-08-02 |
Family
ID=69856142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811099967.4A Active CN110931000B (zh) | 2018-09-20 | 2018-09-20 | 语音识别的方法和装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110931000B (zh) |
WO (1) | WO2020057624A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111986653A (zh) * | 2020-08-06 | 2020-11-24 | 杭州海康威视数字技术股份有限公司 | 一种语音意图识别方法、装置及设备 |
CN113160820A (zh) * | 2021-04-28 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 语音识别的方法、语音识别模型的训练方法、装置及设备 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507958B (zh) * | 2020-12-22 | 2024-04-02 | 成都东方天呈智能科技有限公司 | 不同人脸识别模型特征码的转换系统及可读存储介质 |
CN113782007B (zh) * | 2021-09-07 | 2024-08-16 | 上海企创信息科技有限公司 | 一种语音识别方法、装置、语音识别设备及存储介质 |
CN113838456B (zh) * | 2021-09-28 | 2024-05-31 | 中国科学技术大学 | 音素提取方法、语音识别方法、装置、设备及存储介质 |
CN113887200B (zh) * | 2021-09-29 | 2024-09-27 | 平安银行股份有限公司 | 文本变长纠错方法、装置、电子设备及存储介质 |
CN113889089B (zh) * | 2021-09-29 | 2024-07-19 | 北京百度网讯科技有限公司 | 语音识别模型的获取方法、装置、电子设备以及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105283914A (zh) * | 2013-06-14 | 2016-01-27 | 三菱电机株式会社 | 用于识别语音的系统和方法 |
CN107731228A (zh) * | 2017-09-20 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 英文语音信息的文本转换方法和装置 |
CN108170686A (zh) * | 2017-12-29 | 2018-06-15 | 科大讯飞股份有限公司 | 文本翻译方法及装置 |
US20180190268A1 (en) * | 2017-01-04 | 2018-07-05 | Samsung Electronics Co., Ltd. | Speech recognizing method and apparatus |
CN108417202A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8543393B2 (en) * | 2008-05-20 | 2013-09-24 | Calabrio, Inc. | Systems and methods of improving automated speech recognition accuracy using statistical analysis of search terms |
CN104637482B (zh) * | 2015-01-19 | 2015-12-09 | 孔繁泽 | 一种语音识别方法、装置、系统以及语言交换系统 |
CN106021249A (zh) * | 2015-09-16 | 2016-10-12 | 展视网(北京)科技有限公司 | 一种基于内容的语音文件检索方法和系统 |
CN108492820B (zh) * | 2018-03-20 | 2021-08-10 | 华南理工大学 | 基于循环神经网络语言模型和深度神经网络声学模型的中文语音识别方法 |
-
2018
- 2018-09-20 CN CN201811099967.4A patent/CN110931000B/zh active Active
-
2019
- 2019-09-20 WO PCT/CN2019/106909 patent/WO2020057624A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105283914A (zh) * | 2013-06-14 | 2016-01-27 | 三菱电机株式会社 | 用于识别语音的系统和方法 |
US20180190268A1 (en) * | 2017-01-04 | 2018-07-05 | Samsung Electronics Co., Ltd. | Speech recognizing method and apparatus |
CN108269569A (zh) * | 2017-01-04 | 2018-07-10 | 三星电子株式会社 | 语音识别方法和设备 |
CN107731228A (zh) * | 2017-09-20 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 英文语音信息的文本转换方法和装置 |
CN108170686A (zh) * | 2017-12-29 | 2018-06-15 | 科大讯飞股份有限公司 | 文本翻译方法及装置 |
CN108417202A (zh) * | 2018-01-19 | 2018-08-17 | 苏州思必驰信息科技有限公司 | 语音识别方法及系统 |
Non-Patent Citations (4)
Title |
---|
ZHEHUAI CHEN ET AL: "On Modular Training of Neural Acoustics-to-Word Model for LVCSR", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》 * |
ZHEHUAI CHEN ET AL: "On Modular Training of Neural Acoustics-to-Word Model for LVCSR", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》, 13 September 2018 (2018-09-13) * |
李灿等: "基于Deep Speech的语音识别系统的实现与改进", 《计算机与数字工程》 * |
李灿等: "基于Deep Speech的语音识别系统的实现与改进", 《计算机与数字工程》, no. 08, 20 August 2017 (2017-08-20) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111986653A (zh) * | 2020-08-06 | 2020-11-24 | 杭州海康威视数字技术股份有限公司 | 一种语音意图识别方法、装置及设备 |
CN113160820A (zh) * | 2021-04-28 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 语音识别的方法、语音识别模型的训练方法、装置及设备 |
CN113160820B (zh) * | 2021-04-28 | 2024-02-27 | 百度在线网络技术(北京)有限公司 | 语音识别的方法、语音识别模型的训练方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110931000B (zh) | 2022-08-02 |
WO2020057624A1 (zh) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110931000B (zh) | 语音识别的方法和装置 | |
CN108615526B (zh) | 语音信号中关键词的检测方法、装置、终端及存储介质 | |
CN110457457B (zh) | 对话生成模型的训练方法、对话生成方法及装置 | |
CN111261144A (zh) | 一种语音识别的方法、装置、终端以及存储介质 | |
CN110992963B (zh) | 网络通话方法、装置、计算机设备及存储介质 | |
CN110364156A (zh) | 语音交互方法、系统、终端及可读存储介质 | |
CN108922531B (zh) | 槽位识别方法、装置、电子设备及存储介质 | |
CN109308900B (zh) | 耳机装置、语音处理系统和语音处理方法 | |
CN108073572A (zh) | 信息处理方法及其装置、同声翻译系统 | |
CN112912955A (zh) | 提供基于语音识别的服务的电子装置和系统 | |
CN110555329A (zh) | 一种手语翻译的方法、终端以及存储介质 | |
CN111081275B (zh) | 基于声音分析的终端处理方法、装置、存储介质及终端 | |
CN114333774A (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN114360510A (zh) | 一种语音识别方法和相关装置 | |
CN112712788B (zh) | 语音合成方法、语音合成模型的训练方法及装置 | |
CN113889084A (zh) | 音频识别方法、装置、电子设备及存储介质 | |
CN115116437A (zh) | 语音识别方法、装置、计算机设备、存储介质及产品 | |
CN115394285A (zh) | 语音克隆方法、装置、设备及存储介质 | |
CN117198286A (zh) | 一种语音交互方法及终端 | |
CN112750425B (zh) | 语音识别方法、装置、计算机设备及计算机可读存储介质 | |
CN113823278B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN115691476B (zh) | 语音识别模型的训练方法、语音识别方法、装置及设备 | |
CN110288999B (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN116665643B (zh) | 韵律标注方法、装置和终端设备 | |
CN115331672B (zh) | 设备控制方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |