CN110970018B - 语音识别方法和装置 - Google Patents
语音识别方法和装置 Download PDFInfo
- Publication number
- CN110970018B CN110970018B CN201811143178.6A CN201811143178A CN110970018B CN 110970018 B CN110970018 B CN 110970018B CN 201811143178 A CN201811143178 A CN 201811143178A CN 110970018 B CN110970018 B CN 110970018B
- Authority
- CN
- China
- Prior art keywords
- language
- voice information
- information
- voice
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Abstract
本发明公开了一种语音识别方法和装置。其中,该方法包括:获取语音信息;基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,其中,语种判断模型根据训练数据进行训练得到,训练数据包括:多个语种的语音信息和用于表示语音信息所属语种的标签;根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。本发明解决了现有技术中语音转录的过程只能在固定的一种语言模式下运行,导致智能程度较低的技术问题。
Description
技术领域
本发明涉及语言处理领域,具体而言,涉及一种语音识别方法和装置。
背景技术
人工智能技术发展迅速,智能家居对用户生活的影响也越来越大,应用便捷性逐步升级,但仍存在一些需要改进的问题。
例如,现有的智能家居系统具备接收语音指令的功能,但只能接收固定的一种语音指令,如果更换下发语音指令时的语种,则设备在进行语音转录文字的操作时难以正确的识别;如果语音指令中包括多个语种的语音,则设备在进行语音转录文字的操作时,仍然会将所有的语音信息都转换为一种语音,从而导致智能程度低,用户体验差。
针对现有技术中语音转录的过程只能在固定的一种语言模式下运行,导致智能程度较低的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种语音识别方法和装置,以至少解决现有技术中语音转录的过程只能在固定的一种语言模式下运行,导致智能程度较低的技术问题。
根据本发明实施例的一个方面,提供了一种语音识别方法,包括:获取语音信息;基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,其中,语种判断模型根据训练数据进行训练得到,训练数据包括:多个语种的语音信息和用于表示语音信息所属语种的标签;根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。
进一步地,获取采集到的声音信息;对声音信息进行去噪处理,得到目标对象的语音信息。
进一步地,将语音信息输入至语种判断模型,其中,语种判断模型输出语音信息属于每个候选语种的概率;根据每个候选语种对应的概率确定语音信息所属的语种。
进一步地,获取预设的候选语种和候选语种对应的权重;根据每个候选语种对应的概率和每个候选语种的权重,确定语音信息所属的语种。
进一步地,在根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息之后,获取预设的文字显示类型;根据文字显示类型显示文字信息。
进一步地,在获取语音信息之前,获取语种判断模型,其中,获取语种判断模型,包括:获取训练数据和初始卷积神经网络模型,其中,初始卷积神经网络模型具有初始网络参数;使用训练数据对初始卷积神经网络模型进行训练,得到目标网络参数,其中,目标网络参数用于构成语种判断模型。
根据本发明实施例的另一方面,还提供了一种语音识别装置,包括:获取模块,用于获取语音信息;确定模块,用于基于所述语音信息,根据预先获取的语种判断模型确定所述语音信息所属的语种,其中,所述语种判断模型根据训练数据进行训练得到,所述训练数据包括:多个语种的语音信息和用于表示所述语音信息所属语种的标签;转换模块,用于根据语言信息所属的语种调用对应的语言转换模块,将所述语音信息转换为对应的文字信息。
进一步地,获取模块包括:获取子模块,用于获取采集到的声音信息;处理子模块,用于对所述声音信息进行去噪处理,得到目标对象的所述语音信息。
根据本发明实施例的另一方面,还提供了一种存储介质,存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述的语音识别方法。
根据本发明实施例的另一方面,还提供了一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行上述的语音识别方法。
在本发明实施例中,获取语音信息,基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。上述方案通过语种诊断模型对语音信息的语种进行判断,避免了将多种语种的语言都按照一种语种进行语音识别,导致语音识别不准确的情况,从而解决了现有技术中语音转录的过程只能在固定的一种语言模式下运行,导致智能程度较低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的语音识别方法的流程图;以及
图2是根据本发明实施例的一种语音识别装置的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例1
根据本发明实施例,提供了一种语音识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例的语音识别方法的流程图,如图1所示,该方法包括如下步骤:
步骤S102,获取语音信息。
具体的,上述语音信息可以是用户发出的语音,或用户通过控制其他设备发出的语音。
上述语音识别方法可以应用在多种场景中,以智能家居的场景为例,该语音识别方法可以应用在空调设备上,使得用户可以通过语音对空调进行控制,以智能终端的场景为例,该语音识别方法可以应用在智能终端的控制上。
在一种可选的实施例中,以应用在智能终端为例,智能终端可以通过麦克风拾取用户的语音信息;再以智能家居系统为例,智能家居也可以通过麦克风拾取用户的语音信息。
步骤S104,基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,其中,语种判断模型根据训练数据进行训练得到,训练数据包括:多个语种的语音信息和用于表示语音信息所属语种的标签。
在上述方案中,上述语种判断模型可以是根据训练数据预先训练得到,依据预先获取的语种判断模型对语音信息进行判断,从而能够根据对语音信息的语种判断结果进行对应的语音识别。
在一种可选的实施例中,设备在接收到语音信息后,并不将语音信息输入至语音识别模块,而是先将语音信息输入至语种判断模块,对语音的语种进行判断。
上述训练数据包括多个语种的语音信息和用于表示语音信息所属语种的标签,该标签与语种具有预设的对应关系,用于在训练语种判断模型时确定训练数据中的语音信息所属的语种。
此处需要说明的是,设备所接收到的语音信息可能是整句均属于一个语种,例如:“开电视”属于中文语种,“turn on the TV”属于英文语种,但也有可能整句包含多个语种的语音信息,例如:播放my heart will go on。因此语种判断模型在判断语音信息所属语种时,可以是对整句所属的语种进行判断的,可以是对语音信息中的语句进行分词后,分别对每个词语进行判断的。
步骤S106,根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。
在一种可选的实施例中,语音识别系统中可以设置多种语音转换模块,例如:汉语语音转换模块、英语语音转换模块、法语语音转换模块等,在语音识别的过程中,根据确定的语音信息所属的语种,调用对应的语音转换模块进行识别。
在另一种可选的实施例中,上述汉语语音转换模块还可以根据汉语的类型进行更多的分类,例如:粤语语音转换模块、河南话语音转换模块、普通话语音转换模块等,为了进一步提高语音信息识别的准确性,在语音信息所属的语种为中文的情况下,可以更近一步的确定语音信息的类别,从而更准确的调用语音转换模块。
现有技术中,只要用户指定的语音识别的类型,设备会一直依照这个类型进行识别,如果用户指定的语音识别类型为识别中文,即使用户发出包含与外文的语音信息,设备仍然会按照中文进行识别。例如,用户向智能音响发出指令:播放my heart will go on。设备只能识别出“播放”,而难以识别出“my heart will go on”,因此只能音响难以正确的执行用户的该指令。
而在上述方案中,设备会首先确定语音信息所属的语种,再根据语种进行识别,仍以语音指令“播放my heart will go on”为例,智能音响识别出“播放”为中文,“my heartwill go on”为英文后,可以调用中文语音识别模块对“播放”进行识别,并调用英文识别模块对“my heart will go on”进行识别,从而能够确定用户的指令,并准确的执行。
由此可知,本申请上述实施例获取语音信息,基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。上述方案通过语种诊断模型对语音信息的语种进行判断,避免了将多种语种的语言都按照一种语种进行语音识别,导致语音识别不准确的情况,从而解决了现有技术中语音转录的过程只能在固定的一种语言模式下运行,导致智能程度较低的技术问题。
作为一种可选的实施例,获取语音信息,包括:获取采集到的声音信息;对声音信息进行去噪处理,得到目标对象的语音信息。
在设备采集语音信息时,由于环境内可能存在其他干扰的声音,例如,在室内环境中,除了用户发出语音信息的声音,还可能电视、音响等其他设备发出的声音,因此难以得到准确的语音识别结果,因此设备在采集到声音信息后,可以通过滤波等方式对声音信息进行去噪处理,以从声音信息中提取出语音信息。
在一种可选的实施例中,可以使用小波变换的手段对声音信息进行去噪处理。用小波变换将信号分解到多尺度上,再针对每一层小波系数进行阈值处理,将噪声小波系数与声音信号的小波系数分离,然后利用小波重构算法恢复信号,从而达到降噪的目的。
作为一种可选的实施例,基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,包括:将语音信息输入至语种判断模型,其中,语种判断模型输出语音信息属于每个候选语种的概率;根据每个候选语种对应的概率确定语音信息所属的语种。
具体的,上述候选语种可以是用户预先选择的,也可以是设备预先默认的。语种判断模型会预测出每种候选语种的概率,用于表示语音信息属于该语种的可能性,在根据预测的结果确定语音信息所属的语种。
在一种可选的实施例中,可以确定概率最大的候选语种为语音信息所属的语种。例如,候选语种为中文和英文,在设备接收到语音信息后,语种判断模型对语音信息的语种进行预测,得到语音信息为中文概率为98%,语音信息为英文的概率为2%,因此可以确定中文为该语句所属的语种。
作为一种可选的实施例,根据每个候选语种对应的概率确定语音信息所属的语种,包括:获取预设的候选语种和候选语种对应的权重;根据每个候选语种对应的概率和每个候选语种的权重,确定语音信息所属的语种。
具体的,上述候选语种和候选语种的权重可以由用户根据需求设置。以智能家居场景下的智能空调为例,如果家庭中不仅包括以中文为母语的成员,还包括以英文为母语的成员,则可以设置候选语种为中文和英文,并由于以中文为母语的成员的数量较多,因此可以设置中文的权重大于英文的权重。
在获取到语种判断模型输出的概率结果后,结合每个候选语种对应的权重,即可得到每个候选语种结合权重后的概率,以及结合权重后的概率确定语音信息所属的语种。
在一种可选的实施例中,设置候选语种为中文和英文,并设置中文对应的概率为65%,英文对应的概率为35%。语种诊断模型对语音信息的预测结果为:中文0.6,英文0.4。将中文对应的概率65%与中文对应的权重0.65相乘得到0.39,将英文对应的概率35%与英文对应的权重0.4相乘得到0.14,由于0.39>0.14,因此确定该语音信息属于中文。
在例如智能家居等应用场景,设备接收到的语音信息通常为用户对设备的语音指令,因此在设备识别语音信息得到语音指令的情况下,按照语音指令执行即可,但在另一些场景中,需要显示语音信息的识别结果,例如,在语音输入的场景下,需要将语音识别结果展示在终端的显示界面中;再例如,对耳聋的残障人士,需要将他人的语音信息识别为文字信息后并展示给残障人士,以使其与他人交流。因此作为一种可选的实施例,在根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息之后,上述方法还包括:获取预设的文字显示类型;根据文字显示类型显示文字信息。
具体的,上述文字显示类型可以包括显示文字的字体、字号、颜色等多种特征,以中文为例,中文对应的文字显示类型可以包括简体中文、繁体中文,在繁体中文中,还可以包括港式繁体中文和台式繁体中文,也可以按照宋体、楷体等方式分类;对于英文来说,显示类型可以包括花体或正体。
在上述方案中,用户预先选择其需要的类型,设备按照用户所选的类型显示识别结果。
作为一种可选的实施例,在获取语音信息之前,方法还包括:获取语种判断模型,其中,获取语种判断模型,包括:获取训练数据和初始卷积神经网络模型,其中,初始卷积神经网络模型具有初始网络参数;使用训练数据对初始卷积神经网络模型进行训练,得到目标网络参数,其中,目标网络参数用于构成语种判断模型。
具体的,上述训练数据可以包括多组训练数据,每组训练数据中包括至少一条语音信息和语音信息对应的标签,语音信息对应的标签用于指示语音信息所属的语种。使用训练数据对初始卷积神经网络模型进行训练,得到语种判断模型。
在一种可选的实施例中,可以将训练数据中的语音信息输入至初始卷积神经网络模型,得到初始卷积神经网络模型输出的结果,在根据初始卷积神经网络模型输出的结果和语音信息对应的标签,求取二者的交叉熵损失函数,在经过大量的训练后使交叉熵损失函数收敛,即可得到语种判断模型对网络参数,进而得到语种判断模型。
实施例2
根据本发明实施例,提供了一种语音识别装置,图2是根据本发明实施例的一种语音识别装置的示意图,结合图2所示,该装置包括:
获取模块20,用于获取语音信息。
确定模块22,用于基于语音信息,根据预先获取的语种判断模型确定语音信息所属的语种,其中,语种判断模型根据训练数据进行训练得到,训练数据包括:多个语种的语音信息和用于表示语音信息所属语种的标签。
转换模块24,用于根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息。
作为一种可选的实施例,获取模块包括:获取子模块,用于获取采集到的声音信息;处理子模块,用于对声音信息进行去噪处理,得到目标对象的语音信息。
作为一种可选的实施例,确定模块包括:输入子模块,用于将语音信息输入至语种判断模型,其中,语种判断模型输出语音信息属于每个候选语种的概率;确定子模块,用于根据每个候选语种对应的概率确定语音信息所属的语种。
作为一种可选的实施例,确定子模块包括:获取单元,用于获取预设的候选语种和候选语种对应的权重;确定单元,用于根据每个候选语种对应的概率和每个候选语种的权重,确定语音信息所属的语种。
作为一种可选的实施例,上述装置还包括:类型获取模块,用于在根据语言信息所属的语种调用对应的语言转换模块,将语音信息转换为对应的文字信息之后,获取预设的文字显示类型;显示模块,用于根据文字显示类型显示文字信息。
作为一种可选的实施例,上述装置还包括:模型获取模块,用于在获取语音信息之前,获取语种判断模型,其中,模型获取模块包括:获取子模块,用于获取训练数据和初始卷积神经网络模型,其中,初始卷积神经网络模型具有初始网络参数;训练模块,用于使用训练数据对初始卷积神经网络模型进行训练,得到目标网络参数,其中,目标网络参数用于构成语种判断模型。
实施例3
根据本发明实施例,提供了一种存储介质,存储介质包括存储的程序,其中,在程序运行时控制存储介质所在设备执行实施例1中所述的语音识别方法。
实施例4
根据本发明实施例,提供了一种处理器,其特征在于,处理器用于运行程序,其中,程序运行时执行实施例1中所述的语音识别方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种语音识别方法,其特征在于,包括:
获取语音信息;
基于所述语音信息,将所述语音信息输入至语种判断模型,其中,所述语种判断模型输出所述语音信息属于每个候选语种的概率;根据所述每个候选语种对应的概率确定所述语音信息所属的语种,其中,所述语种判断模型根据训练数据进行训练得到,所述训练数据包括:多个语种的语音信息和用于表示所述语音信息所属语种的标签,根据所述每个候选语种对应的概率确定所述语音信息所属的语种,包括:获取预设的候选语种和所述候选语种对应的权重;根据所述每个候选语种对应的概率和所述每个候选语种的权重,确定所述语音信息所属的语种;
根据语言信息所属的语种调用对应的语言转换模块,将所述语音信息转换为对应的文字信息。
2.根据权利要求1所述的方法,其特征在于,获取语音信息,包括:
获取采集到的声音信息;
对所述声音信息进行去噪处理,得到目标对象的所述语音信息。
3.根据权利要求1所述的方法,其特征在于,在根据语言信息所属的语种调用对应的语言转换模块,将所述语音信息转换为对应的文字信息之后,所述方法还包括:
获取预设的文字显示类型;
根据所述文字显示类型显示所述文字信息。
4.根据权利要求1所述的方法,其特征在于,在获取语音信息之前,所述方法还包括:获取所述语种判断模型,其中,获取所述语种判断模型,包括:
获取所述训练数据和初始卷积神经网络模型,其中,所述初始卷积神经网络模型具有初始网络参数;
使用所述训练数据对所述初始卷积神经网络模型进行训练,得到目标网络参数,其中,所述目标网络参数用于构成所述语种判断模型。
5.一种语音识别装置,其特征在于,包括:
获取模块,用于获取语音信息;
确定模块,用于基于所述语音信息,将所述语音信息输入至语种判断模型,其中,所述语种判断模型输出所述语音信息属于每个候选语种的概率;根据所述每个候选语种对应的概率确定所述语音信息所属的语种,其中,所述语种判断模型根据训练数据进行训练得到,所述训练数据包括:多个语种的语音信息和用于表示所述语音信息所属语种的标签,根据所述每个候选语种对应的概率确定所述语音信息所属的语种,包括:获取预设的候选语种和所述候选语种对应的权重;根据所述每个候选语种对应的概率和所述每个候选语种的权重,确定所述语音信息所属的语种;
转换模块,用于根据语言信息所属的语种调用对应的语言转换模块,将所述语音信息转换为对应的文字信息。
6.根据权利要求5所述的装置,其特征在于,获取模块包括:
获取子模块,用于获取采集到的声音信息;
处理子模块,用于对所述声音信息进行去噪处理,得到目标对象的所述语音信息。
7.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行权利要求1至4中任意一项所述的语音识别方法。
8.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1至4中任意一项所述的语音识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811143178.6A CN110970018B (zh) | 2018-09-28 | 2018-09-28 | 语音识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811143178.6A CN110970018B (zh) | 2018-09-28 | 2018-09-28 | 语音识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110970018A CN110970018A (zh) | 2020-04-07 |
CN110970018B true CN110970018B (zh) | 2022-05-27 |
Family
ID=70027236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811143178.6A Active CN110970018B (zh) | 2018-09-28 | 2018-09-28 | 语音识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110970018B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111477220B (zh) * | 2020-04-15 | 2023-04-25 | 南京邮电大学 | 一种面向家居口语环境的神经网络语音识别方法及系统 |
CN113539233A (zh) * | 2020-04-16 | 2021-10-22 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
CN111798836B (zh) * | 2020-08-03 | 2023-12-05 | 上海茂声智能科技有限公司 | 一种自动切换语种方法、装置、系统、设备和存储介质 |
CN112259111A (zh) * | 2020-09-18 | 2021-01-22 | 惠州高盛达智显科技有限公司 | 基于树莓派的应急广播方法及系统 |
CN112908333B (zh) * | 2021-05-08 | 2021-07-16 | 鹏城实验室 | 语音识别方法、装置、设备及计算机可读存储介质 |
CN113380224A (zh) * | 2021-06-04 | 2021-09-10 | 北京字跳网络技术有限公司 | 语种确定方法、装置、电子设备及存储介质 |
CN113077781B (zh) * | 2021-06-04 | 2021-09-07 | 北京世纪好未来教育科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN116597827A (zh) * | 2023-05-23 | 2023-08-15 | 苏州科帕特信息科技有限公司 | 一种目标语言模型确定方法及装置 |
CN117558269B (zh) * | 2024-01-11 | 2024-03-15 | 深圳波洛斯科技有限公司 | 声音识别方法、装置、介质和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262440A (zh) * | 2010-06-11 | 2011-11-30 | 微软公司 | 多模态性别识别 |
CN103853703A (zh) * | 2014-02-19 | 2014-06-11 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105389162A (zh) * | 2014-09-09 | 2016-03-09 | 北京金山安全软件有限公司 | 终端系统语言的更改方法、装置及终端 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GR20050100216A (el) * | 2005-05-04 | 2006-12-18 | i-sieve :����������� ����������� ������������ ����������� �.�.�. | Πιθανοθεωρητικη μεθοδος συντηξης πληροφοριας για διηθηση πολυγλωσσικου, ημιδομημενου και πολυμεσικου ηλεκτρονικου περιεχομενου |
CN101702314B (zh) * | 2009-10-13 | 2011-11-09 | 清华大学 | 基于语种对的鉴别式语种识别模型建立方法 |
CN102695096A (zh) * | 2012-05-17 | 2012-09-26 | 深圳市九洲电器有限公司 | 一种获取码流的输出图文语言的方法、装置及机顶盒 |
US9966064B2 (en) * | 2012-07-18 | 2018-05-08 | International Business Machines Corporation | Dialect-specific acoustic language modeling and speech recognition |
CN103400577B (zh) * | 2013-08-01 | 2015-09-16 | 百度在线网络技术(北京)有限公司 | 多语种语音识别的声学模型建立方法和装置 |
CN104036774B (zh) * | 2014-06-20 | 2018-03-06 | 国家计算机网络与信息安全管理中心 | 藏语方言识别方法及系统 |
CN105138663A (zh) * | 2015-09-01 | 2015-12-09 | 百度在线网络技术(北京)有限公司 | 词库查询方法及装置 |
CN105222275B (zh) * | 2015-09-25 | 2018-04-13 | 珠海格力电器股份有限公司 | 显示数据的切换方法、装置及系统 |
CN106598937B (zh) * | 2015-10-16 | 2019-10-18 | 阿里巴巴集团控股有限公司 | 用于文本的语种识别方法、装置和电子设备 |
CN105957516B (zh) * | 2016-06-16 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 多语音识别模型切换方法及装置 |
CN106328125B (zh) * | 2016-10-28 | 2023-08-04 | 许昌学院 | 一种河南方言语音识别系统 |
CN108510976B (zh) * | 2017-02-24 | 2021-03-19 | 芋头科技(杭州)有限公司 | 一种多语言混合语音识别方法 |
CN106997762A (zh) * | 2017-03-08 | 2017-08-01 | 广东美的制冷设备有限公司 | 家用电器的语音控制方法以及装置 |
CN106961508A (zh) * | 2017-06-01 | 2017-07-18 | 诺雪(重庆)科技有限公司 | 基于姓名识别的通信方法及装置 |
CN107169566A (zh) * | 2017-06-09 | 2017-09-15 | 山东师范大学 | 动态神经网络模型训练方法和装置 |
-
2018
- 2018-09-28 CN CN201811143178.6A patent/CN110970018B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102262440A (zh) * | 2010-06-11 | 2011-11-30 | 微软公司 | 多模态性别识别 |
CN103853703A (zh) * | 2014-02-19 | 2014-06-11 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105389162A (zh) * | 2014-09-09 | 2016-03-09 | 北京金山安全软件有限公司 | 终端系统语言的更改方法、装置及终端 |
Non-Patent Citations (1)
Title |
---|
基于独立分量分析的语种识别方法;陈刚等;《计算机工程》;20061220(第24期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110970018A (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110970018B (zh) | 语音识别方法和装置 | |
CN109817213B (zh) | 用于自适应语种进行语音识别的方法、装置及设备 | |
CN107945792B (zh) | 语音处理方法和装置 | |
US20170345424A1 (en) | Voice dialog device and voice dialog method | |
CN110610707B (zh) | 语音关键词识别方法、装置、电子设备和存储介质 | |
CN108447471A (zh) | 语音识别方法及语音识别装置 | |
CN111445898B (zh) | 语种识别方法、装置、电子设备和存储介质 | |
CN110265040A (zh) | 声纹模型的训练方法、装置、存储介质及电子设备 | |
CN105551498A (zh) | 一种语音识别的方法及装置 | |
CN110942763B (zh) | 语音识别方法及装置 | |
CN110148399A (zh) | 一种智能设备的控制方法、装置、设备及介质 | |
US9251808B2 (en) | Apparatus and method for clustering speakers, and a non-transitory computer readable medium thereof | |
CN107316635B (zh) | 语音识别方法及装置、存储介质、电子设备 | |
CN112420049A (zh) | 数据处理方法、装置及存储介质 | |
CN110931018A (zh) | 智能语音交互的方法、装置及计算机可读存储介质 | |
CN110895936B (zh) | 基于家用电器的语音处理方法和装置 | |
KR102345625B1 (ko) | 자막 생성 방법 및 이를 수행하는 장치 | |
CN114239610A (zh) | 多国语言语音辨识及翻译方法与相关的系统 | |
CN110262278B (zh) | 智能家电设备的控制方法及装置、智能电器设备 | |
CN112584238A (zh) | 影视资源匹配方法、装置及智能电视 | |
CN112597889A (zh) | 一种基于人工智能的情绪处理方法和装置 | |
CN112614482A (zh) | 移动端外语翻译方法、系统及存储介质 | |
CN110970019A (zh) | 智能家居系统的控制方法和装置 | |
CN114299930A (zh) | 端到端语音识别模型处理方法、语音识别方法及相关装置 | |
CN111477212A (zh) | 内容识别、模型训练、数据处理方法、系统及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |