CN115148188A - 语种识别方法、装置、电子设备和介质 - Google Patents
语种识别方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN115148188A CN115148188A CN202210564948.4A CN202210564948A CN115148188A CN 115148188 A CN115148188 A CN 115148188A CN 202210564948 A CN202210564948 A CN 202210564948A CN 115148188 A CN115148188 A CN 115148188A
- Authority
- CN
- China
- Prior art keywords
- audio data
- language
- score
- target
- scores
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
本公开涉及一种语种识别方法、装置、电子设备和介质,尤其涉及语音识别技术领域;其中,该方法包括:获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,第一音频数据为目标控制设备的唤醒词对应的音频数据,第二音频数据为目标控制设备的控制命令对应的音频数据;根据第一音频数据和第二音频数据的语种关联权重函数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分;基于目标得分确定第二音频数据对应的目标语种。本公开实施例能够对目标控制设备的控制命令对应的音频数据进行语种识别,且语种识别的准确率较高。
Description
技术领域
本公开涉及语音识别技术领域,尤其涉及一种语种识别方法、装置、电子设备和介质。
背景技术
语种识别是通过计算机识别出语音数据所属语言种类的过程。在工作和日常生活中,多语种混说的现象越来越常见,而这给语种识别带了困难。尤其是在远场语音交互过程中,用户通过特定的唤醒词将设备成功唤醒后,再根据相应的控制命令与设备进行识别交互。
现有技术中,语种识别主要分为三个过程,首先根据语音信号进行特征提取,然后建立语种识别模型,最后是对测试语音进行语种判决。传统的语种识别系统包括基于隐式马尔可夫模型(Hidden Markov Model,HMM)等机器学习的语种识别、基于音素识别器的语种识别以及基于底层声学特征的语种识别等。但是,现有技术中的语种识别局限于声学的研究和建模的不足,导致语种识别的准确率有待提高。
发明内容
为了解决上述技术或者至少部分地解决上述技术问题,本公开提供了一种语种识别方法、装置、电子设备和介质,可以对目标控制设备的控制命令对应的音频数据进行语种识别,且语种识别的准确率较高。
为了实现上述目的,本公开实施例提供的技术方案如下:
第一方面,本公开提供了一种语种识别方法,该方法包括:
获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,所述第一音频数据为目标控制设备的唤醒词对应的音频数据,所述第二音频数据为所述目标控制设备的控制命令对应的音频数据;
根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分;
基于所述目标得分确定所述第二音频数据对应的目标语种。
作为本公开实施例一种可选的实施方式,所述根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分,包括:
根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数;
基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数之前,还包括:
基于端点检测方法,确定所述第一音频数据对应的结束时间和所述第二音频数据对应的起始时间。
作为本公开实施例一种可选的实施方式,所述基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分,包括:
将所述第一得分与所述语种关联权重系数相乘,得到对应的乘积;
将所述乘积与所述第二得分相加,得到所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述获取第一音频数据分别属于不同的候选语种的第一得分,包括:
对所述第一音频数据进行预处理,得到处理后的音频信号;
对所述音频信号进行特征提取,得到对应的第一梅尔频率倒谱系数特征;
将所述第一梅尔频率倒谱系数特征输入至混合语言语种识别模型中,得到所述第一音频数据分别属于不同的候选语种的第一得分。
作为本公开实施例一种可选的实施方式,所述混合语言语种识别模型通过以下方式训练得到:
获取训练集样本,所述训练集样本中包含多个不同语种的音频样本;
对所述音频样本进行特征提取,得到对应的第二梅尔频率倒谱系数特征;
将所述第二梅尔频率倒谱系数特征输入至混合语言语种识别模型中进行训练,直到所述混合语言语种识别模型收敛。
作为本公开实施例一种可选的实施方式,所述根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分之前,还包括:
确定权重预测阶数和权重预测系数;
基于所述权重预测阶数和所述权重预测系数,确定所述第一音频数据和所述第二音频数据的语种关联权重函数。
第二方面,本公开提供了一种语种识别装置,该装置包括:
预测得分确定模块,用于获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,所述第一音频数据为目标控制设备的唤醒词对应的音频数据,所述第二音频数据为所述目标控制设备的控制命令对应的音频数据;
目标得分确定模块,用于根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分;
目标语种确定模块,用于基于所述目标得分确定所述第二音频数据对应的目标语种。
作为本公开实施例一种可选的实施方式,所述目标得分确定模块,包括:
系数确定单元,用于根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数;
得分确定单元,用于基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述装置还包括:时间确定模块,用于:
在根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数之前,基于端点检测方法,确定所述第一音频数据对应的结束时间和所述第二音频数据对应的起始时间。
作为本公开实施例一种可选的实施方式,所述得分确定单元,具体用于:
将所述第一得分与所述语种关联权重系数相乘,得到对应的乘积;
将所述乘积与所述第二得分相加,得到所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述预测得分确定模块,包括:
第一得分确定单元,用于:
对所述第一音频数据进行预处理,得到处理后的音频信号;
对所述音频信号进行特征提取,得到对应的第一梅尔频率倒谱系数特征;
将所述第一梅尔频率倒谱系数特征输入至混合语言语种识别模型中,得到所述第一音频数据分别属于不同的候选语种的第一得分;
第二得分确定单元,用于:
获取第二音频数据分别属于不同的候选语种的第二得分。
作为本公开实施例一种可选的实施方式,所述混合语言语种识别模型通过以下方式训练得到:
获取训练集样本,所述训练集样本中包含多个不同语种的音频样本;
对所述音频样本进行特征提取,得到对应的第二梅尔频率倒谱系数特征;
将所述第二梅尔频率倒谱系数特征输入至混合语言语种识别模型中进行训练,直到所述混合语言语种识别模型收敛。
作为本公开实施例一种可选的实施方式,所述装置还包括:函数确定模块,用于:
在根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分之前,确定权重预测阶数和权重预测系数;
基于所述权重预测阶数和所述权重预测系数,确定所述第一音频数据和所述第二音频数据的语种关联权重函数。
第三方面,本公开还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本公开实施例中的任一种所述的语种识别方法。
第四方面,本公开还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本公开实施例中的任一种所述的语种识别方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:首先获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,第一音频数据为目标控制设备的唤醒词对应的音频数据,第二音频数据为目标控制设备的控制命令对应的音频数据,然后根据第一音频数据和第二音频数据的语种关联权重函数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分,最后基于目标得分确定第二音频数据对应的目标语种,通过上述方法能够对目标控制设备的控制命令对应的音频数据进行语种识别,且语种识别的准确率较高,有利于提高用户的使用体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例中一种语种识别方法的应用场景示意图;
图2A为根据本公开一个或多个实施例的电子设备的硬件配置框图;
图2B为根据本公开一个或多个实施例的电子设备的软件配置示意图;
图2C为根据本公开一个或多个实施例的控制设备中包含的应用程序的图标控件界面显示示意图;
图3A为本公开实施例提供的一种语种识别方法的流程示意图;
图3B为本公开实施例提供的一种语种识别方法的原理示意图;
图4A为本公开实施例提供的另一种语种识别方法的流程示意图;
图4B为本公开实施例提供的另一种语种识别方法的原理示意图;
图4C为本公开实施例提供的一种第一音频数据和第二音频数据之间无时间差的示意图;
图4D为本公开实施例提供的一种第一音频数据和第二音频数据之间有时间差的示意图;
图5A为本公开实施例提供的又一种语种识别方法的流程示意图;
图5B为本公开实施例提供的确定第一音频数据对应的结束时间的原理示意图;
图5C为本公开实施例提供的基于短时平均幅度和过零率的端点检测方法的示意图;
图6A为本公开实施例提供的一种确定第一得分的原理示意图;
图6B为本公开实施例提供的混合语言语种识别模型的训练过程示意图;
图7A为本公开实施例中一种确定语种关联权重函数的原理结示意图;
图7B为本公开实施例中一种语种关联权重函数的示意图;
图8A是本公开实施例提供的一种语种识别装置的结构示意图;
图8B是本公开实施例语种识别装置中目标得分确定模块的结构示意图;
图9是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
本公开中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述对象的特定顺序。例如,第一得分和第二得分等是用于区别不同的得分,而不是用于描述得分的特定顺序。
随着科技的不断发展,各种控制设备不断趋于智能化,能够和用户进行语音交互,为人们的生活带来了极大的便利。语种识别是通过分析控制设备获取到的音频,根据该音频的特征判定其所属语言种类的过程。自动语种识别的发展,在一定程度上解决了大规模跨语言语音识别的问题,一方面面向使用不同语种的交互对象,使得双方对不属于自己本土的语种有了初步的判别,另一方面面向需要使用相同语种的交互对象,控制设备或双方需要通过语种种类的接口,进行相应语种的语音合成播报和显示反馈。随着智能语音的不断发展,人们对各种语音交互场景的需求越来越多,要求也越来越高,自动语种识别的准确率在交互中显得愈发的重要。因此,语种识别有很重要的研究价值。尤其是在用户与控制设备的远场语音交互过程中,通过与控制设备的唤醒词所对应的音频数据能够将该控制设备成功唤醒,然后下发控制命令,以实现相应的功能。
现有技术中,对控制设备的控制命令对应的音频数据进行语种识别,通常是通过传统的语种识别系统进行识别,但是,该方法局限于声学的研究和建模的不足,导致语种识别的准确率有待提高,在语种识别不准确的情况下,会降低用户的使用体验。
由上可知,现有的语种识别方法准确率不高,因此,需要一种识别准确率较高的语种识别方法。
图1为本公开实施例中一种语种识别方法的应用场景示意图。如图1所示,假设在智能家居场景中的控制设备包括智能音箱100、智能洗衣机101和智能显示设备102,假设要对某个控制设备的控制命令对应的音频数据进行语种识别,可以先获取该控制设备的唤醒词对应的音频数据分别属于不同的候选语种的第一得分,以及该控制设备的控制命令对应的音频数据分别属于不同的候选语种的第二得分,然后根据唤醒词对应的音频数据和控制命令对应的音频数据的语种关联权重函数、第一得分以及第二得分,确定控制命令对应的音频数据分别属于不同的候选语种的目标得分,最后基于目标得分,将目标得分中分数最高的目标得分对应的候选语种确定为该控制设备的控制命令对应的音频数据所属的目标语种。
上述过程中,将唤醒词的音频数据对应的第一得分和唤醒词对应的音频数据和控制命令对应的音频数据的语种关联权重函数这两个参数增加到语种识别的过程中,由于唤醒词通常易于识别且唤醒词和控制命令之间的语种具有关联性,因此,能够有效提高语种识别的准确率。
需要说明的是:智能家居场景是其中的一个应用场景,本实施例对此不做具体限制。智能家居场景中可以包含多种控制设备,图1只是进行示例性说明,不对控制设备的种类和个数进行具体限制。
本公开实施例提供的语种识别方法,可以基于电子设备或者电子设备中的功能模块或者功能实体实现。
其中,电子设备可以为个人计算机(personal computer,PC)、服务器、手机、平板电脑、笔记本电脑、大型计算机等,本公开实施例对此不作具体限定。
示例性的,图2A为根据本公开一个或多个实施例的电子设备的硬件配置框图。如图2A所示,电子设备包括:调谐解调器210、通信器220、检测器230、外部装置接口240、控制器250、显示器260、音频输出接口270、存储器、供电电源、用户接口280中的至少一种。其中,控制器250包括中央处理器,视频处理器,音频处理器,图形处理器,RAM,ROM,用于输入/输出的第一接口至第n接口。显示器260可为液晶显示器、OLED显示器、触控显示器以及投影显示器中的至少一种,还可以为一种投影装置和投影屏幕。调谐解调器210通过有线或无线接收方式接收广播电视信号,以及从多个无线或有线广播电视信号中解调出音视频信号,如以及EPG音视频数据信号。通信器220是用于根据各种通信协议类型与外部设备或服务器进行通信的组件。例如:通信器可以包括Wifi模块,蓝牙模块,有线以太网模块等其他网络通信协议芯片或近场通信协议芯片,以及红外接收器中的至少一种。电子设备可以通过通信器220与服务器203或者本地控制设备205建立控制信号和数据信号的发送和接收。检测器230用于采集外部环境或与外部交互的信号。控制器250和调谐解调器210可以位于不同的分体设备中,即调谐解调器210也可在控制器250所在的主体设备的外置设备中,如外置机顶盒等。用户接口280可用于接收控制装置(如:红外遥控器等)的控制信号。
在一些实施例中,控制器250,通过存储在存储器上中各种软件控制程序,来控制电子设备的工作和响应用户的操作。控制器250控制电子设备的整体操作。用户可在显示器260上显示的图形用户界面(GUI)输入用户命令,则用户输入接口通过图形用户界面(GUI)接收用户输入命令。或者,用户可通过输入特定的声音或手势进行输入用户命令,则用户输入接口通过传感器识别出声音或手势,来接收用户输入命令。
在一些实施例中,“用户界面”,是应用程序或操作系统与用户之间进行交互和信息交换的介质接口,它实现信息的内部形式与用户可以接受形式之间的转换。用户界面常用的表现形式是图形用户界面(Graphic User Interface,简称GUI),是指采用图形方式显示的与计算机操作相关的用户界面。它可以是在电子设备的显示屏中显示的一个图标、窗口和控件等界面元素,其中控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素中的至少一种。
图2B为根据本公开一个或多个实施例的电子设备的软件配置示意图,如图2B所示,将系统分为四层,从上至下分别为应用程序(Applications)层(简称“应用层”),应用程序框架(Application Framework)层(简称“框架层”),安卓运行时(Android runtime)和系统库层(简称“系统运行库层”),以及内核层。
在一些实施例中,应用程序层中运行有至少一个应用程序,这些应用程序可以是操作系统自带的窗口(Window)程序、系统设置程序或时钟程序等;也可以是第三方开发者所开发的应用程序。在具体实施时,应用程序层中的应用程序包括但不限于以上举例。
在一些实施例中,系统运行库层为上层即框架层提供支撑,当框架层被使用时,安卓操作系统会运行系统运行库层中包含的C/C++库以实现框架层要实现的功能。
在一些实施例中,内核层是硬件和软件之间的层,至少包含以下驱动中的至少一种:音频驱动、显示驱动、蓝牙驱动、摄像头驱动、WIFI驱动、USB驱动、HDMI驱动、传感器驱动(如指纹传感器,温度传感器,压力传感器等)、以及电源驱动等。
图2C为根据本公开一个或多个实施例的控制设备(主要为智能播放设备,例如智能电视、数字影院系统或者影音服务器等)中包含的应用程序的图标控件界面显示示意图,如图2C中所示,应用程序层包含至少一个应用程序可以在显示器中显示对应的图标控件,如:直播电视应用程序图标控件、视频点播VOD应用程序图标控件、媒体中心应用程序图标控件、应用程序中心图标控件、游戏应用图标控件等。直播电视应用程序,可以通过不同的信号源提供直播电视。视频点播VOD应用程序,可以提供来自不同存储源的视频。不同于直播电视应用程序,视频点播提供来自某些存储源的视频显示。媒体中心应用程序,可以提供各种多媒体内容播放的应用程序。应用程序中心,可以提供储存各种应用程序。
本申请实施例提供的语种识别方法可以基于上述电子设备实现。
本公开实施例提供的语种识别过程,首先获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,第一音频数据为目标控制设备的唤醒词对应的音频数据,第二音频数据为目标控制设备的控制命令对应的音频数据,然后根据第一音频数据和第二音频数据的语种关联权重函数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分,最后基于目标得分确定第二音频数据对应的目标语种,通过上述方法能够对目标控制设备的控制命令对应的音频数据进行语种识别,且语种识别的准确率较高,有利于提高用户的使用体验。
为了更加详细的说明本方案,以下将以示例性的方式结合图3A进行说明,可以理解的是,图3A中所涉及的步骤在实际实现时可以包括更多的步骤,或者更少的步骤,并且这些步骤之间的顺序也可以不同,以能够实现本申请实施例中提供的语种识别方法为准。
图3A为本公开实施例提供的一种语种识别方法的流程示意图,图3B为本公开实施例提供的一种语种识别方法的原理示意图。本实施例可适用于对控制设备的控制命令所对应的音频数据进行语种识别的情况。本实施例方法可由语种识别装置来执行,该装置可采用硬件/或软件的方式来实现,并可配置于电子设备中。
如图3A所示,该方法具体包括如下步骤:
S310,获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分。
其中,第一音频数据为目标控制设备的唤醒词对应的音频数据。唤醒词可以为目标控制设备的标识信息,例如控制设备的名称。第二音频数据为所述目标控制设备的控制命令对应的音频数据。控制命令可以为用户对目标控制设备的控制意图,即:希望目标控制设备做的事情,例如:播放XX的音乐、播放XX电视剧或者打开XX控制设备的开关等。目标控制设备可以为能够与用户进行语音交互的任意控制设备。候选语种可以为任意的语种,例如可以为中文、英文或者德文等不同国家的语种,还可以为普通话、方言等语种。第一得分用于衡量第一音频数据属于某种候选语种的可能性大小。第二得分用于衡量第二音频数据属于某种候选语种的可能性大小。第一得分的个数与候选语种的个数相同。优选的,第二得分的个数与第一得分的个数相同,且第一得分对应的候选语种与第二得分对应的候选语种也相同。
为了对目标控制设备的控制命令对应的音频数据进行语种识别,本实施例中先获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,具体可以通过相应的语种识别方法得到第一得分和第二得分,例如,利用循环神经网络实现语种识别、朴素贝叶斯分类法或者多类别逻辑回归法等,本实施例对语种识别方法不做具体限定。
S320,根据第一音频数据和第二音频数据的语种关联权重函数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分。
其中,语种关联权重函数可以为预先设定好的表征第一音频数据和第二音频数据的语种关联关系的表达式,还可以视具体情况而定,本实施例对此不做具体限定。
在得到第一得分和第一得分之后,通过相应的加权求和方法,对第一音频数据属于某个候选语种的第一得分、第二音频数据属于同一候选语种的第二得分以及语种关联权重函数进行加权求和,能够确定第二音频数据分别属于不同的候选语种的目标得分,该目标得分与第一得分和第二得分有关。
示例性的,假设第一音频数据属于候选语种1的第一得分为A1,第二音频数据属于候选语种1的第二得分为B1;第一音频数据属于候选语种2的第一得分为A2,第二音频数据属于候选语种2的第二得分为B2;第一音频数据属于候选语种3的第一得分为A3,第二音频数据属于候选语种3的第二得分为B3,那么根据语种关联权重函数、第一得分以及对应的第二得分,能够计算出第二音频数据属于候选语种1的目标得分为C1,第二音频数据属于候选语种2的目标得分为C2以及第二音频数据属于候选语种3的目标得分为C3。
S330,基于目标得分确定第二音频数据对应的目标语种。
其中,目标语种为第二音频数据所属的语种。
由于第一得分和第二得分与不同的候选语种对应,第一得分和第二得分可能有多个,那么目标得分可能也有多个。因此,在得到目标得分之后,目标得分中分数最高的目标得分对应的候选语种则为第二音频数据所对应的目标语种。
示例性的,假设第二音频数据属于候选语种1的目标得分为C1,第二音频数据属于候选语种2的目标得分为C2以及第二音频数据属于候选语种3的目标得分为C3,比较C1、C2和C3的大小,假设C3最大,则C3对应的候选语种3则为第二音频数据所对应的目标语种。
本实施例中,通过上述S310-S330,能够对目标控制设备的控制命令对应的音频数据进行语种识别,由于唤醒词通常易于识别且唤醒词和控制命令之间的语种具有关联性,因此,能够有效提高语种识别的准确率以及用户的使用体验。
图4A为本公开实施例提供的另一种语种识别方法的流程示意图,图4B为本公开实施例提供的另一种语种识别方法的原理示意图。本实施例是在上述实施例的基础上进一步扩展与优化。可选的,本实施例主要对确定第二音频数据分别属于不同的候选语种的目标得分的过程进行说明。
如图4A所示,该方法具体包括如下步骤:
S410,获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分。
S420,根据第一音频数据对应的结束时间、第二音频数据对应的起始时间以及语种关联权重函数,确定第一音频数据和第二音频数据的语种关联权重系数。
其中,结束时间可以理解为第一音频数据的语音信号结束时刻。起始时间可以理解为第二音频数据的语音信号开始时刻。
通常情况下,根据用户在语言表达时的客观习惯,唤醒词和控制命令所使用的语种具有一定的关联度,语种关联权重函数即用来表征该关联度。用户和控制设备进行语音交互时,唤醒词和控制命令之间的时间间隔(也称时间差)通常比较短,这种关联度随着两者之间时间间隔的变长会降低,并在达到控制设备唤醒之后的阈值时间而降到最低,因此,语种关联权重函数与唤醒词和控制命令之间的时间间隔有关。阈值时间可以为设定好的数值,也可以视具体情况而定,本实施例对此不做限定。
由于语种关联权重函数是与唤醒词和控制命令之间的时间间隔有关的函数,因此根据第一音频数据对应的结束时间和第二音频数据对应的起始时间,能够确定出二者的时间间隔,将该时间间隔代入语种关联权重函数中,就能够确定出第一音频数据和第二音频数据的语种关联权重系数。
S430,基于语种关联权重系数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分。
在得到第一音频数据和第二音频数据的语种关联权重系数之后,基于该语种关联权重系数、第一得分以及对应的第二得分,就能够计算出第二音频数据分别属于不同的候选语种的目标得分。
需要说明的是:通常情况下第一得分、第二得分以及目标得分是针对同一候选语种而言,即:基于同一候选语种的第一得分、第二得分以及语种关联权重系数,确定第二音频数据属于同一候选语种的目标得分。
S440,基于所述目标得分确定所述第二音频数据对应的目标语种。
本实施例中,通过上述方法确定目标得分简单高效,有利于后续确定第二音频数据对应的目标语种。
在一些实施例中,可选的,所述基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分,包括:
将所述第一得分与所述语种关联权重系数相乘,得到对应的乘积;
将所述乘积与所述第二得分相加,得到所述第二音频数据分别属于不同的候选语种的目标得分。
示例性的,假设第一音频数据属于候选语种1的第一得分为A1,第二音频数据属于候选语种1的第二得分为B1,语种关联权重系数为a,那么根据上述方法可以确定第二音频数据属于候选语种1的目标得分y1为:
y1=A1*a+B1 (1)
本实施例中,通过上述方法能够将唤醒词对应的语种和控制命令对应的语种关联起来,有利于提高语种识别的准确率。
示例性的,图4C为本公开实施例提供的一种第一音频数据和第二音频数据之间无时间差的示意图。如图4C所示:第一音频数据和第二音频数据之间没有时间差,也即:第一音频数据和第二音频数据的语种关联权重系数较大。
示例性的,图4D为本公开实施例提供的一种第一音频数据和第二音频数据之间有时间差的示意图。如图4D所示:第一音频数据和第二音频数据之间有时间差,并且随着时间差的增大,第一音频数据和第二音频数据的语种关联权重系数会减小。
图5A为本公开实施例提供的又一种语种识别方法的流程示意图。本实施例是在上述实施例的基础上进一步扩展与优化。可选的,本实施例主要对确定第一音频数据对应的结束时间和第二音频数据对应的起始时间的过程进行说明。
如图5A所示,该方法具体包括如下步骤:
S510,获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分。
S520,基于端点检测方法,确定第一音频数据对应的结束时间和第二音频数据对应的起始时间。
其中,端点检测方法能够区分语音信号的开始时间和结束时间。
端点检测方法可以有多种,本实施例主要对基于短时平均幅度和过零率的双门限端点检测方法进行说明,其过程如下所示:
1、对待检测语音信号进行预处理,其中预处理可以包括:量化、采样、预滤波、预加重以及分帧加窗处理等,该预处理过程为常用的信号处理方法,此处不再赘述;
2、绘制该待检测语音信号对应的短时平均幅度曲线图和过零率曲线图,并给短时平均幅度设置高门限值(AH)和低门限值(AL),给过零率设置高门限值(BH)和低门限值(BL),如果短时平均幅度或者过零率任意一个超过了对应的高门限值,则判断该段音频信号是语音部分,并根据超过了对应的高门限值时所对应的时间能够确定待检测语音信号的初始起始位置和初始结束位置;
3、在确定的初始起始位置和初始结束位置所在的端点分别向前后两侧逐帧计算,如果短时平均幅度和过零率任意一个超过了对应的低门限值,则判断该帧信号仍为语音信号,其它帧信号判断为无声段,端点检测完成,能够确定待检测语音信号的起始位置和结束位置。
基于上述端点检测方法,将第一音频数据和第二音频数据分别作为待检测语音信号,能够确定出第一音频数据对应的结束时间和第二音频数据对应的起始时间。
S530,根据第一音频数据对应的结束时间、第二音频数据对应的起始时间以及语种关联权重函数,确定第一音频数据和第二音频数据的语种关联权重系数。
S540,基于语种关联权重系数、第一得分以及第二得分,确定第二音频数据分别属于不同的候选语种的目标得分。
S550,基于所述目标得分确定所述第二音频数据对应的目标语种。
示例性的,图5B为本公开实施例提供的确定第一音频数据对应的结束时间的原理示意图,图5B对应的步骤已经在上述实施例中描述过,为了避免重复,此处不再赘述。
示例性的,图5C为本公开实施例提供的基于短时平均幅度和过零率的端点检测方法的示意图,如图5C所示,通过上述端点检测方法,可以确定待检测语音信号对应的初始起始位置为h1,初始结束位置为h2,待检测语音信号的起始位置为h3,结束位置为h4。
在一些实施例中,可选的,所述获取第一音频数据分别属于不同的候选语种的第一得分,包括:
对所述第一音频数据进行预处理,得到处理后的音频信号;
对所述音频信号进行特征提取,得到对应的第一梅尔频率倒谱系数特征;
将所述第一梅尔频率倒谱系数特征输入至混合语言语种识别模型中,得到所述第一音频数据分别属于不同的候选语种的第一得分。
其中,混合语言语种识别模型可以为能够识别不同语种的唤醒词的高斯混合语言唤醒语种识别模型,该模型能够计算出第一音频数据分别属于不同的候选语种的似然得分,即第一得分。
具体的,对所述第一音频数据进行预处理,即:对第一音频数据进行量化、采样、预滤波、预加重以及分帧加窗等处理,得到处理后的音频信号;对该音频信号进行特征提取,即:首先对该音频信号进行快速傅里叶变换得到对应的频谱信号,接着将该频谱信号通过梅尔(Mel)滤波器组得到Mel频谱,最后对Mel频谱进行倒谱分析,就得到了对应的第一梅尔频率倒谱系数(Mel Frequency Cepstrum Coefficient,MFCC)特征;将该第一MFCC特征输入至混合语言语种识别模型中,能够得到第一音频数据分别属于不同的候选语种的第一得分。
示例性的,图6A为本公开实施例提供的一种确定第一得分的原理示意图,图6A对应的步骤已经在上述实施例中描述过,为了避免重复,此处不再赘述。
本实施例中,通过上述方法能够确定出第一音频数据分别属于不同的候选语种的第一得分,便于后续确定目标得分。
在一些实施例中,可选的,所述获取第二音频数据分别属于不同的候选语种的第二得分,包括:
对所述第一音频数据进行预处理,得到处理后的目标音频信号;
将目标音频信号输入至预设语种识别模型中,得到第二音频数据分别属于不同的候选语种的第二得分。
其中,预设语种识别模型可以为支持向量机(Support Vector Machine,SVM)多分类置信度打分模型,也可以为其他模型,本实施例对此不做限定。
本实施例中,通过上述方法能够确定出第二音频数据分别属于不同的候选语种的第二得分,便于后续确定目标得分。
在一些实施例中,可选的,所述混合语言语种识别模型通过以下方式训练得到:
获取训练集样本,所述训练集样本中包含多个不同语种的音频样本;
对所述音频样本进行特征提取,得到对应的第二梅尔频率倒谱系数特征;
将所述第二梅尔频率倒谱系数特征输入至混合语言语种识别模型中进行训练,直到所述混合语言语种识别模型收敛。
其中,训练集样本可以理解为预先收集的大量针对不同控制设备的唤醒词所对应的不同语种的音频样本,例如某个控制设备的唤醒词所对应的汉语音频样本、英语音频样本以及德语音频样本等,其中汉语音频样本可以包括普通话音频样本以及方言音频样本等。
获取训练集样本,对训练集样本中包含的多个不同语种的音频样本进行预处理和特征提取(上述实施例中已经描述过),能够得到每个音频样本分别对应的第二MFCC特征,将第二MFCC特征输入至混合语言语种识别模型中进行训练,直到模型的精度符合要求,则确定混合语言语种识别模型收敛。
图6B为本公开实施例提供的混合语言语种识别模型的训练过程示意图,如图6B所示,图中以音频样本1、音频样本2和音频样本3为例进行说明,且这3个音频样本分别属于不同的语种,但是音频样本可以包括多个,本实施例对此不做限定。对音频样本1进行特征提取后得到特征1,对音频样本2进行特征提取后得到特征2以及对音频样本3进行特征提取后得到特征3,具体的模型训练过程已经在上述实施例中描述过,为了避免重复,此处不再赘述。
本实施例中,通过上述方法训练混合语言语种识别模型,由于唤醒词简单且包含的特征较少,因此上述模型训练过程快速且高效。
在一些实施例中,可选的,所述根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分之前,还包括:
确定权重预测阶数和权重预测系数;
基于所述权重预测阶数和所述权重预测系数,确定所述第一音频数据和所述第二音频数据的语种关联权重函数。
其中,权重预测阶数的值越大,语种关联权重函数越准确,相应的,随着权重预测阶数的增加,计算量也会增加,因此权重预测阶数需要为一个合适的数值,通常情况下,可以基于仿真实验方法确定。
具体的,通过相应的仿真实验方法确定权重预测阶数和权重预测系数,然后基于权重预测阶数和权重预测系数,能够确定出第一音频数据和第二音频数据的语种关联权重函数。
示例性的,语种关联权重函数可以通过下式表示:
其中,ai表示权重预测系数,n表示权重预测阶数(即最高阶数),t表示自变量(即时间差),Y(t)表示语种关联权重函数,n为正整数。
示例性的,图7A为本公开实施例中一种确定语种关联权重函数的原理结示意图,图7A对应的步骤已经在上述实施例中描述过,为了避免重复,此处不再赘述。
本实施例中,通过上述方法确定语种关联权重函数,能够很好的表征第一音频数据和第二音频数据的语种关联关系,有利于后续的语种识别过程。
示例性的,图7B为本公开实施例中一种语种关联权重函数的示意图。以权重预测阶数为1,第二样本对应的起始时间和第一样本对应的结束时间之间的时间差为0秒时,关联权重系数为b,第二样本对应的起始时间和第一样本对应的结束时间之间的时间差为a秒时,关联权重系数为c为例,可以绘制出语种关联权重函数Y(t),如图7B中的1阶对应的直线;若权重预测阶数为多阶,绘制出的语种关联权重函数Y(t)如图7B中的多阶对应的曲线所示。
其中,第一样本为某控制设备的唤醒词的音频样本,第二样本为该控制设备的控制命令的音频样本。
图8A是本公开实施例提供的一种语种识别装置的结构示意图,该装置配置于电子设备中,可实现本申请任意实施例所述的语种识别方法。该装置具体包括如下:
预测得分确定模块801,用于获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,所述第一音频数据为目标控制设备的唤醒词对应的音频数据,所述第二音频数据为所述目标控制设备的控制命令对应的音频数据;
目标得分确定模块802,用于根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分;
目标语种确定模块803,用于基于所述目标得分确定所述第二音频数据对应的目标语种。
图8B是本公开实施例语种识别装置中目标得分确定模块的结构示意图,如图8B所示,目标得分确定模块802包括:
系数确定单元8021,用于根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数;
得分确定单元8022,用于基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述装置还包括:时间确定模块,用于:
在根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数之前,基于端点检测方法,确定所述第一音频数据对应的结束时间和所述第二音频数据对应的起始时间。
作为本公开实施例一种可选的实施方式,所述得分确定单元8022,具体用于:
将所述第一得分与所述语种关联权重系数相乘,得到对应的乘积;
将所述乘积与所述第二得分相加,得到所述第二音频数据分别属于不同的候选语种的目标得分。
作为本公开实施例一种可选的实施方式,所述预测得分确定模块801,包括:
第一得分确定单元,用于:
对所述第一音频数据进行预处理,得到处理后的音频信号;
对所述音频信号进行特征提取,得到对应的第一梅尔频率倒谱系数特征;
将所述第一梅尔频率倒谱系数特征输入至混合语言语种识别模型中,得到所述第一音频数据分别属于不同的候选语种的第一得分;
第二得分确定单元,用于:
获取第二音频数据分别属于不同的候选语种的第二得分。
作为本公开实施例一种可选的实施方式,所述混合语言语种识别模型通过以下方式训练得到:
获取训练集样本,所述训练集样本中包含多个不同语种的音频样本;
对所述音频样本进行特征提取,得到对应的第二梅尔频率倒谱系数特征;
将所述第二梅尔频率倒谱系数特征输入至混合语言语种识别模型中进行训练,直到所述混合语言语种识别模型收敛。
作为本公开实施例一种可选的实施方式,所述装置还包括:函数确定模块,用于:
在根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分之前,确定权重预测阶数和权重预测系数;
基于所述权重预测阶数和所述权重预测系数,确定所述第一音频数据和所述第二音频数据的语种关联权重函数。
本公开实施例所提供的语种识别装置可执行本公开任意实施例所提供的语种识别方法,具备执行方法相应的功能模块和有益效果,为避免重复,这里不再赘述。
本公开实施例提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本公开实施例中的任一种所述的语种识别方法。
图9是本公开实施例提供的一种电子设备的结构示意图。如图9所示,该电子设备包括处理器910和存储装置920;电子设备中处理器910的数量可以是一个或多个,图9中以一个处理器910为例;电子设备中的处理器910和存储装置920可以通过总线或其他方式连接,图9中以通过总线连接为例。
存储装置920作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本公开实施例中的语种识别方法对应的程序指令/模块。处理器910通过运行存储在存储装置920中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现本公开实施例所提供的语种识别方法。
存储装置920可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储装置920可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储装置920可进一步包括相对于处理器910远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本实施例提供的一种电子设备可用于执行上述任意实施例提供的语种识别方法,具备相应的功能和有益效果。
本公开实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储计算机程序,该计算机程序被处理器执行时实现上述语种识别方法执行的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,该计算机可读存储介质可以为只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
为了方便解释,已经结合具体的实施方式进行了上述说明。但是,上述在一些实施例中讨论不是意图穷尽或者将实施方式限定到上述公开的具体形式。根据上述的教导,可以得到多种修改和变形。上述实施方式的选择和描述是为了更好的解释原理以及实际的应用,从而使得本领域技术人员更好的使用实施方式以及适于具体使用考虑的各种不同的变形的实施方式。
Claims (10)
1.一种语种识别方法,其特征在于,所述方法包括:
获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,所述第一音频数据为目标控制设备的唤醒词对应的音频数据,所述第二音频数据为所述目标控制设备的控制命令对应的音频数据;
根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分;
基于所述目标得分确定所述第二音频数据对应的目标语种。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分,包括:
根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数;
基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一音频数据对应的结束时间、所述第二音频数据对应的起始时间以及所述语种关联权重函数,确定所述第一音频数据和所述第二音频数据的语种关联权重系数之前,还包括:
基于端点检测方法,确定所述第一音频数据对应的结束时间和所述第二音频数据对应的起始时间。
4.根据权利要求2所述的方法,其特征在于,所述基于所述语种关联权重系数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分,包括:
将所述第一得分与所述语种关联权重系数相乘,得到对应的乘积;
将所述乘积与所述第二得分相加,得到所述第二音频数据分别属于不同的候选语种的目标得分。
5.根据权利要求1所述的方法,其特征在于,所述获取第一音频数据分别属于不同的候选语种的第一得分,包括:
对所述第一音频数据进行预处理,得到处理后的音频信号;
对所述音频信号进行特征提取,得到对应的第一梅尔频率倒谱系数特征;
将所述第一梅尔频率倒谱系数特征输入至混合语言语种识别模型中,得到所述第一音频数据分别属于不同的候选语种的第一得分。
6.根据权利要求5所述的方法,其特征在于,所述混合语言语种识别模型通过以下方式训练得到:
获取训练集样本,所述训练集样本中包含多个不同语种的音频样本;
对所述音频样本进行特征提取,得到对应的第二梅尔频率倒谱系数特征;
将所述第二梅尔频率倒谱系数特征输入至混合语言语种识别模型中进行训练,直到所述混合语言语种识别模型收敛。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分之前,还包括:
确定权重预测阶数和权重预测系数;
基于所述权重预测阶数和所述权重预测系数,确定所述第一音频数据和所述第二音频数据的语种关联权重函数。
8.一种语种识别装置,其特征在于,所述装置包括:
预测得分确定模块,用于获取第一音频数据分别属于不同的候选语种的第一得分,以及第二音频数据分别属于不同的候选语种的第二得分,所述第一音频数据为目标控制设备的唤醒词对应的音频数据,所述第二音频数据为所述目标控制设备的控制命令对应的音频数据;
目标得分确定模块,用于根据所述第一音频数据和所述第二音频数据的语种关联权重函数、所述第一得分以及所述第二得分,确定所述第二音频数据分别属于不同的候选语种的目标得分;
目标语种确定模块,用于基于所述目标得分确定所述第二音频数据对应的目标语种。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210564948.4A CN115148188A (zh) | 2022-05-23 | 2022-05-23 | 语种识别方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210564948.4A CN115148188A (zh) | 2022-05-23 | 2022-05-23 | 语种识别方法、装置、电子设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115148188A true CN115148188A (zh) | 2022-10-04 |
Family
ID=83406464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210564948.4A Pending CN115148188A (zh) | 2022-05-23 | 2022-05-23 | 语种识别方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115148188A (zh) |
-
2022
- 2022-05-23 CN CN202210564948.4A patent/CN115148188A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021093449A1 (zh) | 基于人工智能的唤醒词检测方法、装置、设备及介质 | |
JP7005099B2 (ja) | 音声キーワードの認識方法、装置、コンピュータ読み取り可能な記憶媒体、及びコンピュータデバイス | |
US10762899B2 (en) | Speech recognition method and apparatus based on speaker recognition | |
US10777193B2 (en) | System and device for selecting speech recognition model | |
US11100922B1 (en) | System and methods for triggering sequences of operations based on voice commands | |
EP3933831A1 (en) | Control method and control apparatus for speech interaction, electronic device, storage medium, and system | |
TW201543467A (zh) | 語音輸入方法、裝置和系統 | |
CN109741735B (zh) | 一种建模方法、声学模型的获取方法和装置 | |
US20200160863A1 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
JP7063937B2 (ja) | 音声対話するための方法、装置、電子デバイス、コンピュータ読み取り可能な記憶媒体、及びコンピュータプログラム | |
WO2020024620A1 (zh) | 语音信息的处理方法以及装置、设备和存储介质 | |
CN113450771B (zh) | 唤醒方法、模型训练方法和装置 | |
WO2020125038A1 (zh) | 语音控制方法及装置 | |
JP7178394B2 (ja) | 音声信号を処理するための方法、装置、機器、および媒体 | |
CN111862943B (zh) | 语音识别方法和装置、电子设备和存储介质 | |
CN113611316A (zh) | 人机交互方法、装置、设备以及存储介质 | |
CN110853669A (zh) | 音频识别方法、装置及设备 | |
CN115148188A (zh) | 语种识别方法、装置、电子设备和介质 | |
CN114694661A (zh) | 一种第一终端设备、第二终端设备和语音唤醒方法 | |
WO2022026017A1 (en) | Compounding corrective actions and learning in mixed mode dictation | |
EP3640937A1 (en) | Electronic apparatus and controlling method thereof | |
CN112037772A (zh) | 基于多模态的响应义务检测方法、系统及装置 | |
Sartiukova et al. | Remote Voice Control of Computer Based on Convolutional Neural Network | |
US20230188892A1 (en) | Contextual awareness in dynamic device groups | |
CN117891517A (zh) | 一种显示设备及语音唤醒方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |