CN109147146A - 语音取号的方法及终端设备 - Google Patents
语音取号的方法及终端设备 Download PDFInfo
- Publication number
- CN109147146A CN109147146A CN201810952906.1A CN201810952906A CN109147146A CN 109147146 A CN109147146 A CN 109147146A CN 201810952906 A CN201810952906 A CN 201810952906A CN 109147146 A CN109147146 A CN 109147146A
- Authority
- CN
- China
- Prior art keywords
- frame
- voice signal
- subsignal
- zero
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004590 computer program Methods 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 8
- 230000005236 sound signal Effects 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 2
- 230000003796 beauty Effects 0.000 claims 1
- 230000032258 transport Effects 0.000 claims 1
- 238000012217 deletion Methods 0.000 abstract 1
- 230000037430 deletion Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C11/00—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C11/00—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere
- G07C2011/04—Arrangements, systems or apparatus for checking, e.g. the occurrence of a condition, not provided for elsewhere related to queuing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明适用于语音识别技术领域,提供了一种语音取号的方法及终端设备,所述方法包括:接收用户的语音信号;通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。本发明通过实现语音取号,提高了排队取号的效率。
Description
技术领域
本发明属于语音识别技术领域,尤其涉及一种语音取号的方法及终端设备。
背景技术
现有的排队取号机主要应用于银行、和医院等需要排队等候的场所。顾客在办理业务时,需要在排队取号机的触摸屏上,选择需要办理的业务并取排队票,排队票上面有号码、等候人数、时间、和办理的业务类型等。这时顾客就可以在休息区去等候了,在此期间顾客只需注意显示屏和/或音箱的叫号就行。当顾客看见显示屏显示他的号码和/或听到音箱叫到他的号码时前去办理即可。
但是,有些不识字或者语言不通的人,办理业务需要工作人员帮忙取号才能取号,取号效率低。并且当客户较多时,工作人员有限,不能及时帮助客户取号,导致排队取号效率更为低下,客户体验不佳。
发明内容
有鉴于此,本发明实施例提供了一种语音取号的方法及终端设备,以解决现有技术排队取号效率不高的问题。
本发明实施例的第一方面提供了一种语音取号的方法,包括:
接收用户的语音信号;
通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
本发明实施例的第二方面提供了一种终端设备,包括存储器以及处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如下步骤:
接收用户的语音信号;
通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
本发明实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
接收用户的语音信号;
通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
本发明实施例中,通过识别用户语音信号的语种,并获取用户语音信号对应的多个词序列,进而获取语种词库,根据词库获得语音识别结果,从而实现取号终端设备的全自动语音取号,提高了排队取号的效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种语音取号的方法的实现流程图;
图2是本发明实施例提供的另一种语音取号的方法的实现流程图;
图3是本发明实施例提供的另一种语音取号的方法的实现流程图;
图4是本发明实施例提供的另一种语音取号的方法的实现流程图;
图5是本发明实施例提供的一种语音取号的装置的结构框图;
图6是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1示出了本发明实施例提供的语音取号的方法的实现流程,该方法流程包括步骤S101至S105。该方法适用于利用需要进行语音取号的情形。该方法由语音取号的装置执行,所述语音取号的装置配置于终端设备,可由软件和/或硬件实现。终端设备包括排队取号机等取号终端。各步骤的具体实现原理如下。
S101,接收用户的语音信号。
本发明实施例中,用户为利用终端设备排队取号的用户。终端设备包括麦克风等收音设备,终端设备通过收音设备获取用户的语音信号。
示例性地,当轮到某用户取号时,终端设备感应到某距离内有人,或者接收到用户点击终端设备屏幕中任一区域的触发信号,控制终端设备的收音设备开启,此时,用户若发出例如“我要办理现金业务”或“我要办理转账业务”等语音,终端设备通过收音设备获取用户的语音信号。
S102,通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息。
本发明实施例中,语种识别模型为基于机器学习技术,通过大量的语音样本预先训练好的用于语种识别的模型,语音样本包括语音信号及其对应的语种信息,语种信息覆盖各待识别的语种类型。
用于语种识别的模型可以为深度学习模型,例如卷积神经网络(ConvolutionalNeural Network,CNN)模型,循环神经网络(Recurrent Neural Network,RNN)模型、或长短期记忆网络(Long Short Term Memory,LSTM)模型等。
作为本发明一实施例,将用户的语音信号作为语种识别模型的输入,通过语种识别模型便可以得到语音信号的语种信息。在这种情况下,语种识别模型优选为RNN模型。此外,也可以先将所述语音信号转换成预设格式的语音信号,再将转换成预设格式的语音信号作为语种识别模型的输入,通过语种识别模型便可以得到语音信号的语种信息。
作为本发明另一实施例,将所述语音信号转换成预设格式的语音信号,并对转换成预设格式的所述语音信号进行预处理,利用预处理后的所述语音信号,通过语种识别模型,得到所述语音信号的语种信息。在这种情况下,语种识别模型优选为RNN模型或LSTM模型。
其中,由于不同的终端设备,获取的语音信号的文件格式不尽相同,如MP3文件格式、MP4文件格式、AMR文件格式、或WAV文件格式等。本发明实施例中,首先将语音信号转换成预设格式的语音信号,然后对转换成预设格式的所述语音信号进行预处理。预设格式的语音信号优选为WAV文件格式。WAV文件里存储的除了文件头之外,就是用户语音每个采样点的采样数据,WAV文件不采用压缩技术,用户语音的采样数据很容易被读出来,便于进行后续的过程,易于实现。
需要说明的是,在将所述语音信号转换成预设格式的语音信号后,还可以先对所述语音信号进行滤波处理,再进行预处理过程。本发明实施例中WAV文件格式的用户语音信号为经过数字化处理的语音信号,对采集的用户的语音信号,进行滤波处理,滤除50Hz的电源干扰,滤波采用带通滤波器,其上下截止频率分别为fH和fL,生成滤波后的语音信号,fH=4500Hz或8000Hz,fL=60Hz。
进一步地,对转换成预设格式的所述语音信号进行预处理,包括预加重、加窗和分帧等,进一步滤除掉其中的不重要的信息以及背景噪声。分帧是将语音信号分割为一帧一帧进行后续的分析处理,减少单次的数据量;而预加重采用提升高频部分的处理方式。
作为本发明一实施例,如图2所示,所述对转换成预设格式的所述语音信号进行预处理,包括步骤201至203。
S201,对转换成预设格式的语音信号进行分帧处理得到N帧子信号;其中,N为正整数。
示例性地,以帧长25ms、帧移10ms分帧处理语音信号得到N帧子信号,即每帧的长度为25毫秒,每两帧之间有25-10=15毫秒的交叠。或以帧长20ms、帧移10ms分帧处理语音信号得到N帧子信号,即每帧的长度为20毫秒,每两帧之间有20-10=10毫秒的交叠。
S202,提取每帧所述子信号的声学特征构成声学特征向量。
其中,提取每帧子信号的5个声学特征构成声学特征向量。5个声学特征包括:美尔频率倒谱系数(Mel Frequency Cepstral Coefficients,MFCC)MFCCi、线性预测倒谱系数(Linear Frequency Cepstral Coefficients,LPCC)LPCCi、第一共振峰(F1)F1i、基音频率(FO)FOi、短时能量(En)Eni,i表示帧数,为正整数,且1≤i≤N。其中,美尔频率倒谱系数MFCCi可以为多阶,如7阶,Co至C6。
声学特征选取越多,数量处理量越大,实现的效率越低。本发明实施例中在确保结果准确度的同时,也控制了计算数据量,选择了5个声学特征构成了声学特征向量。
S203,组合N帧所述子信号的所述声学特征向量构成观察矩阵DETECT。
其中,将N帧所述子信号的所述声学特征向量进行组合,构成观察矩阵:
之后,将所述观察矩阵作为语种识别模型的输入,通过语种识别模型便可以得到语音信号的语种信息。
进一步地,在图2所述实施例的基础上,如图3所示,步骤201,所述对转换成预设格式的语音信号进行分帧处理得到N帧子信号之后,还包括步骤204。
S204,计算每帧所述子信号的短时能量和过零率,基于所述短时能量和所述过零率确定N帧所述子信号中的静音帧,切除所述静音帧,得到包括剩余帧的所述语音信号。
相应的,步骤202,提取每帧所述子信号的声学特征构成声学特征向量;步骤203,组合N帧所述子信号的所述声学特征向量构成观察矩阵DETECT,包括:提取剩余帧中每帧所述子信号的声学特征构成声学特征向量;组合剩余帧中每帧所述子信号的所述声学特征向量构成观察矩阵DETECT。
其中,所述基于所述短时能量和所述过零率确定N帧所述子信号中的静音帧,包括:
从N帧所述子信号的第一帧开始,若连续Q帧所述子信号的所述短时能量ENERGY小于或等于预设短时能量下限,且所述过零率ZCR小于或等于预设过零率下限,以及第Q+1帧后的连续R帧所述子信号的所述短时能量大于所述预设短时能量下限,且所述过零率大于所述预设过零率下限,则确定N帧所述子信号的前Q帧所述子信号为静音帧;
从N帧所述子信号的最后一帧开始,若倒数连续S帧所述子信号的所述短时能量ENERGY小于或等于预设短时能量下限,且所述过零率ZCR小于或等于预设过零率下限,以及从第N-S帧开始倒数连续T帧所述子信号的所述短时能量大于所述预设短时能量下限,且所述过零率大于所述预设过零率下限,则确定N帧所述子信号的后S帧所述子信号为静音帧。
其中,Q、S和R均为小于N的正整数。
通过对语音信号首尾端的静音进行切除,减少了对后续步骤造成的干扰信号,提高了后续结果的精度。此外,由于本发明采用了一种易于实现的静音确定的方法,减少了整体的计算量,提高了程序运行效率。
S103,对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词。
本发明实施例中,利用声学模型识别语音信号,声学模型可以为预先训练好的隐马尔可夫模型或神经网络模型等。
可选地,如图4所示,步骤103包括步骤401至402。
S401,分别将每帧所述子信号的所述声学特征向量输入声学模型得到每帧所述子信号对应的概率排名靠前的若干个音素。
其中,步骤202中得到每帧子信号的声学特征向量,利用所述声学特征向量输入声学模型得到每帧所述子信号对应的概率排名靠前的若干个音素。若干个音素的选择为经验值,可以根据实际情况进行选取。
例如,某帧子信号的声学特征向量输入声学模型,得到对应4个音素的概率输出,分别为:音素s1对应的概率为0.1、音素s2对应的概率为0.3、音素s3对应的概率为0.4、和音素s4对应的概率为0.2。取概率排名靠前的3个音素作为该帧子信号对应的3个音素。
某帧子信号的声学特征向量输入声学模型,仅得到对应2个音素的概率输出,分别为:音素ss1对应的概率为0.6、音素ss2对应的概率为0.4。取概率排名靠前的2个音素作为该帧子信号对应的2个音素。
S402,将N帧所述子信号对应的音素按照帧的时间先后顺序进行排序,构建成多个词序列。
其中,按照N帧所述子信号的时间先后顺序,对N帧所述子信号对应的音素进行排序,得到多个词序列。
例如,第1帧子信号,对应3个音素为s1、s2和s3;第2帧子信号,对应2个音素为ss1、和ss2。因而得到的音素排序有以下6种情况:s1ss1;s2ss1;s3ss1;s1ss2;s2ss2;s3ss2。基于所述音素排序的6种情况,分别对应生成词序列。
需要说明的是,此处仅用2帧子信号进行举例,通常情况下,子信号的帧数不止2帧。
S104,根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果。
本发明实施例中,预先存储有语种信息对应的词库,词库中存储有对应语种下使用的词及其使用概率。根据所述语种信息查询到对应的词库,则可以确定多个词序列中是不是包括不存在于词库中的词,若词序列中包括不存在于词库中的词,即在词库中出现频率为零的词,则将所述词序列删除。计算剩下的词序列出现的概率,词序列的概率为各个词的概率之和,概率之和最大的词序列确定为所述语音信号的识别结果。
S105,提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
本发明实施例中,提取所述识别结果中的关键字包括,确定识别结果中是否包括预设的关键字,如“取钱”、“转账”、或“基金”等,分别对应的业务为“现金业务”、“非现金业务”和“金融业务”等。若确定识别结果中包括预设的关键字,则确定用户办理的业务为与该预设的关键字对应的业务。确定用户办理的业务后,生成所述业务对应的排队票。从而通过打印装置打印后输出给用户。
例如:确定识别结果中包括关键字“取钱”,则确定用户办理的业务为“现金业务”;确定识别结果中包括关键字“转账”,则确定用户办理的业务为“非现金业务”。
可选地,所述生成所述业务对应的排队票,包括:根据所述语种信息控制输出是否需要办理所述业务的询问语音;若接收到用户的肯定回答,则生成与所述业务对应的排队票。
通过这种设置,提高了取号终端设备与用户的交互性能,从而提供更好的用户体验。
本发明实施例中,通过识别用户语音信号的语种,并获取用户语音信号对应的多个词序列,进而获取语种词库,根据词库获得语音识别结果,从而实现取号终端设备的全自动语音取号,提高了排队取号的效率。另外,通过本发明的方法,因为后续步骤中有根据词库确定识别结果的步骤,获取用户语音信号对应的多个词序列时,对其精度要求不太高,因而,简化了前期声学模型的训练过程,使得本发明易于实现。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的语音取号的方法,图5示出了本发明实施例提供的语音取号的装置的结构框图,为了便于说明,仅示出了与本发明实施例相关的部分。
参照图5,该语音取号的装置包括:
接收模块51,用于接收用户的语音信号;
语种识别模块52,用于通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
词序列获取模块53,用于对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
识别结果确定模块54,用于根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
生成模块55,用于提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
图6是本发明一实施例提供的终端设备的示意图。如图6所示,该实施例的终端设备6包括:处理器60、存储器61以及存储在所述存储器61中并可在所述处理器60上运行的计算机程序62,例如语音取号的程序。所述处理器60执行所述计算机程序62时实现上述语音取号的方法实施例中的步骤,例如图1所示的步骤S101至S105。或者,所述处理器60执行所述计算机程序62时实现上述各装置实施例中各模块/单元的功能,例如图5所示模块51至55的功能。
示例性的,所述计算机程序62可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器61中,并由所述处理器60执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序62在所述终端设备6中的执行过程。
所述终端设备6可以是取号终端设备等。所述终端设备6可包括,但不仅限于,处理器60、存储器61。本领域技术人员可以理解,图6仅仅是终端设备6的示例,并不构成对终端设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器60可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器61可以是所述终端设备6的内部存储单元,例如终端设备6的硬盘或内存。所述存储器61也可以是所述终端设备6的外部存储设备,例如所述终端设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器61还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器61用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器61还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种语音取号的方法,其特征在于,包括:
接收用户的语音信号;
通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
2.如权利要求1所述的方法,其特征在于,通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息,包括:
将所述语音信号转换成预设格式的语音信号,并对转换成预设格式的所述语音信号进行预处理,通过语种识别模型分析预处理后的所述语音信号,得到所述语音信号的语种信息。
3.如权利要求2所述的方法,其特征在于,所述对转换成预设格式的所述语音信号进行预处理,包括:
对转换成预设格式的语音信号进行分帧处理得到N帧子信号;其中,N为正整数;
提取每帧所述子信号的声学特征构成声学特征向量;
组合N帧所述子信号的所述声学特征向量构成观察矩阵DETECT。
4.如权利要求3所述的方法,其特征在于,所述对所述语音信号进行识别,获得所述语音信号对应的多个词序列,包括:
分别将每帧所述子信号的所述声学特征向量输入声学模型得到每帧所述子信号对应的概率排名靠前的若干个音素;
将N帧所述子信号对应的音素按照帧的时间先后顺序进行排序,构建成多个词序列。
5.如权利要求3所述的方法,其特征在于,所述对转换成预设格式的语音信号进行分帧处理得到N帧子信号之后,还包括:
计算每帧所述子信号的短时能量和过零率,基于所述短时能量和所述过零率确定N帧所述子信号中的静音帧,切除所述静音帧,得到包括剩余帧的所述语音信号;
相应的,提取每帧所述子信号的声学特征构成声学特征向量;组合N帧所述子信号的所述声学特征向量构成观察矩阵DETECT,包括:
提取剩余帧中每帧所述子信号的声学特征构成声学特征向量;组合剩余帧中每帧所述子信号的所述声学特征向量构成观察矩阵DETECT。
6.如权利要求5所述的方法,其特征在于,所述基于所述短时能量和所述过零率确定N帧所述子信号中的静音帧,包括:
从N帧所述子信号的第一帧开始,若连续Q帧所述子信号的所述短时能量小于或等于预设短时能量下限,且所述过零率小于或等于预设过零率下限,以及第Q+1帧后的连续R帧所述子信号的所述短时能量大于所述预设短时能量下限,且所述过零率大于所述预设过零率下限,则确定N帧所述子信号的前Q帧所述子信号为静音帧;
从N帧所述子信号的最后一帧开始,若倒数连续S帧所述子信号的所述短时能量小于或等于预设短时能量下限,且所述过零率小于或等于预设过零率下限,以及从第N-S帧开始倒数连续T帧所述子信号的所述短时能量大于所述预设短时能量下限,且所述过零率大于所述预设过零率下限,则确定N帧所述子信号的后S帧所述子信号为静音帧。
7.如权利要求3所述的方法,其特征在于,所述提取每帧所述子信号的声学特征构成声学特征向量,包括:
提取每帧所述子信号的的5个声学特征构成声学特征向量,其中,5个声学特征包括:美尔频率倒谱系数、线性预测倒谱系数、第一共振峰、基音频率和短时能量。
8.如权利要求1所述的方法,其特征在于,所述生成所述业务对应的排队票,包括:根据所述语种信息控制输出是否需要办理所述业务的询问语音;若接收到用户的肯定回答,则生成与所述业务对应的排队票。
9.一种终端设备,包括存储器以及处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如下步骤:
接收用户的语音信号;
通过语种识别模型分析所述语音信号,得到所述语音信号的语种信息;
对所述语音信号进行识别,获得所述语音信号对应的多个词序列;每个所述词序列包括多个词;
根据所述语种信息对应的词库,删除多个所述词序列中包括在所述词库中出现频率为零的词的词序列,将剩下的所述词序列中出现概率最高的词序列确定为所述语音信号的识别结果;
提取所述识别结果中的关键字,确定用户办理的业务,并生成所述业务对应的排队票。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810952906.1A CN109147146B (zh) | 2018-08-21 | 2018-08-21 | 语音取号的方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810952906.1A CN109147146B (zh) | 2018-08-21 | 2018-08-21 | 语音取号的方法及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109147146A true CN109147146A (zh) | 2019-01-04 |
CN109147146B CN109147146B (zh) | 2022-04-12 |
Family
ID=64790419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810952906.1A Active CN109147146B (zh) | 2018-08-21 | 2018-08-21 | 语音取号的方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109147146B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110874879A (zh) * | 2019-10-18 | 2020-03-10 | 平安科技(深圳)有限公司 | 基于语音识别的老人挂号方法、装置、设备及存储介质 |
CN111554269A (zh) * | 2019-10-12 | 2020-08-18 | 南京奥拓软件技术有限公司 | 一种语音取号方法、系统及存储介质 |
CN113870478A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 快速取号方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915729A (zh) * | 2011-08-01 | 2013-02-06 | 佳能株式会社 | 语音关键词检出系统、创建用于其的词典的系统和方法 |
CN105913846A (zh) * | 2016-05-25 | 2016-08-31 | 北京云知声信息技术有限公司 | 一种语音挂号实现方法、装置及系统 |
CN105957516A (zh) * | 2016-06-16 | 2016-09-21 | 百度在线网络技术(北京)有限公司 | 多语音识别模型切换方法及装置 |
GB2537907A (en) * | 2015-04-30 | 2016-11-02 | Toshiba Res Europe Ltd | Speech synthesis using dynamical modelling with global variance |
CN106584481A (zh) * | 2017-01-20 | 2017-04-26 | 南京邮电大学 | 一种应用于移动营业厅服务机器人及其操作方法 |
CN107045496A (zh) * | 2017-04-19 | 2017-08-15 | 畅捷通信息技术股份有限公司 | 语音识别后文本的纠错方法及纠错装置 |
CN107122346A (zh) * | 2016-12-28 | 2017-09-01 | 平安科技(深圳)有限公司 | 一种输入语句的纠错方法及装置 |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN107818625A (zh) * | 2017-11-03 | 2018-03-20 | 深圳市易特科信息技术有限公司 | 具备导诊功能的挂号辅助装置 |
CN108108350A (zh) * | 2017-11-29 | 2018-06-01 | 北京小米移动软件有限公司 | 名词识别方法及装置 |
-
2018
- 2018-08-21 CN CN201810952906.1A patent/CN109147146B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915729A (zh) * | 2011-08-01 | 2013-02-06 | 佳能株式会社 | 语音关键词检出系统、创建用于其的词典的系统和方法 |
GB2537907A (en) * | 2015-04-30 | 2016-11-02 | Toshiba Res Europe Ltd | Speech synthesis using dynamical modelling with global variance |
CN105913846A (zh) * | 2016-05-25 | 2016-08-31 | 北京云知声信息技术有限公司 | 一种语音挂号实现方法、装置及系统 |
CN105957516A (zh) * | 2016-06-16 | 2016-09-21 | 百度在线网络技术(北京)有限公司 | 多语音识别模型切换方法及装置 |
CN107610707A (zh) * | 2016-12-15 | 2018-01-19 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
CN107122346A (zh) * | 2016-12-28 | 2017-09-01 | 平安科技(深圳)有限公司 | 一种输入语句的纠错方法及装置 |
CN106584481A (zh) * | 2017-01-20 | 2017-04-26 | 南京邮电大学 | 一种应用于移动营业厅服务机器人及其操作方法 |
CN107045496A (zh) * | 2017-04-19 | 2017-08-15 | 畅捷通信息技术股份有限公司 | 语音识别后文本的纠错方法及纠错装置 |
CN107818625A (zh) * | 2017-11-03 | 2018-03-20 | 深圳市易特科信息技术有限公司 | 具备导诊功能的挂号辅助装置 |
CN108108350A (zh) * | 2017-11-29 | 2018-06-01 | 北京小米移动软件有限公司 | 名词识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
赵一良: ""基于空间分离和丟失数据的语音识别算法研究"", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111554269A (zh) * | 2019-10-12 | 2020-08-18 | 南京奥拓软件技术有限公司 | 一种语音取号方法、系统及存储介质 |
CN110874879A (zh) * | 2019-10-18 | 2020-03-10 | 平安科技(深圳)有限公司 | 基于语音识别的老人挂号方法、装置、设备及存储介质 |
WO2021073161A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于语音识别的老人挂号方法、装置、设备及存储介质 |
CN113870478A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 快速取号方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109147146B (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tokozume et al. | Learning environmental sounds with end-to-end convolutional neural network | |
CN111276131B (zh) | 一种基于深度神经网络的多类声学特征整合方法和系统 | |
CN111402891B (zh) | 语音识别方法、装置、设备和存储介质 | |
Das et al. | Recognition of isolated words using features based on LPC, MFCC, ZCR and STE, with neural network classifiers | |
CN110211565A (zh) | 方言识别方法、装置及计算机可读存储介质 | |
CN112562691A (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
CN110222841A (zh) | 基于间距损失函数的神经网络训练方法和装置 | |
CN109147146A (zh) | 语音取号的方法及终端设备 | |
Passricha et al. | A comparative analysis of pooling strategies for convolutional neural network based Hindi ASR | |
CN114566189B (zh) | 基于三维深度特征融合的语音情感识别方法及系统 | |
CN108986798A (zh) | 语音数据的处理方法、装置及设备 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
JPH08123462A (ja) | 音声認識装置 | |
Rudresh et al. | Performance analysis of speech digit recognition using cepstrum and vector quantization | |
CN115881164A (zh) | 一种语音情感识别方法及系统 | |
CN111145726A (zh) | 基于深度学习的声场景分类方法、系统、装置及存储介质 | |
Radha et al. | Speech and speaker recognition using raw waveform modeling for adult and children’s speech: A comprehensive review | |
Krishnan et al. | Speech recognition of isolated malayalam words using wavelet features and artificial neural network | |
WO2023222090A1 (zh) | 基于深度学习的信息推送方法和装置 | |
Kamble et al. | Emotion recognition for instantaneous Marathi spoken words | |
CN112199498A (zh) | 一种养老服务的人机对话方法、装置、介质及电子设备 | |
Fachrie et al. | Robust Indonesian digit speech recognition using Elman recurrent neural network | |
Sunny et al. | Feature extraction methods based on linear predictive coding and wavelet packet decomposition for recognizing spoken words in malayalam | |
CN112992155B (zh) | 一种基于残差神经网络的远场语音说话人识别方法及装置 | |
Tailor et al. | Deep learning approach for spoken digit recognition in Gujarati language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |