CN113035180A - 语音输入完整性判断方法、装置、电子设备和存储介质 - Google Patents
语音输入完整性判断方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN113035180A CN113035180A CN202110303267.8A CN202110303267A CN113035180A CN 113035180 A CN113035180 A CN 113035180A CN 202110303267 A CN202110303267 A CN 202110303267A CN 113035180 A CN113035180 A CN 113035180A
- Authority
- CN
- China
- Prior art keywords
- voice
- current
- input
- feature extraction
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000000605 extraction Methods 0.000 claims abstract description 86
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 6
- 230000003993 interaction Effects 0.000 abstract description 34
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例公开了一种语音输入完整性判断方法、装置、电子设备和存储介质。该语音输入完整性判断方法包括:对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。本发明实施例涉及人工智能/人机交互技术领域,结合声学特征和语义特征进行当前语音输入的完整性判断,在保证判断结果准确性的同时,不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
Description
技术领域
本发明实施例涉及人工智能/人机交互技术领域,尤其涉及一种语音输入完整性判断方法、装置、电子设备和存储介质。
背景技术
语音交互属于人机交互的范畴,是人机交互发展到目前的一种较为前沿的交互方式。语音交互就是用户通过自然语言给机器下指令,以达成自己的目的的过程。在语音交互过程中,需要对用户的语音输入是否结束进行判断,以及时获取完整的语音输入,提高用户的交互体验。
目前主要是采取语音活性检测(Voice activity detection,VAD)的方式来确定用户是否结束语音输入。简单地说,就是在检测到用户没有语音输入的时间超过一个时间阈值时,判定语音输入结束。
但是需要设置一个准确的时间阈值,才能保证语音输入完整性判断结果的准确性,时间阈值的设置必然会引入固定的延时,并且由于用户在通过语音输入表达意图时会有停顿,如思考、换气等带来的停顿,若时间阈值设置偏小则会导致用户在语音输入中途停顿时被打断,若时间阈值设置偏大则会导致用户在语音输入表达完整意图后等待答复的时间延长,造成增加语音交互时交互延迟的问题,降低用户的交互体验。
发明内容
本发明实施例提供一种语音输入完整性判断方法、装置、电子设备和存储介质,在保证语音输入完整性判断准确的同时,不引入固定的交互延时。
第一方面,本发明实施例提供了一种语音输入完整性判断方法,包括:
对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
第二方面,本发明实施例还提供了一种语音输入完整性判断装置,包括:
声学特征提取模块,用于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
语义特征提取模块,用于对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
完整性判断模块,用于根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
第三方面,本发明实施例还提供了一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的语音输入完整性判断方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任一实施例所述的语音输入完整性判断方法。
本发明实施例基于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。结合声学特征和语义特征进行当前语音输入的完整性判断,在保证判断结果准确性的同时,不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
附图说明
图1是本发明实施例一中的语音输入完整性判断方法的流程图;
图2是本发明实施例二中的语音输入完整性判断方法的流程图;
图3是本发明实施例三中的语音输入完整性判断方法的流程图;
图4是本发明实施例四中的语音输入完整性判断装置的结构示意图;
图5是本发明实施例五中的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一中的语音输入完整性判断方法的流程图,本实施例可适用于在人机交互时确定用户输入意图是否完整的情况。该方法可以由语音输入完整性判断装置来执行,该装置可以采用软件和/或硬件的方式实现,并可配置在电子设备中,例如电子设备可以是后台服务器等具有通信和计算能力的设备。如图1所示,该方法具体包括:
步骤101、对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征。
其中,用户的当前输入语音是指用户发出的语音指令信息,例如,用户的当前输入语音是指在机器进行上一次回复后接收到用户的实时输入的语音信息,在考虑到外界环境的噪声影响的情况下,可以通过声音输入设备实时捕捉来自外部的声音信息,并对捕捉到的声音信号做进一步检测,判断其中是否有基于自然语言发出的语音信息,以确定用户的当前输入语音。示例性的,实时进行输入语音的采集,以实现实时对当前接收到的输入语音是否输入完整进行判断,避免产生交互延时。
声学特征提取操作是指通过预定的语音特征提取方式对语音输入对应的音频数据进行特征提取。例如,可以使用梅尔标度滤波器组、梅尔频率倒谱系数等特征提取方式对输入语音对应的音频数据进行抽取得到。当前语音声学特征是指利用音频上的声学物理特性对用户的意图进行描述的特征,以对用户意图完整性进行判断。
具体的,通过对输入语音的声学特征进行分析,可以得到用户的输入意图是否结果的信息。例如输入语音的尾部数据的声学特征对语音输入是否结束的影响较大,因此,在本发明实施例中,保持对用户当前输入语音的实时检测,并得到当前语音声音特性,有利于判断语音输入是否结束。
示例性的,对于“嗯”这样的语音输入,仅基于文本,很难确定用户是否结束语音输入。但是如果声学特征是第一声调,则表明用户在思考,语音输入未结束;如果是降调,则表明用户已经确认,语音输入结束。该实例仅是声学特征中的一个例子,并不限制本发明对于声学特征的保护范围。在一个可行的实施例中,语音声学特征包括如下至少一项:频域特征和基频特征。其中,语音基频中包含了大量表征语音情感的特征,在语音情感识别中至关重要。此外,声学特征,指表示语音声学特性的物理量,也是声音诸要素声学表现的统称。还可以包括音色的能量集中区、共振峰频率、共振峰强度和带宽,以及表示语音韵律特性的时长、基频、平均语声功率等特征。
在一个可行的实施例中,步骤101,包括:
将当前输入语音输入预先训练的声学特征提取模型,进行声学特征提取,得到当前语音声学特征。
声学特征提取模型基于神经网络预先构建,并通过预先采集的语音样本集进行训练得到。关于神经网络的具体结构在本发明实施例中并不限制。
在一个可行的实施例中,声学特征提取模型是基于第二深度神经网络对第二语音样本集进行训练得到。
其中,深度神经网络(Deep Neural Networks,DNN),神经网络是基于感知机的扩展,而DNN可以理解为有很多隐藏层的神经网络。多层神经网络和深度神经网络DNN即多层神经网络,或者多层感知机。从DNN按不同层的位置划分,DNN内部的神经网络层可以分为三类,输入层,隐藏层和输出层,一般来说第一层是输入层,最后一层是输出层,而中间的层数都是隐藏层。在本发明实施例中,对隐藏层的数量以及具体结构并不限制。层与层之间是全连接的,也就是说,第i层的任意一个神经元一定与第i+1层的任意一个神经元相连。DNN前向传播算法就是利用若干个权重系数矩阵,偏倚向量来和输入值向量进行一系列线性运算和激活运算,从输入层开始,逐层向后计算,直至运算到输出层,得到输出结果。
其中,第二语音样本集是指预先采集的语音样本库,并确定语音样本库中每一个语音样本的声学特征。通过语音样本库和其对应的声学特征对第二深度神经网络进行训练,得到训练完成的声学特征提取模型。示例性的,第二语音样本集的声学特征为预先确定的可以得到语音输入完整性信息的特征。
步骤102、对当前输入语音进行语义特征提取操作,得到当前语音语义特征。
其中,语义特征提取操作是指通过预定的语义特征提取方式对语音输入对应的音频数据进行特征提取,以得到输入语音中承载的信息。当前语音语义特征是指利用音频对应的文本特征对用户的意图进行描述的特征,以对用户意图完整性进行判断。
具体的,对当前输入语音进行语音识别,得到当前输入语音对应的文字识别结果,对文字识别结果进行语义特征提取操作,对其中的文本特征进行分析,得到当前语音语义特征。示例性的,当前语音语义特征可以包括当前输入语音的语义分析结果和用户意图分析结果。通过语义分析结果和用户意图分析结果可以为当前语音输入的完整性提供参考信息。
步骤103、根据当前语音声学特征和当前语音语义特征,得到当前语音输入的完整性判断结果。
由于当前输入语音的当前语音声学特征和当前语音语义特征可以反映部分语音输入的完整性信息,因此将二者结合共同判断当前语音输入的完整性判断结果可以提供完整性判断结果的准确性。
具体的,在人机交互过程中,在对话系统对用户进行回复后实时接收用户的输入语音,作为当前输入语音,并对当前输入语音进行声学特征提取和语义特征提取,得到当前语音输入的完整性判断结果,若当前语音输入的完整性判断结果为完整,则实时对当前输入语音进行响应操作。若当前语音输入的完整性判断结果为不完整,则继续接收用户的输入语音,与前面的输入语音一起作为当前输入语音,并进行新一轮的声学特征提取和语义特征提取,得到新一轮的完整性判断结果,直至得到当前语音输入的完整性判断结果为完整,此次当前输入语音接收结束。
由于在本发明实施例中是对实时接收到的当前输入语音进行完整性判断,即避免了引入固定延时,在避免打断用户说话的前提下达到了及时响应用户的效果,提供了人机交互的效率和用户的交互体验。
在一个可行的实施例中,步骤103,包括:
将当前语音声学特征和当前语音语义特征,输入预先训练的完整性判断模型,得到当前语音输入的完整性判断结果。
完整性判断模型是基于神经网络预先构建,并通过预先采集的语音样本集进行训练得到,可以通过语音声学特征和语音语义特征对当前语音输入完整性进行预测。关于神经网络的具体结构在本发明实施例中并不限制。
在一个可行的实施例中,完整性判断模型是基于第三深度神经网络对第三语音样本集进行训练得到。
其中,第三深度神经网络同第二深度神经网络的构造类似,由输入层,隐藏层和输出层构成,第三深度神经网络的具体结构与第二深度神经网络可以相同,也可以不同,可以根据特征提取情况进行设置,在此不作限制。
第三语音样本集是指预先采集的语音样本库,并确定语音样本库中每一个语音样本的声学特征、语义特征以及语音输入的完整性标注。通过语音样本库的声学特征、语义特征和其对应的完整性标注对第三深度神经网络进行训练,得到训练完成的完整性判断模型。示例性的,第三语音样本集为第一语音样本集和第二语音样本集的并集。
本发明实施例基于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;对当前输入语音进行语义特征提取操作,得到当前语音语义特征;根据当前语音声学特征和当前语音语义特征,得到当前语音输入的完整性判断结果。结合声学特征和语义特征进行当前语音输入的完整性判断,在保证判断结果准确性的同时,不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
实施例二
图2是本发明实施例二中的语音输入完整性判断方法的流程图,本实施例二在实施例一的基础上进行进一步地优化。如图2所示,该方法包括:
步骤201、对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征。
步骤202、结合历史对话信息对当前输入语音进行语义特征提取操作,得到当前语音语义特征。
由于用户在进行人机交互时,其意图表达与历史对话信息具有一定的相关性,且会影响当前语音声学特征、当前语音语义特征。因此,在对当前输入语音进行语义特征提取时,结合历史对话信息对当前输入语音进行语义特征提取操作,有利于提高对当前语音语义特征提取的准确性,更能反映用户意图完整性表达信息。
在本发明实施例中,结合历史对话信息、当前语音声学特征、当前语音语义特征对当前语音输入的完整性进行判断,更接近人类判断意图完整性的方式,且既不需要设置阈值也不需要引入固定延时,提高用户人机交互的效率和体验感。
其中,历史对话信息是指在当前输入语音之前的人机对话信息。在一个可行的实施例中,历史对话信息中包括如下至少一项:当前轮对话中用户的历史输入语音、历史语音识别结果、意图识别结果和对话系统的历史答复信息。
其中,当前轮对话是指与当前输入语音属于同一对话主题的语音内容。示例性的,用户的当前输入语音为“请将空调温度升到28度”,在该语音前用户的上一句输入语音为“空调现在的温度是多少?”,根据语义分析可知,该两句语音的对话主题与空调相关,属于同一对话主题,则当前输入语音的上一句输入语音之间的对话均属于当前轮对话,包括对话系统对用户上一句输入语音的答复信息。
具体的,将当前输入语音依次与前一句输入语音进行对话主题判断,根据判断结果进行当前轮对话的判断。用户的历史输入语音是指在当前轮对话中由用户输出的语音信息,由于当前轮对话的对话主题相同或相似,则根据用户的历史输入语音可以对用户的当前输入语音的意图进行预测,给当前输入语音的意图完整性判断提供有效的参考。历史语音识别结果是指对用户的历史输入语音进行语音识别得到的文字识别结果。用户的历史输入语音中除了包括用户的历史语音识别结果,还包括历史语音声学特征。意图识别结果是指根据用户的历史语音识别结果和当前语音识别结果,对用户当前轮对话的意图进行预测的结果。对话系统的历史答复信息是指在当前轮对话中对话系统对用户的历史输入语音进行响应的语音信息以及行为信息等。通过上述历史对话信息有利于对话系统解析用户的意图,结合历史对话信息对当前输入语音进行当前语音语义特征的提取,使得当前语音语义特征不仅仅表达了当前输入语音的语义特征,还结合历史对话信息中的语义特征,更能反映用户的当前输入语音是否表达完整。
在一个可行的实施例中,步骤202,包括:
对当前输入语音进行语音识别,得到当前语音识别结果;
根据当前语音识别结果和历史对话信息,对当前输入语音进行语义特征提取操作,得到当前语音语义特征。
具体的,对当前输入语音进行语音识别,得到当前输入语音对应的文字识别结果,文字识别结果为当前语音识别结果,结合当前语音识别结果和历史对话信息,对其中的用户意图进行分析,得到当前语音语义特征,使得当前语音语义特征中既有当前输入语音的语义分析结果,还存在历史输入语音的语义分析结果,进一步提高当前语音语义特征反映当前语音输入完整性的准确性。
在一个可行的实施例中,根据当前语音识别结果和历史对话信息,对当前输入语音进行语义特征提取操作,得到当前语音语义特征,包括:
将当前语音识别结果和历史对话信息输入预先训练的语义特征提取模型,进行语义特征提取操作,得到当前语音语义特征。
语义特征提取模型基于神经网络预先构建,并通过预先采集的语音样本集进行训练得到。关于神经网络的具体结构在本发明实施例中并不限制。
将当前语音识别结果和历史对话信息作为输入,输入到预先训练好的语义特征提取模型中,经过模型对当前语音识别结果和历史对话信息中语义特征的提取,得到当前语音语义特征。由于本发明实施例是对当前输入语音是否表述完整进行判断,因此结合了历史对话信息的当前语音语义特征更能反应意图完整性,而不仅仅是对当前输入语音进行语义分析。
在一个可行的实施例中,语义特征提取模型是基于第一深度神经网络对第一语音样本集进行训练得到。
其中,第一深度神经网络同第二深度神经网络的构造类似,由输入层,隐藏层和输出层构成,第二深度神经网络的具体结构与第一深度神经网络可以相同,也可以不同,可以根据特征提取情况进行设置,在此不作限制。
第一语音样本集是指预先采集的语音样本库,并确定语音样本库中每一个语音样本的语义特征。通过语音样本库和其对应的语义特征对第一深度神经网络进行训练,得到训练完成的语义特征提取模型。示例性的,第一语音样本集的语义特征为预先确定的可以得到语音输入完整性信息的相关特征。对于第一语音样本集的语音样本库可以与第二语音样本集的语音样本库相同,也可以不同。
步骤203、根据当前语音声学特征和当前语音语义特征,得到当前语音输入的完整性判断结果。
在一个可行的实施例中,在得到当前语音输入的完整性判断结果之后,还包括:
根据完整性判断结果为当前输入语音设置对话状态标识;
相应的,根据对话状态标识确定当前轮对话。
其中,对话状态标识用于表征当前输入语音是否结束,和/或当前轮对话是否结束。
具体的,若完整性判断结果为不完整,则不对当前输入语音进行标记;若完整性判断结果为完整,则在当前输入语音的截止位置设置对话状态标识。和/或,若完整性判断结果为完整,则将当前输入语音与历史输入语音进行对话主题的判断,若当前输入语音与上一句历史输入语音的对话主题相同或相似,则表示当前轮对话未结束;若当前输入语音与上一句历史输入语音的对话主题不相似,则表示当前输入语音属于新一轮的当前轮对话,为当前输入语音的上一句历史输入语音设置对话状态标识,表示该轮对话结束。
根据对话状态标识便于对当前轮对话进行确认。具体的,确定历史对话信息时,根据用户的历史输入语音上是否设置对话状态标识确定当前轮对话的起始位置,若当前输入语音的上一句历史输入语音上存在对话状态标识,则表示当前输入语音属于新一轮的对话;若当前输入语音的上一句历史输入语音上不存在对话状态标识,则表示该语音与当前输入语音属于当前轮对话,依次确认上一句历史输入语音的对话状态标识,以确定当前轮对话的开始位置。
本发明实施例结合历史对话信息得到当前输入语音的语义特征,再根据声学特征和语义特征进行当前语音输入的完整性判断,提高了对语音输入完整性判断的准确性,且不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
实施例三
图3是本发明实施例三中的语音输入完整性判断装置的结构示意图,本实施例可适用于在人机交互时确定用户输入意图是否完整的情况。如图3所示,该方法包括:
获取用户语音,即用户的当前输入语音;对用户语音进行声学特征提取得到声学特征,在声学特征提取时基于声学特征提取模型进行操作,声学特征提取模型的输入是采集到的用户语音,经过模型DNN前向推理,输出声学特征。
在对用户语音进行声学特征提取的同时,对用户语音进行语音识别,得到语音识别结果。关于语音识别的具体实现为成熟技术,在本发明实施例中不再赘述。结合语音识别结果和历史语义特征对当前用户语音进行语义特征提取,得到语音特征。在语义特征提取时基于语义特征提取模型进行操作,语义特征提取模型的输入是采集到的用户语音的语音识别结果和历史语义特征,经过模型DNN前向推理,输出语义特征。
通过上述得到的用户语音的声学特征和语义特征,进行意图完整性判断,得到意图完整性结果。其中,意图完整性判断即当前语音输入的完整性判断,意图完整性即完整性判断结果,用户意图完整即当前语音输入完整。在进行意图完整性判断时基于完整性判断模型进行操作,完整性判断模型的输入是用户语音的声学特征和语义特征,经过模型DNN前向推理,输出意图完整性,示例性的,模型输出的意图完整性结果为一个介于0-1的数值,0表示意图不完整,1表示意图完整,输出数值越接近1表示意图完整的概率越大,可以通过设置阈值对意图完整性进行判断。
本发明实施例结合历史对话信息得到当前输入语音的语义特征,再根据声学特征和语义特征进行当前语音输入的完整性判断,提高了对语音输入完整性判断的准确性,且不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
实施例四
图4是本发明实施例四中的语音输入完整性判断装置的结构示意图,本实施例可适用于在人机交互时确定用户输入意图是否完整的情况。如图4所示,该装置包括:
声学特征提取模块410,用于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
语义特征提取模块420,用于对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
完整性判断模块430,用于根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
本发明实施例基于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。结合声学特征和语义特征进行当前语音输入的完整性判断,在保证判断结果准确性的同时,不引入固定延时,降低了交互延迟,在避免打断用户说话的前提下及时答复用户,提高用户的交互体验。
可选的,语义特征提取模块,具体用于:
结合历史对话信息对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征。
可选的,语义特征提取模块,具体用于:
对所述当前输入语音进行语音识别,得到当前语音识别结果;
根据所述当前语音识别结果和历史对话信息,对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征。
可选的,语义特征提取模块,具体用于:
将所述当前语音识别结果和历史对话信息输入预先训练的语义特征提取模型,进行语义特征提取操作,得到当前语音语义特征。
可选的,所述语义特征提取模型是基于第一深度神经网络对第一语音样本集进行训练得到。
可选的,所述历史对话信息中包括如下至少一项:当前轮对话中用户的历史输入语音、历史语音识别结果、意图识别结果和对话系统的历史答复信息。
可选的,所述装置还包括对话状态标识设置模块,用于在得到当前语音输入的完整性判断结果之后,根据所述完整性判断结果为所述当前输入语音设置对话状态标识;
相应的,根据所述对话状态标识确定当前轮对话。
可选的,声学特征提取模块,用于:
将所述当前输入语音输入预先训练的声学特征提取模型,进行声学特征提取,得到当前语音声学特征。
可选的,所述声学特征提取模型是基于第二深度神经网络对第二语音样本集进行训练得到。
可选的,语音声学特征包括如下至少一项:频域特征和基频特征。
可选的,完整性判断模块,用于:
将所述当前语音声学特征和所述当前语音语义特征,输入预先训练的完整性判断模型,得到当前语音输入的完整性判断结果。
可选的,所述完整性判断模型是基于第三深度神经网络对第三语音样本集进行训练得到。
本发明实施例所提供的语音输入完整性判断装置可执行本发明任意实施例所提供的语音输入完整性判断方法,具备执行语音输入完整性判断方法相应的功能模块和有益效果。
实施例五
图5是本发明实施例五提供的一种电子设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图5显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备12以通用计算设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储装置28,连接不同系统组件(包括系统存储装置28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储装置总线或者存储装置控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储装置28可以包括易失性存储装置形式的计算机系统可读介质,例如随机存取存储装置(RAM)30和/或高速缓存存储装置32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储装置28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储装置28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该设备12交互的设备通信,和/或与使得该设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图5中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储装置28中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的语音输入完整性判断方法,包括:
对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
实施例六
本发明实施例六还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的语音输入完整性判断方法,包括:
对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (15)
1.一种语音输入完整性判断方法,其特征在于,包括:
对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
2.根据权利要求1所述的方法,其特征在于,对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征,包括:
结合历史对话信息对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征。
3.根据权利要求2所述的方法,其特征在于,结合历史对话信息对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征,包括:
对所述当前输入语音进行语音识别,得到当前语音识别结果;
根据所述当前语音识别结果和历史对话信息,对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征。
4.根据权利要求3所述的方法,其特征在于,根据所述当前语音识别结果和历史对话信息,对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征,包括:
将所述当前语音识别结果和历史对话信息输入预先训练的语义特征提取模型,进行语义特征提取操作,得到当前语音语义特征。
5.根据权利要求4所述的方法,其特征在于,所述语义特征提取模型是基于第一深度神经网络对第一语音样本集进行训练得到。
6.根据权利要求2-3任一项所述的方法,其特征在于,所述历史对话信息中包括如下至少一项:当前轮对话中用户的历史输入语音、历史语音识别结果、意图识别结果和对话系统的历史答复信息。
7.根据权利要求6所述的方法,其特征在于,在得到当前语音输入的完整性判断结果之后,还包括:
根据所述完整性判断结果为所述当前输入语音设置对话状态标识;
相应的,根据所述对话状态标识确定当前轮对话。
8.根据权利要求1所述的方法,其特征在于,对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征,包括:
将所述当前输入语音输入预先训练的声学特征提取模型,进行声学特征提取,得到当前语音声学特征。
9.根据权利要求8所述的方法,其特征在于,所述声学特征提取模型是基于第二深度神经网络对第二语音样本集进行训练得到。
10.根据权利要求1所述的方法,其特征在于,语音声学特征包括如下至少一项:频域特征和基频特征。
11.根据权利要求1所述的方法,其特征在于,根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果,包括:
将所述当前语音声学特征和所述当前语音语义特征,输入预先训练的完整性判断模型,得到当前语音输入的完整性判断结果。
12.根据权利要求1所述的方法,其特征在于,所述完整性判断模型是基于第三深度神经网络对第三语音样本集进行训练得到。
13.一种语音输入完整性判断装置,其特征在于,包括:
声学特征提取模块,用于对用户的当前输入语音进行声学特征提取操作,得到当前语音声学特征;
语义特征提取模块,用于对所述当前输入语音进行语义特征提取操作,得到当前语音语义特征;
完整性判断模块,用于根据所述当前语音声学特征和所述当前语音语义特征,得到当前语音输入的完整性判断结果。
14.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12中任一所述的语音输入完整性判断方法。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-12中任一所述的语音输入完整性判断方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110303267.8A CN113035180A (zh) | 2021-03-22 | 2021-03-22 | 语音输入完整性判断方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110303267.8A CN113035180A (zh) | 2021-03-22 | 2021-03-22 | 语音输入完整性判断方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113035180A true CN113035180A (zh) | 2021-06-25 |
Family
ID=76472364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110303267.8A Pending CN113035180A (zh) | 2021-03-22 | 2021-03-22 | 语音输入完整性判断方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113035180A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114078474A (zh) * | 2021-11-09 | 2022-02-22 | 京东科技信息技术有限公司 | 基于多模态特征的语音对话处理方法、装置和电子设备 |
CN114420103A (zh) * | 2022-01-24 | 2022-04-29 | 中国第一汽车股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN114582333A (zh) * | 2022-02-21 | 2022-06-03 | 中国第一汽车股份有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN115662397A (zh) * | 2022-12-29 | 2023-01-31 | 北京百度网讯科技有限公司 | 语音信号的处理方法、装置、电子设备及存储介质 |
CN117496973A (zh) * | 2024-01-02 | 2024-02-02 | 四川蜀天信息技术有限公司 | 一种提升人机对话交互体验感的方法、装置、设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7869998B1 (en) * | 2002-04-23 | 2011-01-11 | At&T Intellectual Property Ii, L.P. | Voice-enabled dialog system |
CN103325370A (zh) * | 2013-07-01 | 2013-09-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别系统 |
CN107665706A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 快速语音交互方法及系统 |
CN108509619A (zh) * | 2018-04-04 | 2018-09-07 | 科大讯飞股份有限公司 | 一种语音交互方法及设备 |
US20180336889A1 (en) * | 2017-05-19 | 2018-11-22 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and Apparatus of Building Acoustic Feature Extracting Model, and Acoustic Feature Extracting Method and Apparatus |
CN110718223A (zh) * | 2019-10-28 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 用于语音交互控制的方法、装置、设备和介质 |
CN110827795A (zh) * | 2018-08-07 | 2020-02-21 | 阿里巴巴集团控股有限公司 | 语音输入结束判断方法、装置、设备、系统以及存储介质 |
CN111429895A (zh) * | 2018-12-21 | 2020-07-17 | 广东美的白色家电技术创新中心有限公司 | 多轮交互的语义理解方法、装置及计算机存储介质 |
CN112101045A (zh) * | 2020-11-02 | 2020-12-18 | 北京淇瑀信息科技有限公司 | 一种多模态语义完整性识别方法、装置及电子设备 |
-
2021
- 2021-03-22 CN CN202110303267.8A patent/CN113035180A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7869998B1 (en) * | 2002-04-23 | 2011-01-11 | At&T Intellectual Property Ii, L.P. | Voice-enabled dialog system |
CN103325370A (zh) * | 2013-07-01 | 2013-09-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别系统 |
CN107665706A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 快速语音交互方法及系统 |
US20180336889A1 (en) * | 2017-05-19 | 2018-11-22 | Baidu Online Network Technology (Beijing) Co., Ltd . | Method and Apparatus of Building Acoustic Feature Extracting Model, and Acoustic Feature Extracting Method and Apparatus |
CN108509619A (zh) * | 2018-04-04 | 2018-09-07 | 科大讯飞股份有限公司 | 一种语音交互方法及设备 |
CN110827795A (zh) * | 2018-08-07 | 2020-02-21 | 阿里巴巴集团控股有限公司 | 语音输入结束判断方法、装置、设备、系统以及存储介质 |
CN111429895A (zh) * | 2018-12-21 | 2020-07-17 | 广东美的白色家电技术创新中心有限公司 | 多轮交互的语义理解方法、装置及计算机存储介质 |
CN110718223A (zh) * | 2019-10-28 | 2020-01-21 | 百度在线网络技术(北京)有限公司 | 用于语音交互控制的方法、装置、设备和介质 |
CN112101045A (zh) * | 2020-11-02 | 2020-12-18 | 北京淇瑀信息科技有限公司 | 一种多模态语义完整性识别方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
高万林: "《人工智能应用技术基础》", 31 March 2020, 西安电子科学技术大学出版社, pages: 116 - 117 * |
高万林: "《新农村信息化建设探索》", 中国农业大学出版社, pages: 191 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114078474A (zh) * | 2021-11-09 | 2022-02-22 | 京东科技信息技术有限公司 | 基于多模态特征的语音对话处理方法、装置和电子设备 |
WO2023082752A1 (zh) * | 2021-11-09 | 2023-05-19 | 京东科技信息技术有限公司 | 基于多模态特征的语音对话处理方法、装置和电子设备 |
CN114420103A (zh) * | 2022-01-24 | 2022-04-29 | 中国第一汽车股份有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN114582333A (zh) * | 2022-02-21 | 2022-06-03 | 中国第一汽车股份有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN115662397A (zh) * | 2022-12-29 | 2023-01-31 | 北京百度网讯科技有限公司 | 语音信号的处理方法、装置、电子设备及存储介质 |
CN117496973A (zh) * | 2024-01-02 | 2024-02-02 | 四川蜀天信息技术有限公司 | 一种提升人机对话交互体验感的方法、装置、设备及介质 |
CN117496973B (zh) * | 2024-01-02 | 2024-03-19 | 四川蜀天信息技术有限公司 | 一种提升人机对话交互体验感的方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11503155B2 (en) | Interactive voice-control method and apparatus, device and medium | |
CN113035180A (zh) | 语音输入完整性判断方法、装置、电子设备和存储介质 | |
WO2020182153A1 (zh) | 基于自适应语种进行语音识别的方法及相关装置 | |
CN108962227B (zh) | 语音起点和终点检测方法、装置、计算机设备及存储介质 | |
CN109686383B (zh) | 一种语音分析方法、装置及存储介质 | |
CN108320738B (zh) | 语音数据处理方法及装置、存储介质、电子设备 | |
CN111933129A (zh) | 音频处理方法、语言模型的训练方法、装置及计算机设备 | |
CN112825248B (zh) | 语音处理方法、模型训练方法、界面显示方法及设备 | |
CN110459207A (zh) | 唤醒语音关键短语分割 | |
CN112102850A (zh) | 情绪识别的处理方法、装置、介质及电子设备 | |
CN114416943B (zh) | 对话模型的训练方法、装置、电子设备及存储介质 | |
CN113053410B (zh) | 声音识别方法、装置、计算机设备和存储介质 | |
CN112926525A (zh) | 情绪识别方法、装置、电子设备和存储介质 | |
CN112489623A (zh) | 语种识别模型的训练方法、语种识别方法及相关设备 | |
CN110782902A (zh) | 音频数据确定方法、装置、设备和介质 | |
EP3493201B1 (en) | Information processing device, information processing method, and computer program | |
CN111949778A (zh) | 一种基于用户情绪的智能语音对话方法、装置及电子设备 | |
CN111400463A (zh) | 对话响应方法、装置、设备和介质 | |
CN110782916B (zh) | 一种多模态的投诉识别方法、装置和系统 | |
Nigro et al. | Multimodal system for audio scene source counting and analysis | |
CN110910905B (zh) | 静音点检测方法及装置、存储介质、电子设备 | |
CN113593523B (zh) | 基于人工智能的语音检测方法、装置及电子设备 | |
CN112259077B (zh) | 语音识别方法、装置、终端和存储介质 | |
CN113763992A (zh) | 语音测评方法、装置、计算机设备和存储介质 | |
CN112632234A (zh) | 人机交互方法、装置、智能机器人和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |