CN111370030A - 语音情感检测方法与装置、存储介质、电子设备 - Google Patents
语音情感检测方法与装置、存储介质、电子设备 Download PDFInfo
- Publication number
- CN111370030A CN111370030A CN202010261354.7A CN202010261354A CN111370030A CN 111370030 A CN111370030 A CN 111370030A CN 202010261354 A CN202010261354 A CN 202010261354A CN 111370030 A CN111370030 A CN 111370030A
- Authority
- CN
- China
- Prior art keywords
- speech
- sample
- emotion
- voice
- tone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 136
- 238000001514 detection method Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 56
- 238000010801 machine learning Methods 0.000 claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 39
- 238000004422 calculation algorithm Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 12
- 230000036651 mood Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 abstract description 17
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 206010049976 Impatience Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
Abstract
本公开属于人工智能技术领域,涉及一种语音情感检测方法与装置、存储介质、电子设备。该方法包括:获取初始语音数据,并对初始语音数据进行语音识别处理,得到语音识别文本;确定初始语音数据的语音时长,并确定语音识别文本的文字个数;根据文字个数和语音时长确定语速等级,并获取初始语音数据的语调等级和语气等级;将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。本公开一方面,避免了人工标注语音情感的主观性,使语音情感类别的标注更为客观,降低了情感类别标注的失误次数,提高了情感类别标注的准确率;另一方面,避免了在线语音识别,提升了语音识别的速度,提高了语音识别和情感类别标注的效率。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种语音情感检测方法与语音情感检测装置、计算机可读存储介质及电子设备。
背景技术
随着生活水平的提高和科技的日新月异,人们希望通过更自然的方式进行人机交互获取信息和服务。不论是语音识别场景,还是语音合成场景,人们都对语音识别的准确率提出了更高的要求。
目前,一般通过对语音音频的识别文本进行文本情感识别,还可以通过语音音频的声纹特征进行语音情感识别,以确定语音情感信息和文本情感信息。但是,单纯通过语音和文本的综合标注较为片面,导致语音识别的准确率降低。
鉴于此,本领域亟需开发一种新的语音情感检测方法及装置。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种语音情感检测方法、语音情感检测装置、计算机可读存储介质及电子设备,进而至少在一定程度上克服由于相关技术的限制而导致的情感检测准确率低的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本发明实施例的第一个方面,提供一种语音情感检测方法,所述方法包括:获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本;确定所述初始语音数据的语音时长,并确定所述语音识别文本的文字个数;根据所述文字个数和所述语音时长确定语速等级,并获取所述初始语音数据的语调等级和语气等级;将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
在本发明的一种示例性实施例中,在所述将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中之前,所述方法还包括:获取训练所述机器学习模型的语速样本、语调样本、语气样本以及与所述语速样本、语调样本和/或语气样本对应的情感类别样本;将所述语速样本、语调样本和/或语气样本输入至待训练机器学习模型,以使所述待训练机器学习模型输出与所述语速样本、语调样本和/或语气样本对应的语音情感类别;若所述语音情感类别与所述情感类别样本不匹配,对所述待训练机器学习模型的参数进行调整,以使所述语音情感类别与所述情感类别样本相同。
在本发明的一种示例性实施例中,所述获取训练所述机器学习模型的语速样本、语调样本、语气样本以及与所述语速样本、语调样本和/或语气样本对应的情感类别样本,包括:获取训练所述机器学习模型的语速样本、语调样本和语气样本,并获取与所述语速样本、所述语调样本和所述语气样本对应的情感映射表;基于所述情感映射表,根据所述语速样本、所述语调样本和/或语气样本确定情感类别样本。
在本发明的一种示例性实施例中,所述获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本,包括:获取初始语音数据,并利用语音端点检测算法去除所述初始语音数据中的静音数据,得到有声语音数据;对所述有声语音数据进行语音识别处理,得到语音识别文本。
在本发明的一种示例性实施例中,所述对所述有声语音数据进行语音识别处理,得到语音识别文本,包括:若所述初始语音数据包括至少两个不同说话人的语音数据,利用说话人改变检测算法对所述有声语音数据进行分离,得到已分离语音数据对所述已分离语音数据进行语音识别处理,得到语音识别文本。
在本发明的一种示例性实施例中,所述对所述已分离语音数据进行语音识别处理,得到语音识别文本,包括:若所述已分离语音数据大于预设时长,对所述已分离语音数据进行切割,得到已切割语音数据;对所述已切割语音数据进行语音识别处理,得到语音识别文本。
在本发明的一种示例性实施例中,在所述语音识别文本之后,所述方法还包括:将所述语音识别文本与对应的标准文本进行匹配,确定所述语音识别文本的正则匹配字;利用正则算法纠正所述正则匹配字,以优化所述语音识别处理。
根据本发明实施例的第二个方面,提供一种语音情感检测装置,所述装置包括:语音识别模块,被配置为获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本;参数获取模块,被配置为确定所述初始语音数据的语音时长,并确定所述语音识别文本的文字个数;等级确定模块,被配置为将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别;情感检测模块,被配置为将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
根据本发明实施例的第三个方面,提供一种电子设备,包括:处理器和存储器;其中,存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现上述任意示例性实施例的语音情感检测方法。
根据本发明实施例的第四个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意示例性实施例中的语音情感检测方法。
由上述技术方案可知,本发明示例性实施例中的语音情感检测方法、语音情感检测装置、计算机存储介质及电子设备至少具备以下优点和积极效果:
在本公开的示例性实施例提供的方法及装置中,通过将语音识别文本的语速等级和初始语音数据的语调等级和语气等级输入至机器学习模型中,可以得到对应的语音情感类别。一方面,避免了人工标注语音情感的主观性,使语音情感类别的标注更为客观,降低了情感类别标注的失误次数,提高了情感类别标注的准确率;另一方面,避免了使用识别较慢的在线语音识别,提升了语音识别的速度,提高了语音识别和情感类别标注的效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中一种语音情感检测方法的流程图;
图2示意性示出本公开示例性实施例中得到语音识别文本的方法的流程示意图;
图3示意性示出本公开示例性实施例中分离有声语音数据的方法的流程示意图;
图4示意性示出本公开示例性实施例中切割已分离语音数据的方法的流程示意图;
图5示意性示出本公开示例性实施例中优化语音识别处理的方法的流程示意图;
图6示意性示出本公开示例性实施例中训练机器学习模型的方法的流程示意图;
图7示意性示出本公开示例性实施例中确定情感类别样本的方法的流程示意图;
图8示意性示出本公开示例性实施例中一种语音情感检测装置的结构示意图;
图9示意性示出本公开示例性实施例中一种用于实现语音情感检测方法的电子设备;
图10示意性示出本公开示例性实施例中一种用于实现语音情感检测方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”和“第二”等仅作为标记使用,不是对其对象的数量限制。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
针对相关技术中存在的问题,本公开提出了一种语音情感检测方法。图1示出了语音情感检测方法的流程图,如图1所示,语音情感检测方法至少包括以下步骤:
步骤S110. 获取初始语音数据,并对初始语音数据进行语音识别处理,得到语音识别文本。
步骤S120.确定初始语音数据的语音时长,并确定语音识别文本的文字个数。
步骤S130.根据文字个数和语音时长确定语速等级,并获取初始语音数据的语调等级和语气等级。
步骤S140.将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
在本公开的示例性实施例中,通过将语音识别文本的语速等级和初始语音数据的语调等级和语气等级输入至机器学习模型中,可以得到对应的语音情感类别。一方面,避免了人工标注语音情感的主观性,使语音情感类别的标注更为客观,降低了情感类别标注的失误次数,提高了情感类别标注的准确率;另一方面,避免了使用识别较慢的在线语音识别,提升了语音识别的速度,提高了语音识别和情感类别标注的效率。
下面对语音情感检测方法的各个步骤进行详细说明。
在步骤S110中,获取初始语音数据,并对初始语音数据进行语音识别处理,得到语音识别文本。
在本公开的示例性实施例中,初始语音数据可以是通过录音设备获取到的通话语音数据,也可以是保存在其他存储介质中的其他语音数据,本示例性实施例对此不作特殊限定。在得到初始语音数据之后,可以识别到对应的语音识别文本。
在可选的实施例中,图2示出了得到语音识别文本的方法的流程示意图,如图2所示,该方法至少包括以下步骤:在步骤S210中,获取初始语音数据,并利用语音端点检测算法去除初始语音数据中的静音数据,得到有声语音数据。语音端点检测算法(VoiceActivity Detection,简称AVD)是一种静音检测技术。静音检测是指对通话语音数据和其他初始语音数据中的静默(无人说话)部分,亦即静音数据进行检测。具体的,语音端点检测算法可以通过采用帧幅度、帧能量、短时过零率和深度神经网络等方式实现。通过去除原始语音数据中的静音数据,可以将初始语音数据中说话人说话、或发声体发生的语音片段保留下来,从而在后续的处理过程中排除静默部分的干扰,有效提高后续处理的效率和准确率。去除静音数据之后的初始语音数据可以作为有声语音数据进行后续识别。
在步骤S220中,对有声语音数据进行语音识别处理,得到语音识别文本。当初始语音数据为通话语音数据时,一般可以包括至少两个不同说话人的通话语音数据,因此,可以对有声语音数据进行不同说话人的语音分离。
在可选的实施例中,图3示出了分离有声语音数据的方法的流程示意图,如图3所示,该方法至少包括以下步骤:在步骤S310中,若初始语音数据包括至少两个不同说话人的语音数据,利用说话人改变检测算法对有声语音数据进行分离,得到已分离语音数据。其中,说话人改变检测(Speaker Change Detection,简称SCD)算法就是在一个给定的音频流中,检测出说话人改变点。说话人改变检测算法是说话人辨认、说话人确认、说话人跟踪、自动标注、信息提取、主体检测、语音总结和语音检索的预处理步骤,在不同领域有着广泛的应用。一般的,可以通过贝叶斯信息准则算法实现,也可以通过其他算法实现,本示例性实施例对此不作特殊限定。
举例而言,当初始语音数据中包括两个说话人的语音数据,经过说话人改变检测算法对有声语音数据进行分离后,可以得到已分离的语音数据为0-10秒为说话人A,11-15秒为说话人B,16-20秒为说话人A。亦即通过说话人改变检测算法可以将完整的有声语音数据切割成不同的说话人为一段的已分离语音数据。
在步骤S320中,对已分离语音数据进行语音识别处理,得到语音识别文本。由于音频时长过长,会对数据标注和语音识别处理的效率产生影响,因此,在对有声语音数据进行说话人改变检测之后,还可以根据预设时长进行进一步的切割。
在可选的实施例中,图4示出了切割已分离语音数据的方法的流程示意图,如图4所示,该方法至少包括以下步骤:在步骤S410中,若已分离语音数据大于预设时长,对已分离语音数据进行切割,得到已切割语音数据。其中,预设时长可以是人为设定以分隔已分离语音数据的时长。优选的,预设时长为15秒。除此之外,也可以根据实际情况设定为其他时长,本示例性实施例对此不作特殊限定。
举例而言,当已分离语音数据为33秒,且预设时长为15秒时,可以确定要对已分离语音数据进行切割,并且,切割的间隔时长为预设时长15秒,亦即每15秒已分离语音数据为一段进行切割。因此,33秒的已分离语音数据可以切割为3段,切割为15秒、15秒和3秒的已切割语音数据。
在步骤S420中,对已切割语音数据进行语音识别处理,得到语音识别文本。具体的,终端设备中设置有语音识别算法可以用于语音识别模型或者第三方的商用语音识别模块对已切割语音数据进行识别。可选的,语音识别算法可以是基于语言学和声学的方法、随机模型法、神经网络方法和概率语法分析法等,本示例性实施例对此不作特殊限定。经过语音识别处理之后,可以得到与已切割语音数据对应的语音识别文本。
在本示例性实施例中,通过对已分隔语音数据进行语音识别处理,可以得到对应的语音识别文本,方便了人机之间的交互,也提高了情感检测的准确性。
语音识别样本不仅可以用于后续的情感检测,还可以为语音识别处理的模型或者算法提供更为准确的预料。
在可选的实施例中,图5示出了优化语音识别处理的方法的流程示意图,如图5所示,该方法至少包括以下步骤:在步骤S510中,将语音识别文本与对应的标准文本进行匹配,确定语音识别文本的正则匹配字。标准文本可以是人工标记的文本,也可以是其他准确度更高的文本,本示例性实施例对此不作特殊限定。举例而言,客服的语音识别文本一般包括“你好,这里是……”。若语音识别文本与该标准文本进行匹配后,表明语音识别文本错误,因此可以确定“你好,这里是”为正则匹配字,或者将前三个字“你好,这里”为正则匹配字,可以根据实际情况进行设定,本示例性实施例对此不作特殊限定。
在步骤S520中,利用正则算法纠正正则匹配字,以优化语音识别处理。当语音识别文本与标准文本匹配不了时,表明语音识别处理的算法或者模型的准确度还有待提高。因此,可以利用正则算法将正则匹配字的切割点进行前移动以进行纠正,得到纠正后的语音识别文本。进一步的,将纠正后的语音识别文本反馈给语音识别处理模型,作为语音识别处理模型增强训练的样本,以优化语音识别处理。
在本示例性实施例中,通过纠正后的语音识别文本对语音识别处理模型进行优化,提高语音识别处理结果的准确度。
在步骤S120中,确定初始语音数据的语音时长,并确定语音识别文本的文字个数。
在本公开的一种示例性实施例中,在获取到初始语音数据时,可以对应的确定该段初始语音数据的语音时长。进一步,根据已语音识别处理得到的语音识别文本,可以统计得到语音识别文本的文字个数。
在步骤S130中,根据文字个数和语音时长确定语速等级,并获取初始语音数据的语调等级和语气等级。
在本公开的一种示例性实施例中,通过计算的方式可以根据文字个数和语音时长确定语速等级。语速等级的确定依赖于对划分的不同等级包含的字数。由于正常人的说话速度一般为5~8个字,因此可以对应的设置1-5个语速等级。其中,等级1包含的每秒字数为(2,3],等级2包含的每秒字数为(3,5],等级3包含的每秒字数为(5,8],等级4包含的每秒字数为(8,11],等级5包含的每秒字数为(11,13]。
举例而言,当文字个数为30个字,且语音时长为15秒时,可以根据字数/秒=30/15=2个,因此,可以确定语速等级为等级1。
由于正常人说话的语调较为平稳,随着人的情感发生起伏波动时,语调也会产生相应的变化。因此,可以将语调等级划分为5个。其中,等级1对应语调稍低,等级2对应语调减低,等级3对应语调平稳,等级4对应语调渐高,等级5对应语调稍高。标注人员可以根据初始语音数据中语音的语调是否升高或者降低等变化选择初始语音数据的语调等级。
正常人说话的语气较为平稳,随着人的情感发生起伏波动,语气也会产生相应的变化。因此,可以将语气等级划分为3个。其中,等级1对应语调低沉,等级2对应语调平稳,等级3对应语调激昂。标注人员可以根据初始语音数据中语音的语气变化选择初始语音数据的语气等级。
在步骤S140中,将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
在本公开的一种示例性实施例中,预先训练好的机器学习模型可以是根据语速样本、语调样本和语气样本训练得到的。
在可选的实施例中,图6示出了训练机器学习模型的方法的流程示意图,如图6所示,该方法至少包括以下步骤:在步骤S610中,获取训练机器学习模型的语速样本、语调样本、语气样本以及与语速样本、语调样本和/或语气样本对应的情感类别样本。语速样本、语调样本和语气样本与情感类别样本之间可以是一对一、多对一、一对多和多对多的关系,具体的可以通过情感映射表确定。
在可选的实施例中,图7示出了确定情感类别样本的方法的流程示意图,如图7所示,该方法至少包括以下步骤:在步骤S710中,获取训练机器学习模型的语速样本、语调样本和语气样本,并获取与语速样本、语调样本和语气样本对应的情感映射表。情感映射表可以是根据经验预先设定的,也可以是根据算法生成的,本示例性实施例对此不作特殊限定。情感映射表中记录有与语速样本、语调样本和语气样本与情感类别样本之间的映射关系,该映射关系可以有一对一、多对一、一对多和多对多。优选的,情感类别样本可以包括不耐烦、愤怒、平静、开心、激情和兴奋六种。
在步骤S720中,基于情感映射表,根据语速样本、语调样本和/或语气样本确定情感类别样本。在获取到情感映射表之后,可以根据语速样本、语调样本和/或语气样本确定对应的情感类别样本。举例而言,当语速等级为等级1时,可以确定情感类别样本为平静;当语速等级为等级3,且语调等级为等级4时,可以确定情感类别样本为不耐烦。
在本示例性实施例中,通过情感映射表可以确定对应的情感类别样本,确定方式简单,并且准确度极高。
在步骤S620中,将语速样本、语调样本和/或语气样本输入至待训练机器学习模型,以使待训练机器学习模型输出与语速样本、语调样本和/或语气样本对应的语音情感类别。获取到待训练机器学习模型输出的语音情感类别之后,可以将语音情感类别与对应的情感类别样本进行匹配,判断输出的语言情感类别与情感类别样本是否相同,进而根据匹配结果确定待训练机器学习模型是否已经完成训练。
在步骤S630中,若语音情感类别与情感类别样本不匹配,对待训练机器学习模型的参数进行调整,以使语音情感类别与情感类别样本相同。当语音情感类别与情感类别样本不匹配时,表明待训练机器学习模型还未训练好,因此可以对待训练机器学习模型的参数进行调整,以使语音情感类别与情感类别样本一致,完成待训练机器学习模型的训练。
在本示例性实施例中,对于机器学习模型的完整训练过程保证了语音情感类别输出的准确性,进一步的对情感标准的正确性提高了保证。
鉴于此,当将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中时,可以使机器学习模型输出准确的语音情感类别。举例而言,当“讨厌”的语速等级、语调等级和语气等级均为等级1时,输入至训练好的机器学习模型中,该机器学习模型可以输出语音情感类别为开心。
在本公开的示例性实施例中,通过将语音识别文本的语速等级和初始语音数据的语调等级和语气等级输入至机器学习模型中,可以得到对应的语音情感类别。一方面,避免了人工标注语音情感的主观性,使语音情感类别的标注更为客观,降低了情感类别标注的失误次数,提高了情感类别标注的准确率;另一方面,避免了使用识别较慢的在线语音识别,提升了语音识别的速度,提高了语音识别和情感类别标注的效率。
此外,在本公开的示例性实施例中,还提供一种语音情感检测装置。图8示出了语音情感检测装置的结构示意图,如图8所示,语音情感检测装置800可以包括:语音识别模块810、参数获取模块820、等级确定模块830和情感检测模块840。其中:
语音识别模块810,被配置为获取初始语音数据,并对初始语音数据进行语音识别处理,得到语音识别文本;参数获取模块820,被配置为确定初始语音数据的语音时长,并确定语音识别文本的文字个数;等级确定模块830,被配置为将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中,得到语音情感类别;情感检测模块840,被配置为将语速等级、语调等级和语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
上述语音情感检测装置800的具体细节已经在对应的语音情感检测方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及语音情感检测装置800的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
下面参照图9来描述根据本发明的这种实施例的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同系统组件(包括存储单元920和处理单元910)的总线930、显示单元940。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元910执行,使得所述处理单元910执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)921和/或高速缓存存储单元922,还可以进一步包括只读存储单元(ROM)923。
存储单元920还可以包括具有一组(至少一个)程序模块925的程序/实用工具924,这样的程序模块925包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器940通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施例的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
参考图10所示,描述了根据本发明的实施例的用于实现上述方法的程序产品1000,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
Claims (10)
1.一种语音情感检测方法,其特征在于,所述方法包括:
获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本;
确定所述初始语音数据的语音时长,并确定所述语音识别文本的文字个数;
根据所述文字个数和所述语音时长确定语速等级,并获取所述初始语音数据的语调等级和语气等级;
将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
2.根据权利要求1所述的语音情感检测方法,其特征在于,在所述将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中之前,所述方法还包括:
获取训练所述机器学习模型的语速样本、语调样本、语气样本以及与所述语速样本、语调样本和/或语气样本对应的情感类别样本;
将所述语速样本、语调样本和/或语气样本输入至待训练机器学习模型,以使所述待训练机器学习模型输出与所述语速样本、语调样本和/或语气样本对应的语音情感类别;
若所述语音情感类别与所述情感类别样本不匹配,对所述待训练机器学习模型的参数进行调整,以使所述语音情感类别与所述情感类别样本相同。
3.根据权利要求2所述的语音情感检测方法,其特征在于,所述获取训练所述机器学习模型的语速样本、语调样本、语气样本以及与所述语速样本、语调样本和/或语气样本对应的情感类别样本,包括:
获取训练所述机器学习模型的语速样本、语调样本和语气样本,并获取与所述语速样本、所述语调样本和所述语气样本对应的情感映射表;
基于所述情感映射表,根据所述语速样本、所述语调样本和/或语气样本确定情感类别样本。
4.根据权利要求1所述的语音情感检测方法,其特征在于,所述获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本,包括:
获取初始语音数据,并利用语音端点检测算法去除所述初始语音数据中的静音数据,得到有声语音数据;
对所述有声语音数据进行语音识别处理,得到语音识别文本。
5.根据权利要求4所述的语音情感检测方法,其特征在于,所述对所述有声语音数据进行语音识别处理,得到语音识别文本,包括:
若所述初始语音数据包括至少两个不同说话人的语音数据,利用说话人改变检测算法对所述有声语音数据进行分离,得到已分离语音数据;
对所述已分离语音数据进行语音识别处理,得到语音识别文本。
6.根据权利要求5所述的语音情感检测方法,其特征在于,所述对所述已分离语音数据进行语音识别处理,得到语音识别文本,包括:
若所述已分离语音数据大于预设时长,对所述已分离语音数据进行切割,得到已切割语音数据;
对所述已切割语音数据进行语音识别处理,得到语音识别文本。
7.根据权利要求6所述的语音情感检测方法,其特征在于,在所述语音识别文本之后,所述方法还包括:
将所述语音识别文本与对应的标准文本进行匹配,确定所述语音识别文本的正则匹配字;
利用正则算法纠正所述正则匹配字,以优化所述语音识别处理。
8.一种语音情感检测装置,其特征在于,包括:
语音识别模块,被配置为获取初始语音数据,并对所述初始语音数据进行语音识别处理,得到语音识别文本;
参数获取模块,被配置为确定所述初始语音数据的语音时长,并确定所述语音识别文本的文字个数;
等级确定模块,被配置为将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别;
情感检测模块,被配置为将所述语速等级、所述语调等级和所述语气等级输入至预先训练好的机器学习模型中,得到语音情感类别。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任意一项所述的语音情感检测方法。
10.一种电子设备,其特征在于,包括:
处理器;
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器被配置为经由执行所述可执行指令来执行权利要求1-7中任意一项所述的语音情感检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010261354.7A CN111370030A (zh) | 2020-04-03 | 2020-04-03 | 语音情感检测方法与装置、存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010261354.7A CN111370030A (zh) | 2020-04-03 | 2020-04-03 | 语音情感检测方法与装置、存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111370030A true CN111370030A (zh) | 2020-07-03 |
Family
ID=71212390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010261354.7A Pending CN111370030A (zh) | 2020-04-03 | 2020-04-03 | 语音情感检测方法与装置、存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111370030A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
CN112565881A (zh) * | 2020-12-28 | 2021-03-26 | 北京五街科技有限公司 | 一种自适应的视频播放方法 |
CN112565880A (zh) * | 2020-12-28 | 2021-03-26 | 北京五街科技有限公司 | 一种讲解类视频的播放方法 |
CN112992187A (zh) * | 2021-02-26 | 2021-06-18 | 平安科技(深圳)有限公司 | 基于上下文的语音情感检测方法、装置、设备及存储介质 |
CN113689886A (zh) * | 2021-07-13 | 2021-11-23 | 北京工业大学 | 语音数据情感检测方法、装置、电子设备和存储介质 |
WO2022267322A1 (zh) * | 2021-06-24 | 2022-12-29 | 深圳前海微众银行股份有限公司 | 会议纪要的生成方法、装置、终端设备及计算机存储介质 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140126485A (ko) * | 2013-04-23 | 2014-10-31 | 네무스텍(주) | 감정 반응형 모바일 개인 비서 서비스 방법 |
KR20160142949A (ko) * | 2015-06-03 | 2016-12-14 | (주)감성과학연구센터 | 컨택 센터를 위한 감성 분석 장치 및 그 방법 |
CN107329996A (zh) * | 2017-06-08 | 2017-11-07 | 三峡大学 | 一种基于模糊神经网络的聊天机器人系统与聊天方法 |
CN107393529A (zh) * | 2017-07-13 | 2017-11-24 | 珠海市魅族科技有限公司 | 语音识别方法、装置、终端及计算机可读存储介质 |
CN107464566A (zh) * | 2017-09-21 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US20170368456A1 (en) * | 2016-06-27 | 2017-12-28 | Echostar Technologies L.L.C. | Media consumer data exchange |
CN107645523A (zh) * | 2016-07-21 | 2018-01-30 | 北京快乐智慧科技有限责任公司 | 一种情绪交互的方法和系统 |
CN107995370A (zh) * | 2017-12-21 | 2018-05-04 | 广东欧珀移动通信有限公司 | 通话控制方法、装置及存储介质和移动终端 |
CN108053826A (zh) * | 2017-12-04 | 2018-05-18 | 泰康保险集团股份有限公司 | 用于人机交互的方法、装置、电子设备及存储介质 |
CN108257602A (zh) * | 2018-01-30 | 2018-07-06 | 海信集团有限公司 | 车牌号字符串矫正方法、装置、服务器和终端 |
CN109448730A (zh) * | 2018-11-27 | 2019-03-08 | 广州广电运通金融电子股份有限公司 | 一种自动语音质检方法、系统、装置及存储介质 |
CN109697290A (zh) * | 2018-12-29 | 2019-04-30 | 咪咕数字传媒有限公司 | 一种信息处理方法、设备及计算机存储介质 |
CN109712646A (zh) * | 2019-02-20 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 语音播报方法、装置和终端 |
CN109753663A (zh) * | 2019-01-16 | 2019-05-14 | 中民乡邻投资控股有限公司 | 一种客户情绪分级方法及装置 |
CN110149450A (zh) * | 2019-05-22 | 2019-08-20 | 欧冶云商股份有限公司 | 智能客服应答方法及系统 |
CN110147936A (zh) * | 2019-04-19 | 2019-08-20 | 深圳壹账通智能科技有限公司 | 基于情绪识别的服务评价方法、装置、存储介质 |
CN110265012A (zh) * | 2019-06-19 | 2019-09-20 | 泉州师范学院 | 基于开源硬件可交互智能语音家居控制装置及控制方法 |
CN110349564A (zh) * | 2019-07-22 | 2019-10-18 | 苏州思必驰信息科技有限公司 | 一种跨语言语音识别方法和装置 |
WO2019225801A1 (ko) * | 2018-05-23 | 2019-11-28 | 한국과학기술원 | 사용자의 음성 신호를 기반으로 감정, 나이 및 성별을 동시에 인식하는 방법 및 시스템 |
-
2020
- 2020-04-03 CN CN202010261354.7A patent/CN111370030A/zh active Pending
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140126485A (ko) * | 2013-04-23 | 2014-10-31 | 네무스텍(주) | 감정 반응형 모바일 개인 비서 서비스 방법 |
KR20160142949A (ko) * | 2015-06-03 | 2016-12-14 | (주)감성과학연구센터 | 컨택 센터를 위한 감성 분석 장치 및 그 방법 |
US20170368456A1 (en) * | 2016-06-27 | 2017-12-28 | Echostar Technologies L.L.C. | Media consumer data exchange |
CN107645523A (zh) * | 2016-07-21 | 2018-01-30 | 北京快乐智慧科技有限责任公司 | 一种情绪交互的方法和系统 |
CN107329996A (zh) * | 2017-06-08 | 2017-11-07 | 三峡大学 | 一种基于模糊神经网络的聊天机器人系统与聊天方法 |
CN107393529A (zh) * | 2017-07-13 | 2017-11-24 | 珠海市魅族科技有限公司 | 语音识别方法、装置、终端及计算机可读存储介质 |
CN107464566A (zh) * | 2017-09-21 | 2017-12-12 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN108053826A (zh) * | 2017-12-04 | 2018-05-18 | 泰康保险集团股份有限公司 | 用于人机交互的方法、装置、电子设备及存储介质 |
CN107995370A (zh) * | 2017-12-21 | 2018-05-04 | 广东欧珀移动通信有限公司 | 通话控制方法、装置及存储介质和移动终端 |
CN108257602A (zh) * | 2018-01-30 | 2018-07-06 | 海信集团有限公司 | 车牌号字符串矫正方法、装置、服务器和终端 |
WO2019225801A1 (ko) * | 2018-05-23 | 2019-11-28 | 한국과학기술원 | 사용자의 음성 신호를 기반으로 감정, 나이 및 성별을 동시에 인식하는 방법 및 시스템 |
CN109448730A (zh) * | 2018-11-27 | 2019-03-08 | 广州广电运通金融电子股份有限公司 | 一种自动语音质检方法、系统、装置及存储介质 |
CN109697290A (zh) * | 2018-12-29 | 2019-04-30 | 咪咕数字传媒有限公司 | 一种信息处理方法、设备及计算机存储介质 |
CN109753663A (zh) * | 2019-01-16 | 2019-05-14 | 中民乡邻投资控股有限公司 | 一种客户情绪分级方法及装置 |
CN109712646A (zh) * | 2019-02-20 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 语音播报方法、装置和终端 |
CN110147936A (zh) * | 2019-04-19 | 2019-08-20 | 深圳壹账通智能科技有限公司 | 基于情绪识别的服务评价方法、装置、存储介质 |
CN110149450A (zh) * | 2019-05-22 | 2019-08-20 | 欧冶云商股份有限公司 | 智能客服应答方法及系统 |
CN110265012A (zh) * | 2019-06-19 | 2019-09-20 | 泉州师范学院 | 基于开源硬件可交互智能语音家居控制装置及控制方法 |
CN110349564A (zh) * | 2019-07-22 | 2019-10-18 | 苏州思必驰信息科技有限公司 | 一种跨语言语音识别方法和装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112037775A (zh) * | 2020-09-08 | 2020-12-04 | 北京嘀嘀无限科技发展有限公司 | 语音识别方法、装置、设备及存储介质 |
CN112565881A (zh) * | 2020-12-28 | 2021-03-26 | 北京五街科技有限公司 | 一种自适应的视频播放方法 |
CN112565880A (zh) * | 2020-12-28 | 2021-03-26 | 北京五街科技有限公司 | 一种讲解类视频的播放方法 |
CN112565881B (zh) * | 2020-12-28 | 2023-03-24 | 北京五街科技有限公司 | 自适应的视频播放方法和系统 |
CN112565880B (zh) * | 2020-12-28 | 2023-03-24 | 北京五街科技有限公司 | 讲解类视频的播放方法和系统 |
CN112992187A (zh) * | 2021-02-26 | 2021-06-18 | 平安科技(深圳)有限公司 | 基于上下文的语音情感检测方法、装置、设备及存储介质 |
WO2022267322A1 (zh) * | 2021-06-24 | 2022-12-29 | 深圳前海微众银行股份有限公司 | 会议纪要的生成方法、装置、终端设备及计算机存储介质 |
CN113689886A (zh) * | 2021-07-13 | 2021-11-23 | 北京工业大学 | 语音数据情感检测方法、装置、电子设备和存储介质 |
CN113689886B (zh) * | 2021-07-13 | 2023-05-30 | 北京工业大学 | 语音数据情感检测方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10720164B2 (en) | System and method of diarization and labeling of audio data | |
CN111370030A (zh) | 语音情感检测方法与装置、存储介质、电子设备 | |
CN108428446B (zh) | 语音识别方法和装置 | |
US9875739B2 (en) | Speaker separation in diarization | |
US8914285B2 (en) | Predicting a sales success probability score from a distance vector between speech of a customer and speech of an organization representative | |
EP1696421B1 (en) | Learning in automatic speech recognition | |
US10573307B2 (en) | Voice interaction apparatus and voice interaction method | |
US10217457B2 (en) | Learning from interactions for a spoken dialog system | |
US20180068651A1 (en) | System and method of automated evaluation of transcription quality | |
CN109192194A (zh) | 语音数据标注方法、装置、计算机设备及存储介质 | |
JP2014077969A (ja) | 対話システム及び対話システム向け発話の判別方法 | |
EP3667660A1 (en) | Information processing device and information processing method | |
Kopparapu | Non-linguistic analysis of call center conversations | |
CN111489743A (zh) | 一种基于智能语音技术的运营管理分析系统 | |
CN113129895B (zh) | 一种语音检测处理系统 | |
CN111209367A (zh) | 信息查找方法、信息查找装置、电子设备及存储介质 | |
CN112837688B (zh) | 语音转写方法、装置、相关系统及设备 | |
US11430435B1 (en) | Prompts for user feedback | |
WO2018169772A2 (en) | Quality feedback on user-recorded keywords for automatic speech recognition systems | |
US11929070B1 (en) | Machine learning label generation | |
CN113763921B (zh) | 用于纠正文本的方法和装置 | |
Rahim et al. | Improving Speaker Diarization for Low-Resourced Sarawak Malay Language Conversational Speech Corpus | |
CN113555016A (zh) | 语音交互方法、电子设备及可读存储介质 | |
CN114792521A (zh) | 基于语音识别的智能答复方法及装置 | |
CN114566151A (zh) | 数据标注方法、装置、电子设备和可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200703 |