CN115547329A - 一种训练数据获取方法、语音识别方法及装置 - Google Patents
一种训练数据获取方法、语音识别方法及装置 Download PDFInfo
- Publication number
- CN115547329A CN115547329A CN202211199382.6A CN202211199382A CN115547329A CN 115547329 A CN115547329 A CN 115547329A CN 202211199382 A CN202211199382 A CN 202211199382A CN 115547329 A CN115547329 A CN 115547329A
- Authority
- CN
- China
- Prior art keywords
- audio
- training data
- similarity
- real
- audio segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000003993 interaction Effects 0.000 claims abstract description 63
- 239000013598 vector Substances 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000013475 authorization Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种训练数据获取方法、语音识别方法及装置,在实时语音交互场景下,针对实时语音交互场景中至少一个参与者,获取该参与者在实时语音交互场景中对应的至少两个音频片段。针对该至少两个音频片段中任意两个音频片段,获取该两个音频片段之间的相似度。若该至少两个音频片段中任意两个音频片段的相似度满足预设条件,从至少两个音频片段中确定训练数据。即,由于在实时语音交互场景下,参与者通常通过单路音频设备进入交互场景,形成说话人的标注,无需人工手动标注,而且通过相似度确定所获取的音频片段可信,以便将可信的音频片段作为训练数据,进而利用训练数据训练生成语音身份标识模型,提高语音身份标识模型的识别精度。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种训练数据获取方法、语音识别方法及装置。
背景技术
目前,在训练语音身份标识模型时,往往需要大量的带有标注的训练数据。然而,可用的训练数据往往存在标注成本高、数据获取难度大以及与真实业务场景不匹配,导致训练的语音身份标识模型无法进行准确识别。
发明内容
有鉴于此,本申请实施例提供一种训练数据获取方法、语音识别方法及装置,以通过获取真实业务场景下的训练数据,提高后续语音身份标识模型的识别结果。
为实现上述目的,本申请提供的技术方案如下:
在本申请第一方面,提供了一种训练数据获取方法,该方法包括:
在任一实时语音交互场景下,针对所述实时语音交互场景中至少一个参与者,获取所述参与者在所述实时语音交互场景中对应的至少两个音频片段;
针对所述至少两个音频片段中任意两个音频片段,获取所述两个音频片段的相似度;
若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从所述至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
在本申请第二方面,提供了一种声纹识别方法,所述方法包括:
在实时语音交互场景下,获取所述实时语音交互场景中发言人员的音频片段;
从所述音频片段中提取声纹特征向量;
将所述声纹特征向量输入语音身份标识模型,获得所述发言人员对应的用户标识,所述语音身份标识模型是利用第一方面所获取的训练数据训练生成的。
在本申请第三方面,提供了一种训练数据获取装置,所述装置包括:
第一获取单元,用于在任一实时语音交互场景下,针对所述实时语音交互场景中至少一个参与者,获取所述参与者在所述实时语音交互场景中对应的至少两个音频片段;
第二获取单元,用于针对所述至少两个音频片段中任意两个音频片段,获取所述两个音频片段的相似度;
确定单元,用于若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从所述至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
在本申请第四方面,提供了一种语音识别装置,所述装置包括:
第一获取单元,用于在实时语音交互场景下,获取所述实时语音交互场景中发言人员的音频片段;
提取单元,用于从所述音频片段中提取声纹特征向量;
第二获取单元,用于将所述声纹特征向量输入语音身份识别模型,获得所述发言人员对应的用户标识,所述语音身份识别模型是利用第一方面所获取的训练数据训练生成的。
在本申请第五方面,提供了一种电子设备,所述设备包括:处理器和存储器;
所述存储器,用于存储指令或计算机程序;
所述处理器,用于执行所述存储器中的所述指令或计算机程序,以使得所述电子设备执行第一方面所述的方法,或者执行第二方面所述的方法。
在本申请第六方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在设备上运行时,使得所述设备执行第一方面所述的方法,或者执行第二方面所述的方法。
在本申请第七方面,提供了一种计算机程序产品,所述计算机程序产品包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现第一方面所述的方法,或者执行第二方面所述的方法。
本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
由此可见,本申请实施例具有如下有益效果:
本申请实施例中,在实际的实时语音交互场景下,针对实时语音交互场景中至少一个参与者,获取该参与者在实时语音交互场景中对应的至少两个音频片段。针对该至少两个音频片段中任意两个音频片段,获取该两个音频片段之间的相似度。若该至少两个音频片段中任意两个音频片段的相似度满足预设条件,从至少两个音频片段中确定训练数据。即,由于在实时语音交互场景下,参与者通常通过单路音频设备进入实时语音交互场景,形成说话人的标注,无需人工手动标注,而且通过相似度确定所获取的音频片段可信,以便将可信的音频片段作为训练数据,进而利用训练数据训练生成语音身份标识模型,提高语音身份标识模型的识别精度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种训练数据获取方法流程图;
图2为本申请实施例提供的一种滑动窗口示意图;
图3为本申请实施例提供的一种语音识别方法流程图;
图4为本申请实施例提供的一种训练数据获取装置结构示意图;
图5为本申请实施例提供的一种语音识别装置结构示意图;
图6为本申请实施例提供的一种电子设备结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
目前,为提高语音身份标识模型的训练效果,通常需要获取大量的带有标注的训练数据,然而由于标注成本高、训练数据获取难度大、与真实业务场景不匹配等问题,导致语音身份标识模型的识别效果较差。
基于此,提出了通过利用实际实时语音交互场景中,参与者通过单路音频设备接入,在获得用户授权之后,形成一种说话人的标注,无需人工标注。然而,在真实的实时语音交互场景中,采集的音频片段中存在背景噪声,由于所采集的音频片段需要满足无人工接触使用的条件,导致无法进行人工筛选,使得训练数据中的噪声无法去除,影响语音身份识别模型的训练效果。
基于此,本申请实施例提供了一种训练数据获取方法,在实时语音交互场景中,针对实时语音交互场景中的至少一个参与者,获取该至少一个参与者在实时语音交互场景中的至少两个音频片段。针对所获取的至少两个音频片段,进行两两组合,并获取每一组合中两个音频片段的相似度。若至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从该至少两个音频片段中确定训练数据。即,本申请自动对获取的至少两个音频片段进行筛选,以筛选出可信的音频片段,进而利用可信的音频片段训练语音身份标识模型,提高语音身份标识模型的识别结果。
可以理解的是,在使用本公开中各个实施例的技术方案之前,均应当依据相关法律法规通过恰当的方式对所涉及的个人信息的类型、使用范围、使用场景等告知用户,并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确的提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主的选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其他满足相关法律法规的方式也可应用于本公开的实现方式中。
为便于理解本申请实施例提供的技术方案,下面将结合附图进行说明。
参见图1,该图为本申请实施例提供的一种训练数据获取方法,该方法可以由训练数据获取设备执行,该训练数据获取设备可以为电子设备或服务器。其中,电子设备可以包括移动电话、平板电脑、笔记本电脑、车载终端、可穿戴电子设备、一体机、智能家居设备等具有通信功能的设备,也可以是虚拟机或者模拟器模拟的设备。如图1所示,该方法可以包括如下步骤:
S101:在任一实时语音交互场景下,针对实时语音交互场景中的至少一个参与者,获取该参与者在该实时语音交互场景中对应的至少两个音频片段。
本实施例中,在真实的实时语音交互场景下,通常参与者通过单路音频设备接入实时语音交互场景,在获得用户授权之后,形成对参与者的标注。当参与者在实时语音交互场景中发言时,可以获取该参与者对应的至少两个音频片段。通常情况下,实时语音交互场景中会有多个参与者,可以获取该多个参与者中至少一个参与者对应的至少两个音频片段。其中,实时语音交互场景可以包括多媒体会议场景、基于即时通信发起的语音或视频会话、语音控制智能家居等。为便于理解,下面将以会议场景为例进行说明。
具体地,在获取参与者对应的至少两个音频片段时,可以获取该参与者在多个实时语音交互场景中每个实时语音交互场景对应的至少两个音频片段。即,所获取的至少两个音频片段来自至少两个不同的实时语音交互场景。例如,获取用户a在多媒体会议1中的至少两个音频片段,用户a在多媒体会议2中的至少两个音频片段以及用户a在多媒体会议3中的至少两个音频片段。再例如,获取用户a在多媒体会议1中的至少两个语音片段以及用户a通过即时通信群组发起的语音会话中的至少两个语音片段。其中,可以预先设置获取参与者在预设时间内所参加的每个实时语音交互场景对应的至少两个音频片段。例如,获取参会者在1周内所参加的每个会议对应的至少两个音频片段。
其中,为保证交互内容安全,在获取参与者对应的音频片段时,将限制每个音频片段的时长,以避免因获取较长的音频片段导致交互内容泄露。例如,每个音频片段的时长为10秒。具体地,可以通过语音端点检测(Voice Activity Detection,VAD)截取预设时长的音频片段。进一步地,为保证数据安全,还可以预先设置在每个实时语音交互场景中获取音频片段的数量。例如,每个会议场景中最多获取3个音频片段。
S102:针对至少两个音频片段中任意两个音频片段,获取该两个音频片段之间的相似度。
在获取参与者对应的至少两个音频片段后,对获取的至少两个音频片段进行两两组合,获取每个组合中两个音频片段的相似度。具体地,针对每个组合,获取该组合中两个音频片段各自对应的声纹特征向量,计算两个声纹特征向量之间的相似度。
例如,获取用户a对应的4个音频片段,分别为音频片段a-d,则计算a和b之间的余弦相似度s1、a和c之间的余弦相似度s2、a和d之间的余弦相似度s3、b和c之间的余弦相似度s4、b和d之间的余弦相似度s5、c和d之间的余弦相似度s6。
S103:若该至少两个音频片段中任意两个音频片段的相似度满足预设条件,从至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
本实施例中,当至少两个音频片段中任意两个音频片段的相似度满足预设条件,表明该至少两个音频片段为可信音频片段,则从该至少两个音频片段中确定训练数据;否则,表明无法从获取的音频片段中抽取有效说话人,则丢弃所采集的至少两个音频片段。
在本公开的一个实施例中,可以通过以下方式确定该至少两个音频片段为可信音频片段:
一种是,获取至少两个音频片段中任意两个音频片段之间的相似度大于或等于第一相似度阈值的占比;若该占比大于或等于占比阈值,确定该至少两个音频片段可信。其中,第一相似度阈值和占比阈值可以根据实际应用情况进行设置,例如,第一相似度阈值为0.6,占比阈值为0.8。占比是指至少两个音频片段中任意两个音频片段之间的相似度大于或等于第一相似度阈值的数量占组合总数的比例。
例如,获取用户a对应的4个音频片段a-d中,a和b之间的余弦相似度s1=0.7、a和c之间的余弦相似度s2=0.65、a和d之间的余弦相似度s3=0.8、b和c之间的余弦相似度s4=0.71、b和d之间的余弦相似度s5=0.7、c和d之间的余弦相似度s6=0.4。其中,大于或等于第一相似度阈值的数量为5个,总数量为6,占比为0.83,大于预设占比阈值0.8,则确认获取的4个音频片段可信。
另一种是,获取该至少两个音频片段中任意两个音频片段之间的相似度大于或等于第一相似度阈值的数量;若所述数量与组合数量的差值小于或等于预设差值阈值,则确定该至少两个音频片段可信。例如,获取用户a对应的4个音频片段a-d,对应的组合数量为6,预设差值阈值为1,若相似度大于等于第一相似度阈值的数量为5,则确定获取的4个音频片段可信。
在本公开的一个实施例中,在确定所获取的至少两个音频片段可信时,从该至少两个音频片段中确定训练数据,进而可以利用该训练数据以及参与者对应的参与者标识训练生成语音身份标识模型,以便利用该语音身份标识模型进行语音识别。其中,在从至少两个音频片段中确定训练数据时,可以将该至少两个音频片段全部音频片段确定为训练数据,也可以将部分满足预设条件的音频片段确定为训练数据。
在本公开的一个实施例中,将至少两个音频片段中相似度大于或等于第一相似度阈值的音频片段确定为训练数据。例如,获取用户a对应的4个音频片段,两两组合共存在6组{ab ac ad bc bd cd},确定每组的相似度,其中,ab、ac和bc的相似度大于第一相似度阈值,则将a、b、c作为训练数据。
在本公开的一个实施例中,为保证所确定的训练数据的样本充足,在确定至少两个音频片段可信时,获取该至少两个音频片段对应的音频总时长;若音频总时长大于或等于时长阈值,从至少两个音频片段中确定训练数据。或者,获取该至少两个音频片段中相似度大于或等于第一相似度阈值的音频片段对应的音频总时长;若该音频总时长大于或等于时长阈值,则将相似度大于或等于第一相似度阈值的音频片段确定为训练数据。其中,时长阈值可以根据实际应用情况设定,例如时长阈值为30分钟。
在本公开的一个实施例中,在从可信的至少两个音频片段中确定训练数据时,为去除其中包含有多个说话人的音频片段,将进行二次筛选,具体地:针对至少两个音频片段中任一音频片段,按照预设滑动窗口以及滑动步长对音频片段进行划分,获取多个滑动窗口各自对应的声纹特征向量;对多个滑动窗口各自对应的声纹特征向量进行聚类,获得第一聚类中心点和第二聚类中心点;若第一聚类中心点和第二聚类中心点的距离小于预设距离阈值,确定该音频片段为训练数据。即,通过聚类的方式,来确定音频片段中是否仅包含一个说话人,若两个聚类中心点的距离小于预设距离阈值,表明该音频片段中仅包含一个说话人,可以用于训练。
其中,第一聚类中心点和第二聚类中心点的距离可以为两个聚类中心点的相似度,预设距离阈值为第二相似度阈值。在获取第一聚类中心点和第二聚类中心点后,根据两个中心点对应的声纹特征向量,计算二者之间的相似度,若两个聚类中心点的相似度大于或等于第二相似度阈值,则将该音频片段确定为训练数据。其中,第二相似度阈值、滑动窗口的窗长和滑动步长可以根据实际应用情况进行设定。
例如图2所示,滑动窗口的窗长为1.44秒、滑动步长为0.72秒、第二相似度阈值为0.7,从音频片段的左侧开始向右滑动,获得滑动窗口1对应的声纹特征向量、滑动窗口2对应的声纹特征向量、滑动窗口3对应的声纹特征向量等,对提取的多个声纹特征向量进行聚类,获得第一聚类中心点和第二聚类中心点。若两个聚类中心点的相似度大于0.7,则将该音频片段确定为训练数据。
需要说明的是,对于实时语音交互场景中的每个参与者,均可以利用上述方法获取该参与者对应的训练数据,进而利用该参与者的训练数据以及参与者者标识训练生成语音身份标识模型。
可见,在实时语音交互场景下,针对该实施语音交互场景中至少一个参与者,获取该参与者在实时语音交互场景中对应的至少两个音频片段。针对该至少两个音频片段中任意两个音频片段,获取该两个音频片段之间的相似度。若该至少两个音频片段中任意两个音频片段的相似度满足预设条件,从至少两个音频片段中确定训练数据。即,由于在实时语音交互场景下,参与者通常通过单路音频设备进入交互场景,形成说话人的标注,无需人工手动标注,而且通过相似度确定所获取的音频片段可信,以便将可信的音频片段作为训练数据,进而利用训练数据训练生成语音身份标识模型,提高语音身份识别模型的识别精度。
在通过上述方法生成语音身份标识模型后,可以利用该语音身份标识模型进行语音识别,具体实现参见图3,该图为本申请实施例提供的一种语音识别方法流程图,如图3所示,该方法可以包括:
S301:在实时语音交互场景下,获取实施语音交互场景中发言人员的音频片段。
S302:从音频片段中提取声纹特征向量。
S303:将声纹特征向量输入语音身份标识模型,获得发言人员对应的用户标识。
在真实的实时语音交互场景中,当有参与人员发言时,获取音频片段,并从该音频片段中提取声纹特征向量,将该声纹特征向量输入语音身份标识模型,进而获得该语音身份标识模型输出的用户标识,即识别结果。
例如,将上述语音识别方法应用到会议场景中的会议记录中,通过上述语音识别,可以识别当前发言人员以及其对应的发言内容,以形成完整的会议记录。可选地或附加地,本公开各实施例的方案还可以应用于参会者使用会议室设备参会并发言的场景或者用户A使用用户B的个人语音设备发言的场景,会议室设备、用户的个人设备中均可以部署上述语音身份标识模型,以通过该语音身份标识模型识别发言者的用户身份。
基于上述方法实施例,本申请实施例提供了一种训练数据获取装置、声纹识别装置和电子设备,下面将结合附图进行说明。
参见图4,该图为本申请实施例提供的一种训练数据获取装置结构图,如图4所示,该装置400包括:第一获取单元401、第二获取单元402和确定单元403。
其中,第一获取单元401,用于在任一实时语音交互场景下,针对所述实时语音交互场景中至少一个参与者,获取所述参与者在所述实时语音交互场景中对应的至少两个音频片段;
第二获取单元402,用于针对所述至少两个音频片段中任意两个音频片段,获取所述两个音频片段的相似度;
确定单元403,用于若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从所述至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
在本公开的一个实施例中,通过如下方式判断所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,包括:
获取所述至少两个音频片段中任意两个音频片段之间的相似度大于或等于第一相似度阈值的占比;
若所述占比大于或等于占比阈值,确定所述至少两个音频片段中任意两个音频片段的相似度满足预设条件。
在本公开的一个实施例中,所述确定单元403,具体用于将所述至少两个音频片段中相似度大于或等于所述第一相似度阈值的音频片段确定为训练数据。
在本公开的一个实施例中,所述装置还包括:第三获取单元;
所述第三获取单元,用于在所述确定单元从所述至少两个音频片段中确定训练数据之前,若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,获取所述至少两个音频片段对应的音频总时长;
所述确定单元403,具体用于若所述音频总时长大于或等于时长阈值,从所述至少两个音频片段中确定训练数据。
在本公开的一个实施例中,所述确定单元403,具体用于针对所述至少两个音频片段中任一音频片段,按照预设滑动窗口以及滑动步长对所述音频片段进行划分,获取多个滑动窗口各自对应的声纹特征向量;对所述多个滑动窗口各自对应的声纹特征向量进行聚类,获得第一聚类中心点和第二聚类中心点;若所述第一聚类中心点与所述第二聚类中心点的距离小于预设距离阈值,确定所述音频片段为训练数据。
在本公开的一个实施例中,所述参与者通过单路音频设备接入所述实时语音交互场景。
在本公开的一个实施例中,所述至少两个音频片段来自至少两个不同的所述实时语音交互场景。
在本公开的一个实施例中,所述装置还包括:生成单元;
所述生成单元,用于利用所述训练数据以及所述参与者对应的参与者标识,生成语音身份标识模型。
参见图5,该图为本申请实施例提供的一种声纹识别装置结构图,如图5所示,该装置500包括:第一获取单元501、提取单元502和第二获取单元503。
第一获取单元501,用于在实时语音交互场景下,获取所述实时语音交互场景中发言人员的音频片段;
提取单元502,用于从所述音频片段中提取声纹特征向量;
第二获取单元503,用于将所述声纹特征向量输入语音身份识别模型,获得所述发言人员对应的用户标识,所述语音身份标识模型是利用图1所述的方法所确定的训练数据训练生成的。
需要说明的是,上述装置实施例中各个单元的具体实现可以参见上述方法实施例中的相关描述。本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。本申请实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。例如,上述实施例中,处理单元和发送单元可以是同一个单元,也可以是不同的单元。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
参见图6,其示出了适于用来实现本公开实施例的电子设备600的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
本公开实施例提供的电子设备与上述实施例提供的方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
本公开实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的方法。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备可以执行上述方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元/模块的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统或装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (13)
1.一种训练数据获取方法,其特征在于,所述方法包括:
在实时语音交互场景下,针对所述实时语音交互场景中至少一个参与者,获取所述参与者在所述实时语音交互场景中对应的至少两个音频片段;
针对所述至少两个音频片段中任意两个音频片段,获取所述两个音频片段的相似度;
若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从所述至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
2.根据权利要求1所述的方法,其特征在于,通过如下方式判断所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,包括:
获取所述至少两个音频片段中任意两个音频片段之间的相似度大于或等于第一相似度阈值的占比;
若所述占比大于或等于占比阈值,确定所述至少两个音频片段中任意两个音频片段的相似度满足预设条件。
3.根据权利要求2所述的方法,其特征在于,所述从所述至少两个音频片段中确定训练数据,包括:
将所述至少两个音频片段中相似度大于或等于所述第一相似度阈值的音频片段确定为训练数据。
4.根据权利要求1所述的方法,其特征在于,所述在从所述至少两个音频片段中确定训练数据之前,所述方法还包括:
若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,获取所述至少两个音频片段对应的音频总时长;
所述从所述至少两个音频片段中确定训练数据,包括:
若所述音频总时长大于或等于时长阈值,从所述至少两个音频片段中确定训练数据。
5.根据权利要求1所述的方法,其特征在于,所述从所述至少两个音频片段中确定训练数据,包括:
针对所述至少两个音频片段中任一音频片段,按照预设滑动窗口以及滑动步长对所述音频片段进行划分,获取多个滑动窗口各自对应的声纹特征向量;
对所述多个滑动窗口各自对应的声纹特征向量进行聚类,获得第一聚类中心点和第二聚类中心点;
若所述第一聚类中心点与所述第二聚类中心点的距离小于预设距离阈值,确定所述音频片段为训练数据。
6.根据权利要求1所述的方法,其特征在于,所述参与者通过单路音频设备接入所述实时语音交互场景。
7.根据权利要求1所述的方法,其特征在于,所述至少两个音频片段来自至少两个不同的实时语音交互场景。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述方法还包括:
利用所述训练数据以及所述参与者对应的参与者标识,生成所述语音身份标识模型。
9.一种语音识别方法,其特征在于,所述方法包括:
在实时语音交互场景下,获取所述实时语音交互场景中发言人员的音频片段;
从所述音频片段中提取声纹特征向量;
将所述声纹特征向量输入语音身份标识模型,获得所述发言人员对应的用户标识,所述语音身份标识模型是利用权利要求8所述的方法训练生成的。
10.一种训练数据获取装置,其特征在于,所述装置包括:
第一获取单元,用于在任一实时语音交互场景下,针对所述实时语音交互场景中至少一个参与者,获取所述参与者在所述实时语音交互场景中对应的至少两个音频片段;
第二获取单元,用于针对所述至少两个音频片段中任意两个音频片段,获取所述两个音频片段的相似度;
确定单元,用于若所述至少两个音频片段中任意两个音频片段的相似度满足预设条件,则从所述至少两个音频片段中确定训练数据,以训练生成语音身份标识模型。
11.一种语音识别装置,其特征在于,所述装置包括:
第一获取单元,用于在交互场景下,获取所述实时语音交互场景中发言人员的音频片段;
提取单元,用于从所述音频片段中提取声纹特征向量;
第二获取单元,用于将所述声纹特征向量输入语音身份标识模型,获得所述发言人员对应的用户标识,所述语音身份标识模型是利用权利要求8所述的方法训练生成的。
12.一种电子设备,其特征在于,所述设备包括:处理器和存储器;
所述存储器,用于存储指令或计算机程序;
所述处理器,用于执行所述存储器中的所述指令或计算机程序,以使得所述电子设备执行权利要求1-8任一项所述的方法,或者执行权利要求9所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在设备上运行时,使得所述设备执行权利要求1-8任一项所述的方法,或者执行权利要求9所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211199382.6A CN115547329A (zh) | 2022-09-29 | 2022-09-29 | 一种训练数据获取方法、语音识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211199382.6A CN115547329A (zh) | 2022-09-29 | 2022-09-29 | 一种训练数据获取方法、语音识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115547329A true CN115547329A (zh) | 2022-12-30 |
Family
ID=84730871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211199382.6A Pending CN115547329A (zh) | 2022-09-29 | 2022-09-29 | 一种训练数据获取方法、语音识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115547329A (zh) |
-
2022
- 2022-09-29 CN CN202211199382.6A patent/CN115547329A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568876B2 (en) | Method and device for user registration, and electronic device | |
US11127399B2 (en) | Method and apparatus for pushing information | |
EP3271917A1 (en) | Communicating metadata that identifies a current speaker | |
CN108509611B (zh) | 用于推送信息的方法和装置 | |
CN111986655B (zh) | 音频内容识别方法、装置、设备和计算机可读介质 | |
CN110990598B (zh) | 资源检索方法、装置、电子设备及计算机可读存储介质 | |
CN111897950A (zh) | 用于生成信息的方法和装置 | |
CN112995712A (zh) | 卡顿因素的确定方法、装置、设备及存储介质 | |
CN113889113A (zh) | 分句方法、装置、存储介质及电子设备 | |
CN111460288B (zh) | 用于检测新闻事件的方法和装置 | |
CN110659387A (zh) | 用于提供视频的方法和设备 | |
CN112242143B (zh) | 一种语音交互方法、装置、终端设备及存储介质 | |
CN112837672A (zh) | 对话归属的确定方法、装置、电子设备及存储介质 | |
CN115547329A (zh) | 一种训练数据获取方法、语音识别方法及装置 | |
CN111899747B (zh) | 用于合成音频的方法和装置 | |
CN115269978A (zh) | 一种视频标签生成方法、装置、设备及介质 | |
CN111652002B (zh) | 文本划分方法、装置、设备和计算机可读介质 | |
CN113223496A (zh) | 一种语音技能测试方法、装置及设备 | |
CN113420723A (zh) | 获取视频热点的方法、装置、可读介质和电子设备 | |
CN113343069A (zh) | 用户信息的处理方法、装置、介质及电子设备 | |
CN111897951A (zh) | 用于生成信息的方法和装置 | |
CN112542157A (zh) | 语音处理方法、装置、电子设备及计算机可读存储介质 | |
CN112309387A (zh) | 用于处理信息的方法和装置 | |
CN114640826B (zh) | 数据处理方法、装置、可读介质以及电子设备 | |
CN113808615B (zh) | 音频类别定位方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |