CN112735432A - 音频识别的方法、装置、电子设备及存储介质 - Google Patents

音频识别的方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112735432A
CN112735432A CN202011553762.6A CN202011553762A CN112735432A CN 112735432 A CN112735432 A CN 112735432A CN 202011553762 A CN202011553762 A CN 202011553762A CN 112735432 A CN112735432 A CN 112735432A
Authority
CN
China
Prior art keywords
voiceprint
audio
target
multimedia resource
feature vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011553762.6A
Other languages
English (en)
Other versions
CN112735432B (zh
Inventor
赵情恩
曾新贵
熊新雷
陈蓉
肖岩
李旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202011553762.6A priority Critical patent/CN112735432B/zh
Publication of CN112735432A publication Critical patent/CN112735432A/zh
Application granted granted Critical
Publication of CN112735432B publication Critical patent/CN112735432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/08Use of distortion metrics or a particular distance between probe pattern and reference templates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了音频识别的方法、装置、电子设备及存储介质,涉及人工智能、深度学习、语音识别领域。具体实现方案为:对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹;将目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,预存声纹为目标类别人物的声纹;在匹配成功的情况下,确定目标多媒体资源中包含目标类别人物的音频。本申请通过人声分离的方式可以从目标多媒体资源中准确的获取到每个发声人的音频,进而保证每个发声人的音频均能够与声纹库中目标类别人物的声纹进行匹配,提高了目标多媒体资源的检测准确率。

Description

音频识别的方法、装置、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及人工智能、深度学习、语音识别领域。
背景技术
随着互联网技术发展,蕴含信息量更大的音视频成为人们获取信息的重要途径。而一些非法分子也基于此方式,通过音视频在网络上传播负面思想。因此,找出含有敏感内容的音视频,对建立安全的网络环境意义重大。
发明内容
本申请提供了一种音频识别的方法、装置、电子设备及存储介质。
根据本申请的一方面,提供了一种音频识别的方法,包括:
对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹;
将目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,预存声纹为目标类别人物的声纹;
在匹配成功的情况下,确定目标多媒体资源中包含目标类别人物的音频。
根据本申请的另一方面,提供了一种音频识别的装置,包括:
第一获取模块,用于对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹;
匹配模块,用于将目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,预存声纹为目标类别人物的声纹;
确定模块,用于在匹配成功的情况下,确定目标多媒体资源中包含目标类别人物的音频。
根据本申请的另一方面,提供了一种电子设备,电子设备的功能可以通过硬件实现,也可以通过硬件执行响应的软件实现。硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,电子设备的结构中包括处理器和存储器,存储器用于存储支持电子设备执行上述音频识别的方法的程序,处理器被配置为用于执行存储器中存储的程序。电子设备还可以包括通信接口,用于与其他设备或通信网络通信。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,用于存储电子设备及电子设备所用的计算机软件指令,其包括用于执行上述音频识别的方法所涉及的程序。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现上述音频识别的方法。
本申请通过人声分离的方式可以从目标多媒体资源中准确的获取到每个发声人的音频,进而保证每个发声人的音频均能够与声纹库中目标类别人物的声纹进行匹配,提高了目标多媒体资源的检测准确率。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请实施例的音频识别方法的实现流程示意图;
图2是根据本申请另一实施例的音频识别的方法的实现流程示意图;
图3是根据本申请另一实施例的音频识别的方法的实现流程示意图;
图4是根据本申请实施例的音频识别的方法的应用示意图;
图5是根据本申请另一实施例的音频识别的方法的实现流程示意图;
图6是根据本申请另一实施例的音频识别的方法的实现流程示意图;
图7是根据本申请另一实施例的音频识别的方法的实现流程示意图;
图8是根据本申请实施例的音频识别的装置的结构示意图;
图9是用来实现本申请实施例的音频识别的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
根据本申请的实施例,如图1所示,本申请实施例提供了一种音频识别的方法,包括:
S10:对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹。
目标多媒体资源可以理解为需要进行音频识别的多媒体资源。目标多媒体资源可以包括音频多媒体资源或视频多媒体资源。当目标多媒体资源为视频多媒体资源时,视频多媒体资源需要包含音频内容。
人声分离可以采用现有技术中的任意方法,只要能够实现将目标多媒体资源中每个发声人的声音单独抽取出即可,在此不做具体限定。
声纹可以理解为标识每个发声人的发生特点的任意特征。发声人可以理解为在目标多媒体资源的播放内容中有进行语言交流的人。
S11:将目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,预存声纹为目标类别人物的声纹。
声纹库是预先构建的,其中存储有至少一种目标类别人物的声纹信息。目标类别人物的声纹能够用来表征唯一的一个人物。
目标类别人物可以根据需要进行划分。例如,犯罪分子、演员、歌手、某一领域的专家等,均可以被理解为是一类目标类别人物。
S12:在匹配成功的情况下,确定目标多媒体资源中包含目标类别人物的音频。
目标多媒体资源中包含目标类别人物的音频,可以理解为目标类别人物在该目标多媒体资源中进行了说话。
本申请通过人声分离的方式可以从目标多媒体资源中准确的获取到每个发声人的音频,消除了噪音或多人同时说话而带来的识别准确性降低的问题。同时保证每个发声人的音频均能够与声纹库中目标类别人物的声纹进行匹配,提高了目标多媒体资源的检测准确率。
在一个应用场景中,声纹库中存储的目标类别人物可以是在公开场合经常发表消极言论、宣扬极端思想或敏感内容的人。通过本申请实施例的方法,可以快速准确的从网络中的众多多媒体资源中识别出是否包含有该类人物的音视频。从而在网络中清除这类音视频,建立安全的网络环境。
在一种实施方式中,如图2所示,本实施方式的音频识别的方法包括上述步骤S10至S12,其中,步骤S10:对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹,可以进一步包括:
S21:从目标多媒体资源中确定出人声音频。
人声音频可以理解为去除了噪音和非人声音频后,目标多媒体资源中剩余的音频。
从目标多媒体资源中确定出人声音频的方式可以采用现有技术中的任意去噪和人声分离手段,在此不做具体限定。
S22:按预设划分规则,将人声音频切割为多个音频片段。
预设划分规则可以根据需要进行选择和调整。也即是说,划分的每个音频片段的时长可以根据需要调整。各个音频片段的时长可以相同也可以不同。
S23:根据多个音频片段的特征向量,获取目标多媒体资源中的每个发声人的声纹。
每个音频片段的特征向量可以为多个,各个特征向量的向量维度不同。
在本申请实施例中,由于不同人发出的声音不同,因此通过特征向量的提取可以准确的识别出每个发声人的声纹。同时,由于被切割的每个音频片段时长较短,因此能够更加快速准确的识别到每个音频片段中所包含的特征向量,提高了目标多媒体资源中的每个发声人的声纹识别准确度。
在一种实施方式中,如图3所示,本实施方式的音频识别的方法包括上述步骤S21至S23、S11、S12,其中,步骤S23:根据多个音频片段的特征向量,获取目标多媒体资源中的每个发声人的声纹,可以进一步包括:
S31:根据多个音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类。
特征向量之间的相似性判断方法可以采用现有技术中的任意方法,特征向量的聚类方法也可以采用现有技术中的任意方法,只要能够实现基于音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类即可。
S32:根据多个音频片段的特征向量和聚类结果,获取目标多媒体资源中的每个发声人的声纹。
根据聚类结果可以确定出多个音频片段中的哪些特征向量是属于同一个发声人的,进而可以将这些音频片段组合,得到同一个发声人的音频以及同一个发声人的所有特征向量。根据同一个发声人的音频对应的所有特征向量,即可准确的获取到该发声人的声纹。
在一种实施方式中,从目标多媒体资源中确定出人声音频之前,还包括:去除目标多媒体资源中的噪声。
在一种实施方式中,如图4所示,对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹,包括:
利用加权预测误差模型(WPE,Weighted Prediction Error),去除目标多媒体资源中的噪声。加权预测误差模型实现目标多媒体资源的混响消除,对目标多媒体资源进行增强,输入是原始的目标多媒体资源的音频信号,输出是去除混响之后的目标多媒体资源的音频信号。
利用双向深度神经网络的语音活性检测器(DNN VAD,Deep Neural NetworkVoice Activity Detection),从目标多媒体资源中确定出人声音频。双向深度神经网络的语音活性检测器能够检测目标多媒体资源里面哪些是语音,哪些是噪音或非人声,输入是目标多媒体资源的音频信号,输出是去除非人声之后的目标多媒体资源的语音信号。
按预设划分规则,将人声音频切割为多个音频片段。例如,将人声音频切割成一定单位长度(如1.5秒)的语音信号。
利用向量提取器(X-vector Extractor),获取多个音频片段的特征向量。例如,在每个单位长度的语音上提取发声人的特征向量,例如,一个音频文件60秒,按1.5秒切割,那么可以得到40个发声人的特征向量。
利用概率线性判别分析器(PLDA,Probabilistic Linear DiscriminantAnalysis),确定多个音频片段的特征向量之间的相似性。概率线性判别分析器是声纹识别里面的信道补偿算法,用来更准确的突出发声人的信息,从而更好的比较发声人的特征向量的相似性;输入是相同或不同发声人的特征向量,输出是特征向量的相似性的得分,得分越高表示二者越相似。
根据多个音频片段的特征向量之间的相似性,利用自底向上的层次聚类法(AHC,Agglomerative Hierarchical Clustering),对多个音频片段的特征向量进行初步聚类。该步骤是初次聚类,通过该算法可以将40个发声人的特征向量初步聚类成若干大类,如8类。输入是多个发声人的特征向量,输出是每个特征向量对应的发声人的标签。层次聚类法内部判断相似性采用的是PLDA准则。
根据多个音频片段的特征向量之间的相似性,利用贝叶斯隐马尔可夫模型(BHMM,Bayesian Hidden Markov Model),对初步聚类的多个音频片段的特征向量进行再次聚类。如从8类聚成4类,然后对4类分别进行建模,得到多个发声人模型,并建立HMM(隐马尔可夫模,Hidden Markov Model)拓扑结构;输入是多个类别的特征向量集,输出是基于贝叶斯的HMM;中间相似性判断采用PLDA准则。
根据再次聚类的多个音频片段的特征向量通过贝叶斯隐马尔可夫模型二次重分割(BHMM Resegmentation,Bayesian Hidden Markov Model Resegmentation),对利用向量提取器(X-vector Extractor)获取的多个音频片段的特征向量重新进行识别,得到新的若干类,这些新的若干类分别代表目标多媒体资源中的每个发声人的声纹。
在一种实施方式中,如图5所示,本实施方式的音频识别的方法包括上述步骤S10至S12,还包括:
S51:对已知多媒体资源进行人声分离,获取已知多媒体资源中的每个目标类别人物的声纹。
已知多媒体资源可以包括音频多媒体资源或视频多媒体资源。当已知多媒体资源为视频多媒体资源时,视频多媒体资源需要包含音频内容。
已知多媒体资源可以理解为知晓其中含有目标类别人物的音频的多媒体资源。例如,知晓该多媒体资源中包含有某人发表消极言论、宣扬极端思想或敏感内容的音频。
S52:将已知多媒体资源中的每个目标类别人物的声纹存入声纹库。
在本实施例中,通过人声分离的方式可以从已知多媒体资源中准确的获取到每个目标类别人物的音频,消除了噪音或多人同时说话而带来的识别准确性降低的问题。不仅提高了从已知多媒体资源中的每个目标类别人物的声纹的效率和准确度,而且还进一步提高了声纹库构建的效率。
在一种实施方式中,如图6所示,本实施方式的音频识别的方法包括上述步骤S10至S12以及上述步骤S51、S52。其中,步骤S51:对已知多媒体资源进行人声分离,获取已知多媒体资源中的每个目标类别人物的声纹,可以进一步包括:
S61:从已知多媒体资源中确定出人声音频。
人声音频可以理解为去除了噪音和非人声音频后,已知多媒体资源中剩余的音频。
从已知多媒体资源中确定出人声音频的方式可以采用现有技术中的任意去噪和人声分离手段,在此不做具体限定。
S62:按预设划分规则,将人声音频切割为多个音频片段。
预设划分规则可以根据需要进行选择和调整。也即是说,划分的每个音频片段的时长可以根据需要调整。各个音频片段的时长可以相同也可以不同。
S63:根据多个音频片段的特征向量,获取已知多媒体资源中的每个目标类别人物的声纹。
每个音频片段的特征向量可以为多个,各个特征向量的向量维度不同。
在本申请实施例中,由于不同人发出的声音不同,因此通过特征向量的提取可以准确的识别出每个发声人的声纹。同时,由于被切割的每个音频片段时长较短,因此能够更加快速准确的识别到每个音频片段中所包含的特征向量,提高了已知多媒体资源中的每个发声人的声纹识别准确度。
在一种实施方式中,如图7所示,本实施方式的音频识别的方法包括上述步骤S10至S12、S61至S63、S52。其中,步骤S63:根据多个音频片段的特征向量,获取已知多媒体资源中的每个目标类别人物的声纹,可以进一步包括:
S71:根据多个音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类。
特征向量之间的相似性判断方法可以采用现有技术中的任意方法,特征向量的聚类方法也可以采用现有技术中的任意方法,只要能够实现基于音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类即可。
S72:根据多个音频片段的特征向量和聚类结果,获取已知多媒体资源中的每个目标类别人物的声纹。
根据聚类结果可以确定出多个音频片段中的哪些特征向量是属于同一个发声人的,进而可以将这些音频片段组合,得到同一个发声人的音频以及同一个发声人的所有特征向量。根据同一个发声人的音频对应的所有特征向量,即可准确的获取到该发声人的声纹。
在一种实施方式中,对已知多媒体资源进行人声分离,获取已知多媒体资源中的每个发声人的声纹,包括:
利用加权预测误差模型(WPE,Weighted Prediction Error),去除已知多媒体资源中的噪声。加权预测误差模型实现已知多媒体资源的混响消除,对已知多媒体资源进行增强,输入是原始的已知多媒体资源的音频信号,输出是去除混响之后的已知多媒体资源的音频信号。
利用双向深度神经网络的语音活性检测器(DNN VAD,Deep Neural NetworkVoice Activity Detection),从已知多媒体资源中确定出人声音频。双向深度神经网络的语音活性检测器能够检测已知多媒体资源里面哪些是语音,哪些是噪音或非人声,输入是已知多媒体资源的音频信号,输出是去除非人声之后的已知多媒体资源的语音信号。
按预设划分规则,将人声音频切割为多个音频片段。例如,将人声音频切割成一定单位长度(如1.5秒)的语音信号。
利用向量提取器(X-vector Extractor),获取多个音频片段的特征向量。例如,在每个单位长度的语音上提取发声人的特征向量,例如,一个音频文件60秒,按1.5秒切割,那么可以得到40个发声人的特征向量。
利用概率线性判别分析器(PLDA,Probabilistic Linear DiscriminantAnalysis),确定多个音频片段的特征向量之间的相似性。概率线性判别分析器是声纹识别里面的信道补偿算法,用来更准确的突出发声人的信息,从而更好的比较发声人的特征向量的相似性;输入是相同或不同发声人的特征向量,输出是特征向量的相似性的得分,得分越高表示二者越相似。
根据多个音频片段的特征向量之间的相似性,利用自底向上的层次聚类法(AHC,Agglomerative Hierarchical Clustering),对多个音频片段的特征向量进行初步聚类。该步骤是初次聚类,通过该算法可以将40个发声人的特征向量初步聚类成若干大类,如8类。输入是多个发声人的特征向量,输出是每个特征向量对应的发声人的标签。层次聚类法内部判断相似性采用的是PLDA准则。
根据多个音频片段的特征向量之间的相似性,利用贝叶斯隐马尔可夫模型(BHMM,Bayesian Hidden Markov Model),对初步聚类的多个音频片段的特征向量进行再次聚类。如从8类聚成4类,然后对4类分别进行建模,得到多个发声人模型,并建立HMM(隐马尔可夫模,Hidden Markov Model)拓扑结构;输入是多个类别的特征向量集,输出是基于贝叶斯的HMM;中间相似性判断采用PLDA准则。
根据再次聚类的多个音频片段的特征向量通过贝叶斯隐马尔可夫模型二次重分割(BHMM Resegmentation,Bayesian Hidden Markov Model Resegmentation),对利用向量提取器(X-vector Extractor)获取的多个音频片段的特征向量重新进行识别,得到新的若干类,这些新的若干类分别代表已知多媒体资源中的每个发声人的声纹。
根据本申请的实施例,如图8所示,提供了一种音频识别的装置800,包括:
第一获取模块810,用于对目标多媒体资源进行人声分离,获取目标多媒体资源中的每个发声人的声纹。
匹配模块820,用于将目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,预存声纹为目标类别人物的声纹。
确定模块830,用于在匹配成功的情况下,确定目标多媒体资源中包含目标类别人物的音频。
在一种实施方式中,第一获取模块包括:
第一确定子模块,用于从目标多媒体资源中确定出人声音频。
第一划分子模块,用于按预设划分规则,将人声音频切割为多个音频片段。
第一获取子模块,用于根据多个音频片段的特征向量,获取目标多媒体资源中的每个发声人的声纹。
在一种实施方式中,第一获取子模块还用于根据多个音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类。以及,根据多个音频片段的特征向量和聚类结果,获取目标多媒体资源中的每个发声人的声纹。
在一种实施方式中,音频识别的装置800还包括:
第二获取模块,用于对已知多媒体资源进行人声分离,获取已知多媒体资源中的每个目标类别人物的声纹。
存储模块,用于将已知多媒体资源中的每个目标类别人物的声纹存入声纹库。
在一种实施方式中,第二获取模块包括:
第二确定子模块,用于从已知多媒体资源中确定出人声音频。
第二划分子模块,用于按预设划分规则,将人声音频切割为多个音频片段。
第二获取子模块,用于根据多个音频片段的特征向量,获取已知多媒体资源中的每个目标类别人物的声纹。
在一种实施方式中,第二获取子模块还用于根据多个音频片段的特征向量之间的相似性,对多个音频片段的特征向量进行聚类。以及,根据多个音频片段的特征向量和聚类结果,获取已知多媒体资源中的每个目标类别人物的声纹。
上述音频识别的装置的功能可以参考上述音频识别的方法的各实施例,在此不再赘述。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图9示出了可以用来实施本公开的实施例的示例电子设备900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如音频识别的方法。例如,在一些实施例中,音频识别的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的音频识别的方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行音频识别的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入、或者触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPS)服务中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (15)

1.一种音频识别的方法,包括:
对目标多媒体资源进行人声分离,获取所述目标多媒体资源中的每个发声人的声纹;
将所述目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,所述预存声纹为目标类别人物的声纹;
在匹配成功的情况下,确定所述目标多媒体资源中包含所述目标类别人物的音频。
2.根据权利要求1所述的方法,其中,所述对目标多媒体资源进行人声分离,获取所述目标多媒体资源中的每个发声人的声纹,包括:
从目标多媒体资源中确定出人声音频;
按预设划分规则,将所述人声音频切割为多个音频片段;
根据所述多个音频片段的特征向量,获取所述目标多媒体资源中的每个发声人的声纹。
3.根据权利要求2所述的方法,其中,所述根据所述多个音频片段的特征向量,获取所述目标多媒体资源中的每个发声人的声纹,包括:
根据所述多个音频片段的特征向量之间的相似性,对所述多个音频片段的特征向量进行聚类;
根据所述多个音频片段的特征向量和聚类结果,获取所述目标多媒体资源中的每个发声人的声纹。
4.根据权利要求1至3任一项所述的方法,还包括:
对已知多媒体资源进行人声分离,获取所述已知多媒体资源中的每个目标类别人物的声纹;
将所述已知多媒体资源中的每个目标类别人物的声纹存入所述声纹库。
5.根据权利要求4所述的方法,其中,所述对已知多媒体资源进行人声分离,获取所述已知多媒体资源中的每个目标类别人物的声纹,包括:
从已知多媒体资源中确定出人声音频;
按预设划分规则,将所述人声音频切割为多个音频片段;
根据所述多个音频片段的特征向量,获取所述已知多媒体资源中的每个目标类别人物的声纹。
6.根据权利要求5所述的方法,其中,所述根据所述多个音频片段的特征向量,获取所述已知多媒体资源中的每个目标类别人物的声纹,包括:
根据所述多个音频片段的特征向量之间的相似性,对所述多个音频片段的特征向量进行聚类;
根据所述多个音频片段的特征向量和聚类结果,获取所述已知多媒体资源中的每个目标类别人物的声纹。
7.一种音频识别的装置,包括:
第一获取模块,用于对目标多媒体资源进行人声分离,获取所述目标多媒体资源中的每个发声人的声纹;
匹配模块,用于将所述目标多媒体资源中的每个发声人的声纹与声纹库中的预存声纹进行匹配,所述预存声纹为目标类别人物的声纹;
确定模块,用于在匹配成功的情况下,确定所述目标多媒体资源中包含所述目标类别人物的音频。
8.根据权利要求7所述的装置,其中,所述第一获取模块包括:
第一确定子模块,用于从目标多媒体资源中确定出人声音频;
第一划分子模块,用于按预设划分规则,将所述人声音频切割为多个音频片段;
第一获取子模块,用于根据所述多个音频片段的特征向量,获取所述目标多媒体资源中的每个发声人的声纹。
9.根据权利要求8所述的装置,其中,所述第一获取子模块还用于根据所述多个音频片段的特征向量之间的相似性,对所述多个音频片段的特征向量进行聚类;以及,根据所述多个音频片段的特征向量和聚类结果,获取所述目标多媒体资源中的每个发声人的声纹。
10.根据权利要求7所述的装置,还包括:
第二获取模块,用于对已知多媒体资源进行人声分离,获取所述已知多媒体资源中的每个目标类别人物的声纹;
存储模块,用于将所述已知多媒体资源中的每个目标类别人物的声纹存入所述声纹库。
11.根据权利要求10所述的装置,其中,所述第二获取模块包括:
第二确定子模块,用于从已知多媒体资源中确定出人声音频;
第二划分子模块,用于按预设划分规则,将所述人声音频切割为多个音频片段;
第二获取子模块,用于根据所述多个音频片段的特征向量,获取所述已知多媒体资源中的每个目标类别人物的声纹。
12.根据权利要求11所述的装置,其中,所述第二获取子模块还用于根据所述多个音频片段的特征向量之间的相似性,对所述多个音频片段的特征向量进行聚类;以及,根据所述多个音频片段的特征向量和聚类结果,获取所述已知多媒体资源中的每个目标类别人物的声纹。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使计算机执行权利要求1至6中任一项所述的方法。
15.一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现根据权利要求1至6中任一项所述的方法。
CN202011553762.6A 2020-12-24 2020-12-24 音频识别的方法、装置、电子设备及存储介质 Active CN112735432B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011553762.6A CN112735432B (zh) 2020-12-24 2020-12-24 音频识别的方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011553762.6A CN112735432B (zh) 2020-12-24 2020-12-24 音频识别的方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112735432A true CN112735432A (zh) 2021-04-30
CN112735432B CN112735432B (zh) 2023-05-02

Family

ID=75615492

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011553762.6A Active CN112735432B (zh) 2020-12-24 2020-12-24 音频识别的方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112735432B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299957A (zh) * 2021-11-29 2022-04-08 北京百度网讯科技有限公司 声纹分离方法、装置、电子设备以及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150112680A1 (en) * 2012-07-09 2015-04-23 Huawei Device Co., Ltd. Method for Updating Voiceprint Feature Model and Terminal
CN109145148A (zh) * 2017-06-28 2019-01-04 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN111105801A (zh) * 2019-12-03 2020-05-05 云知声智能科技股份有限公司 一种角色语音分离方法及装置
CN111243601A (zh) * 2019-12-31 2020-06-05 北京捷通华声科技股份有限公司 声纹聚类方法、装置、电子设备和计算机可读存储介质
CN111414511A (zh) * 2020-03-25 2020-07-14 合肥讯飞数码科技有限公司 自动声纹建模入库方法、装置以及设备
CN111583938A (zh) * 2020-05-19 2020-08-25 威盛电子股份有限公司 电子装置与语音识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150112680A1 (en) * 2012-07-09 2015-04-23 Huawei Device Co., Ltd. Method for Updating Voiceprint Feature Model and Terminal
CN109145148A (zh) * 2017-06-28 2019-01-04 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN111105801A (zh) * 2019-12-03 2020-05-05 云知声智能科技股份有限公司 一种角色语音分离方法及装置
CN111243601A (zh) * 2019-12-31 2020-06-05 北京捷通华声科技股份有限公司 声纹聚类方法、装置、电子设备和计算机可读存储介质
CN111414511A (zh) * 2020-03-25 2020-07-14 合肥讯飞数码科技有限公司 自动声纹建模入库方法、装置以及设备
CN111583938A (zh) * 2020-05-19 2020-08-25 威盛电子股份有限公司 电子装置与语音识别方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299957A (zh) * 2021-11-29 2022-04-08 北京百度网讯科技有限公司 声纹分离方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
CN112735432B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN109817213B (zh) 用于自适应语种进行语音识别的方法、装置及设备
WO2021174757A1 (zh) 语音情绪识别方法、装置、电子设备及计算机可读存储介质
CN108428446A (zh) 语音识别方法和装置
CN112466288A (zh) 语音识别方法、装置、电子设备及存储介质
US20230089308A1 (en) Speaker-Turn-Based Online Speaker Diarization with Constrained Spectral Clustering
CN114416943B (zh) 对话模型的训练方法、装置、电子设备及存储介质
CN112966082A (zh) 音频质检方法、装置、设备以及存储介质
CN113053367A (zh) 语音识别方法、语音识别的模型训练方法以及装置
CN113850291A (zh) 文本处理及模型训练方法、装置、设备和存储介质
CN112735432B (zh) 音频识别的方法、装置、电子设备及存储介质
EP4024393A2 (en) Training a speech recognition model
CN114758649B (zh) 一种语音识别方法、装置、设备和介质
CN112652313B (zh) 声纹识别的方法、装置、设备、存储介质以及程序产品
CN113327596B (zh) 语音识别模型的训练方法、语音识别方法和装置
CN114399992B (zh) 语音指令响应方法、装置及存储介质
CN114023336A (zh) 模型训练方法、装置、设备以及存储介质
CN114067805A (zh) 声纹识别模型的训练与声纹识别方法及装置
CN113641724A (zh) 知识标签挖掘方法、装置、电子设备及存储介质
CN114201953A (zh) 一种关键词提取、模型训练方法、装置、设备及存储介质
CN113380233B (zh) 音频识别方法、装置、训练方法、训练装置、设备及存储介质
US20230377560A1 (en) Speech tendency classification
US20230106550A1 (en) Method of processing speech, electronic device, and storage medium
CN112634909B (zh) 声音信号处理的方法、装置、设备、计算机可读存储介质
CN113793598B (zh) 语音处理模型的训练方法和数据增强方法、装置及设备
CN113870841A (zh) 语音数据的处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant