CN110111808B - 音频信号处理方法及相关产品 - Google Patents
音频信号处理方法及相关产品 Download PDFInfo
- Publication number
- CN110111808B CN110111808B CN201910369726.5A CN201910369726A CN110111808B CN 110111808 B CN110111808 B CN 110111808B CN 201910369726 A CN201910369726 A CN 201910369726A CN 110111808 B CN110111808 B CN 110111808B
- Authority
- CN
- China
- Prior art keywords
- audio
- paths
- speaker
- signals
- speakers
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 36
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 239000011159 matrix material Substances 0.000 claims abstract description 203
- 238000000926 separation method Methods 0.000 claims abstract description 128
- 230000011218 segmentation Effects 0.000 claims abstract description 69
- 238000000034 method Methods 0.000 claims description 42
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 9
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 230000000875 corresponding effect Effects 0.000 description 243
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 15
- 230000032683 aging Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000012880 independent component analysis Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/0308—Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Circuit For Audible Band Transducer (AREA)
- Otolaryngology (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- General Health & Medical Sciences (AREA)
Abstract
本申请实施例公开音频信号处理方法及相关产品。一种音频信号处理方法,包括:接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;获取所述M路源信号中每路源信号的预设音频特征;根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。本申请实施例有利提高说话人的分割精度。
Description
技术领域
本申请涉及音频信号处理技术领域,尤其涉及一种音频处理方法及相关产品。
背景技术
随着网络和通讯技术的发展,利用音视频技术、网络与通讯技术等可以实现复杂声学环境场景下的多人多方通话。在很多的应用场景中通话一方包含多人参加:比如大型的会议室。为了便于后期的文本和会议摘要的生成,通常对音频信号进行说话人分割(英文:Speaker Diarization),将整个音频信号分割成不同的片段,将说话人和音频片段对应标注出来,这样可以清楚知道在每个时刻的说话人,可快速生成会议摘要。
现有技术中,单麦克风的说话人分割技术,难以区分声音类似的说话人;多麦克风的说话人分割系统,难以区分角度接近的说话人、受房间混响影响较大,分割精度低。所以现有技术中对说话人的分割精度低。
发明内容
本申请实施例提供了一种音频信号处理方法,有利于提高说话人分割的精度,进而便于会议室记录的生成,进而提高用户体验。
第一方面,本申请实施例提供了一种音频信号处理方法,包括:
接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;
获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;
获取所述M路源信号中每路源信号的预设音频特征;
根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
可以看出,本申请实施例方案为多麦系统下的说话人分割技术,引入了空间特征矩阵和预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的聚类,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中器件老化降低分割精度的问题,而且有音频特征的参与,可以识别出说话人角度相近以及说话人移动的场景,进一步提高说话人的分割精度。
在一些可能的实施方式中,所述获取所述M路源信号中每路源信号的预设音频特征,包括:将所述M路源信号中每路源信号分割为Q个音频帧,Q为大于1的整数;获取每路源信号的每个音频帧的预设音频特征。对源信号进行分割,以便后续利用预设音频特征进行聚类。
在一些可能的实施方式中,所述获取所述N路观测信号的空间特征矩阵,包括:将所述N路观测信号中每路观测信号分割为Q个音频帧;根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q。。可以看出,由于空间特征矩阵反映了说话人相对于麦克风的位置信息,所以通过引入空间特征矩阵,在无需提前知道麦克风阵列的排列信息时,即可确定出当前场景中有多少个位置存在说话人。
在一些可能的实施方式中,所述根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份,包括:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。可以看出,先利用空间特征矩阵进行第一聚类,确定当前场景中说话人在哪些位置说话,得到说话人的预估数量,然后,再利用预设音频特征进行第二聚类,对第一聚类得到的初始聚类进行拆分或者合并,得到当前场景中说话人的真实数量,提高了说话人的分割精度。
在一些可能的实施方式中,所述根据所述M个相似度确定每个初始聚类对应的源信号,包括:确定所述M个相似度中的最大相似度,确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。可以看出,通过空间特征矩阵进行第一聚类,确定当前场景中说话人在哪些位置说话,然后利用空间特征矩阵和分离矩阵的相似度确定出每个说话人对应的源信号,实现快速确定出每个说话人对应的的源信号。
在一些可能的实施方式中,所述对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份,包括:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。可以看出,利用每路源信号对应的预设音频特征进行聚类,将每路源信号对应的初始聚类进行拆分或者合并,得到所述M路源信号对应的目标聚类,将说话人移动而分离出的两路源信号聚为同一个目标聚类以及将角度相近的两个说话人拆分为两个目标聚类,将角度相近的两个说话人分割出来,提高了说话人的分割精度。
在一些可能的实施方式中,所述方法还包括:根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频。可以看出,基于聚类后的说话人身份和数量,对音频信号切割,确定每个音频帧对应的说话人身份和数量,方便会议室环境下生成会议室摘要。
在一些可能的实施方式中,所述根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频,包括:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的L个目标聚类,L≤H;从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。可以看出,基于聚类后的说话人身份和数量,对音频信号进行切割和标注,先利用空间特征矩阵确定出每个音频帧组对应的说话人数量,然后,再利用源信号中每个音频帧的预设音频特征确定出每个说话人对应的源信号,通过对音频进行两步切割和标注,提高了说话人的切割精度。
在一些可能的实施方式中,所述根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频,包括:确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。可以看出,通过音频特征直接进行音频的分割和标注,提高了说话人的分割速度。
第二方面,本申请实施例提供了一种音频处理装置,其特征在于,包括:
音频分离单元,用于接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;
空间特征提取单元,用于获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;
音频特征提取单元,用于获取所述M路源信号中每路源信号的预设音频特征;
确定单元,用于根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
可以看出,本申请实施例方案为多麦系统下的说话人分割技术,引入了空间特征矩阵和预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的聚类,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中器件老化降低分割精度的问题,而且有音频特征的参与,可以识别出说话人角度相近以及说话人移动的场景,进一步提高说话人的分割精度。
在一些可能的实施方式中,所述音频特征提取单元,在获取所述M路源信号中每路源信号的预设音频特征时,具体用于:将所述M路源信号中每路源信号分割为Q个音频帧,Q为大于1的整数;获取每路源信号的每个音频帧的预设音频特征。
在一些可能的实施方式中,所述空间特征提取单元,在获取所述N路观测信号的空间特征矩阵时,具体用于:将所述N路观测信号中每路观测信号分割为Q个音频帧;根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q。
在一些可能的实施方式中,所述确定单元,在根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份时,具体用于:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。
在一些可能的实施方式中,所述确定单元,在根据所述M个相似度确定每个初始聚类对应的源信号时,具体用于:确定所述M个相似度中的最大相似度,确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。
在一些可能的实施方式中,所述确定单元,在对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份时,具体用于:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。
在一些可能的实施方式中,所述装置还包括音频分割单元;
所述音频分割单元,用于根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频。
在一些可能的实施方式中,所述音频分割单元,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的L个目标聚类,L≤H;从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
在一些可能的实施方式中,所述音频分割单元,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
第三方面、本申请实施例提供一种音频处理装置,其特征在于,包括:
相互耦合的处理器、通信接口和存储器;
其中,所述通信接口,用于收麦克风阵列采集的N路观测信号,N为大于或者等于2的整数;
所述处理器,用于对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,M为大于或者等于1的整数;获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;获取所述M路源信号中每路源信号的预设音频特征;根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
第四方面,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被硬件(例如处理器等)执行,以本申请实施例中由音频处理装置执行的任意一种方法的部分或全部步骤。
第五方面,本申请实施例提供了一种包括指令的计算机程序产品,当所述计算机程序产品在音频处理装置上运行时,使得所述音频处理装置执行以上各方面的音频信号处理方法的部分或全部步骤。
附图说明
图1A为本申请实施例提供的一种的流程示意图;
图1B为本申请实施例提供的一种音频信号处理方法的流程示意图
图2A为本申请实施例提供的另一种音频信号处理方法的流程示意图;
图2B为本申请实施例提供的一种频点在频域中的表征的示意图;
图2C为本申请实施例提供的一种说话场景的示意图;
图2D为本申请实施例提供的另一种说话场景的示意图;
图3为本申请实施例提供的另一种音频信号处理方法的流程示意图;
图4为本申请实施例提供的另一种音频信号处理方法的流程示意图;
图5A为本申请实施例提供的一种在界面显示输出音频的示意图;
图5B为本申请实施例提供的另一种在界面显示输出音频的示意图;
图5C为本申请实施例提供的另一种在界面显示输出音频的的示意图;
图6为本申请实施例提供的一种音频处理装置的示意图;
图7为本申请实施例提供的一种音频处理装置的示意图。
具体实施方式
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结果或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
下面先介绍一下盲源分离BSS(Blind Source Separation,简称:BSS)技术。
BSS技术主要解决“鸡尾酒会”问题,即从给定的混合信号中分离出每个人说话的独立信号。当有M个源信号时,通常假设观察信号也有M个,即假设麦克风阵列中有M个麦克风。举例来说,在一个房间的不同位置放着两个麦克风,同时有两个人说话,每个麦克风都能采集到两个人说话的音频信号,输出一路观测信号,假设两个麦克风输出的两个观测信号为x1,x2,两路源信号为s1,s2,则x1,x2分别由s1、s2混合而成,即x1=a11*s1+a12*s2,x2=a21*s1+a22*s2,BSS技术主要解决从x1,x2中分离出s1,s2的问题。
当存在M路观测信号x1,…,xM时,BSS技术主要解决如何从x1,…,xM中分离出M路源信号s1,…,sM、。由上述举例可知,X=AS,X=[x1,…,xM],S=[s1,…,sM],A为混合矩阵;假设有Y=WX,Y是对S的估计,W为分离矩阵,W通过自然梯度法得到。所以,在BSS时,先得到分离矩阵W,然后利用分离矩阵W对观测信号X进行分离,得到源信号S,其中,通过自然梯度法得到分离矩阵W。
现有技术中,单麦克风的说话人分割时,主要利用说话人的音频特征进行分割,无法分割说话类似的说话人(音频特征相似的说话人),分割精度低;多麦克风的说话人分割系统,需要获取说话人的角度和位置,利用说话人的角度和位置对说话人进行分割,所以多麦克风的说话人分割系统需要预先知道麦克风阵列的排列信息和空间位置信息,但是,随着器件的老化,导致麦克风阵列的排布信息和空间位置信息发生变化,导致分割精度降低,而且利用说话人的角度和位置对说话人进行分割,难以区分角度接近的说话人,且在分割时受房间混响影响较大,分割精度低。为了解决现有技术中说话人分割精度低的问题,特提出本申请中的音频信号处理方法,以期提高说话人的分割精度。
参阅图1A,图1A为一种音频信号处理方法的场景架构图,该场景架构图包括声源、麦克风阵列、音频处理装置,音频处理装置包括:空间特征提取模块、盲源分离模块、音频特征提取模块、第一聚类模块、第二聚类模块、音频分割模块;麦克风阵列用于采集说话人的说话音频,得到观测信号;空间特征提取模块用于确定观测信号对应的空间特征矩阵;盲源分离模块用于对观测信号进行盲源分离,得到源信号;第一聚类模块用于对空间特征矩阵进行第一聚类,得到初始聚类;音频特征提取模块用于对源信号进行特征提取,得到源信号对应的预设音频特征;第二聚类模块用于根据源信号对应的预设音频特征以及初始聚类进行第二聚类,得到目标聚类;音频分割模块用于根据目标聚类对源信号进行音频分割,输出音频信号和说话人标签,所述说话人标签用于标注输出的音频信号中每个音频帧对应的说话人数量和/或说话人身份。
可以看出,本申请实施例方案为多麦系统下的说话人分割技术,引入了空间特征矩阵和预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的聚类,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中器件老化降低分割精度的问题,而且有音频特征的参与,可以识别出说话人角度相近以及说话人移动的场景,进一步提高说话人的分割精度。
本申请实施例的技术方案可以基于图1A举例所示的场景架构图来具体实施。
参阅图1B,图1B为本申请实施例提供的一种音频信号处理方法的流程示意图,这种方法可包括但不限于如下步骤:
步骤101:音频处理装置接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数。
其中,对所述N路观测信号进行盲源分离包括时域分离法和频域分离法。
步骤102:音频处理装置获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性。
其中,所述N路观测信号之间的相关性是由于说话人相对于麦克风的空间位置不同造成的,即空间特征矩阵反映了说话人的空间位置信息。
步骤103:音频处理装置获取所述M路源信号中每路源信号的预设音频特征。
其中,所述预设音频特征包括但不限于以下一种或几种:过零率ZCR、短时能量、基频、梅尔倒谱系数MFCC。
步骤104:音频处理装置根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
可以看出,在本申请实施例中,利用预设音频特征、分离矩阵和空间特征矩阵进行聚类,得到说话人的身份和数量,相比现有技术仅利用音频特征进行说话人分割,提高了说话人的分割精度;而且,本申请多麦的说话人分割技术,引入了空间特征矩阵,无需预先知道麦克风阵列的排列信息即可进行说话人分割,不会产生由于器件老化导致排列信息变化而降低分割精度的问题。
参阅图2A,图2A为本申请实施例提供的另一种音频信号处理方法的流程示意图,这种方法可包括但不限于如下步骤:
步骤201:音频处理装置接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数。
其中,所述N路观测信号为麦克风阵列在一段时间内采集到的音频信号。
在盲源分离时,如有D个源信号时,通常假设观察信号也有D个,以便确定混合矩阵为方阵,此时称麦克风阵列为标准的独立成分分析ICA模型,对于源信号的维数和麦克风阵列的维数不同时,这种情况称非方阵ICA模型non-square ICA。本申请以标准的ICA模型为例做具体说明,即N=M。
可选的,通过时域法对所述N路观测信号进行盲源分离时,具体包括以下步骤:假设N路观测信号分别为x1,x2,…,xN;将N路观测信号组成输入信号X=[x1,x2,…,xN],假设经BSS后的输出信号为Y,Y=[s1,s2,…,sM],基于BSS技术可知:Y=XW,W为由M个分离矩阵组成的矩阵,假设W=[w11,w12,…w1M,w21,w22,…w2M,…,wM1,wM2,…,wMM],每M列w为一个分离矩阵,每个分离矩阵用于分离该N路观测信号,得到一路源信号,基于BSS从所述N观测信号中分离出M路源信号的分离公式为:
可选的,通过频域法对对所述N路观测信号进行盲源分离时,上述分离公式变换为:
步骤202:音频处理装置获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性。
可选的,获取所述N路观测信号的空间特征矩阵的实现过程可以为:将所述N路观测信号中每路观测信号分割为Q个音频帧;
根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;
根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q,||XF(k,n)*XFH(k,n)||为XFH(k,n)为XF(k,n)的范数。
其中,空间特征矩阵中的对角线元素代表麦克风阵列中每个麦克风采集到的观测信号的能量,非对角线元素代表麦克风阵列中不同麦克风采集到的观测信号之间的相关性。例如,空间特征矩阵的对角线元素C11代表了麦克风阵列中第1个麦克风采集到的观测信号的能量,非对角线元素C12代表了麦克风阵列中第1个麦克风与第2个麦克风采集到的观测信号之间的相关性,该相关性是由于说话相对于第1个麦克风和第2个麦克风的空间位置不同造成的。所以通过空间特征矩阵可以反映出每个第一音频帧组对应的说话人的空间位置。
参阅图2B,图2B为本申请实施例提供的一种N路观测信号中每路观测信号在任意一个时间窗口下的音频帧在频域中的表征的示意图,假设每个音频帧中包含s个频点,则从图2B中可以看出N路观测信号中在该时间窗口下的所有第一个频点对应的列向量为[a11+b11*j,a21+b21*j,…aN1+bN1*j]T,将每个时间窗口对应的N个音频帧作为一个第一音频帧组,由于将每路观测信号分割为Q个音频帧,故可得到Q个第一音频帧组;获取图2B所示的时间窗口下其他频点在频域中的表征,得到该时间窗口下的第一音频帧组对应的
基于上述的空间特征矩阵的计算方法,分别计算每个第一音频组对应的空间特征矩阵,得到Q个空间特征矩阵,Q个空间特征矩阵按照其所在的时间窗口的先后顺序进行拼接,得到所述N路观测信号对应的空间特征矩阵。
步骤203:音频处理装置获取所述M路源信号中每路源信号的预设音频特征。
可选的,获取所述M路源信号中每路源信号的预设音频特征的步骤包括:将所述M路源信号中每路源信号分割为Q个音频帧;获取每路源信号的每个音频帧的预设音频特征。
其中,所述预设音频特征包括但不限于以下一种或几种:过零率ZCR、短时能量、基频、梅尔倒谱系数MFCC。
下面具体介绍获取过零率ZCR、短时能量的过程。
其中,Zn为Q个音频帧的第n个音频帧对应的过零率,sgn[]为符号函数,N为第n帧音频帧的帧长,n为音频帧的帧索引。
其中,En为第n个音频帧的短时能量,N为第n个音频帧的帧长。
步骤204:音频处理装置根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
首先,根据所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号,对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和/或说话人身份。
具体来讲,由于空间特征矩阵反映了说话人的空间位置,故利用每个第一音频组对应的空间特征矩阵作为样本数据,则得到Q个样本数据,利用该Q个样本数据进行第一聚类,将空间特征矩阵距离相近的聚为一类,得到一个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,初始聚类中心矩阵表示说话人的空间位置,该初始聚类中心以空间特征矩阵的形式表示,在聚类完成后,得到P个初始聚类,确定出所述N路观测信号是由说话人在P个空间位置说话产生。
其中,第一聚类和第二聚类可以采用的聚类算法包括但不限于以下几种:最大期望聚类算法EM(英文:Expectation Maximization)、K-means聚类算法、层次聚类算法HAC(英文:Hierarchical Agglomerative Clustering)。
在一些可能实施方式中,由于分离矩阵代表了空间位置,故分离矩阵在一定程度上反映说话人的数量,所以在采用K-means算法进行第一聚类时,根据分离矩阵的数量估计初始聚类的数量,将K-means算法中的k值赋值为分离矩阵的数量M,然后,预设与M个初始聚类对应的聚类中心进行第一聚类,通过分离矩阵的数量估计初始聚类的数量,减少迭代次数,加快聚类速度。
可选的,根据所述M个相似度确定每个初始聚类对应的源信号的步骤包括:根据所述M个相似度确定每个初始聚类对应的源信号确定所述M个相似度中的最大相似度,确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。通过求取初始聚类中心与分离矩阵的相似度,确定出P个空间位置中每个空间位置对应的源信号,即确定出每个初始聚类对应的源信号。
可选的,对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和/或说话人身份的实现过程可以为:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。
可选的,对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类的实现过程可以为:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到每个初始聚类对应的至少一个目标聚类;根据每个初始聚类对应的至少一个目标聚类,得到所述H个目标聚类
具体来讲,将每个初始聚类对应的源信号的每个音频帧的预设音频特征组成特征向量作为一个样本数据,得到与每个初始聚类对应的源信号对应的若干个样本数据,对该若干个样本数据进行聚类,将音频特征相似的样本数据聚为一类,得到该初始聚类对应的目标聚类,如每个初始聚类对应的源信号为一个说话人的音频信号,则在多次聚类迭代后该若干个样本数据对应一个目标聚类中心,该目标聚类中心以特征向量的形式表现,该目标聚类中心表示该说话人的的身份信息(音频特征),如每个初始聚类对应的源信号对应多个说话人,则在多次聚类迭代后该初始聚类对应的源信号的若干个样本数据对应多个目标聚类中心,每个目标聚类中心表示每个说话人的身份信息,故将该初始聚类对应的源信号拆分成了多个目标聚类;如第一路源信号和第二源信号对应的说话人为同一个说话人,在第二聚类后,两路源信号对应的目标聚类中心为同一个目标聚类中心或者两者的聚类中心相近,则将两路源信号对应的两个初始聚类作为同一个目标聚类;由于第二聚类是在第一聚类基础上进行的,所以第二聚类得到的目标聚类中心还包含第一聚类得到说话人的空间位置。
举例来说,如图2C所示,由于分离矩阵表示了说话人的空间位置信息,故每路源信号是根据说话人所在的空间位置分离得到的,当同一个说话人在不同位置说话时,在第一聚类时,会从观测信号中分离出与该说话人对应的多路源信号,且对应不同的初始聚类。如该说话人0~t1时间段内在位置W1说话,t2~t3时间段内在位置W2说话,t3>t2>t1,且确定出该说话人在W1和W2对应的源信号分别为s1和s2,如s1对应初始聚类A,s2对应初始聚类B,由于s1和s2对应同一个说话人,0~t1内的预设音频特征与t2~t3内的预设音频特征一致,所以在第二聚类后,可确定s1和s2对应同一个目标聚类中心,由于t2>t1,可确定出s2是由说话人走到位置W2产生的音频信号,故可将两个初始聚类A和B合并为一个目标聚类,故该目标聚类的目标聚类中心包含了第一聚类得到的空间位置W1和W2以及第二聚类得到说话人的预设音频特征。
再例如,如图2D所示,如说话人A和说话人B在同一个位置W3说话,由于说话人的位置相同,则基于分离矩阵分离出一路与位置W3对应的源信号s3,但源信号s3中同时包括了说话人A和说话人B的音频信号,一般来讲,说话人A和说话人B不可能在同一个位置一直保持同时说话,我们假设0~t1时间段内,说话人A在位置W3说话,说话人B未说话,t2~t3时间段内说话人B在位置W3说话,由于这两个时间段内为不同的说话人在说话,所以,该两个时间段内的预设音频特征不一致,在进行第二聚类后,该路源信号会对应两个目标聚类中心,第一个目标聚类中心包含了第一聚类得到的位置信息W3以及第二聚类得到说话人A的音频特征,第二个目标聚类中心包含了第一聚类得到的位置信息W3以及第二聚类得到说话人B的音频特征。
可选的,在对每个初始聚类对应的源信号的预设音频特征进行第二聚类之前,所述方法还包括:对每路源信号进行人声分析,以移除该M路源信号中为非人声的源信号,其中,对每路源信号进行人声分析的实现过程可以为:将每路源信号的每个音频帧的预设音频特征与人声的音频特征进行比对,确定每路源信号中是否包含人声。
步骤205:音频处理装置根据所述N路观测信号对应的说话人数量和说话人身份输出包含有第一说话人标签的音频信号,所述第一说话人标签用于标注所述音频信号的每个帧音频帧对应的说话人数量。
可选的,根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第一说话人标签的输出音频的步骤包括:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的说话人数量,即确定所述H个距离中大于距离阈值的L个距离,将L作为该第一音频帧组对应的说话人数量;然后,确定该第一音频帧组对应的时间窗口,将该输出音频在该时间窗口的音频帧的说话人数量标记为L;最后,依次确定每个第一音频帧组对应的说话人数量,从而得到该第一说话人标签。
其中,该距离阈值可以为80%、90%、95%或者其他值。
可选的,该输出音频在每个时间窗口下的音频帧可以包含多路音频,也可以为该多路音频的混合音频。举例来说,如在0~t1为说话人A和说话人B同时说话,且说话人A和说话人B位于不同的空间位置,则从说话人A对应的源信号中提取出0~t1内说话人A的第一说话音频,同样从说话人B对应的源信号中提取出0~t1内说话人B的第二说话音频,可以单独保留第一说话音频和第二说话音频,即该输出音频在0~t1内对应两路说话音频,且标注0~t1有说话人2个人同时说话,在也可以将第一说话音频和第二说话音频,则该输出音频在0~t1对应一路混合音频,同样标注0~t1内有2个说话人同时说话。
可以看出,本申请实施例为多麦系统下的说话人分割方法,引入了空间特征矩阵以及预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的确认,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中由于器件老化降低分割精度问题,而且基于音频特征进行第二聚类,可以将角度相近的说话人对应的一个初始聚类拆分为两个目标聚类,将由于说话人移动产生的两个初始聚类合并为一个目标聚类,解决了现有技术中说话人的分割精度低的问题。
参阅图3,图3为本申请实施例提供的一种音频信号处理方法的流程示意图,这种方法可包括但不限于如下步骤:
步骤301:音频处理装置接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,M和N均为大于或者等于1的整数。
步骤302:音频处理装置获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性。
步骤303:音频处理装置获取所述M路源信号中每路源信号的预设音频特征。
步骤304:音频处理装置根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
步骤305:音频处理装置根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第二说话人标签的输出音频,所述第二说话人标签用于标注所述输出音频的每个帧音频帧对应的说话人身份。
可选的,根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第二说话人标签的输出音频的步骤包括:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的说话人身份,即确定所述H个距离中大于距离阈值的L个距离,L≤H,获取与该L距离对应的L个目标聚类,将该L个目标聚类作为该第一音频帧组对应的说话人身份;然后,确定该第一音频帧组对应的时间窗口,确定该M路源信号在该时间窗口下的说话人为该L个目标聚类;最后,依次确定每个音频帧组对应的说话人数量,即确定出该M路源信号在每个时间窗口下的说话人数量,将该M路源信号在每个时间窗口下的音频帧组成该输出音频,并基于每个时间窗口下的说话人身份确定第二说话人标签,第二说话人标签则标注出该输出音频在每个时间窗口下的说话人身份。
其中,该距离阈值可以为80%、90%、95%或者其他值。
可选的,该输出音频在每个时间窗口下的音频帧可以包含多路音频,也可以为该多路音频的混合音频。举例来说,如在0~t1为说话人A和说话人B同时说话,且说话人A和说话人B位于不同的空间位置,则从说话人A对应的源信号中提取出0~t1内说话人A的第一说话音频,同样从说话人B对应的源信号中提取出0~t1内说话人B的第二说话音频,可以单独保留第一说话音频和第二说话音频,即该输出音频在0~t1内对应两路说话音频,且通过第二说话人标签标注0~t1有说话人A和说话人B同时说话,在也可以将第一说话音频和第二说话音频,则该输出音频在0~t1对应一路混合音频,同样通过第二说话人标签标注0~t1有说话人A和说话人B同时说话。
可以看出,本申请实施例为多麦系统下的说话人分割方法,引入了空间特征矩阵以及预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的确认,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中由于器件老化降低分割精度问题,而且基于音频特征进行第二聚类,可以将角度相近的说话人对应的一个初始聚类拆分为两个目标聚类,将由于说话人移动产生的两个初始聚类合并为一个目标聚类,解决了现有技术中说话人的分割精度低的问题。
参阅图4,图4为本申请实施例提供的一种音频信号处理方法的流程示意图,这种方法可包括但不限于如下步骤:
步骤401:音频处理装置接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,M和N均为大于或者等于1的整数。
步骤402:音频处理装置获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性。
步骤403:音频处理装置获取所述M路源信号中每路源信号的预设音频特征。
步骤404:音频处理装置根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
步骤405:音频处理装置根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第三说话人标签的输出音频,所述第三说话人标签用于标注所述输出音频的每个帧音频帧对应的说话人数量和说话人身份。
可选的,根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第三说话人标签的输出音频的步骤包括:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的说话人身份,即确定所述H个距离中大于距离阈值的L个距离,L≤H,获取与该L距离对应的L个目标聚类,将该L个目标聚类作为该第一音频帧组对应的说话人身份;然后,确定该第一音频帧组对应的时间窗口,确定该M路源信号在该时间窗口下的说话人为该L个目标聚类;从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类,即将该L个相似度中最大相似度对应的目标聚类作为每个音频帧的目标聚类,即确定该时间窗口下对应的说话人数量以及每个说话人对应的源音频帧;最后,根据每个音频帧对应的目标聚类得到包含有第三说话人标签的输出音频。先通过空间特征矩阵进行比对,确定出每个时间窗下的说话人数量,然后,在通过说话人的音频特征进行比对,确定每个源音频帧对应的说话人,提高了说话人的分割精度。
其中,该距离阈值可以为80%、90%、95%或者其他值。
举例来说,如在0~t1为说话人A和说话人B同时说话,且说话人A和说话人B位于不同的空间位置,则通过第一音频组的空间特征矩阵确定出0~t1内对应目标聚类A和目标聚类B,然后,从M路源信号中在0~t1内提取出两路源音频帧,但是,无法确定出哪个源音频帧是说话人A的,哪个源音频帧是说话人B的,故将该两路源音频帧的预设音频特征分别与目标聚类A对应的预设音频特征进行比对,获取相似度,得到两个相似度,将相似度最大时对应的目标聚类作为每路源音频帧对应的说话人。
可选的,根据所述N路观测信号对应的说话人数量和说话人身份得到包含有第三说话人标签的输出音频的步骤包括:确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。通过音频特征直接进行说话人比对,加快了说话人分割速度。
举例来说,如在0~t1为说话人A和说话人B同时说话,且说话人A和说话人B位于不同的空间位置,可从M路源信号中提取0~t1内对应的两路源音频帧,但是,无法确定出哪个源音频帧是说话人A的,哪个源音频帧是说话人B的,然后,直接将该两路源音频帧的预设音频特征分别与第二聚类后得到的H个目标聚类进行比对,将相似度最大的目标聚类作为每路源音频帧对应的说话人。
可选的,该输出音频在每个时间窗口下的音频帧可以包含多路音频,也可以为该多路音频的混合音频。举例来说,如在0~t1为说话人A和说话人B同时说话,且说话人A和说话人B位于不同的空间位置,则从说话人A对应的源信号中提取出0~t1内说话人A的第一说话音频,同样从说话人B对应的源信号中提取出0~t1内说话人B的第二说话音频,可以单独保留第一说话音频和第二说话音频,即该输出音频在0~t1内对应两路说话音频,且通过第三说话人标签标注0~t1有说话人A和说话人B同时说话,当然,由于确定出了每路源音频帧对应的说话人,在不将A和B的音频进行混合时,可设置单独播放按钮,在点击说话人A的播放按钮时,可单独播放A的说话音频;在也可以将第一说话音频和第二说话音频,则该输出音频在0~t1对应一路混合音频,同样通过第二说话人标签标注0~t1有说话人A和说话人B同时说话。
可以看出,本申请实施例为多麦系统下的说话人分割方法,引入了空间特征矩阵以及预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的确认,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中由于器件老化降低分割精度问题,而且基于音频特征进行第二聚类,可以将角度相近的说话人对应的一个初始聚类拆分为两个目标聚类,将由于说话人移动产生的两个初始聚类合并为一个目标聚类,解决了现有技术中说话人的分割精度低的问题。
在一些可能实施方式中,如所述N路观测信号为在第一预设时间段内获得的音频信号,将所述N路观测信号对应的H个目标聚类的H个聚类中心输入到下一个时间窗口,将所述H个聚类中心作为第二预设时间内获得的观测信号的聚类初值,实现两个时间段内的参数共享,加快聚类速度,提高说话人分割效率。
在一些可能实施方式中,基于图2A、图3、图4所示的说话人分割方法,可在音频处理装置的界面以下几种形式呈现该输出音频和说话人标签。
可选的,图5A为本申请实施例提供的一种在界面显示输出音频的示意图,图5A所示的显示方式对应图2A中所述的说话人分割方法,如图5A所示,在输出音频的每个音频帧上添加第一说话人标签,通过第一说话人标签标注时间窗口对应的说话人数量。可以理解的是,如果输出音频中保留每个说话人单独说话的音频,即未对说话人的音频混合输出,当输出音频的一时间窗口对应的多个说话人时,通过点击标签旁的“点击”按钮,可依次播放该时间窗口下的每个说话人的独立音频信号。当然,在添加第一说话人标签时,无需将第一说话人标签添加到输出音频上,可将第一说话人标签和输出音频关联输出,该第一说话人标签标注了该输出音频中每个音频帧对应的说话人数量,可通过读取该第一说话人标签,确定出输出音频中每个音频帧对应的说话人数量。
可选的,图5B为本申请实施例提供的另一种在界面显示输出音频的示意图,图5B所示的显示方式对应图3中所述的说话人分割方法,在确定出输出音频中每个音频帧对应的说话人身份时,在输出音频帧上添加第二说话人标签,标注每个时间窗口对应的说话人身份,如图5B所示,标记出第一个音频帧和第三个音频帧对应的说话人为为说话人A。可以理解的是,如果输出音频中保留每个说话人单独说话的音频,未对说话人的音频混合输出,当输出音频的一时间窗口对应的多个说话人时,点击标签旁的“点击”按钮,依次播放每个说话人的音频,但无法确定出每次播放的音频帧属于哪一个说话人。当然,在添加第二说话人标签时,无需将第二说话人标签添加到输出音频上,可将第二说话人标签和输出音频关联输出,该第一说话人标签标注了该输出音频中每个音频帧对应的说话人数量,可通过读取该第二说话人标签,确定出输出音频中每个音频帧对应的说话人身份。
可选的,图5C为本申请实施例提供的另一种在界面显示输出音频的示意图,图5C所示的显示方式对应图4中所述的说话人分割方法,在确定出输出音频中每个音频帧对应的说话人数量和说话人身份后,在该输出音频上添加第三说话人标签,标记每个时间窗口对应的说话人数量和说话人身份;而且,输出音频中在未对说话人的音频进行混合输出,当输出音频的一时间窗口对应的多个说话人时,可确定每个说话人的身份以及该说话人在该时间窗口下的源信号;对输出音频的所有时间窗口进行分析,可确定出每个说话人在该输出音频上对应的所有音频帧,通过点击每个说话人的“点击”按钮,则可单独播放每个人说话的音频,有利于生成会议记录。当然,在添加第三说话人标签时,无需将第三说话人标签添加到输出音频上,可将第三说话人标签和输出音频关联输出,通过读取该第一说话人标签,确定出输出音频中每个时间窗口对应的说话人数量和说话人身份。
参阅图6,本申请实施例提供了一种音频处理装置600,可包括:
音频分离单元610,用于接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;
空间特征提取单元620,用于获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;
音频特征提取单元630,用于获取所述M路源信号中每路源信号的预设音频特征;
确定单元640,用于根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
可以看出,本申请实施例方案为多麦系统下的说话人分割技术,引入了空间特征矩阵和预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的聚类,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中器件老化降低分割精度的问题,而且有音频特征的参与,可以识别出说话人角度相近以及说话人移动的场景,进一步提高说话人的分割精度。
在一些可能的实施方式中,音频特征提取单元630,在获取所述M路源信号中每路源信号的预设音频特征时,具体用于:将所述M路源信号中每路源信号分割为Q个音频帧,Q为大于1的整数;获取每路源信号的每个音频帧的预设音频特征。
在一些可能的实施方式中,空间特征提取单元620,在获取所述N路观测信号的空间特征矩阵时,具体用于:将所述N路观测信号中每路观测信号分割为Q个音频帧;根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q。。
在一些可能的实施方式中,确定单元640,在根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份时,具体用于:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。
在一些可能的实施方式中,所述确定单元,在根据所述M个相似度确定每个初始聚类对应的源信号时,具体用于:确定所述M个相似度中的最大相似度,确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。
在一些可能的实施方式中,确定单元640,在对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份时,具体用于:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。
在一些可能的实施方式中,音频处理装置100还包括音频分割单元650;
音频分割单元650,用于根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频。
在一些可能的实施方式中,音频分割单元650,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的L个目标聚类,L≤H;从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
在一些可能的实施方式中,音频分割单元650,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
参见图7,本申请实施例提供了一种音频处理装置700,包括:
相互耦合的处理器730、通信接口720和存储器710;例如处理器730、通信接口720和存储器710通过总线740耦合。
存储器710可包括但不限于随机存储记忆体(Random Access Memory,RAM)、可擦除可编程只读存储器(Erasable Programmable ROM,EPROM)、只读存储器(Read-OnlyMemory,ROM)或便携式只读存储器(Compact Disc Read-Only Memory,CD-ROM)等等,该存储器810用于相关指令及数据。
处理器730可以是一个或多个中央处理器(Central Processing Unit,CPU),在处理器730是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU。
处理器730用于读取所述存储器710中存储的程序代码,与通信接口740配合执行本申请上述实施例中由音频处理装置执行的方法的部分或全部步骤。
举例来说,所述通信接口720用于收麦克风阵列采集的N路观测信号,N为大于或者等于2的整数。
所述处理器730,所述处理器,用于对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,M为大于或者等于1的整数;获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;获取所述M路源信号中每路源信号的预设音频特征;根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份。
可以看出,本申请实施例方案为多麦系统下的说话人分割技术,引入了空间特征矩阵和预设音频特征,通过空间特征矩阵、预设音频特征以及分离矩阵进行说话人的聚类,无需提前知道麦克风阵列的排列信息,即可实现说话人分割,解决了现有技术中器件老化降低分割精度的问题,而且有音频特征的参与,可以识别出说话人角度相近以及说话人移动的场景,进一步提高说话人的分割精度。
在上述实施例中,可全部或部分地通过软件、硬件、固件、或其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如软盘、硬盘、磁带)、光介质(例如光盘)、或者半导体介质(例如固态硬盘)等。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其中,所述计算机程序被相关硬件执行,以完成执行本发明实施例提供的任意一种音频信号处理方法。此外,本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被相关硬件执行,以完成执行本发明实施例提供的任意一种方法。
本申请实施例还提供一种计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行本发明实施例提供的任意一种音频信号处理方法。此外,本申请实施例还提供一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行本发明实施例提供的任意一种方法。
在上述实施例中对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置,也可以通过其它的方式实现。例如以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可结合或者可以集成到另一个系统,或一些特征可以忽略或不执行。另一点,所显示或讨论的相互之间的间接耦合或者直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者,也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例的方案的目的。
另外,在本申请各实施例中的各功能单元可集成在一个处理单元中,也可以是各单元单独物理存在,也可两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,或者也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质例如可包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或光盘等各种可存储程序代码的介质。
Claims (18)
1.一种音频信号处理方法,其特征在于,包括:
接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;
获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;
获取所述M路源信号中每路源信号的预设音频特征;
根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份,具体包括:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。
2.根据权利要求1所述的方法,其特征在于,所述获取所述M路源信号中每路源信号的预设音频特征,包括:
将所述M路源信号中每路源信号分割为Q个音频帧,Q为大于1的整数;
获取每路源信号的每个音频帧的预设音频特征。
3.根据权利要求1或2所述的方法,其特征在于,所述获取所述N路观测信号的空间特征矩阵,包括:
将所述N路观测信号中每路观测信号分割为Q个音频帧;
根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;
根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q。
4.根据权利要求3所述的方法,其特征在于,所述根据所述M个相似度确定每个初始聚类对应的源信号,包括:
确定所述M个相似度中的最大相似度,
确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;
确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。
5.根据权利要求4所述的方法,其特征在于,所述对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份,包括:
对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频。
7.根据权利要求6所述的方法,其特征在于,所述根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频,包括:
确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;
根据所述K个距离确定每个第一音频帧组对应的L个目标聚类,L≤H;
从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;
确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;
根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类;
根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
8.根据权利要求6所述的方法,其特征在于,所述根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频,包括:
确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;
根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;
根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
9.一种音频处理装置,其特征在于,包括:
音频分离单元,用于接收麦克风阵列采集的N路观测信号,对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,N为大于或者等于2的整数,M为大于或者等于1的整数;
空间特征提取单元,用于获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;
音频特征提取单元,用于获取所述M路源信号中每路源信号的预设音频特征;
确定单元,用于根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份,具体用于:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。
10.根据权利要求9所述的装置,其特征在于,
所述音频特征提取单元,在获取所述M路源信号中每路源信号的预设音频特征时,具体用于:将所述M路源信号中每路源信号分割为Q个音频帧,Q为大于1的整数;获取每路源信号的每个音频帧的预设音频特征。
11.根据权利要求9或10所述的装置,其特征在于,
所述空间特征提取单元,在获取所述N路观测信号的空间特征矩阵时,具体用于:将所述N路观测信号中每路观测信号分割为Q个音频帧;根据每个音频帧组对应的N个音频帧确定每个第一音频帧组对应的空间特征矩阵,得到Q个空间特征矩阵,每个第一音频帧组对应的N个音频帧为所述N路观测信号在同一时间窗口下的N个音频帧;根据所述Q个空间特征矩阵得到所述N路观测信号的空间特征矩阵;
cF(k,n)表示每个第一音频组对应的空间特征矩阵,n表示所述Q个音频帧的帧序号,k表示第n个音频帧的频点索引,XF(k,n)是由每路观测信号的第n个音频帧的第k个频点在频域中的表征组成的列向量,XFH(k,n)为XF(k,n)的转置,n为整数,1≤n≤Q。
12.根据权利要求11所述的装置,其特征在于,
所述确定单元,在根据所述M个相似度确定每个初始聚类对应的源信号时,具体用于:确定所述M个相似度中的最大相似度,确定所述M个分离矩阵中与最大相似度对应的分离矩阵为目标分离矩阵;确定与所述目标分离矩阵对应的源信号为每个初始聚类对应的源信号。
13.根据权利要求12所述的装置,其特征在于,
所述确定单元,在对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份时,具体用于:对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到H个目标聚类,所述H个目标聚类表示所述N路观测信号对应的说话人数量,每个目标聚类对应一个目标聚类中心,每个目标聚类中心是由一个预设音频特征和至少一个初始聚类中心矩阵组成,每个目标聚类对应的预设音频特征用于表示每个目标聚类对应的说话人的说话人身份,每个目标聚类对应的至少一个初始聚类中心矩阵用于表示所述说话人的空间位置。
14.根据权利要求13所述的装置,其特征在于,
所述装置还包括音频分割单元;
所述音频分割单元,用于根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频。
15.根据权利要求14所述的装置,其特征在于,
所述音频分割单元,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定K个距离,所述K个距离为每个第一音频帧组对应的空间特征矩阵与每个目标聚类对应的至少一个初始聚类中心矩阵的距离,每个第一音频帧组由所述N路观测信号在同一时间窗口下的N个音频帧组成,K≥H;根据所述K个距离确定每个第一音频帧组对应的L个目标聚类,L≤H;从所述M路源信号中提取与每个第一音频帧组对应的L个音频帧,所述L个音频帧与每个第一音频帧组所在时间窗口相同;确定L个相似度,所述L个相似度为所述L个音频帧中每个音频帧的预设音频特征与所述L个目标聚类中每个目标聚类对应的预设音频特征的相似度;根据所述L个相似度确定所述L个音频帧中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
16.根据权利要求15所述的装置,其特征在于,
所述音频分割单元,在根据所述N路观测信号对应的说话人数量和说话人身份得到包含有说话人标签的输出音频时,具体用于:确定H个相似度,所述H个相似度为每个第二音频帧组中每个音频帧的预设音频特征与所述H个目标聚类中每个目标聚类中心的预设音频特征之间的相似度,所述每个第二音频帧组由所述M路源信号在同一时间窗口下的音频帧组成;根据所述H个相似度确定每个第二音频帧组中每个音频帧对应的目标聚类;根据每个音频帧对应的目标聚类得到包含有说话人标签的输出音频,所述说话人标签用于标注所述输出音频中每个音频帧的说话人数量和/或说话人身份。
17.一种音频处理装置,其特征在于,包括:
相互耦合的处理器、通信接口和存储器;
其中,所述通信接口,用于收麦克风阵列采集的N路观测信号,N为大于或者等于2的整数;
所述处理器,用于对所述N路观测信号进行盲源分离以得到M路源信号和M个分离矩阵,所述M路源信号和所述M个分离矩阵一一对应,M为大于或者等于1的整数;获取所述N路观测信号的空间特征矩阵,所述空间特征矩阵用于表示所述N路观测信号之间的相关性;获取所述M路源信号中每路源信号的预设音频特征;根据每路源信号的预设音频特征、所述M个分离矩阵和所述空间特征矩阵确定所述N路观测信号对应的说话人数量和说话人身份,具体用于:对所述空间特征矩阵进行第一聚类,得到P个初始聚类,每个初始聚类对应一个初始聚类中心矩阵,所述初始聚类中心矩阵用于表示每个初始聚类对应的说话人的空间位置,P为大于或者等于1的整数;确定M个相似度,所述M个相似度为每个初始聚类对应的初始聚类中心矩阵与所述M个分离矩阵之间的相似度;根据所述M个相似度确定每个初始聚类对应的源信号;对每个初始聚类对应的源信号的预设音频特征进行第二聚类,得到所述N路观测信号对应的说话人数量和说话人身份。
18.一种计算机可读存储介质,其特征在于,存储有计算机程序,所述计算机程序被硬件执行以实现权利要求书1至8任意一项中由音频处理装置执行的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910369726.5A CN110111808B (zh) | 2019-04-30 | 2019-04-30 | 音频信号处理方法及相关产品 |
PCT/CN2020/085800 WO2020221059A1 (zh) | 2019-04-30 | 2020-04-21 | 音频信号处理方法及相关产品 |
EP20799277.7A EP3944238B1 (en) | 2019-04-30 | 2020-04-21 | Audio signal processing method and related product |
US17/605,121 US20220199099A1 (en) | 2019-04-30 | 2020-04-21 | Audio Signal Processing Method and Related Product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910369726.5A CN110111808B (zh) | 2019-04-30 | 2019-04-30 | 音频信号处理方法及相关产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110111808A CN110111808A (zh) | 2019-08-09 |
CN110111808B true CN110111808B (zh) | 2021-06-15 |
Family
ID=67488086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910369726.5A Active CN110111808B (zh) | 2019-04-30 | 2019-04-30 | 音频信号处理方法及相关产品 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220199099A1 (zh) |
EP (1) | EP3944238B1 (zh) |
CN (1) | CN110111808B (zh) |
WO (1) | WO2020221059A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111808B (zh) * | 2019-04-30 | 2021-06-15 | 华为技术有限公司 | 音频信号处理方法及相关产品 |
CN110491412B (zh) * | 2019-08-23 | 2022-02-25 | 北京市商汤科技开发有限公司 | 声音分离方法和装置、电子设备 |
CN110930984A (zh) * | 2019-12-04 | 2020-03-27 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
CN111883168B (zh) * | 2020-08-04 | 2023-12-22 | 上海明略人工智能(集团)有限公司 | 一种语音处理方法及装置 |
CN112992181A (zh) * | 2021-02-08 | 2021-06-18 | 上海哔哩哔哩科技有限公司 | 音频分类方法及装置 |
US11842747B2 (en) | 2021-10-22 | 2023-12-12 | International Business Machines Corporation | Calculating numbers of clusters in data sets using eigen response analysis |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101622669A (zh) * | 2007-02-26 | 2010-01-06 | 高通股份有限公司 | 用于信号分离的系统、方法及设备 |
CN107919133A (zh) * | 2016-10-09 | 2018-04-17 | 赛谛听股份有限公司 | 针对目标对象的语音增强系统及语音增强方法 |
CN108630222A (zh) * | 2017-03-21 | 2018-10-09 | 株式会社东芝 | 信号处理系统、信号处理方法以及信号处理程序 |
CN108630206A (zh) * | 2017-03-21 | 2018-10-09 | 株式会社东芝 | 信号处理装置以及信号处理方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156300A (ja) * | 2005-12-08 | 2007-06-21 | Kobe Steel Ltd | 音源分離装置、音源分離プログラム及び音源分離方法 |
JP5195652B2 (ja) * | 2008-06-11 | 2013-05-08 | ソニー株式会社 | 信号処理装置、および信号処理方法、並びにプログラム |
JP4952698B2 (ja) * | 2008-11-04 | 2012-06-13 | ソニー株式会社 | 音声処理装置、音声処理方法およびプログラム |
WO2011001002A1 (en) * | 2009-06-30 | 2011-01-06 | Nokia Corporation | A method, devices and a service for searching |
JP5706782B2 (ja) * | 2010-08-17 | 2015-04-22 | 本田技研工業株式会社 | 音源分離装置及び音源分離方法 |
JP5406866B2 (ja) * | 2011-02-23 | 2014-02-05 | 日本電信電話株式会社 | 音源分離装置、その方法及びプログラム |
JP6005443B2 (ja) * | 2012-08-23 | 2016-10-12 | 株式会社東芝 | 信号処理装置、方法及びプログラム |
CN105989851B (zh) * | 2015-02-15 | 2021-05-07 | 杜比实验室特许公司 | 音频源分离 |
JP6859235B2 (ja) * | 2017-09-07 | 2021-04-14 | 本田技研工業株式会社 | 音響処理装置、音響処理方法及びプログラム |
US10089994B1 (en) * | 2018-01-15 | 2018-10-02 | Alex Radzishevsky | Acoustic fingerprint extraction and matching |
FR3081641A1 (fr) * | 2018-06-13 | 2019-11-29 | Orange | Localisation de sources sonores dans un environnement acoustique donne. |
CN108877831B (zh) * | 2018-08-28 | 2020-05-15 | 山东大学 | 基于多标准融合频点筛选的盲源分离快速方法及系统 |
CN110111808B (zh) * | 2019-04-30 | 2021-06-15 | 华为技术有限公司 | 音频信号处理方法及相关产品 |
-
2019
- 2019-04-30 CN CN201910369726.5A patent/CN110111808B/zh active Active
-
2020
- 2020-04-21 EP EP20799277.7A patent/EP3944238B1/en active Active
- 2020-04-21 WO PCT/CN2020/085800 patent/WO2020221059A1/zh unknown
- 2020-04-21 US US17/605,121 patent/US20220199099A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101622669A (zh) * | 2007-02-26 | 2010-01-06 | 高通股份有限公司 | 用于信号分离的系统、方法及设备 |
CN107919133A (zh) * | 2016-10-09 | 2018-04-17 | 赛谛听股份有限公司 | 针对目标对象的语音增强系统及语音增强方法 |
CN108630222A (zh) * | 2017-03-21 | 2018-10-09 | 株式会社东芝 | 信号处理系统、信号处理方法以及信号处理程序 |
CN108630206A (zh) * | 2017-03-21 | 2018-10-09 | 株式会社东芝 | 信号处理装置以及信号处理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110111808A (zh) | 2019-08-09 |
EP3944238A4 (en) | 2022-05-04 |
WO2020221059A1 (zh) | 2020-11-05 |
EP3944238B1 (en) | 2023-11-15 |
US20220199099A1 (en) | 2022-06-23 |
EP3944238A1 (en) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110111808B (zh) | 音频信号处理方法及相关产品 | |
Czyzewski et al. | An audio-visual corpus for multimodal automatic speech recognition | |
Gao et al. | 2.5 d visual sound | |
CN112088402B (zh) | 用于说话者识别的联合神经网络 | |
Barker et al. | The third ‘CHiME’speech separation and recognition challenge: Analysis and outcomes | |
CN110517689B (zh) | 一种语音数据处理方法、装置及存储介质 | |
CN106297776B (zh) | 一种基于音频模板的语音关键词检索方法 | |
JP4565162B2 (ja) | 発話イベント分離方法、発話イベント分離システム、及び、発話イベント分離プログラム | |
KR20060090687A (ko) | 시청각 콘텐츠 합성을 위한 시스템 및 방법 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
Gillick et al. | Robust Laughter Detection in Noisy Environments. | |
WO2021196802A1 (zh) | 多模态语音识别模型训练方法、装置、设备及存储介质 | |
CN110858476B (zh) | 一种基于麦克风阵列的声音采集方法及装置 | |
CN110717067B (zh) | 视频中音频聚类的处理方法和装置 | |
CN107680584B (zh) | 用于切分音频的方法和装置 | |
WO2022062800A1 (zh) | 语音分离方法、电子设备、芯片及计算机可读存储介质 | |
JP2018063313A (ja) | 話者数推定装置、話者数推定方法、およびプログラム | |
US20240160849A1 (en) | Speaker diarization supporting episodical content | |
CN112201262A (zh) | 一种声音处理方法及装置 | |
CN113593601A (zh) | 基于深度学习的视听多模态语音分离方法 | |
WO2020195924A1 (ja) | 信号処理装置および方法、並びにプログラム | |
Li et al. | A visual-pilot deep fusion for target speech separation in multitalker noisy environment | |
CN114495946A (zh) | 声纹聚类方法、电子设备和存储介质 | |
CN113889081A (zh) | 语音识别方法、介质、装置和计算设备 | |
JP2013235050A (ja) | 情報処理装置及び方法、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |