CN111524536A - 信号处理方法和信息处理设备 - Google Patents
信号处理方法和信息处理设备 Download PDFInfo
- Publication number
- CN111524536A CN111524536A CN201910104232.4A CN201910104232A CN111524536A CN 111524536 A CN111524536 A CN 111524536A CN 201910104232 A CN201910104232 A CN 201910104232A CN 111524536 A CN111524536 A CN 111524536A
- Authority
- CN
- China
- Prior art keywords
- sub
- classification
- signal
- band
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 55
- 230000010365 information processing Effects 0.000 title claims abstract description 33
- 238000013145 classification model Methods 0.000 claims abstract description 107
- 238000012549 training Methods 0.000 claims abstract description 51
- 230000005236 sound signal Effects 0.000 claims abstract description 42
- 230000005284 excitation Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000001514 detection method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000030808 detection of mechanical stimulus involved in sensory perception of sound Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了信号处理方法和信息处理设备。信息处理设备包括处理器,所述处理器被配置为:对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;将所获得的子带信号输入到预先训练好的分类模型中;以及利用分类模型确定声音信号中所包括的声音事件的类别,其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
Description
技术领域
本公开总体上涉及信号处理领域,具体而言,涉及用于声音事件检测的信号处理方法以及能够实现该信号处理方法的信息处理设备。
背景技术
声音承载了大量的日常生活环境里各种不同事件的信息。我们可以通过声音来感知所处的场景(如喧闹的街道、办公室等)和/或辨认出一些特定的事件(如行人的脚步、汽车开过等),上述场景和事件的辨认可以统称为声音事件检测。
声音事件的自动检测在现实中可以有很多应用。举例而言,声音事件检测可以用于智能设备、智能机器人、环境感知、以及监控系统等应用或场景中。
目前,声音事件检测一般通过分类算法实现。然而,现有的用于声音事件分类的算法对于待检测场景复杂(例如,存在多个待识别的声音事件类别)的情况下检测的准确度较低。因此,期望提供一种能够在复杂场景下仍准确检测声音事件的方法或设备。
发明内容
在下文中给出了关于本发明的简要概述,以便提供关于本发明的某些方面的基本理解。应当理解,这个概述并不是关于本发明的穷举性概述。它并不是意图确定本发明的关键或重要部分,也不是意图限定本发明的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于对现有的声音事件检测方法进行改进的需求,本发明的目的之一是提供一种信号处理方法以及能够实现该信号处理方法的信息处理设备,其能够在复杂场景下仍准确地检测声音事件。
根据本公开的一个方面,提供了一种信号处理方法,其包括:对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;将所获得的子带信号输入到预先训练好的分类模型中;以及利用分类模型确定声音信号中所包括的声音事件的类别,其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
根据本公开的另一方面,提供了一种信息处理设备,其包括处理器,所述处理器被配置为:对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;将所获得的子带信号输入到预先训练好的分类模型中;以及利用分类模型确定声音信号中所包括的声音事件的类别,其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
依据本公开的其它方面,还提供了一种使得计算机实现如上所述的信号处理方法的程序。
依据本公开的又一方面,还提供了相应的存储介质,其存储有机器可读取的指令代码,所述指令代码在由机器读取并执行时,能够使得机器执行上述信号处理方法。
上述根据本公开实施例的各个方面,至少能够获得以下益处:利用本公开所提供的信号处理方法、信息处理设备、程序和存储介质,可以根据频域子带对声音事件分类的影响而针对各个子带将声音信号的频域特征进行增强,从而基于增强特征得到更准确的分类结果。
通过以下结合附图对本公开的最佳实施例的详细说明,本公开的这些以及其他优点将更加明显。
附图说明
本公开可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本公开的优选实施例和解释本公开的原理和优点。其中:
图1是示意性地示出根据本公开实施例的信号处理方法的示例流程的流程图。
图2是用于说明图1的信号处理方法中执行的示例处理的说明图。
图3是示意性地示出图1的信号处理方法中所应用的分类模型的示意图。
图4是示意性地示出根据本公开实施例的信号处理方法的另一个示例流程的流程图。
图5是示意性地示出图4的信号处理方法中所应用的分类模型的示意图。
图6是示意性地示出根据本公开实施例的信号处理设备的一个示例结构的示意性框图。
图7是示意性地示出根据本公开实施例的信号处理设备的另一个示例结构的示意性框图。
图8是示出了可用来实现根据本公开实施例的信号处理方法和设备的一种可能的硬件配置的结构简图。
具体实施方式
在下文中将结合附图对本发明的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的装置结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
根据本公开的一个方面,提供了一种信号处理方法。图1是示意性地示出根据本公开实施例的信号处理方法100的示例流程的流程图。
如图1所示,信号处理方法100可以包括:子带划分步骤S101,对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;子带信号输入步骤S103,将所获得的子带信号输入到预先训练好的分类模型中;以及声音事件分类步骤S105,利用分类模型确定声音信号中所包括的声音事件的类别。在本实施例的信号处理方法中,所采用的分类模型包括分别与各个子带相对应的多个子带模型,其中,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果。相应地,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
作为示例,本实施例的信号处理方法所处理的声音事件/场景的类别例如可以包括成年男性说话、成年女性说话、儿童说话、街道场景、办公室场景、行人走过、货车开过、自行车经过,等等。
发明人发现,不同声音场景或事件中涉及的不同对象发出的声音都有各自对应的频率。例如,女性说话时声音的频率通常比男性更高;诸如装满货物的卡车的大物体驶过导致震动发声的频率会比诸如自行车的小物体低;蝙蝠可以发出频率超过20000Hz的超声波,而地震时会产生低于20Hz的次声波,等等。
因此,在本实施例的信处理方法中,针对不同的频域子带对声音信号的频域特征进行增强。具体地,利用根据通过训练获得的、频域子带对声音事件分类的影响而对所输入的子带信号(其可被视为声音信号的频域特征)施加权重以进行增强,从而可以基于增强的子带信号得到准确的分类结果。
以下将结合图2和图3描述图1的信息处理方法中执行的示例处理,其中,图2是用于说明图1的信号处理方法中的子带划分步骤中的示例处理的说明图,图3是示出图1的信号处理方法中所采用的分类模型的示意结构的示意图。
作为示例,在本实施例中,根据声音信号获得的时频域信号可以包括语谱图。如图2所示,以时域的声音信号xt(0≤t≤T,T为声音信号的时长)为例,通过本领域的一系列已知变换可以得到该信号的语谱图ui,j,其中,0≤i≤I,0≤j≤J,I为语谱图的宽度并且对应于声音信号的时长,J为语谱图的高度并且对应于声音信号的整个频率范围,ui,j为时间i处、频率j处的频域信号的值(例如,通过短时傅里叶变换等方式获得的功率谱密度等)。
对于具有上述形式的语谱图ui,j,在子带划分步骤S101中,可以如图2下方所示,将其按照频率方向上的N个子带进行划分,以获得N个子带信号 其中,N为大于1的自然数,J1,…,JN-2,JN-1,JN为各个子带的边界处的频率。
优选地,诸如N个子带的多个子带可以是在频率方向上均匀划分的。N的取值越大、子带划分越细,则能够越精确地针对每个子带信号施加表示频域子带对声音事件分类的影响的权重。本领域技术人员可以理解,在具体应用时,可以综合考虑处理速度和系统性能等因素的平衡而选择N的适当数目。
替选地,诸如N个子带的多个子带也可以是在频率方向上根据对声音事件的频率的先验知识来划分的。例如,可以根据要检测声音事件的场景所包括的各个声音事件各自的频率范围,对根据声音信号获得的时频域信号按照频率方向上的多个子带进行初步划分,使得每个子带尽量对应于可能检测到一个声音事件的频率范围。
图3示出了分类模型的示意结构,该分类模型例如可以包括基于卷积神经网络的模型。如图3所示,分类模型可以包括分别与各个子带相对应的多个子带模型M1,M2,…,MN,其中,每个子带模型可以各自利用包括若干个卷积层和池化层等卷积神经网络的一般结构的简单神经网络实现。由于本实施例中采用了诸如语谱图形式的时频域信号,因此,作为示例,每个子带模型可以采用用于图像处理的基于卷积神经网络的分类器,以类似于对图像信号分类的方式对语谱图形式的时域信号进行分类。相较于现有技术中一般用于处理音频信号的贝叶斯分类器等,本优选实施例中采用的基于卷积神经网络的分类器更有利于处理数目较多的类别,从而能够在复杂的声音场景检测中改进分类的准确度。
如图3左侧所示,各个子带模型M1,M2,…,MN根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号 施加权重s1,s2…,sN,以通过下述公式(1)获得被施加权重后的第c个子带信号:
其中,1≤c≤N表示子带的编号。
在一个优选实施例中,可以利用激励函数获得公式(1)中的权重sc。即,每个子带模型Mc可以利用通过训练获得的激励函数fexc来表示相对应的子带c对声音事件分类的影响,其中,激励函数fexc的输入为相对应的子带信号的强度Zc,激励函数的输出为该子带信号的权重sc。激励函数fexc本身例如可以是参数矩阵的形式或简单的神经网络的形式,并且其具体参数可以在训练分类模型时一并获得。
作为示例,可以将子带信号的所有信息在频率方向上以及在时间方向上的累积结果表示该子带信号的强度。例如,每个子带c的子带强度Zc可以通过下述公式(2)获得:
利用上述公式(2)所示的子带强度Zc、以及通过训练获得的激励函数fexc,可以获得每个子带的激励权重sc=fexc(Zc)。通过所获得的权重s1…,s2…,sN应用于公式(1),可以获得施加权重后的子带信号 并输入用于分类的子带模型。由于各个子带模型所输入的子带信号通过施加权重而进行了特征加强,因此可以通过分类模型获得改进的分类结果。
如图3右侧所示,根据施加权重后的子带信号各个子带模型M1,M2,…,MN各自输出关于声音事件的初步分类结果Class1,Class2,…,ClassN,并且分类模型可以据此输出最终分类结果Class。作为示例,利用卷积神经网络实现的分类模型所获得的各个初步分类结果以及最终分类结果可以是表示声音事件属于各个预定事件类别的概率的一维向量。例如,子带模型Mc的初步分类结果Classc={pc 1,pc 2,….,pc K},其中,pc 1,pc 2,….,pc K分别表示所输入的子带信号属于预先设置的K个类别中的每个类别的概率。
举例而言,可以通过将各个初步分类结果加权以获得最终的分类结果,如下述公式(3)所示。
Class=w1Class1+w2Class2+…+wNClassN…公式(3)
公式(3)使用的各个权重系数w1w2,…,wN可以在训练分类模型时一并获得。稍后将会描述用于训练分类模型的示例方式。这里,通过各个初步分类结果经由加权等方式获得最终的分类结果的处理例如可以通过卷积神经网络模型的全连接层实现。
如上所述,最终分类结果Class也可以具有与初步分类结果Classc类似的表示声音事件属于各个预定事件类别的概率的一维向量形式。相应地,例如可以在最终分类结果的各个概率中将概率大于预定阈值的那个事件类别作为对输入信号分类的最终类别。另外,可以在最终分类结果Class中的各个概率均小于预定阈值时,将输入的信号识别为噪声或未知类别。
以上参照图1至图3描述了根据本公开实施例的信号处理方法的一个示例流程。利用本实施例的信号处理方法,可以根据频域子带对声音事件分类的影响而针对各个子带将声音信号的频域特征进行增强,从而基于增强特征得到更准确的分类结果。
接下来,将简单描述如图3所示的分类模型的训练过程。本领域技术人员可以理解,分类模型的训练与其应用过程是一一对应的,因此,此处仅就二者的区别进行必要描述。
作为示例,可以利用预先标记好声音事件的类别的训练声音数据的时频域信号,通过训练获得分类模型。例如,L个训练声音数据的时频域信号可以分别采用与根据待分类的声音信号获得的语谱图ui,j具有类似形式的语谱图vl i,j,其中,1≤l≤L表示训练数据的序号,L为训练数据的总个数,并且每个训练数据已经标记好各自的声音事件的类别Labell。
可以通过与以上参照图1至图3描述的处理类似的方式,将训练声音数据的语谱图vl i,j按照频率方向上的N个子带进行划分,以获得与N个子带对应的训练子带信号,vl i,j1(0≤i≤I,0≤j1≤J1),…,vl i,jn-2(0≤i≤I,0≤jn-2≤JN-2),vl i,jn-1(0≤i≤I,0≤jn-1≤JN-1),vl i,jn(0≤i≤I,0≤jn≤JN),其中,N为大于1的自然数,J1,…,JN-2,JN-1,JN为各个子带的边界处的频率。
优选地,诸如N个子带的多个子带可以是在频率方向上均匀划分的。替选地,诸如N个子带的多个子带也可以是在频率方向上根据对声音事件的频率的先验知识来划分的。本领域技术人员可以理解,应用于训练声音数据的子带划分与应用于待分类声音数据的子带划分是一致的。
接下来,将所获得的训练声音数据的子带信号vl i,j1,…,vl i,jn-2,vl i,jn-1,vl i,jn输入到分类模型中,并且利用分类模型确定声音信号中所包括的声音事件的类别,通过使得分类模型确定的类别与真实类别之间的差异最小化而获得分类模型的各个参数,包括用于对子带信号施加权重的激励函数的参数以及各个子带模型的初步分类结果的权重等。
更具体地,在要训练的分类模型中,每个子带模型Mc利用激励函数fexc来表示相对应的子带c对声音事件分类的影响,其中,激励函数fexc的输入为相对应的训练子带信号vl i,jc的强度Zl c(例如通过与公式(2)类似的方式获得),输出为该训练子带信号的权重sl c,从而以与公式(1)类似的方式获得施加权重之后的训练子带信号
根据上述施加权重后的训练子带信号vl i,jc,各个子带模型M1,M2,…,MN各自输出关于声音事件的初步分类结果Classl 1,Classl 2,…,Classl N,并且分类模型可以通过与公式(3)类似的方式输出最终分类结果Classl=w1Classl 1+w2Classl 2+…+wNClassl N。
对于共L个训练数据,可以基于L个最终分类结果Classl(1≤l≤L)与这些数据的分类标签Labell之间的差异构建损失函数,并且通过使得该损失函数获得最小值而得到分类模型中的各个参数,包括激励函数fexc中的具体参数以及公式(3)中的各个权重w1,w2,…,wN等。在本公开内容的基础上,本领域技术人员可以通过各种适当方式构建上述损失函数并获得模型中的参数的优选值,在此不再赘述。
接下来,将参照图4和图5描述根据本公开实施例的信号处理方法的另一个示例流程,其中,图4是示意性地示出信号处理方法的该示例流程的流程图,图5是示意性地示出图4的信号处理方法中所应用的分类模型的示意图。
如图4所示,本实施例的信号处理方法400与图1的信号处理方法100的区别在于,除了与图1中的步骤S101至S105分别对应的子带划分单元步骤S401、子带信号输入步骤S403、声音事件分类步骤S405之外还另外地包括整体信号输入步骤S404,用于将根据声音信号获得的时频域信号整体输入到分类模型中。如图5所示,本实施例中所采用的分类模型与图3所示的分类模型的区别在于,还另外地包括与整体的时频域信号相对应的整体模型M0,该整体模型M0根据整体输入的时频域信号ui,j输出关于声音事件的初步分类结果Class0,并且分类模型根据多个子带模型M1,M2,…,MN的初步分类结果Class1,Class2,…,ClassN以及整体模型M0的初步分类结果Class0输出关于声音事件的最终分类结果Class’。通过在分类模型中增加整体模型,本实施例可以在进行子带特征增强的同时很好地保留各个子带之间的互相关信息,从而进一步改进分类模型的分类准确度。
除了上述区别之外,本实施例的图像处理方法400中的其余步骤与S401、S403、S405与图2的图像处理方法100的相应步骤S101、S103、S105基本相同或类似,并且所采用的图5的分类模型中的各个子带模型与图3中的相应子带模型基本相同。因此,以下将在参照图1至图3描述的实施例的基础上,主要描述本实施例的不同之处,并省略对共同之处的描述。
作为示例,本实施例中采用的整体模型M0可以与子带模型M1,M2,…,MN类似地利用包括若干个卷积层和池化层等卷积神经网络的一般结构的简单神经网络实现。换言之,用于处理诸如整体未经划分的语谱图形式的整体时频域信号的整体模型可以采用用于图像处理的基于卷积神经网络的分类器,以类似于对图像信号分类的方式对语谱图形式的时域信号进行分类。如图5所示,整体模型M0与子带模型M1,M2,…,MN的区别在于,其可以直接基于未经加权的语谱图输出初步分类结果Class0。
在诸如图5所示的分类模型中,可以利用下述公式(4)获得最终分类结果:
Class’=w1Class1+w2Class2+…+wNClassN+w0Class0…公式(4)
在公式(4)中,相对于公式(3)增加了整体模型M0的初步分类结果Class0及相应的权重系数w0。
对于诸如图5所示的分类模型,可以采用与图3所示的分类模型类似的训练方式,即,通过共同训练获得包括整体模型M0与子带模型M1,M2,…,MN的整个分类模型中的各个参数。
作为替选,可以利用下述公式(5)获得最终分类结果:
Class”=Class+λClass0…公式(5)
其中,Class为参照图3描述的公式(3)获得的分类结果,即最终分类结果如下公式(6)所示:
Class”=w1Class1+w2Class2+…+wNClassN+λClass0…公式(6)
对于此替选方式,可以一方面单独以参照图3描述的方式单独训练不包括整体模型M0的模型部分,另一方面单独训练整体模型M0。最后,可以将两个部分各自的输出结果进行融合,并通过训练获得整体模型M0此时的权重系数λ(即,整体模型M0相对于分类模型中不包括整体模型M0的模型部分的权重系数),在此不再赘述。
以上参照图4至图5描述了根据本公开实施例的信号处理方法的另一个示例流程。利用本实施例的信号处理方法,通过在分类模型中增加整体模型,可以在进行子带特征增强的同时很好地保留各个子带之间的互相关信息,从而进一步改进分类模型的分类准确度。
根据根本公开的另一方面,提供了一种信号处理设备。图6是示意性地示出根据本公开实施例的信号处理设备的一个示例结构的示意性框图。
如图6所示,信号处理设备600可以包括:子带划分单元601,对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;子带信号输入单元603,将所获得的子带信号输入到预先训练好的分类模型中;以及声音事件分类单元605,利用分类模型确定声音信号中所包括的声音事件的类别。在本实施例的信号处理设备中,所采用的分类模型包括分别与各个子带相对应的多个子带模型,其中,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果。相应地,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
上述信号处理设备及其各个单元例如可以进行以上参照图1至图3描述的信号处理方法及其各个步骤的操作和/或处理并实现类似的效果,在此不再进行重复说明。
图7是示意性地示出根据本公开实施例的信号处理设备的另一个示例结构的示意性框图。
如图7所示,本实施例的信号处理设备700与图6的信号处理设备600的区别在于,除了与图6中的单元601至605分别对应的子带划分单元701、子带信号输入单元703、声音事件分类单元705之外,还另外地包括整体信号输入单元704,用于将根据声音信号获得的时频域信号整体输入到分类模型中。相应地,在本实施例中所采用的分类模型中,还另外地包括与整体的时频域信号相对应的整体模型,该整体模型根据整体输入的时频域信号输出关于声音事件的初步分类结果,并且分类模型根据多个子带模型的初步分类结果以及整体模型的初步分类结果输出关于声音事件的最终分类结果。
上述信号处理设备及其各个单元例如可以进行以上参照图4至图5描述的信号处理方法及其各个步骤的操作和/或处理并实现类似的效果,在此不再进行重复说明。
根据根本公开的又一方面,提供了一种信息处理设备。该信息处理设备可以实现根据本公开实施例的信号处理方法,其可以包括处理器,该处理器被配置为:对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;将所获得的子带信号输入到预先训练好的分类模型中;以及利用分类模型确定声音信号中所包括的声音事件的类别,其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
信息处理设备的处理器例如可以被配置为进行以上参照图1至图7描述的信号处理方法及其各个步骤的操作和/或处理并实现类似的效果,在此不再进行重复说明。
作为示例,根据声音信号获得的时频域信号可以包括语谱图。
优选地,每个子带模型利用通过训练获得的激励函数表示相对应的子带对声音事件分类的影响,其中,所述激励函数的输入为相对应的子带信号的强度,所述激励函数的输出为该子带信号的权重。
优选地,多个子带是在频率方向上均匀划分的。
替选地,多个子带是在频率方向上根据对声音事件的频率的先验知识来划分的。
作为示例,在分类模型中,各个初步分类结果被加权以获得最终的分类结果。
作为示例,分类模型可以包括基于卷积神经网络的模型。
作为示例,可以利用预先标记好声音事件的类别的训练声音数据的时频域信号,通过训练获得分类模型。
在一个优选实施例中,该处理器可以进一步被配置为将根据声音信号获得的时频域信号整体输入到所述分类模型中,其中,所述分类模型还包括与整体的时频域信号相对应的整体模型,该整体模型根据整体输入的时频域信号输出关于声音事件的初步分类结果,并且所述分类模型根据多个子带模型的初步分类结果以及整体模型的初步分类结果输出关于声音事件的最终分类结果。
图8是示出了可用来实现根据本公开实施例的信号处理方法和设备以及信息处理设备的一种可能的硬件配置800的结构简图。
在图8中,中央处理单元(CPU)801根据只读存储器(ROM)802中存储的程序或从存储部分808加载到随机存取存储器(RAM)803的程序执行各种处理。在RAM 803中,还根据需要存储当CPU 801执行各种处理等等时所需的数据。CPU 801、ROM 802和RAM 803经由总线804彼此连接。输入/输出接口805也连接到总线804。
下述部件也连接到输入/输出接口805:输入部分806(包括键盘、鼠标等等)、输出部分807(包括显示器,例如阴极射线管(CRT)、液晶显示器(LCD)等,和扬声器等)、存储部分808(包括硬盘等)、通信部分809(包括网络接口卡例如LAN卡、调制解调器等)。通信部分809经由网络例如因特网执行通信处理。根据需要,驱动器810也可连接到输入/输出接口805。可拆卸介质811例如磁盘、光盘、磁光盘、半导体存储器等等可以根据需要被安装在驱动器810上,使得从中读出的计算机程序可根据需要被安装到存储部分808中。
此外,本公开还提出了一种存储有机器可读取的指令代码的程序产品。上述指令代码由机器读取并执行时,可执行上述根据本公开实施例的信号处理方法。相应地,用于承载这种程序产品的例如磁盘、光盘、磁光盘、半导体存储器等的各种存储介质也包括在本公开的公开中。
即,本公开还提出了一种存储介质,其存储有机器可读取的指令代码,所述指令代码在由机器读取并执行时,能够使得机器执行上述根据本公开实施例的信号处理方法。所述指令代码包括指令代码部分,用于进行下述操作:随机生成由预定素材集中的元素构成的认证序列;提示被测用户以语音方式输入认证序列,得到待认证语音序列;从待认证语音序列中提取语音特征;以及将所提取的语音特征输入到判别模型,以判断被测用户是否为特定注册用户,其中,判别模型基于从注册模型库中选择的、分别与认证序列的各个元素相对应的多个注册语音模型,其中,注册模型库包括分别与预定素材集中的各个元素相对应的注册语音模型,每个元素的注册语音模型是基于从特定用户对该元素的相应语音输入中提取的语音特征而单独预先训练得到的。
上述存储介质例如可以包括但不限于磁盘、光盘、磁光盘、半导体存储器等。
在上面对本公开具体实施例的描述中,针对一种实施方式描述和/或示出的特征可以以相同或类似的方式在一个或更多个其它实施方式中使用,与其它实施方式中的特征相组合,或替代其它实施方式中的特征。
此外,本公开的各实施例的方法不限于按照说明书中描述的或者附图中示出的时间顺序来执行,也可以按照其他的时间顺序、并行地或独立地执行。因此,本说明书中描述的方法的执行顺序不对本公开的技术范围构成限制。
此外,显然,根据本公开的上述方法的各个操作过程也可以以存储在各种机器可读的存储介质中的计算机可执行程序的方式实现。
而且,本公开的目的也可以通过下述方式实现:将存储有上述可执行程序代码的存储介质直接或者间接地提供给系统或设备,并且该系统或设备中的计算机或者中央处理单元(CPU)读出并执行上述程序代码。
此时,只要该系统或者设备具有执行程序的功能,则本公开的实施方式不局限于程序,并且该程序也可以是任意的形式,例如,目标程序、解释器执行的程序或者提供给操作系统的脚本程序等。
上述这些机器可读存储介质包括但不限于:各种存储器和存储单元,半导体设备,磁盘单元例如光、磁和磁光盘,以及其它适于存储信息的介质等。
另外,客户信息处理终端通过连接到因特网上的相应网站,并且将依据本公开的计算机程序代码下载和安装到信息处理终端中然后执行该程序,也可以实现本公开的各实施例。
综上,根据本公开实施例,本公开提供了如下方案,但不限于此:
方案1.一种信息处理设备,包括:
处理器,被配置为:
对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;
将所获得的子带信号输入到预先训练好的分类模型中;以及
利用分类模型确定声音信号中所包括的声音事件的类别,
其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及
其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
方案2.如方案1所述的信息处理设备,其中,
根据声音信号获得的时频域信号包括语谱图。
方案3.如方案1或2所述的信息处理设备,其中,
每个子带模型利用通过训练获得的激励函数表示相对应的子带对声音事件分类的影响,其中,激励函数的输入为相对应的子带信号的强度,激励函数的输出为该子带信号的权重。
方案4.如方案1或2所述的信息处理设备,其中,
处理器进一步被配置为:将根据声音信号获得的时频域信号整体输入到分类模型中,
其中,分类模型还包括与整体的时频域信号相对应的整体模型,该整体模型根据整体输入的时频域信号输出关于声音事件的初步分类结果,并且所述分类模型根据多个子带模型的初步分类结果以及整体模型的初步分类结果输出关于声音事件的最终分类结果。
方案5.如方案1或2所述的信息处理设备,其中,
多个子带是在频率方向上均匀划分的。
方案6.如方案1或2所述的信息处理设备,其中,
多个子带是在频率方向上根据对声音事件的频率的先验知识来划分的。
方案7.如方案1或4所述的信息处理设备,其中,
在分类模型中,各个初步分类结果被加权以获得最终的分类结果。
方案8.如方案1或2所述的信息处理设备,其中,
分类模型包括基于卷积神经网络的模型。
方案9.如方案1或2所述的信息处理设备,其中,
利用预先标记好声音事件的类别的训练声音数据的时频域信号,通过训练获得分类模型。
方案10.一种信号处理方法,包括:
对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;
将所获得的子带信号输入到预先训练好的分类模型中;以及
利用分类模型确定声音信号中所包括的声音事件的类别,
其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及
其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
方案11.如方案10所述的信号处理方法,其中,
根据声音信号获得的时频域信号包括语谱图。
方案12.如方案10或11所述的信号处理方法,其中,每个子带模型利用通过训练获得的激励函数表示相对应的子带对声音事件分类的影响,其中,激励函数的输入为相对应的子带信号的强度,激励函数的输出为该子带信号的权重。
方案13.如方案10或11所述的信号处理方法,还包括:
将根据声音信号获得的时频域信号整体输入到分类模型中,
其中,分类模型还包括与整体的时频域信号相对应的整体模型,该整体模型根据整体输入的时频域信号输出关于声音事件的初步分类结果,并且分类模型根据多个子带模型的初步分类结果以及整体模型的初步分类结果输出关于声音事件的最终分类结果。
方案14.如方案10或11所述的信号处理方法,其中,
多个子带是在频率方向上均匀划分的。
方案15.如方案10或11所述的信号处理方法,其中,
多个子带是在频率方向上根据对声音事件的频率的先验知识来划分的。
方案16.如方案10或13所述的信号处理方法,其中,
在分类模型中,各个初步分类结果被加权以获得最终的分类结果。
方案17.如方案10或11所述的信号处理方法,其中,
分类模型包括基于卷积神经网络的模型。
方案18.如方案10或11所述的信号处理方法,其中,
利用预先标记好声音事件的类别的训练声音数据的时频域信号,通过训练获得分类模型。
方案19.一种存储介质,其存储有机器可读取的指令代码,所述指令代码在由机器读取并执行时,能够使得机器执行一种信号处理方法,所述信号处理方法包括:
对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;
将所获得的子带信号输入到预先训练好的分类模型中;以及
利用分类模型确定声音信号中所包括的声音事件的类别,
其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及
其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
最后,还需要说明的是,在本公开中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备可能不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
尽管上面已经通过本公开的具体实施例的描述对本公开进行了披露,但是,应该理解,本领域技术人员可在所附权利要求的精神和范围内设计对本公开的各种修改、改进或者等同物。这些修改、改进或者等同物也应当被认为包括在本公开所要求保护的范围内。
Claims (10)
1.一种信息处理设备,包括:
处理器,被配置为:
对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;
将所获得的子带信号输入到预先训练好的分类模型中;以及
利用分类模型确定声音信号中所包括的声音事件的类别,
其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及
其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
2.如权利要求1所述的信息处理设备,其中,
根据声音信号获得的时频域信号包括语谱图。
3.如权利要求1或2所述的信息处理设备,其中,
每个子带模型利用通过训练获得的激励函数表示相对应的子带对声音事件分类的影响,其中,激励函数的输入为相对应的子带信号的强度,激励函数的输出为该子带信号的权重。
4.如权利要求1或2所述的信息处理设备,其中,
处理器进一步被配置为:将根据声音信号获得的时频域信号整体输入到分类模型中,
其中,分类模型还包括与整体的时频域信号相对应的整体模型,该整体模型根据整体输入的时频域信号输出关于声音事件的初步分类结果,并且所述分类模型根据多个子带模型的初步分类结果以及整体模型的初步分类结果输出关于声音事件的最终分类结果。
5.如权利要求1或2所述的信息处理设备,其中,
多个子带是在频率方向上均匀划分的。
6.如权利要求1或2所述的信息处理设备,其中,
多个子带是在频率方向上根据对声音事件的频率的先验知识来划分的。
7.如权利要求1或2所述的信息处理设备,其中,
在分类模型中,各个初步分类结果被加权以获得最终的分类结果。
8.如权利要求1或2所述的信息处理设备,其中,
分类模型包括基于卷积神经网络的模型。
9.如权利要求1或2所述的信息处理设备,其中,
利用预先标记好声音事件的类别的训练声音数据的时频域信号,通过训练获得分类模型。
10.一种信号处理方法,包括:
对根据声音信号获得的时频域信号按照频率方向上的多个子带进行划分,以获得与各个子带对应的子带信号;
将所获得的子带信号输入到预先训练好的分类模型中;以及
利用分类模型确定声音信号中所包括的声音事件的类别,
其中,分类模型包括分别与各个子带相对应的多个子带模型,每个子带模型根据通过训练获得的、相对应的子带对声音事件分类的影响而对所输入的子带信号施加权重,并根据被施加权重后的子带信号输出关于声音事件的初步分类结果,以及
其中,分类模型根据多个子带模型的初步分类结果输出关于声音事件的最终分类结果。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910104232.4A CN111524536B (zh) | 2019-02-01 | 2019-02-01 | 信号处理方法和信息处理设备 |
JP2019232912A JP7283375B2 (ja) | 2019-02-01 | 2019-12-24 | 信号処理方法及び情報処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910104232.4A CN111524536B (zh) | 2019-02-01 | 2019-02-01 | 信号处理方法和信息处理设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111524536A true CN111524536A (zh) | 2020-08-11 |
CN111524536B CN111524536B (zh) | 2023-09-08 |
Family
ID=71900528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910104232.4A Active CN111524536B (zh) | 2019-02-01 | 2019-02-01 | 信号处理方法和信息处理设备 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7283375B2 (zh) |
CN (1) | CN111524536B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114501353A (zh) * | 2020-10-23 | 2022-05-13 | 维沃移动通信有限公司 | 通信信息的发送、接收方法及通信设备 |
WO2023226572A1 (zh) * | 2022-05-25 | 2023-11-30 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040165730A1 (en) * | 2001-04-13 | 2004-08-26 | Crockett Brett G | Segmenting audio signals into auditory events |
US7353169B1 (en) * | 2003-06-24 | 2008-04-01 | Creative Technology Ltd. | Transient detection and modification in audio signals |
US7409374B1 (en) * | 2004-12-06 | 2008-08-05 | The United States Of America As Represented By The Secretary Of The Army | Explosive event discrimination method |
US20100260466A1 (en) * | 2009-04-13 | 2010-10-14 | Texas Instruments Incorporated | Low Complexity Event Detection For Video Programs |
US20120016677A1 (en) * | 2009-03-27 | 2012-01-19 | Huawei Technologies Co., Ltd. | Method and device for audio signal classification |
US20120143363A1 (en) * | 2010-12-06 | 2012-06-07 | Institute of Acoustics, Chinese Academy of Scienc. | Audio event detection method and apparatus |
CN102799899A (zh) * | 2012-06-29 | 2012-11-28 | 北京理工大学 | 基于svm和gmm的特定音频事件分层泛化识别方法 |
US20140270241A1 (en) * | 2013-03-15 | 2014-09-18 | CSR Technology, Inc | Method, apparatus, and manufacture for two-microphone array speech enhancement for an automotive environment |
CN104916289A (zh) * | 2015-06-12 | 2015-09-16 | 哈尔滨工业大学 | 行车噪声环境下快速声学事件的检测方法 |
US20160150338A1 (en) * | 2013-06-05 | 2016-05-26 | Samsung Electronics Co., Ltd. | Sound event detecting apparatus and operation method thereof |
US20160335488A1 (en) * | 2015-05-15 | 2016-11-17 | Google Inc. | Sound event detection |
US20170323653A1 (en) * | 2016-05-06 | 2017-11-09 | Robert Bosch Gmbh | Speech Enhancement and Audio Event Detection for an Environment with Non-Stationary Noise |
WO2017217396A1 (ja) * | 2016-06-16 | 2017-12-21 | 日本電気株式会社 | 信号処理装置、信号処理方法およびコンピュータ読み取り可能記録媒体 |
CN107545890A (zh) * | 2017-08-31 | 2018-01-05 | 桂林电子科技大学 | 一种声音事件识别方法 |
US20180176682A1 (en) * | 2015-03-25 | 2018-06-21 | Dolby Laboratories Licensing Corporation | Sub-Band Mixing of Multiple Microphones |
CN108694953A (zh) * | 2017-04-07 | 2018-10-23 | 南京理工大学 | 一种基于Mel子带参数化特征的鸟鸣自动识别方法 |
KR20180122171A (ko) * | 2017-05-02 | 2018-11-12 | 서강대학교산학협력단 | 심층 신경망을 기반으로 한 사운드 이벤트 검출 방법 및 사운드 이벤트 검출 장치 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000267699A (ja) | 1999-03-19 | 2000-09-29 | Nippon Telegr & Teleph Corp <Ntt> | 音響信号符号化方法および装置、そのプログラム記録媒体、および音響信号復号装置 |
CN100592386C (zh) | 2004-07-01 | 2010-02-24 | 日本电信电话株式会社 | 特定音响信号含有区间检测系统及其方法 |
EP2089877B1 (en) | 2006-11-16 | 2010-04-07 | International Business Machines Corporation | Voice activity detection system and method |
DE202013101705U1 (de) | 2013-04-22 | 2013-05-03 | Dehn + Söhne Gmbh + Co. Kg | Schaltungsanordnung zum Überspannungsschutz in Gleichstrom-Versorgungskreisen |
WO2017117234A1 (en) | 2016-01-03 | 2017-07-06 | Gracenote, Inc. | Responding to remote media classification queries using classifier models and context parameters |
-
2019
- 2019-02-01 CN CN201910104232.4A patent/CN111524536B/zh active Active
- 2019-12-24 JP JP2019232912A patent/JP7283375B2/ja active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040165730A1 (en) * | 2001-04-13 | 2004-08-26 | Crockett Brett G | Segmenting audio signals into auditory events |
US7353169B1 (en) * | 2003-06-24 | 2008-04-01 | Creative Technology Ltd. | Transient detection and modification in audio signals |
US7409374B1 (en) * | 2004-12-06 | 2008-08-05 | The United States Of America As Represented By The Secretary Of The Army | Explosive event discrimination method |
US20120016677A1 (en) * | 2009-03-27 | 2012-01-19 | Huawei Technologies Co., Ltd. | Method and device for audio signal classification |
EP2413313A1 (en) * | 2009-03-27 | 2012-02-01 | Huawei Technologies Co., Ltd. | Method and device for audio signal classifacation |
US20100260466A1 (en) * | 2009-04-13 | 2010-10-14 | Texas Instruments Incorporated | Low Complexity Event Detection For Video Programs |
US20120143363A1 (en) * | 2010-12-06 | 2012-06-07 | Institute of Acoustics, Chinese Academy of Scienc. | Audio event detection method and apparatus |
CN102799899A (zh) * | 2012-06-29 | 2012-11-28 | 北京理工大学 | 基于svm和gmm的特定音频事件分层泛化识别方法 |
US20140270241A1 (en) * | 2013-03-15 | 2014-09-18 | CSR Technology, Inc | Method, apparatus, and manufacture for two-microphone array speech enhancement for an automotive environment |
US20160150338A1 (en) * | 2013-06-05 | 2016-05-26 | Samsung Electronics Co., Ltd. | Sound event detecting apparatus and operation method thereof |
US20180176682A1 (en) * | 2015-03-25 | 2018-06-21 | Dolby Laboratories Licensing Corporation | Sub-Band Mixing of Multiple Microphones |
US20160335488A1 (en) * | 2015-05-15 | 2016-11-17 | Google Inc. | Sound event detection |
CN104916289A (zh) * | 2015-06-12 | 2015-09-16 | 哈尔滨工业大学 | 行车噪声环境下快速声学事件的检测方法 |
US20170323653A1 (en) * | 2016-05-06 | 2017-11-09 | Robert Bosch Gmbh | Speech Enhancement and Audio Event Detection for an Environment with Non-Stationary Noise |
WO2017217396A1 (ja) * | 2016-06-16 | 2017-12-21 | 日本電気株式会社 | 信号処理装置、信号処理方法およびコンピュータ読み取り可能記録媒体 |
CN108694953A (zh) * | 2017-04-07 | 2018-10-23 | 南京理工大学 | 一种基于Mel子带参数化特征的鸟鸣自动识别方法 |
KR20180122171A (ko) * | 2017-05-02 | 2018-11-12 | 서강대학교산학협력단 | 심층 신경망을 기반으로 한 사운드 이벤트 검출 방법 및 사운드 이벤트 검출 장치 |
CN107545890A (zh) * | 2017-08-31 | 2018-01-05 | 桂林电子科技大学 | 一种声音事件识别方法 |
Non-Patent Citations (4)
Title |
---|
TRAN HUY DAT ET,AL.: "《Missing feature kernel and nonparametric Windows Subband Power Distribution for Robust Sound Event Classification》", 《17TH INTERNATIONAL CONFERENCE ON SPEECH AND COMPUTER(SPECOM)》, vol. 9319, pages 277 - 284 * |
VICTOR BISOT ET,AL.: "《HOG and subband power distribution image features for acoustic scene classification》", 《2015 23RD EUROPEAN SIGNAL PROCESSING CONFERENCE (EUSIPCO)》, pages 719 - 723 * |
李应,吴灵菲: "《用多频带能量分布检测低信噪比声音事件》", 《电子与信息学报》, vol. 40, no. 12, pages 2905 - 2912 * |
王晨,樊小红: "《基于特征加权的交通事件检测研究》", 《微电子学与计算机》, vol. 29, no. 10, pages 121 - 123 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114501353A (zh) * | 2020-10-23 | 2022-05-13 | 维沃移动通信有限公司 | 通信信息的发送、接收方法及通信设备 |
CN114501353B (zh) * | 2020-10-23 | 2024-01-05 | 维沃移动通信有限公司 | 通信信息的发送、接收方法及通信设备 |
WO2023226572A1 (zh) * | 2022-05-25 | 2023-11-30 | 腾讯科技(深圳)有限公司 | 特征表示的提取方法、装置、设备、介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
JP7283375B2 (ja) | 2023-05-30 |
JP2020126227A (ja) | 2020-08-20 |
CN111524536B (zh) | 2023-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10783875B2 (en) | Unsupervised non-parallel speech domain adaptation using a multi-discriminator adversarial network | |
Ittichaichareon et al. | Speech recognition using MFCC | |
US9666183B2 (en) | Deep neural net based filter prediction for audio event classification and extraction | |
Stöter et al. | Countnet: Estimating the number of concurrent speakers using supervised learning | |
EP4113076A2 (en) | Anomalous sound detection training apparatus, and methods and program for the same | |
Sørensen et al. | A depthwise separable convolutional neural network for keyword spotting on an embedded system | |
CN114596879B (zh) | 一种虚假语音的检测方法、装置、电子设备及存储介质 | |
CN111524536B (zh) | 信号处理方法和信息处理设备 | |
CN113454717A (zh) | 语音识别装置和方法 | |
JP2022539867A (ja) | 音声分離方法及び装置、電子機器 | |
Lin et al. | Speaker recognition based on long-term acoustic features with analysis sparse representation | |
Halpern123 et al. | Residual networks for resisting noise: analysis of an embeddings-based spoofing countermeasure | |
JP5974901B2 (ja) | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム | |
WO2012105386A1 (ja) | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム | |
Qais et al. | Deepfake audio detection with neural networks using audio features | |
Loughran et al. | Feature selection for speaker verification using genetic programming | |
Mirbeygi et al. | RPCA-based real-time speech and music separation method | |
CN115223584B (zh) | 音频数据处理方法、装置、设备及存储介质 | |
US10891942B2 (en) | Uncertainty measure of a mixture-model based pattern classifer | |
JP6216809B2 (ja) | パラメータ調整システム、パラメータ調整方法、プログラム | |
Chuchra et al. | A deep learning approach for splicing detection in digital audios | |
Xie et al. | Acoustic feature extraction using perceptual wavelet packet decomposition for frog call classification | |
US20210256970A1 (en) | Speech feature extraction apparatus, speech feature extraction method, and computer-readable storage medium | |
JP6233625B2 (ja) | 音声処理装置および方法、並びにプログラム | |
CN115116469A (zh) | 特征表示的提取方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |