CN114927125A - 音频分类方法、装置、终端设备及存储介质 - Google Patents
音频分类方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN114927125A CN114927125A CN202210421899.9A CN202210421899A CN114927125A CN 114927125 A CN114927125 A CN 114927125A CN 202210421899 A CN202210421899 A CN 202210421899A CN 114927125 A CN114927125 A CN 114927125A
- Authority
- CN
- China
- Prior art keywords
- spectrogram
- mel
- audio data
- classified
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000001228 spectrum Methods 0.000 claims description 51
- 238000010586 diagram Methods 0.000 claims description 26
- 238000004590 computer program Methods 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 13
- 238000013145 classification model Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 description 39
- 230000008569 process Effects 0.000 description 14
- 238000000354 decomposition reaction Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 238000013526 transfer learning Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 206010011469 Crying Diseases 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 206010011878 Deafness Diseases 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 206010003497 Asphyxia Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 235000003642 hunger Nutrition 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 231100000895 deafness Toxicity 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请适用于语音识别技术领域,提供了一种音频分类方法、装置、终端设备及存储介质,其中该方法包括:获取待分类音频数据的频谱图和梅尔频谱图;根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息;根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。本申请能提高音频数据分类的准确度。
Description
技术领域
本申请属于语音识别技术领域,尤其涉及一种音频分类方法、装置、终端设备及存储介质。
背景技术
为了对特定类型的音频数据进行分类或检测,在过去几十年中一直在使用多种类型的特征对音频数据进行检测和分类。常用的特征包括倒谱域特征(如梅尔倒谱系数特征(MFCC,Mel-Frequency Cepstral Coefficients)、线性预测倒谱系数(LPCC)、巴克频率倒谱系数(BFCC))、声韵特征(如共振峰、强度)以及基于图像的特征(如频谱图、波形图和梅尔频谱图)。
目前主流方案主要是单独使用频谱图或者梅尔频谱图对音频数据进行分类,但这种分类方式的准确度不高。
发明内容
本申请实施例提供了一种音频分类方法、装置、终端设备及存储介质,可以解决音频数据分类的准确度不高的问题。
第一方面,本申请实施例提供了一种音频分类方法,包括:
获取待分类音频数据的频谱图和梅尔频谱图;
根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息;
根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。
可选的,根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息,包括:
获取频谱图的频谱图特征,以及梅尔频谱图的梅尔频谱图特征;
对频谱图特征和梅尔频谱图特征进行叠加处理,得到特征信息。
可选的,获取频谱图的频谱图特征,包括:
将频谱图输入频谱图特征提取器中进行特征提取,得到频谱图特征;
频谱图特征提取器包括依次连接的ResNet模型、第一最大池化层和第一稠密层。
可选的,获取梅尔频谱图的梅尔频谱图特征,包括:
沿梅尔频谱图的频率轴方向,将梅尔频谱图分解为多个子梅尔频谱图;
将多个子梅尔频谱图输入梅尔频谱图特征提取器中进行特征提取,得到梅尔频谱图特征;
梅尔频谱图特征提取器包括多个CNN模型、叠加层和第二稠密层,多个CNN模型的输出端均与叠加层的输入端连接,叠加层的输出端与第二稠密层的输入端连接,多个子梅尔频谱图为多个CNN模型的输入,且多个子梅尔频谱图与多个CNN模型一一对应。
可选的,沿梅尔频谱图的频率轴方向,将梅尔频谱图分解为多个子梅尔频谱图,包括:
沿梅尔频谱图的频率轴方向,将梅尔频谱图平均分解为多个子梅尔频谱图。
可选的,CNN模型包括依次连接的卷积层、第二最大池化层、全连接层和第三稠密层。
可选的,根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果,包括:
将特征信息输入音频分类模型,得到待分类音频数据的分类结果。
第二方面,本申请实施例提供了一种音频分类装置,包括:
第一获取模块,用于获取待分类音频数据的频谱图和梅尔频谱图;
第二获取模块,用于根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息;
分类模块,用于根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。
可选的,第二获取模块包括:
获取单元,用于获取频谱图的频谱图特征,以及梅尔频谱图的梅尔频谱图特征;
叠加单元,用于对频谱图特征和梅尔频谱图特征进行叠加处理,得到特征信息。
可选的,获取单元,具体用于将频谱图输入频谱图特征提取器中进行特征提取,得到频谱图特征;
频谱图特征提取器包括依次连接的ResNet模型、第一最大池化层和第一稠密层。
可选的,获取单元包括:
分解子单元,用于沿梅尔频谱图的频率轴方向,将梅尔频谱图分解为多个子梅尔频谱图;
提取子单元,用于将多个子梅尔频谱图输入梅尔频谱图特征提取器中进行特征提取,得到梅尔频谱图特征;
梅尔频谱图特征提取器包括多个CNN模型、叠加层和第二稠密层,多个CNN模型的输出端均与叠加层的输入端连接,叠加层的输出端与第二稠密层的输入端连接,多个子梅尔频谱图为多个CNN模型的输入,且多个子梅尔频谱图与多个CNN模型一一对应。
可选的,分解子单元,具体用于沿梅尔频谱图的频率轴方向,将梅尔频谱图平均分解为多个子梅尔频谱图。
可选的,CNN模型包括依次连接的卷积层、第二最大池化层、全连接层和第三稠密层。
可选的,分类模块,具体用于将特征信息输入音频分类模型,得到待分类音频数据的分类结果。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述的音频分类方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述的音频分类方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项的音频分类方法。
本申请实施例与现有技术相比存在的有益效果是:
在本申请的实施例中,通过根据待分类音频数据的频谱图和梅尔频谱图,获取待分类音频数据的特征信息,并根据该特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。其中由于待分类音频数据的特征信息融合了频谱图和梅尔频谱图的特征,因此该特征信息的鉴别能力强,从而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的音频分类方法的流程图;
图2是本申请一实例提供的步骤12的具体实现方式的流程图;
图3是本申请一实施例提供的频谱图特征提取器的结构示意图;
图4是本申请一实施例提供的梅尔频谱图特征提取器的结构示意图;
图5是本申请一实施例中特征信息的获取示意图;
图6是本申请一实施例提供的音频分类装置的结构示意图;
图7是本申请一实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
目前在对音频数据进行分类时,普遍单独使用频谱图或者梅尔频谱图实现分类,但这种分类方式的准确度不高。
针对上述问题,本申请实施例通过先根据待分类音频数据的频谱图和梅尔频谱图,获取待分类音频数据的特征信息,然后再基于该特征信息对待分类音频数据进行分类,得到分类结果。其中由于待分类音频数据的特征信息融合了频谱图和梅尔频谱图的特征,因此该特征信息的鉴别能力强,从而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
下面结合具体实施例对本申请提供的音频分类方法进行示例性的说明。
本申请实施例提供了一种音频分类方法,该方法可以由终端设备执行,也可以由应用于终端设备中的装置(比如芯片)来执行,下述实施例以该方法由终端设备执行为例。作为一种示例,该终端设备可以是平板,服务器或者笔记本电脑等,本申请实施例对此不做限定。
如图1所示,本申请实施例提供的音频分类方法包括如下步骤:
步骤11,获取待分类音频数据的频谱图和梅尔频谱图。
上述待分类音频数据为需要进行状态分类的音频数据,如婴儿哭声、动物吠叫声等。其中,待分类音频数据对应的状态可以为生气、饥饿、委屈、疼痛、窒息、正常、失聪等情绪状态中的至少一种。
在表现形式上,上述待分类音频数据可以为wav格式的音频文件。当然可以理解的是,在本申请的实施例中,并不限定上述待分类音频数据的具体格式。
在本申请的一些实施例中,可以通过常用的频谱图生成软件(如Sox工具)得到待分类音频数据的频谱图。类似的,梅尔频谱图也可以通过常用的梅尔频谱图生成软件(如librosa)得到。
步骤12,根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息。
在本申请的一些实施例中,上述待分类音频数据的特征信息融合了该待分类音频数据的频谱图和梅尔频谱图的特征,因此该特征信息相较于频谱图(或者梅尔频谱图)具有更强的鉴别力,能提高音频数据分类的准确度。
步骤13,根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。
在本申请的一些实施例中,可通过通用的音频分类模型对待分类音频数据进行识别分类,得到待分类音频数据的分类结果。示例性的,待分类音频数据为婴儿哭声,那么对应的分类结果可以用于指示待分类音频数据所表示的婴儿的情绪状态为生气、饥饿、委屈、疼痛、窒息、正常、失聪等情绪状态中的至少一种。
具体的,在本申请的一些实施例中,可通过将特征信息输入音频分类模型,得到待分类音频数据的分类结果。示例性,上述音频分类模型可以为多层感知机(MLP,Multi-Layer perceptron)模型。
可见,在本申请的一些实施例中,通过根据待分类音频数据的频谱图和梅尔频谱图,获取待分类音频数据的特征信息,使得该特征信息融合了频谱图和梅尔频谱图的特征,从而使该特征信息相较于频谱图(或者梅尔频谱图)具有更强的鉴别力,进而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
下面结合具体实施例对特征信息的获取过程进行示例性的说明。
如图2所示,上述步骤12,根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息的具体实现方式包括如下步骤:
步骤21,获取频谱图的频谱图特征,以及梅尔频谱图的梅尔频谱图特征。
在本申请的一些实施例中,上述频谱图特征的获取过程可以为:将频谱图输入频谱图特征提取器中进行特征提取,得到频谱图特征。其中,频谱图特征提取器可以使用基于残差网络(ResNet)的迁移学习卷积神经网络(CNN,Convolutional Neural Networks)模型构建。具体的,如图3所示,该频谱图特征提取器包括依次连接的ResNet模型301、第一最大池化层302和第一稠密层303。其中,ResNet模型301主要用于提取频谱图的特征,第一最大池化层302主要用于对ResNet模型301输出的特征数据进行降维,去除该特征数据的冗余信息,第一稠密层303主要用于将第一最大池化层302输出的特征数据映射到输出空间。
需要说明的是,利用ResNet模型对频谱图进行特征提取,能提高特征提取的准确率。作为一个优选的示例,上述ResNet模型可以为ResNet50模型。
需要进一步说明的是,在利用上述频谱图特征提取器对待分类音频数据的频谱图进行特征提取前,需要利用大量的音频数据文件的频谱图对该频谱图特征提取器进行训练,直至该频谱图特征提取器收敛。其中,为便于训练过程的进行,对该频谱图特征提取器进行训练的所有音频数据文件的频谱图的大小相同。
在本申请的一些实施例中,在表现形式上,上述梅尔频谱图的横坐标轴为时间,纵坐标轴为频率。相应的,上述梅尔频谱图特征的获取过程为:首先沿梅尔频谱图的频率轴方向(即上述纵坐标轴方向),将梅尔频谱图分解为多个子梅尔频谱图;然后将多个子梅尔频谱图输入梅尔频谱图特征提取器中进行特征提取,得到梅尔频谱图特征。
如图4所示,上述梅尔频谱图特征提取器包括多个CNN模型401(图中仅示意了3个)、叠加层402和第二稠密层403,多个CNN模型401的输出端均与叠加层402的输入端连接,叠加层402的输出端与第二稠密层403的输入端连接,多个子梅尔频谱图为多个CNN模型401的输入,且多个子梅尔频谱图与多个CNN模型401一一对应。
需要说明的是,上述CNN模型主要用于提取子梅尔频谱图的特征,上述叠加层主要用于对多个CNN模型提取到的特征进行叠加处理,以在确保音频数据的特征的覆盖范围的情况下,加强音频数据的特征。作为一个优选的示例,上述叠加层可以为concatenate函数。上述第二稠密层主要用于将叠加层输出的特征数据映射到输出空间。
为确保CNN模型能准确提取子梅尔频谱图的特征,上述CNN模型包括依次连接的卷积层、第二最大池化层、全连接层和第三稠密层。
在本申请的一些实施例中,为提升提取梅尔频谱图特征的准确性,可沿梅尔频谱图的频率轴方向,将梅尔频谱图平均分解为多个子梅尔频谱图。
经多次实验结果表明,基于4个或者5个子梅尔频谱图提取梅尔频谱图特征的效果比基于2、3、6或7个子梅尔频谱图提取梅尔频谱图特征的效果更佳。基于此,作为一个优选的示例,可以沿梅尔频谱图的频率轴方向,将梅尔频谱图平均分解为4个子梅尔频谱图,并将这4个子梅尔频谱图一一对应的输入梅尔频谱图特征提取器的4个CNN模型,最终从第二稠密层获得梅尔频谱图的梅尔频谱图特征。
需要说明的是,在利用上述梅尔频谱图特征提取器对待分类音频数据的梅尔频谱图进行特征提取前,需要利用大量的音频数据文件的梅尔频谱图对该梅尔频谱图特征提取器进行训练,直至该梅尔频谱图特征提取器收敛。其中,为便于训练过程的进行,对该梅尔频谱图特征提取器进行训练的所有音频数据文件的梅尔频谱图的大小相同。
步骤22,对频谱图特征和梅尔频谱图特征进行叠加处理,得到待分类音频数据的特征信息。
在本申请的一些实施例中,可通过concatenate函数对频谱图特征和梅尔频谱图特征进行叠加处理。其中叠加处理得到的特征向量即为待分类音频数据的特征信息。
如图5所示,待分类音频数据的特征信息的获取过程为:首先通过频谱图生成软件(如Sox工具)得到待分类音频数据的频谱图,同时通过梅尔频谱图生成软件(如librosa)得到待分类音频数据的梅尔频谱图;然后将频谱图输入频谱图特征提取器,依次经过ResNet模型、第一最大池化层和第一稠密层的处理,得到频谱图特征;同时将梅尔频谱图分解为多个子梅尔频谱图(图中以4个子梅尔频谱图为例),并将多个子梅尔频谱图一一对应的输入梅尔频谱图特征提取器的多个CNN模型(图中以4个CNN模型为例),多个CNN模型输出的数据依次经过叠加层和第二稠密层处理后得到梅尔频谱图特征;最终对频谱图特征和梅尔频谱图特征进行叠加处理,得到待分类音频数据的特征信息。
可见,在本申请的一些实施例中,通过迁移学习CNN捕捉频谱图的高级特征,同时通过梅尔频谱图分解突出待分类音频数据的局部特征,从而使得叠加处理得到上述特征信息融合了高级特征和局部特征,相较于频谱图(或者梅尔频谱图)的鉴别能力更强,进而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
下面结合具体实验数据对本申请的音频分类方法的准确度进行示例性说明书。
如表1所示,在Baby Chillanto数据库(Baby Chillanto数据库中每个样本都是一个1秒长的wav格式的音频文件)上,单一频谱图用CNN模型进行分类的准确率可达到87.03%,用迁移学习模型进行分类的准确率可达到90.08%,使用迁移学习模型和图卷积(GCN)进行分类方法的准确率可达到94.39%。梅尔频谱图用CNN模型进行分类的准确率可达到94.54%,优于使用频谱图的最佳模型,梅尔频谱图用梅尔频谱图分解模型进行分类的准确率可达到98.70%,本申请提出的音频分类方法(即迁移学习模型+梅尔频谱图分解+MLP)可将准确率提高到99.26%,其结果优于所有其他类型的使用单一特征的方法。
特征 | 模型 | 准确率 |
频谱图 | CNN模型 | 87.03% |
频谱图 | 迁移学习模型 | 90.08% |
频谱图 | 迁移学习模型+GCN | 94.39% |
梅尔频谱图 | CNN模型 | 94.54% |
梅尔频谱图 | 梅尔频谱图分解模型 | 98.70% |
频谱图+梅尔频谱图 | 迁移学习模型+梅尔频谱图分解+MLP | 99.26% |
表1
如表2所示,在Baby2020数据库(Baby2020数据库中哭声样本的采集过程为:首先在100多名婴儿(婴儿的年龄在从刚出生到9个月之间)所在家庭或医院环境中放置移动设备,然后利用移动设备以16kHz为采样率进行录音,其中每次录音采集的时间不超过3分钟,最终从对录音进行人工切割,得到长度在1秒到7秒之间的哭声样本)上,单一频谱图用CNN模型进行分类的准确率可达到92.77%,用迁移学习模型进行分类的准确率可达到94.84%。梅尔频谱图用CNN模型进行分类的准确率可达到90.26%,用梅尔频谱图分解模型进行分类的准确率可达到93.15%,本申请提出的音频分类方法可将准确率提高到96.64%,其结果优于所有其他类型的使用单一特征的方法。
特征 | 模型 | 准确率 |
频谱图 | CNN模型 | 92.77% |
频谱图 | 迁移学习模型 | 94.84% |
梅尔频谱图 | CNN模型 | 90.26% |
梅尔频谱图 | 梅尔频谱图分解模型 | 93.15% |
频谱图+梅尔频谱图 | 迁移学习模型+梅尔频谱图分解+MLP | 96.64% |
表2
在一个具体实验中,使用的待分类音频数据来源于Baby2020数据库的一个子集和Baby Chillanto数据库。为便于对比,在该实验中,分别使用单一梅尔频谱图的分类方法、单一频谱图的分类方法以及本申请的分类方法对340个窒息样本、879个失聪样本、350个饥饿样本、506个正常哭声和192个疼痛哭声进行分类。其中,本申请的分类方法的准确率高达99.26%,相较于使用单一梅尔频谱图的分类方法而言准确度提高了4.72%,同时相较于使用单一频谱图的分类方法而言准确度提高了3.87%。
综上,本申请实施例提供的音频分类方法具备如下效果:
第一,结合待分类音频数据的频谱图和梅尔频谱图获取待分类音频数据的的特征信息,使该特征信息融合了频谱图和梅尔频谱图的特征,从而使该特征信息相较于频谱图(或者梅尔频谱图)具有更强的鉴别力,进而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
第二,在获取梅尔频谱图的梅尔频谱图特征的过程中,对梅尔频谱图进行分解再合并,加强了待分类音频数据的特征信息的局部特征,从而加强了特征信息的鉴别能力,进而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
下面结合具体实施例对本申请提供的音频分类装置进行示例性的说明。
如图6所示,本申请的实施例提供了一种音频分类装置,该音频分类装置600包括:
第一获取模块601,用于获取待分类音频数据的频谱图和梅尔频谱图;
第二获取模块602,用于根据频谱图和梅尔频谱图,获取待分类音频数据的特征信息;
分类模块603,用于根据特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。
可选的,第二获取模块602包括:
获取单元,用于获取频谱图的频谱图特征,以及梅尔频谱图的梅尔频谱图特征;
叠加单元,用于对频谱图特征和梅尔频谱图特征进行叠加处理,得到特征信息。
可选的,获取单元,具体用于将频谱图输入频谱图特征提取器中进行特征提取,得到频谱图特征;
频谱图特征提取器包括依次连接的ResNet模型、第一最大池化层和第一稠密层。
可选的,获取单元包括:
分解子单元,用于沿梅尔频谱图的频率轴方向,将梅尔频谱图分解为多个子梅尔频谱图;
提取子单元,用于将多个子梅尔频谱图输入梅尔频谱图特征提取器中进行特征提取,得到梅尔频谱图特征;
梅尔频谱图特征提取器包括多个CNN模型、叠加层和第二稠密层,多个CNN模型的输出端均与叠加层的输入端连接,叠加层的输出端与第二稠密层的输入端连接,多个子梅尔频谱图为多个CNN模型的输入,且多个子梅尔频谱图与多个CNN模型一一对应。
可选的,分解子单元,具体用于沿梅尔频谱图的频率轴方向,将梅尔频谱图平均分解为多个子梅尔频谱图。
可选的,CNN模型包括依次连接的卷积层、第二最大池化层、全连接层和第三稠密层。
可选的,分类模块603,具体用于将特征信息输入音频分类模型,得到待分类音频数据的分类结果。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
如图7所示,本申请的实施例提供了一种终端设备,如图7所示,该实施例的终端设备D10包括:至少一个处理器D100(图7中仅示出一个处理器)、存储器D101以及存储在所述存储器D101中并可在所述至少一个处理器D100上运行的计算机程序D102,所述处理器D100执行所述计算机程序D102时实现上述任意各个方法实施例中的步骤。
具体的,所述处理器D100执行所述计算机程序D102时,通过根据待分类音频数据的频谱图和梅尔频谱图,获取待分类音频数据的特征信息,并根据该特征信息对待分类音频数据进行分类,得到待分类音频数据的分类结果。其中由于待分类音频数据的特征信息融合了频谱图和梅尔频谱图的特征,因此该特征信息的鉴别能力强,从而使得在基于该特征信息对音频数据分类时,能大大提高音频数据分类的准确度。
所称处理器D100可以是中央处理单元(CPU,Central Processing Unit),该处理器D100还可以是其他通用处理器、数字信号处理器(DSP,Digital Signal Processor)、专用集成电路(ASIC,Application Specific Integrated Circuit)、现成可编程门阵列(FPGA,Field-Programmable Gate Array)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器D101在一些实施例中可以是所述终端设备D10的内部存储单元,例如终端设备D10的硬盘或内存。所述存储器D101在另一些实施例中也可以是所述终端设备D10的外部存储设备,例如所述终端设备D10上配备的插接式硬盘,智能存储卡(SMC,SmartMedia Card),安全数字(SD,Secure Digital)卡,闪存卡(Flash Card)等。进一步地,所述存储器D101还可以既包括所述终端设备D10的内部存储单元也包括外部存储设备。所述存储器D101用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器D101还可以用于暂时地存储已经输出或者将要输出的数据。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到音频分类装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种音频分类方法,其特征在于,包括:
获取待分类音频数据的频谱图和梅尔频谱图;
根据所述频谱图和所述梅尔频谱图,获取所述待分类音频数据的特征信息;
根据所述特征信息对所述待分类音频数据进行分类,得到所述待分类音频数据的分类结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述频谱图和所述梅尔频谱图,获取所述待分类音频数据的特征信息,包括:
获取所述频谱图的频谱图特征,以及所述梅尔频谱图的梅尔频谱图特征;
对所述频谱图特征和所述梅尔频谱图特征进行叠加处理,得到所述特征信息。
3.根据权利要求2所述的方法,其特征在于,所述获取所述频谱图的频谱图特征,包括:
将所述频谱图输入频谱图特征提取器中进行特征提取,得到频谱图特征;
所述频谱图特征提取器包括依次连接的ResNet模型、第一最大池化层和第一稠密层。
4.根据权利要求2所述的方法,其特征在于,获取所述梅尔频谱图的梅尔频谱图特征,包括:
沿所述梅尔频谱图的频率轴方向,将所述梅尔频谱图分解为多个子梅尔频谱图;
将多个所述子梅尔频谱图输入梅尔频谱图特征提取器中进行特征提取,得到梅尔频谱图特征;
所述梅尔频谱图特征提取器包括多个CNN模型、叠加层和第二稠密层,多个所述CNN模型的输出端均与所述叠加层的输入端连接,所述叠加层的输出端与所述第二稠密层的输入端连接,多个所述子梅尔频谱图为多个所述CNN模型的输入,且多个所述子梅尔频谱图与多个所述CNN模型一一对应。
5.根据权利要求4所述的方法,其特征在于,所述沿所述梅尔频谱图的频率轴方向,将所述梅尔频谱图分解为多个子梅尔频谱图,包括:
沿所述梅尔频谱图的频率轴方向,将所述梅尔频谱图平均分解为多个子梅尔频谱图。
6.根据权利要求4所述的方法,其特征在于,所述CNN模型包括依次连接的卷积层、第二最大池化层、全连接层和第三稠密层。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述根据所述特征信息对所述待分类音频数据进行分类,得到所述待分类音频数据的分类结果,包括:
将所述特征信息输入音频分类模型,得到所述待分类音频数据的分类结果。
8.一种音频分类装置,其特征在于,包括:
第一获取模块,用于获取待分类音频数据的频谱图和梅尔频谱图;
第二获取模块,用于根据所述频谱图和所述梅尔频谱图,获取所述待分类音频数据的特征信息;
分类模块,用于根据所述特征信息对所述待分类音频数据进行分类,得到所述待分类音频数据的分类结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的音频分类方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的音频分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210421899.9A CN114927125A (zh) | 2022-04-21 | 2022-04-21 | 音频分类方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210421899.9A CN114927125A (zh) | 2022-04-21 | 2022-04-21 | 音频分类方法、装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114927125A true CN114927125A (zh) | 2022-08-19 |
Family
ID=82806563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210421899.9A Pending CN114927125A (zh) | 2022-04-21 | 2022-04-21 | 音频分类方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114927125A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118016103A (zh) * | 2024-04-10 | 2024-05-10 | 东北大学 | 一种基于滤波器组、数据增强和ResNet50的环境声音分类方法 |
-
2022
- 2022-04-21 CN CN202210421899.9A patent/CN114927125A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118016103A (zh) * | 2024-04-10 | 2024-05-10 | 东北大学 | 一种基于滤波器组、数据增强和ResNet50的环境声音分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680582B (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
JP6198872B2 (ja) | 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出 | |
CN109087670B (zh) | 情绪分析方法、系统、服务器及存储介质 | |
WO2021000408A1 (zh) | 面试评分方法、装置、设备及存储介质 | |
US20180182377A1 (en) | Method and device for extracting speech feature based on artificial intelligence | |
US8676574B2 (en) | Method for tone/intonation recognition using auditory attention cues | |
CN108172213B (zh) | 娇喘音频识别方法、装置、设备及计算机可读介质 | |
CN107369439B (zh) | 一种语音唤醒方法和装置 | |
CN110853648B (zh) | 一种不良语音检测方法、装置、电子设备及存储介质 | |
CN110459205B (zh) | 语音识别方法及装置、计算机可存储介质 | |
CN113241096B (zh) | 一种情绪监测装置及方法 | |
CN105488227A (zh) | 一种电子设备及其基于声纹特征处理音频文件的方法 | |
CN104142831B (zh) | 应用程序搜索方法及装置 | |
CN109299227B (zh) | 基于语音识别的信息查询方法和装置 | |
CN104269169A (zh) | 一种混叠音频事件分类方法 | |
CN111680507A (zh) | 基于人工智能的意图识别的方法、装置、计算机设备 | |
CN114927125A (zh) | 音频分类方法、装置、终端设备及存储介质 | |
CN112382302A (zh) | 婴儿哭声识别方法及终端设备 | |
CN103730129A (zh) | 一种用于数据库信息查询的语音查询系统 | |
CN117116290B (zh) | 基于多维特征的数控机床部件缺陷定位方法和相关设备 | |
CN111354354A (zh) | 一种基于语义识别的训练方法、训练装置及终端设备 | |
CN114595692A (zh) | 一种情绪识别方法、系统及终端设备 | |
Hajihashemi et al. | Novel time-frequency based scheme for detecting sound events from sound background in audio segments | |
Joy et al. | Deep scattering power spectrum features for robust speech recognition | |
CN106228984A (zh) | 语音识别信息获取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |