CN115101060A - 一种音频分类方法、装置、处理设备及介质 - Google Patents
一种音频分类方法、装置、处理设备及介质 Download PDFInfo
- Publication number
- CN115101060A CN115101060A CN202210735142.7A CN202210735142A CN115101060A CN 115101060 A CN115101060 A CN 115101060A CN 202210735142 A CN202210735142 A CN 202210735142A CN 115101060 A CN115101060 A CN 115101060A
- Authority
- CN
- China
- Prior art keywords
- audio data
- original audio
- data
- signals
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000001228 spectrum Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 8
- 230000003595 spectral effect Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 206010041235 Snoring Diseases 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000000926 separation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007958 sleep Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003860 sleep quality Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/66—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种音频分类方法、装置、处理设备及介质,所述方法包括:获取原始音频数据;对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;将处理后数据输入至识别模型,得到识别结果;基于所述识别结果确定所述原始音频数据的类别。该方法通过将原始音频数据处理为三路处理后的信号,能够使处理后数据更易被识别模型所识别,同时,将处理后数据输入至识别模型,使识别结果更加精确,进一步提高了音频分类的准确性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种音频分类方法、装置、处理设备及介质。
背景技术
随着科技的迅猛发展以及对良好睡眠质量的需求,目前一些智能家居设备开始对睡眠时的音频进行类别(如鼾声)的检测与识别,以采取相应的预防措施。
现有的音频分类算法对音频分类的识别准确率较低,尤其在噪声嘈杂的环境下,噪音对音频分类的影响更大。
发明内容
本发明提供了一种音频分类方法、装置、处理设备及介质,以提高音频分类的准确率。
根据本发明的一方面,提供了一种音频分类方法,包括:
获取原始音频数据;
对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;
将处理后数据输入至识别模型,得到识别结果;
基于所述识别结果确定所述原始音频数据的类别。
根据本发明的另一方面,提供了一种音频分类装置,包括:
获取模块,用于获取原始音频数据;
处理模块,用于对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;
输入模块,用于将处理后数据输入至识别模型,得到识别结果;
确定模块,用于基于所述识别结果确定所述原始音频数据的类别。
根据本发明的另一方面,提供了一种处理设备,所述处理设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的音频分类方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的音频分类方法。
本发明实施例提供了一种音频分类方法、装置、处理设备及介质,所述方法包括:获取原始音频数据;对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;将处理后数据输入至识别模型,得到识别结果;基于所述识别结果确定所述原始音频数据的类别。利用上述技术方案,通过将原始音频数据处理为三路处理后的信号,能够使处理后数据更易被识别模型所识别,同时,将处理后数据输入至识别模型,使识别结果更加精确,进一步提高了音频分类的准确性。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种音频分类方法的流程图;
图2是根据本发明实施例二提供的一种音频分类方法的流程图;
图3是根据本发明实施例二提供的一种音频分类方法的示意图;
图4是根据本发明实施例三提供的一种音频分类装置的结构示意图;
图5是根据本发明实施例四提供的一种处理设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1是根据本发明实施例一提供的一种音频分类方法的流程图,本实施例可适用于对音频进行分类的情况,该方法可以由音频分类装置来执行,该音频分类装置可以采用硬件和/或软件的形式实现,该音频分类装置可配置于处理设备中。如图1所示,该方法包括:
S110、获取原始音频数据。
原始音频数据可以是指未经处理过的音频数据,原始音频数据的类型不限,例如可以为任意音频采集端采集的数据,音频采集端可以认为是采集原始音频数据的设备端,如智能床垫、智能枕头或手机等。示例性的,原始音频数据可以为智能床垫在设定时间段采集的音频数据,设定时间段可以由相关人员进行设置,如设定时间段可为智能床垫的使用者进行睡眠的时间。
具体的,可以获取采集的原始音频数据,需要说明的是,本实施例可以由音频采集端来执行,也可以由服务器来执行,具体执行主体可以根据实际情况来进行确定,如若在设定时长内音频采集端未收到服务器的反馈信号,即网络信号较差时,在音频采集端采集完原始音频数据并解码后,可以执行本实施例提供的音频分类方法,其中,设定时长可以由相关人员进行预设,如3s;另一方面,当网络信号较好时,在音频采集端采集完原始音频数据并解码后,可以将原始音频数据发送至服务器,服务器获取原始音频数据,并执行本实施例提供的音频分类方法的后续步骤。
S120、对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号。
处理后数据可以是指对原始音频数据进行处理后得到的数据,处理后数据可以包括三路处理后的信号,其中,三路处理后的信号可以为对原始音频数据中以不同频谱分布的信号进行处理后的信号。此处不对处理的具体手段进行限定。例如,可以分别对原始音频数据中以不同频谱分布的三路信号进行过滤处理,来得到三路处理后的信号。
S130、将处理后数据输入至识别模型,得到识别结果。
识别模型可以理解为对处理后数据进行识别,以输出识别结果的模型,识别模型可以预先训练得到,本步骤不对识别模型具体训练的过程作进一步展开。识别结果可以是指对处理后数据识别后的结果,如可以包括识别为某一类别的概率值等。
具体的,可以将处理后数据输入至识别模型后,得到识别结果,以根据识别结果进行后续类别的确定。
S140、基于所述识别结果确定所述原始音频数据的类别。
在本步骤中,可以基于得到的识别结果对原始音频数据的类别进行确定,具体确定的步骤可以根据识别结果来决定,如当识别结果为识别为某一类别的概率值时,则可将识别结果与预设阈值进行比较,当识别结果大于预设阈值时,则可以确定原始音频数据的类别为该类别;当识别结果小于预设阈值时,则可以确定原始音频数据的类别为其他类别。
本发明实施例一提供的一种音频分类方法,获取原始音频数据;对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;将处理后数据输入至识别模型,得到识别结果;基于所述识别结果确定所述原始音频数据的类别。利用该方法,通过将原始音频数据处理为三路处理后的信号,能够使处理后数据更易被识别模型所识别,同时,将处理后数据输入至识别模型,使识别结果更加精确,进一步提高了音频分类的准确性。
在一个实施例中,所述识别模型是通过图像数据进行预设神经网络模型的预训练,再基于训练数据进行预训练后的预设神经网络模型的参数的调整得到,所述训练数据包括第一类别的数据和噪音数据。
在本实施例中,当训练数据的数据不足时,首先可以基于图像数据进行预设神经网络模型的预训练,以使预训练后的预设神经网络模型符合合理分布,然后再使用训练数据进行模型参数的调整,来使识别模型输出的识别结果更加准确。其中,训练数据可以包括第一类别的数据和噪音数据,第一类别可以认为是本实施例想要识别出的音频类别,噪音数据可以为除第一类别的数据外其他的数据,如装修声。
在一个实施例中,所述识别结果包括所述原始音频数据属于第一类别的第一类别概率和所述原始音频数据属于第二类别的第二类别概率,所述第一类别和所述第二类别为不同类别;
相应的,所述基于所述识别结果确定所述原始音频数据的类别,包括:
将第一类别概率、第二类别概率分别与预设阈值进行比较,确定原始音频数据的类别。
其中,第二类别可认为是除第一类别外其他的类别,如当第一类别为鼾声时,第二类别则可认为是非鼾声。第一类别概率可以是指原始音频数据属于第一类别的概率,第二类别概率可以是指原始音频数据属于第二类别的概率,预设阈值则可以理解为预先设置的概率临界值,用于确定原始音频数据的类别,第一类别概率相加第二类别概率可以等于1。
在一个实施方式中,识别结果可以包括原始音频数据属于第一类别的第一类别概率和原始音频数据属于第二类别的第二类别概率,相应的,可以将第一类别概率、第二类别概率分别与预设阈值进行比较,得到比较结果,继而根据比较结果来确定原始音频数据的类别。
在一个实施例中,所述将第一类别概率、第二类别概率分别与预设阈值进行比较,确定原始音频数据的类别,包括:
若所述第一类别概率大于预设阈值,则将第一类别确定为原始音频数据的类别;
若所述第二类别概率大于预设阈值,则将第二类别确定为原始音频数据的类别。
具体的,当第一类别概率大于预设阈值时,说明第一类别概率大于预设的概率临界值,此时可以将第一类别确定为原始音频数据的类别;当第二类别概率大于预设阈值时,说明第二类别概率大于预设的概率临界值,那么可以将第二类别确定为原始音频数据的类别。
实施例二
图2是根据本发明实施例二提供的一种音频分类方法的流程图,本实施例二在上述各实施例的基础上进行优化。在本实施例中,将对原始音频数据进行处理得到处理后数据进一步具体化为:按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号;分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据。
本实施例尚未详尽的内容请参考实施例一。
如图2所示,本公开实施例二提供的一种音频分类方法,包括如下步骤:
S210、获取原始音频数据。
S220、按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号。
在本步骤中,可以按照原始音频数据的频谱分布对原始音频数据进行分离,以分离出原始音频数据当中的两路信号,两路信号的频谱分布和具体分离的方式不限,如可以通过谐波冲击声分离(Harmonic Percussive Sound Seperation,HPSS)辅助的多通道分离器进行原始音频数据的分离等。
S230、分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据。
在得到原始音频数据的两路信号后,可以分别对两路信号和原始音频数据进行调整来得到处理后数据,即三路处理后的数据。本实施例对调整的方式不作限定,只要能得到三路处理后的数据即可。
S240、将处理后数据输入至识别模型,得到识别结果。
S250、基于所述识别结果确定所述原始音频数据的类别。
本发明实施例二提供的一种音频分类方法,通过按照原始音频数据的频谱分布对原始音频数据进行分离,能够准确得到原始音频数据的三路信号中的两路信号;分别对两路信号和原始音频数据进行调整,为后续得到处理后数据提供了基础。
在一个实施例中,所述按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号,包括:
按照原始音频数据的频谱分布对原始音频数据进行分离,生成原始音频数据的谐波信号和原始音频数据的冲击源信号;
将所述谐波信号和所述冲击源信号确定为原始音频数据的三路信号中的两路信号。
谐波信号可以认为是原始音频数据中频谱以水平方向分布的信号,冲击源信号可以认为是原始音频数据中频谱以竖直方向分布的信号。
在一个实施方式中,可以按照原始音频数据的频谱分布对原始音频数据进行分离,来生成原始音频数据的谐波信号和原始音频数据的冲击源信号;然后将生成的谐波信号和冲击源信号确定为原始音频数据的三路信号中的两路信号。
在一个实施例中,所述分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据,包括:
针对每路信号,对每路信号进行傅里叶变换和滤波处理,得到处理后数据。
在分别对两路信号和原始音频数据进行调整的过程中,可以针对每路信号,对每路信号进行傅里叶变换和滤波处理来得到处理后数据。示例性的,可以分别对三路信号分别进行短时傅里叶变换,取傅里叶变换出的幅度部分,再对幅度数据进行对数操作,求对数结果的变异系数;对三路信号的最终变异系数拼接,得到初始处理后数据;最后由Mel-filter对初始处理后数据进行过滤,如滤除人耳不能识别的数据,以得到处理后数据。在此基础上,能够在平滑处理后数据的同时,对每路信号进行去噪。
下面对本发明实施例提供的音频分类方法进行示例性的描述:
设备端(即音频采集端):可通过智能垫体(枕头、床垫、坐垫、沙发)或智能设备(手机、智能音响、智能床柜等)采集声音(即原始音频数据),解码后输入算法部分,算法分为两部分,一部分在服务器上一部分算法位于设备端,即设备端采集完原始音频数据后,若超过一定延迟(如设定时长内)设备端未收到服务器的反馈信号时,可以认为当前网络信号较差,此时设备端就会紧急调用本地设备内保存的算法进行后续步骤的计算;而若当前网络信号较好时,设备端可以将采集的原始音频数据发送至服务器,服务器获取原始音频数据并通过自身的网络联通服务器算法进行后续步骤的计算。其中,设备端和服务器分别保存的算法内容完全相同。
算法分为两大功能模块,一个为音频预处理模块和基于transformer架构的模块。具体描述如下:
音频预处理模块可以采用HPSS辅助的多通道分离器(音源分离),将单通道音频转为3路音频信号(即处理后数据包括三路处理后的信号),如原始信号(即原始音频数据)、谐波信号、敲击声源信号(即冲击源信号);继而将傅里叶变换加入其中,生成三路平滑后的音频信号数据;且获取到该数据后,可以由Mel-filter进行过滤(即针对每路信号,对每路信号进行傅里叶变换和滤波处理,得到处理后数据),上述处理会降低计算复杂度,但会略微降低精度。
再将处理好的数据传入Transformer架构(即将处理后数据输入至识别模型),Transformer采用迁移学习的方法,因为鼾声数据的不足,这里采用其他类型数据进行大量的预训练,再使用鼾声数据进行训练微调(即识别模型是通过对图像数据进行预设神经网络模型的预训练,再基于训练数据进行预训练后的预设神经网络模型的参数的调整得到),输出属于鼾声的概率,非鼾声概率(即第一类别概率、第二类别概率),当某分类概率大于设定阈值,则将该段音频确认为该分类。
在训练识别模型的过程中,还加入了大量的噪音数据,即输入负样本(装修声、拍桌子声音、摩托声等),增强了识别模型的鲁棒性。
最终可以将输出结果(即原始音频数据的类别)反馈给设备端,进行相应的用户反馈。
图3是根据本发明实施例二提供的一种音频分类方法的示意图,如图3所示,设备端首先采集音频数据,即音频采集端采集原始音频数据;然后经过算法预处理模块,即分别对原始音频数据和基于HPSS对原始音频数据分离的两路信号进行短时傅里叶变换(short-time Fourier transform,STFT),得到处理后数据;随后将处理后数据输入至算法预测模块(即识别模型)中得到识别结果,其中,识别模型可以为Transformer模型,即基于多头注意力机制的模型,识别模型中的配置可以包括转置函数Transpose和填充截断PadTruncate;最后将基于识别结果确定的原始音频数据的类别返回至终端,即音频采集端。
实施例三
图4是根据本发明实施例三提供的一种音频分类装置的结构示意图,如图4所示,该装置包括:
获取模块310,用于获取原始音频数据;
处理模块320,用于对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;
输入模块330,用于将处理后数据输入至识别模型,得到识别结果;
确定模块340,用于基于所述识别结果确定所述原始音频数据的类别。
本发明实施例三提供的一种音频分类装置,通过获取模块310获取原始音频数据;通过处理模块320对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;通过输入模块330将处理后数据输入至识别模型,得到识别结果;通过确定模块340基于所述识别结果确定所述原始音频数据的类别。利用该装置,通过将原始音频数据处理为三路处理后的信号,能够使处理后数据更易被识别模型所识别,同时,将处理后数据输入至识别模型,使识别结果更加精确,进一步提高了音频分类的准确性。
可选的,处理模块320包括:
分离单元,用于按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号;
调整单元,用于分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据。
可选的,分离单元具体用于:
按照原始音频数据的频谱分布对原始音频数据进行分离,生成原始音频数据的谐波信号和原始音频数据的冲击源信号;
将所述谐波信号和所述冲击源信号确定为原始音频数据的三路信号中的两路信号。
可选的,调整单元具体用于:
针对每路信号,对每路信号进行傅里叶变换和滤波处理,得到处理后数据。
可选的,所述识别模型是通过图像数据进行预设神经网络模型的预训练,再基于训练数据进行预训练后的预设神经网络模型的参数的调整得到,所述训练数据包括第一类别的数据和噪音数据。
可选的,所述识别结果包括所述原始音频数据属于第一类别的第一类别概率和所述原始音频数据属于第二类别的第二类别概率,所述第一类别和所述第二类别为不同类别;
相应的,所述确定模块340包括:
比较单元,用于将第一类别概率、第二类别概率分别与预设阈值进行比较,确定原始音频数据的类别。
可选的,所述比较单元具体用于:
若所述第一类别概率大于预设阈值,则将第一类别确定为原始音频数据的类别;
若所述第二类别概率大于预设阈值,则将第二类别确定为原始音频数据的类别。
本发明实施例所提供的音频分类装置可执行本发明任意实施例所提供的音频分类方法,具备执行方法相应的功能模块和有益效果。
实施例四
图5是根据本发明实施例四提供的一种处理设备的结构示意图。处理设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。处理设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,处理设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储处理设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
处理设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许处理设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如方法音频分类。
在一些实施例中,方法音频分类可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到处理设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的方法音频分类的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法音频分类。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在处理设备上实施此处描述的系统和技术,该处理设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给处理设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (10)
1.一种音频分类方法,其特征在于,包括:
获取原始音频数据;
对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;
将处理后数据输入至识别模型,得到识别结果;
基于所述识别结果确定所述原始音频数据的类别。
2.根据权利要求1所述的方法,其特征在于,所述对原始音频数据进行处理得到处理后数据,包括:
按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号;
分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据。
3.根据权利要求2所述的方法,其特征在于,所述按照原始音频数据的频谱分布对原始音频数据进行分离,得到原始音频数据的三路信号中的两路信号,包括:
按照原始音频数据的频谱分布对原始音频数据进行分离,生成原始音频数据的谐波信号和原始音频数据的冲击源信号;
将所述谐波信号和所述冲击源信号确定为原始音频数据的三路信号中的两路信号。
4.根据权利要求2所述的方法,其特征在于,所述分别对所述两路信号和所述原始音频数据进行调整,得到处理后数据,包括:
针对每路信号,对每路信号进行傅里叶变换和滤波处理,得到处理后数据。
5.根据权利要求1所述的方法,其特征在于,所述识别模型是通过图像数据进行预设神经网络模型的预训练,再基于训练数据进行预训练后的预设神经网络模型的参数的调整得到,所述训练数据包括第一类别的数据和噪音数据。
6.根据权利要求1所述的方法,其特征在于,所述识别结果包括所述原始音频数据属于第一类别的第一类别概率和所述原始音频数据属于第二类别的第二类别概率,所述第一类别和所述第二类别为不同类别;
相应的,所述基于所述识别结果确定所述原始音频数据的类别,包括:
将第一类别概率、第二类别概率分别与预设阈值进行比较,确定原始音频数据的类别。
7.根据权利要求6所述的方法,其特征在于,所述将第一类别概率、第二类别概率分别与预设阈值进行比较,确定原始音频数据的类别,包括:
若所述第一类别概率大于预设阈值,则将第一类别确定为原始音频数据的类别;
若所述第二类别概率大于预设阈值,则将第二类别确定为原始音频数据的类别。
8.一种音频分类装置,其特征在于,包括:
获取模块,用于获取原始音频数据;
处理模块,用于对原始音频数据进行处理得到处理后数据,所述处理后数据包括三路处理后的信号,所述三路处理后的信号为对原始音频数据中以不同频谱分布的信号进行处理后的信号;
输入模块,用于将处理后数据输入至识别模型,得到识别结果;
确定模块,用于基于所述识别结果确定所述原始音频数据的类别。
9.一种处理设备,其特征在于,所述处理设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的音频分类方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的音频分类方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210735142.7A CN115101060A (zh) | 2022-06-27 | 2022-06-27 | 一种音频分类方法、装置、处理设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210735142.7A CN115101060A (zh) | 2022-06-27 | 2022-06-27 | 一种音频分类方法、装置、处理设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115101060A true CN115101060A (zh) | 2022-09-23 |
Family
ID=83295079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210735142.7A Pending CN115101060A (zh) | 2022-06-27 | 2022-06-27 | 一种音频分类方法、装置、处理设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115101060A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116612781A (zh) * | 2023-07-20 | 2023-08-18 | 深圳市亿晟科技有限公司 | 一种音频数据可视化处理方法、装置、设备及存储介质 |
-
2022
- 2022-06-27 CN CN202210735142.7A patent/CN115101060A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116612781A (zh) * | 2023-07-20 | 2023-08-18 | 深圳市亿晟科技有限公司 | 一种音频数据可视化处理方法、装置、设备及存储介质 |
CN116612781B (zh) * | 2023-07-20 | 2023-09-29 | 深圳市亿晟科技有限公司 | 一种音频数据可视化处理方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021082941A1 (zh) | 视频人物识别方法、装置、存储介质与电子设备 | |
WO2019101123A1 (zh) | 语音活性检测方法、相关装置和设备 | |
CN108874895B (zh) | 交互信息推送方法、装置、计算机设备及存储介质 | |
WO2014056326A1 (zh) | 语音质量评估的方法和装置 | |
CN114242113B (zh) | 语音检测方法、训练方法、装置和电子设备 | |
CN115101060A (zh) | 一种音频分类方法、装置、处理设备及介质 | |
CN111954250A (zh) | 一种轻量级Wi-Fi行为感知方法和系统 | |
CN114360562A (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN117059068A (zh) | 语音处理方法、装置、存储介质及计算机设备 | |
CN104900239B (zh) | 一种基于沃尔什-哈达码变换的音频实时比对方法 | |
CN110751942A (zh) | 一种识别特征声音的方法和装置 | |
CN116230001A (zh) | 一种混合语音分离方法、装置、设备及存储介质 | |
US20230186943A1 (en) | Voice activity detection method and apparatus, and storage medium | |
CN114052675B (zh) | 一种基于融合注意力机制的脉搏异常判别方法及系统 | |
CN115600607A (zh) | 一种日志检测方法、装置、电子设备及介质 | |
TW202026855A (zh) | 語音喚醒裝置及方法 | |
CN114297409A (zh) | 模型训练方法、信息抽取方法及装置、电子设备、介质 | |
CN114220430A (zh) | 多音区语音交互方法、装置、设备以及存储介质 | |
CN113470652A (zh) | 一种基于工业互联网的语音识别及处理方法 | |
CN112863548A (zh) | 训练音频检测模型的方法、音频检测方法及其装置 | |
CN113539300A (zh) | 基于噪声抑制的语音检测方法、装置、存储介质以及终端 | |
CN115361584B (zh) | 一种视频数据处理方法、装置、电子设备及可读存储介质 | |
TW201705127A (zh) | 口吃偵測方法與裝置、電腦程式產品 | |
Yue et al. | Speaker age recognition based on isolated words by using SVM | |
CN114678040B (zh) | 语音一致性检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |