CN109065069B - 一种音频检测方法、装置、设备及存储介质 - Google Patents
一种音频检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN109065069B CN109065069B CN201811178750.2A CN201811178750A CN109065069B CN 109065069 B CN109065069 B CN 109065069B CN 201811178750 A CN201811178750 A CN 201811178750A CN 109065069 B CN109065069 B CN 109065069B
- Authority
- CN
- China
- Prior art keywords
- data
- voice
- audio
- audio file
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 257
- 230000006399 behavior Effects 0.000 claims description 91
- 238000012549 training Methods 0.000 claims description 82
- 238000001228 spectrum Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 45
- 239000013598 vector Substances 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 34
- 238000000605 extraction Methods 0.000 claims description 29
- 238000013145 classification model Methods 0.000 claims description 23
- 238000003062 neural network model Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000006854 communication Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000010606 normalization Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000037433 frameshift Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Abstract
本发明实施例公开了一种音频检测方法、装置、设备及存储介质,涉及计算机网络技术领域。该音频检测方法包括:获取音频文件数据;确定音频文件数据对应的属性检测数据;通过预先训练的全连接网络模型,依据属性检测数据进行语音违规行为检测,生成音频文件数据对应的语音行为检测结果。本发明实施例能够及时检测出语音违规行为对应的违规语音数据,从而解决了现有基于用户举报和人工抽查导致语音违规行为检测的时间滞后的问题。
Description
技术领域
本发明涉及计算机网络技术领域,尤其涉及一种音频检测方法、装置、设备及存储介质。
背景技术
随着计算机网络技术的快速发展,诸如个人计算机(Personal Computer,PC)、手机、平板电脑等设备越来越普及,给人们的生活、学习及工作带来了极大的便利。
作为设备的一个具体应用,用户可以使用设备,通过网络与其他用户进行语音沟通,如可以使用设备中所安装的带有语音聊天功能的软件,通过网络与其他用户进行语音聊天,也可以通过加入特定聊天室或聊天群参与多人的语音聊天和娱乐。具体的,用户可以通过设备将其所需要发送的语音信息发送给网络,使得其他用户可以通过网络接收到该语音信息并播放,达到语音沟通的目的。在实际聊天环境中,尤其是多人聊天时,语音信息涉及的内容范围较广,其中可能包含令人不适的语音数据,诸如刺耳、高分贝、内容不恰当等,这些语音通常是由个别用户恶意发出旨在干扰其他用户的正常使用,因而软件运营方将这类语音列为违规语音数据。
为了打击违规语音数据,保障用户的正常使用体验,避免用户流失而影响商业运营,软件运营方做了很多努力和探索,但收效有限。现有技术中,经常采用两种方案,一种是在软件上配置有举报入口,供正常用户举办违规用户,软件平台根据举报的线索作相应处理和惩罚;另一种是在平台侧部署人力,通过人工抽查或监控处理违规语音。对于具有大量活跃用户的软件平台,同一时间内经常同时并存数目极大的聊天室,各种违规语音数据很可能会大量随机出现,由此可知,上述两种方案均难以有效制止同一时间内随机出现的大量违规语音数据,也整体上很难解决违规语音影响用户正常体验的问题,并且偏向事后或者事情发生到一定程度后才介入,因此存在时间滞后,并且投入代价大。
发明内容
有鉴于此,本发明实施例提供一种音频检测方法、系统、设备以及存储介质,通过自动检测语音违规行为,以解决传统基于人工检测违规语音数据的方法中所存在的检测时间滞后的技术问题。
第一方面,本发明实施例提供了一种音频检测方法,包括:获取音频文件数据;确定音频文件数据对应的属性检测数据;通过预先训练的全连接网络模型,依据属性检测数据进行语音违规行为检测,生成音频文件数据对应的语音行为检测结果。
可选的,确定音频文件数据对应的属性检测数据,包括:对音频文件数据进行切片处理,得到至少两帧音频时域信息;依据至少两帧音频时域信息进行特征提取,得到振幅谱特征数据和声纹特征数据;对振幅谱特征数据和声纹特征数据进行拼接,生成特征向量数据;通过预先训练的语音分类模型,依据特征向量数据进行语音分类处理,得到作为所述属性检测数据的分类概率数据。
可选的,依据至少两帧音频时域信息进行特征提取,得到振幅谱特征数据,包括:对至少两帧音频时域信息进行频域变换,得到音频频域信息;基于音频频域信息进行振幅谱特征提取,得到所述音振幅谱特征数据。
可选的,确定音频文件数据对应的属性检测数据,包括:对音频文件数据进行切片处理,得到至少两帧音频时域信息;对至少两帧音频时域信息进行频域变换,得到音频频域信息;对音频频域信息进行均值处理,得到第二定长数据;基于第一定长数据,通过预先训练的神经网络模型进行声纹特征提取,得到作为所述属性检测数据的声纹特征数据。
可选的,上述方法还包括:从预设的训练集中,获取待训练音频文件数据;采用预设的移动窗口,对待训练音频文件数据进行切片,得到帧时域信息;对帧时域信息进行频域变换,得到帧频域信息;对帧频域信息进行均值处理,得到第二定长数据;基于第二定长数据和音频文件数据对应的标签数据,按照预设的神经网络算法进行训练,得到神经网络模型。
可选的,还包括:获取目标用户的历史行为数据;根据所述历史行为数据得到作为所述属性检测数据的用户等级数据。其中,历史行为数据包括以下至少一项:历史登录数据、用户消费行为数据、违规历史数据和充值历史数据。历史登录数据包括:登录次数、登录时长以及登录地址。
可选地,所述属性检测数据包括以下至少两项:用户等级数据、分类概率数据和声纹特征数据,所述用户等级数据用于表征用户等级,所述分类概率数据用于表征语音违规行为对应的分类概率,声纹特征数据用于表征音频文件数据对应的声纹特征。
可选的,通过预先训练的全连接网络模型,依据属性检测数据进行语音违规行为检测,生成音频文件数据对应的语音行为检测结果,包括:将属性检测数据输入到全连接网络模型进行检测;将全连接网络模型输出的检测结果作为语音行为检测结果。
可选的,上述方法还包括:当语音违规行为检测结果为语音违规行为检测结果时,确定所述音频文件数据包含违规语音数据;禁止传输或播放所述违规语音数据;或者,屏蔽所述违规语音数据对应用户的语音输入。
可选的,上述方法还包括:采用预设的移动窗口,对获取到的待训练音频文件数据进行切片,得到帧时域信息;依据帧时域信息进行特征提取,得到振幅谱特征训练数据和声纹特征训练数据,其中,特征提取包括:振幅谱特征提取和声纹特征提取;对振幅谱特征训练数据进行均值处理,得到第三定长数据;对振幅谱特征训练数据和声纹特征训练数据进行拼接,生成特征向量训练数据;依据第三定长数据和特征向量训练数据进行训练,得到语音分类模型。
可选的,上述方法还包括:获取待训练属性检测数据;依据待训练属性检测数据进行训练,得到全连接网络模型。
第二方面,本发明实施例还提供了一种音频检测装置,包括:
音频文件数据获取模块,用于获取音频文件数据;
属性检测数据确定模块,用于确定音频文件数据对应的属性检测数据;
语音违规行为检测模块,用于通过预先训练的全连接网络模型,依据属性检测数据进行语音违规行为检测,生成音频文件数据对应的语音行为检测结果。
第三方面,本发明实施例还提供了一种设备,包括:处理器和存储器;所述存储器中存储有至少一条指令,所述指令由所述处理器执行,使得所述设备执行如第一方面所述的音频检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,所述存储介质中的指令由设备的处理器执行时,使得设备能够执行如第一方面所述的音频检测方法。
采用本发明实施例,在获取到音频文件数据后,可通过确定音频文件数据对应的属性检测数据,来进行语音违规行为检测,从而能够及时检测出语音违规行为对应的违规语音数据,确保用户的正常使用,解决了现有基于用户举报和人工抽查导致语音违规行为检测的时间滞后的问题,投入代价小。
附图说明
图1是本发明实施例中的一种音频检测方法的步骤流程示意图;
图2是本发明一个可选示例中的音频文件数据的检测流程示意图;
图3是本发明实施例中的一种音频检测装置实施例的结构方框示意图;
图4是本发明一个示例中的一种设备的结构方框示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构或组成。
参照图1,示出了本发明的一种音频检测方法实施例的步骤流程示意图,具体可以包括如下步骤:
步骤110,获取音频文件数据。
具体的,本发明实施例在语音违规行为检测过程中,可以获取当前所需要检测的音频文件数据,以检测当前获取到音频文件数据是否包含语音违规行为对应的违规语音数据。其中,音频文件数据可以用于表征音频文件所包含的数据,如可以是声音文件中的语音数据。需要说明的是,声音文件可以是设备依据用户讲话声音生成的,可以用于承载表征用户所需要发送的语音数据,具体可以包括:语音违规行为对应的违规语音数据、符合预设语音行为规定的语音数据(即合规语音数据)等,本发明实施例对此不作具体限制。
具体实现时,用户的讲话声音形成语音数据,该语音数据可以通过软件接口输入到软件中,使得软件可以将该语音数据确定为音频文件数据,即软件可以获取到音频文件数据,从而使得软件可以依据该音频文件数据自动进行音频检测;或者,软件可以通过网络,将获取到的音频文件数据传输给软件平台,使得软件平台可以获取到该音频文件数据,进而可以通过软件平台对该音频文件数据进行音频检测。
步骤120,确定所述音频文件数据对应的属性检测数据。
在具体实现中,本发明实施例在获取到音频文件数据后,可以依据该音频文件数据进行数据处理,确定音频文件数据对应的属性检测数据,以便后续可以依据该属性检测数据进行语音违规行为检测。其中,属性检测数据可以包括以下至少一项:用户等级数据、分类概率数据和声纹特征数据等,本发明实施例对此不作具体限制。
需要说明的是,用户等级数据、分类概率数据和声纹特征数据等均可以预先获得并存储于预定位置中,以供步骤120执行时从预定位置中读取进行比对或确定。用户等级数据可以用于确定目标用户的用户等级,且用户等级可以依据目标用户的消费习惯、历史登录行为预先确定,如可以通过对目标用户的历史充值记录和历史登录行为数据进行归一化处理,确定出该目标用户的用户等级。其中,历史登录行为数据可以用于表征用户的历史登录行为,如作为历史登录行为数据的历史登录时长数据可以用于表征用户历史登录的时长;目标用户可以是指发送音频文件数据的用户,如可以是在语音沟通过程中,发送语音信息的用户等。目标用户的用户等级越高,可以表征该目标用户发送违规语音数据的可能性越小。
分类概率数据可以用于表征语音违规行为对应的分类概率,如语音违规概率、语音合规概率等。其中,语音违规概率可以是指:音频文件数据中所包含的语音数据是违规语音数据的概率;语音合规概率可以是指:音频文件数据中所包含的语音数据是合规语音数据的概率。在具体实现时,语音违规概率的大小可以参照以下因素:刺耳、高分贝、音频内容信息等。具体的,若音频文件数据含有恶意发出的刺耳、高分贝、内容不恰当等令人不适的语音数据,则会增大该音频文件数据对应的语音违规概率,即音频含有用户恶意发出的刺耳、高分贝、内容不恰当等令人不适的信息,会导致该音频的违规概率增大。
声纹特征数据可以用于表征音频文件数据对应的声纹特征。该声纹特征可以是指用户的声音纹理特征。声音纹理特征具体可以是指:将用户的原始音频波形经过傅里叶变换及其它后处理生成的声音在时域上的频域特征。
具体实施时,当获取到音频文件数据后,根据该音频文件数据对应的用户信息,查找或者获取该用户对应的用户等级数据、分类概率数据或者声纹特征数据等,这些数据的一种或者多种的组合作为该音频文件数据的属性检测数据。因此,在本发明的一个可选实施例中,上述步骤120确定的属性检测数据具体可以包括以下至少两项:用户等级数据、分类概率数据和声纹特征数据。其中,所述用户等级用于表征用户等级,所述分类概率数据用于表征语音违规行为对应的分类概率,声纹特征数据用于表征音频文件数据对应的声纹特征。优选地,属性检测数据同时包含用户等级数据、分类概率数据和声纹特征数据,以便语音行为检测结果更加准确。
步骤130,通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
本发明实施例中,在确定出音频文件数据对应的属性检测数据后,可以将该属性检测数据作为预先训练的全连接网络模型的输入,随后可将属性检测数据输入到预先训练的全连接网络模型中,以通过该全连接网络模型进行语音违规行为,生成音频文件数据对应的语音行为测结果。若语音行为检测结果为语音违规行为检测结果,则可以确定音频文件数据包含违规语音数据,即检测出语音违规行为对应的违规语音数据。若语音行为检测结果不是语音违规行为检测结果,则可以确定音频文件数据不包含违规语音数据,如在语音行为检测结果为语音正常行为检测结果时,可以确定音频文件数据未含有语音违规行为对应的违规语音数据。
综上,本发明实施例在获取到音频文件数据后,可通过确定音频文件数据对应的属性检测数据,来进行语音违规行为检测,从而能够及时检测出语音违规行为对应的违规语音数据,确保用户的正常使用,解决了现有基于用户举报和人工抽查导致语音违规行为检测的时间滞后的问题,保障用户的正常使用体验,满足用户需求。
在此基础上,当检测到用户拟发出的语音违规后,限制或暂停该用户的语音数据传输给其他用户,具体实现时,后根据该用户的音频文件数据判断出该用户违规时,给该用户的客户端发送相应信息,使该客户端暂停用户的语音聊天功能。
在具体实现中,本发明实施例在获取到音频文件数据后,可以对该音频文件数据进行切片处理,从而可以得到切片处理后的若干帧的音频时域信息;随后,可以依据得到的若干帧的音频时域信息进行特征提取,得到音频特征数据,以依据该音频特征数据确定出音频文件数据对应的属性检测数据。其中,音频特征数据可以用于表征音频特征,如表征音频的振幅特征、声纹特征等。
例如,在音频特征数据为振幅谱(Magnitude Spectrum,Mags)特征数据时,可以依据该振幅谱特征数据生成音频文件数据对应的分类概率数据,以便后续可以依据该分类概率数据进行语音违规行为检测。振幅谱(Magnitude Spectrum,Mags)特征数据可以用于表征音频的Mags特征。需要说明的是,发明人在实现本发明实施例过程中,经过深入分析和实验发现,Mags特征用于在声音违规检测中,效果良好,因而如后文所述,本发明实施例的一些优选方案结合Mags特征作了相应扩展。
在本发明的一个可选实施例中,上述确定所述音频文件数据对应的属性检测数据的步骤,具体可以包括:对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;依据所述至少两帧音频时域信息进行特征提取,得到振幅谱特征数据和声纹特征数据;对所述振幅谱特征数据和所述声纹特征数据进行拼接,生成特征向量数据;通过预先训练的语音分类模型,依据所述特征向量数据进行语音分类处理,得到作为所述属性检测数据的分类概率数据。其中,特征提取可以包括:振幅谱特征提取、声纹特征提取等,本发明实施例对此不作具体限制。
例如,在语音通讯过程中,可以获取待发送的音频文件数据,并可利用预设的移动窗口对获取到的音频文件数据进行切片,得到若干帧的音频时域信息。从而,可以依据若干帧的音频时域信息进行Mags特征提取,得到Mags特征数据;并且可以依据该若干帧的音频时域信息进行声纹特征提取,得到所述音频文件数据对应的声纹特征数据;随后,可以将得到的Mags特征数据与到声纹特征数据进行拼接,生成一维的特征向量数据,以及将该特征向量数据作为语音分类模型的输入,以通过该语音分类模型进行语音分类处理,得到所述音频文件数据对应的分类概率数据。具体的,语音分类模型可以根据不同的音频输入提取音频的特征,即根据输入的特征向量数据进行特征提取,得到输入特征;随后可根据输入特征的分布,分配该输入一个概率值,即为输入的特征向量数据分配一个分类概率数据,并输出,以作为语音违规行为检测的属性检测数据。如果输入特征与预设的违规样本的特征相似,则语音分类模型会分配给输入的特征向量数据一个高违规概率,如输出90%作为特征向量数据的语音违规概率。如果输入特征与预设的正常样本的特征相似,则语音分类模型会分配给输入的特征向量数据一个低违规概率,如输出1%作为特征向量数据的语音违规概率,即特征向量数据的语音合规概率为99%。
在上述实施例的基础上,可选的,依据所述至少两帧音频时域信息进行特征提取,得到振幅谱特征数据,具体可以包括:对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;基于所述音频频域信息进行振幅谱特征提取,得到振幅谱特征数据。其中,频域变换可以包括傅里叶变换,如快速傅氏变换(Fast Fourier Transformation,FFT)等,本发明实施例对此不作具体限制。
作为本发明的一个示例,在利用预设的移动窗口将音频文件数据切成若干个小段后,可以将每一小段称为一帧音频时域信息;随后,可以对得到的各帧音频时域信息进行傅里叶变换,得到各帧音频时域信息对应的音频频域信息,以及,可以基于该音频频域信息进行振幅谱特征提取,得到所述音频文件数据对应的振幅谱特征数据,如对音频频域信息的Mags取均值和方差,然后将取到的均值和方差作为振幅谱特征数据,以基于振幅谱特征数据生成特征向量数据,从而可以依据该特征向量数据进行语音分类处理,得到所述音频文件数据对应的分类概率数据。其中,相邻的两帧音频时域信息可以有交叠部分,即帧与帧之间可以有交叠,如在一帧音频时域信息的帧长为25毫秒(ms),帧移为10毫秒时,两帧之间可以有15毫秒的交叠。需要说明的是,帧长和帧移可以依据精确度要求进行设置,本示例对此不作具体限制。
当然,也可以将得到的音频特征数据作为属性检测数据,以依据该音频特征数据进行语音违规行为检测,如在音频特征数据为声纹特征数据时,可以将该声纹特征数据作为属性检测数据,以依据该音频特征数据进行语音违规行为检测,本发明实施例对此不作具体限制。
在本发明的一个可选实施例中,上述确定所述音频文件数据对应的属性检测数据的步骤,具体可以包括:对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;对所述音频频域信息进行均值处理,得到第一定长数据;基于所述第一定长数据,通过预先训练的神经网络模型进行声纹特征提取,得到作为所述属性检测数据的声纹特征数据。具体的,在获取到待检测的音频文件数据后,可以利用移动窗口对该音频文件数据进行切片处理,得到若干帧音频时域信息,随后对得到的若干帧音频时域信息进行FFT变换,得到音频频域信息,以及对该音频频域信息进行均值处理,如对该音频频域信息取均值,得到定长的数据,并可将得到的定长的数据确定为第一定长数据,以将该第一定长数据输入到预先训练的神经网络模型中进行声纹特征提取,得到声纹特征数据,然后可将该声纹特征数据作为音频文件数据对应的属性检测数据,输入到全连接网络模型中,以依据声纹特征数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。其中,待检测的音频文件数据可以包括待传输的音频文件数据、待播放的音频文件数据等;待传输的音频文件数据可以用于表征语音通讯过程中待发送的音频文件数据;待播放的音频文件数据可以用于表征待播放语音的文件数据。
在具体实现中,本发明实施例可以基于用户消费习惯对用户进行分级,以基于分级后得到的用户级别进行语音违规行为检测,以预测出语音违规行为。可选地,本发明实施例提供的音频检测方法还可以包括:获取目标用户的历史行为数据;根据所述历史行为数据得到作为所述属性检测数据的用户等级数据。其中,所述历史行为数据包括以下至少一项:历史登录数据、用户消费行为数据、违规历史数据、用户消费行为数据和充值历史数据等。
具体而言,在需要确定某一个用户的用户等级时,可以将该用户确定为目标用户,并可以根据该目标用户的用户标识,如用户账号、用户名等,从数据库中获取该目标用户的历史行为数据,以根据获取到的历史行为数据确出该目标用户的用户等级,即确定出目标用户的用户等级数据。随后可以将用户等级数据存储到的数据库中,以在音频检测时从该数据库中获取到该用户等级数据作为属性检测数据。
当然,本发明实施例也可在音频检测时,针对获取到的音频文件数据,获取该音频文件数据对应目标用户的历史行为数据,以根据获取到的历史行为数据实时确定出作为属性检测数据的用户等级数据,从而可以采用实时确定出的用户等级数据进行语音违规行为检测,提高语音违规行为检测的准确性。可选的,上述确定所述音频文件数据对应的属性检测数据的步骤,具体可以包括:针对所述音频文件数据,获取目标用户的历史行为数据;对所述历史行为数据进行归一化处理,得到作为所述属性检测数据的用户等级数据。
作为本发明的一个示例,在获取到音频文件数据后,可以将发送该音频文件数据的用户确定为目标用户,随后可针对该音频文件数据,依据目标用户的用户标识,获取该目标用户的历史行为数据,如用户消费行为数据,历史登录数据、违规历史数据和充值历史数据等其中任意一项或几项数据。其中,用户消费行为数据可以用于确定目标用户的消费行为习惯信息;违规历史数据可以用于确定目标用户的语音违规历史信息,如确定目标用户是否有违规历史,或者确定目标用户的违规历史次数等;充值历史数据可以用于确定目标用户的充值历史信息,如目标用户的充值次数,历史充值金额等;用户历史登录数据可以用于确定目标用户的历史登录行为,具体可以包括:登录次数、登录时长、登录地址等。登录次数可以用于表征目标用户的登录数量;登录时长可以用于表征目标用户的历史登录时长,如可以包括目标用户每一次登录对应的登录时长;登录地址可以用于确定用户每一次登录的地址,如可以是目标用户登录时所使用的设备的互联网协议(Internet Protocol,IP)地址、媒体访问控制(Medium Access Control,MAC)地址等,本示例对此不作具体限制。
在获取到目标用户的历史行为数据后,可对获取到的历史行为数据进行归一化处理,如对目标用户的目标用户的登陆数量、登陆时长、是否有违规历史、充值历史等信息进行数值化和归一化,从而可以基于归一化处理结果确定出目标用户的用户等级数据,随后可将该用户等级数据作为属性检测数据,输入到预先训练的全连接网络模型中进行语音违规行为检测,生成语音行为检测结果。
本发明实施例中,可选的,通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果,具体可以包括:将所述属性检测数据输入到所述全连接网络模型进行检测;将所述全连接网络模型输出的检测结果作为所述语音行为检测结果。
作为本发明的一个可选示例,在获取到音频文件数据后,如图2所示,可以基于诸如卷积神经网络(Convolutional Neural Network,CNN)进行声音纹理提取,得到该音频文件数据对应的声纹特征数据;并可以基于Mags特征进行声音分类,即采用音频文件数据对应的Mags特征数据生成特征向量数,并将该特征向量数输入到语音分类模型进行语音分类处理,得到所述音频文件数据对应的分类概率数据;以及可以针对当前获取到的音频文件数据,基于用户消费习惯对应的消费行为习惯信息进行用户等级预测,确定出用户等级数据。随后,可以基于用户等级数据、分类概率数据以及声纹特征数据进行融合检测,即将用户等级数据、分类概率数据以及声纹特征数据这三种属性检测数据输入到预先训练好的全连接网络模型,以通过全连接网络模型融合用户等级数据、分类概率数据以及声纹特征数据这三种属性检测数据,来进行语音违规行为检测,得到全连接网络模型输出的检测结果,然后可以将全连接网络模型输出的检测结果作为语音行为检测结果,从而可以基于该语音行为检测结果确定出音频文件数据是否包含违规语音数据,实现了语音违规行为的预测,解决了现有技术中语音违规行为的检测时间滞后问题。
在上述实施例的基础上,可选的,本发明实施例提供的音频检测方法还可以包括:当所述语音为检测结果为语音违规行为检测结果时,确定所述音频文件数据包含违规语音数据;禁止传输或播放所述违规语音数据。
具体的,在语音通讯过程中,可以获取目标用户当前所需要发送的音频文件数据进行语音违规行为检测,以判断该目标用户发送的音频文件数据是否包含有语音违规行为对应的违规语音数据。在语音行为检测结果分为语音违规行为检测结果和语音正常行为检测结果的情况下,若全连接网络模型输出的语音行为检测结果为语音正常行为检测结果,则可以确定当前获取到的音频文件数据不包含违规语音数据,随后可以基于语音正常行为检测结果发送该音频文件数据,使得与该目标用户进行语音通讯的其他用户可以接收到该音频文件数据并播放,达到语音通讯的目的;若全连接网络模型输出的语音行为检测结果为语音违规行为检测结果,则可以确定当前获取到的音频文件数据包含违规语音数据,随后可以基于语音违规行为检测结果,禁止该音频文件数据的发送,如驳回该音频文件数据对应的发送请求,以禁止传输该音频文件数据中所包含的违规语音数据,从而可以违规语音数据所带来的负面影响,确保用户的正常使用。
当然,本发明实施例中获取到的音频文件数据还可以是其他音频文件数据,如可以是待播放的音频文件数据等。当检测到待播放的音频文件数据对应的语音行为检测结果为语音违规行为检测结果,可以基于语音违规行为检测结果,禁止该音频文件数据的播放,如软件在检测到待播放的音频文件数据对应的语音行为检测结果为语音违规行为检测结果时,可以丢弃或忽略该音频文件数据,即不对该音频文件数据进行播放,以禁止播放该音频文件数据中所包含的违规语音数据;在检测到待播放的音频文件数据对应的语音行为检测结果为语音正常行为检测结果后,可以基于语音正常行为检测结果对音频文件数据进行播放等。
此外,本发明实施例在确定出音频文件数据包含违规语音数据后,可以屏蔽该违规语音数据对应用户的语音输入。具体的,用户可以在使用软件过程中,可以通过该软件的语音输入接口进行语音输入,使得软件和/或该软件对应的软件平台可以获取到其所输入的语音数据,从而可以基于获取到的语音数据形成音频文件数据,随后可基于该音频文件数据进行音频检测,以确定语音数据是否是违规语音数据。软件或者软件平台检测到音频文件数据对应的语音行为检测结果为语音违规行为检测结果时,可以确定音频文件数据包含违规语音数据,即确定该用户输入的语音数据为违规语音数据,然后可以针对该用户关闭软件的语音输入接口,使得该用户不可以通过该软件的语音输入接口进行语音输入,以屏蔽该用户的语音输入。当然,软件和/或软件平台也可以采用其他方式来屏蔽用户的语音输入,如可以通过关闭软件的语音输入功能来实现语音输入的屏蔽等,本发明实施例对此不作具体限制。
进一步的,本发明实施例在确定出音频文件数据对应的属性检测数据后,可以将该属性检测数据存储到一个训练集中,作为待训练属性检测数据,以便在训练全连接网络模型时可以从训练集中获取到该待训练属性检测数据进行训练。可选地,本发明实施例提供的音频检测方法还可以包括:获取待训练属性检测数据;依据所述待训练属性检测数据进行训练,得到全连接网络模型。其中,所述待训练属性检测数据包括从训练集获取到的各种属性检测数据,如用户等级数据、分类概率数据和声纹特征数据等。
例如,在确定出音频文件数据对应的用户等级数据、分类概率数据和声纹特征数据后,可以将用户等级数据、分类概率数据以及声纹特征数据作为全连接网络模型的训练数据,即将用户等级数据、分类概率数据以及声纹特征数据作为待训练属性检测数据,然后可按照预设的全连接网络结构,采用分类概率数据、用户等级数据以及声纹特征数据进行模型训练,得到全连接网络模型。该全连接网络模型可以用于依据输入的属性检测数据进行语音违规行为检测,输出语音行为检测结果。该语音行为检测结果可以用于判断是否存在语音违规行为,以确定音频文件数据是否包含语音违规行为对应的违规语音数据。
当然,本发明实施例也可以将音频文件数据作为训练数据,以基于该音频文件数据进行训练,得到相应的网络模型。该网络模型可以用于确定音频文件数据对应的属性检测数据,具体可以包括:神经网络模型和语音分类模型等,本发明实施例对此不作限制。其中,神经网络模型可以用于确定音频文件数据对应的声纹特征数据;语音分类模型可以用于确定音频文件数据对应的分类概率数据。
在本发明的一个可选实施例中,上述音频检测方法还可以包括:从预设的训练集中,获取待训练音频文件数据;采用预设的移动窗口,对所述待训练音频文件数据进行切片,得到帧时域信息;对所述帧时域信息进行频域变换,得到帧频域信息;对所述帧频域信息进行均值处理,得到第二定长数据;基于所述第二定长数据和所述音频文件数据对应的标签数据,按照预设的神经网络算法进行训练,得到所述神经网络模型。其中,频域变换可以包括傅里叶变换、快速傅里叶变换等。
具体的,本发明实施例可以预先将需要进行训练的音频文件数据存储到训练集中,并可将训练集中存储的音频文件数据作为待训练音频文件数据。在模型训练过程中,可以从该训练集中获取待训练音频文件数据,然后可采用预设的移动窗口对该待训练音频文件数据进行切片,得到若干个帧的时域信息,即得到帧时域信息,随后可对帧时域信息进行频域变换,如对若干个帧的时域信息进行FFT变换,得到帧频域信息;以及,可以对该帧频域信息进行均值处理,如对帧频域信息取均值,得到定长的数据,并可以将该数据作为第二定长数据。
此外,可以为待训练音频数据设置对应的标签数据,从而采用该标签数据和第二定长数据,按照预设的神经网络算法进行训练,如按照预设的CNN算法进行网络训练,直到网络收敛。在网络收敛时,可以基于训练得到的网络参数构建对应的神经网络模型,以便后续可以通过该神经网络模型进行声纹特征提取。其中,神经网络模型可以包括:网络参数和至少两个网络层,如卷积层、全连接层等,本发明实施例对此不作具体限制。
例如,在神经网络模型的训练过程中,可以将得到的第二定长数据和音频文件数据对应的标签数据输入到CNN模型中,以训练该CNN模型的网络参数,直到网络收敛。其中,标签数据可以用于标记待训练音频数据是否包含语音违规行为对应的违规语音数据。
进一步的,本发明实施例在训练过程中,可以基于提取到的声纹特征数据进行训练,以训练出语音分类模型。可选地,上述音频检测方法还可以包括:采用预设的移动窗口,对获取到的待训练音频文件数据进行切片,得到帧时域信息;依据所述帧时域信息进行特征提取,得到振幅谱特征训练数据和声纹特征训练数据,其中,所述特征提取包括:振幅谱特征提取和声纹特征提取;对所述振幅谱特征训练数据进行均值处理,得到第三定长数据;对所述振幅谱特征训练数据和声纹特征训练数据进行拼接,生成特征向量训练数据;依据第三定长数据和所述特征向量训练数据进行训练,得到所述语音分类模型。
具体而言,本发明实施例在获取到待训练音频文件数据后,可以预设的移动窗口对该待训练音频文件数据进行切片,得到帧时域信息,然后可依据该帧时域信息进行振幅谱特征提取和声纹特征提取,得到振幅谱特征训练数据和声纹特征训练数据。例如,可以通过对帧时域信息进行FFT变换,得到帧频域信息;然后,可依据该帧频域信息进行振幅谱特征,得到待训练音频文件数据对应的振幅谱特征训练数据,并可基于该帧频域信息进行声纹特征提取,得到待训练音频文件数据对应的声纹特征训练数据。
随后,对振幅谱特征训练数据和声纹特征训练数据进行拼接,形成特征向量训练数据,并可将该特征向量训练数据作为语音分类模型的训练数据,以采用特征向量训练数据进行语音分类模型训练。例如,在声纹特征训练数据是1维向量(1,1024),Mags特征训练数据是1维向量(1,512)时,可以通过将这两个向量拼接在一起,组成1维特征向量(1,1536),并可以将该1维特征向量(1,1536)作为特征向量训练数据,输入到预设的全连接网络进行训练,从而可以训练出一个2层全连接网络模型,进而可以将训练出这个2层全连接网络模型作为语音分类模型,以便后续可以采用该语音分类模型进行语音分类处理。
综上,本发明实施例可以通过神经网络模型进行声纹特征提取,得到音频文件数据对应的声纹特征数据,并可通过语音分类模型进行语音分类处理,得到音频文件数据对应的分类概率数据,以及,可以通过对目标用户的历史行为数据进行归一化处理,确定用户等级数据,从而可以依据声纹特征数据、分类概率数据以及用户等级数据进行语音违规行为检测,即融合音频文件数据对应的多种属性检测数据进行语音违规行为检测,能够有效解决现有技术基于人工检测语音违规行为中所存在的时间滞后、代价大等问题,减少语音违规行为检测的投入代价,以及提高语音违规行为检测的准确度。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。
参照图3,示出了本发明实施例中的一种音频检测装置实施例的结构方框示意图,该音频检测装置具体可以包括如下模块:
音频文件数据获取模块310,用于获取音频文件数据;
属性检测数据确定模块320,用于确定所述音频文件数据对应的属性检测数据;
语音违规行为检测模块330,用于通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
在本发明的一个可选实施例中,属性检测数据确定模块320可以包括如下子模块:
切片处理子模块,用于对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;
特征提取子模块,用于依据所述至少两帧音频时域信息进行特征提取,得到所述音频文件数据对应的振幅谱特征数据和声纹特征数据;
数据拼接子模块,用于对所述振幅谱特征数据和所述声纹特征数据进行拼接,生成特征向量数据;
分类处理子模块,用于通过预先训练的语音分类模型,依据所述特征向量数据进行语音分类处理,得到作为所述属性检测数据的分类概率数据。
在上述实施例的基础上,可选地,所述特征提取子模块具体可以包括如下单元:
频域变换单元,用于对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;
振幅谱特征提取单元,用于基于所述音频频域信息进行振幅谱特征提取,得到所述音频文件数据对应的振幅谱特征数据。
可选的,分类处理子模块具体可包括如下单元:
均值处理单元,用于对所述振幅谱特征数据进行均值处理,得到定长数据;
分类处理单元,用于基于所述定长数据,通过预先训练的神经网络模型,对所述特征向量数据进行语音分类处理,得到所述音频文件数据对应的分类概率数据。
在本发明的另一个可选实施例中,属性检测数据确定模块320可以包括如下子模块:
切片处理子模块,用于对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;
频域变换子模块,用于对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;
频域均值处理子模块,用于对所述音频频域信息进行均值处理,得到第一定长数据;
声纹特征提取子模块,用于基于所述第一定长数据,通过预先训练的神经网络模型进行声纹特征提取,得到所述音频文件数据对应作为所述属性检测数据的声纹特征数据。
在本发明的又一个可选实施例中,音频检测装置还可以包括如下模块:
历史行为数据获取模块,用于获取目标用户的历史行为数据;
用户等级数据确定模块,用于根据所述历史行为数据得到作为所述属性检测数据的用户等级数据。其中,所述历史行为数据包括以下至少一项:历史登录数据、用户消费行为数据、违规历史数据和充值历史数据。
本发明实施例中,可选地,属性检测数据确定模块320可以包括如下子模块:
行为数据获取子模块,用于针对所述音频文件数据,获取目标用户的历史行为数据;
归一化处理子模块,用于对所述历史行为数据进行归一化处理,确定所述目标用户的用户等级数据。
本发明实施例中,上述历史登录数据具体可以包括:登录次数、登录时长、登录地址等等。可选地,上述属性检测数据可以包括以下至少两项:用户等级数据、分类概率数据和声纹特征数据,所述用户等级数据用于表征用户等级,所述分类概率数据用于表征语音违规行为对应的分类概率,声纹特征数据用于表征音频文件数据对应的声纹特征。
在本发明的一个可选实施例中,语音违规行为检测模块330具体可以包括如下子模块:
输入子模块,用于将所述属性检测数据输入到所述全连接网络模型进行检测;
输出子模块,用于将所述全连接网络模型输出的检测结果作为所述语音行为检测结果。
在上述实施例的基础上,可选地,该音频检测装置还可以包括如下模块:
违规语音数据确定模块,用于当所述语音为检测结果为语音违规行为检测结果时,确定所述音频文件数据包含违规语音数据;
禁止传输模块,用于禁止传输所述违规语音数据;
静止播放模块,用于禁止播放违规语音数据;
语音输入屏蔽模块,用于屏蔽所述违规语音数据对应用户的语音输入。
在上述实施例的基础上,可选地,该音频检测装置还可以包括如下模块:
训练数据获取模块,用于从预设的训练集中,获取待训练音频文件数据;
切片模块,用于采用预设的移动窗口,对所述待训练音频文件数据进行切片,得到帧时域信息;
频域变换模块,用于对所述帧时域信息进行频域变换,得到帧频域信息;
均值处理模块,用于对所述帧频域信息进行均值处理,得到第二定长数据;
神经网络训练模块,用于基于所述第二定长数据和所述音频文件数据对应的标签数据,按照预设的神经网络算法进行训练,得到所述神经网络模型。
在本发明的一个可选实施例中,音频检测装置还可以包括如下模块:
切片模块,用于采用预设的移动窗口,对获取到的待训练音频文件数据进行切片,得到帧时域信息;
特征提取模块,用于依据所述帧时域信息进行特征提取,得到振幅谱特征训练数据和声纹特征训练数据,其中,所述特征提取包括:振幅谱特征提取和声纹特征提取;
均值处理模块,用于对所述振幅谱特征训练数据进行均值处理,得到第三定长数据;
训练数据拼接模块,用于对所述振幅谱特征训练数据和声纹特征训练数据进行拼接,生成特征向量训练数据;
语音分类模型训练模块,用于依据第三定长数据和所述特征向量训练数据进行训练,得到所述语音分类模型。
在上述实施例的基础上,可选地,该音频检测装置还可以包括:全连接网络模型训练模块。该全连接网络模型训练模块,用于获取待训练属性检测数据;依据所述待训练属性检测数据进行训练,得到全连接网络模型。其中,所述属性检测数据包括以下至少一项:用户等级数据、分类概率数据和声纹特征数据等,本发明实施例对此不作具体限制。
需要说明的是,上述提供的音频检测装置可执行本发明任意实施例所提供的音频检测方法,具备执行方法相应的功能和有益效果。
在具体实现中,上述音频检测装置可以集成在设备中。该设备可以是两个或多个物理实体构成,也可以是一个物理实体构成,如设备可以是PC、电脑、手机、平板设备、个人数字助理、服务器、消息收发设备、游戏控制台等。
进一步的,本发明实施例还提供一种设备,包括:处理器和存储器。存储器中存储有至少一条指令,且指令由所述处理器执行,使得所述设备执行如上述方法实施例中所述的音频检测方法。
参照图4,示出了本发明一个示例中的一种设备的结构方框示意图。如图4所示,该设备具体可以包括:处理器40、存储器41、具有触摸功能的显示屏42、输入装置43、输出装置44以及通信装置45。该设备中处理器40的数量可以是一个或者多个,图4中以一个处理器40为例。该设备中存储器41的数量可以是一个或者多个,图4中以一个存储器41为例。该设备的处理器40、存储器41、显示屏42、输入装置43、输出装置44以及通信装置45可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明任意实施例所述的音频检测方法对应的程序指令/模块(例如,音频检测装置中的音频文件数据获取模块310、属性检测数据确定模块320以及语音违规行为检测模块330等)。存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
显示屏42为具有触摸功能的显示屏42,其可以是电容屏、电磁屏或者红外屏。一般而言,显示屏42用于根据处理器40的指示显示数据,还用于接收作用于显示屏42的触摸操作,并将相应的信号发送至处理器40或其他装置。可选的,当显示屏42为红外屏时,其还包括红外触摸框,该红外触摸框设置在显示屏42的四周,其还可以用于接收红外信号,并将该红外信号发送至处理器40或者其他设备。
通信装置45,用于与其他设备建立通信连接,其可以是有线通信装置和/或无线通信装置。
输入装置43可用于接收输入的数字或者字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入,还可以是用于获取图像的摄像头以及获取音频数据的拾音设备。输出装置44可以包括扬声器等音频设备。需要说明的是,输入装置43和输出装置44的具体组成可以根据实际情况设定。
处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的音频检测方法。
具体的,实施例中,处理器40执行存储器41中存储的一个或多个程序时,具体实现如下操作:获取音频文件数据;确定所述音频文件数据对应的属性检测数据;通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
本发明实施例还提供一种计算机可读存储介质,所述存储介质中的指令由设备的处理器执行时,使得设备能够执行如上述方法实施例所述的音频检测方法。示例性的,该音频检测方法包括:获取音频文件数据;确定所述音频文件数据对应的属性检测数据;通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
需要说明的是,对于装置、设备、存储介质实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是机器人,个人计算机,服务器,或者网络设备等)执行本发明任意实施例所述的音频检测方法。
值得注意的是,上述音频检测装置中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行装置执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (14)
1.一种音频检测方法,其特征在于,包括:
获取音频文件数据;
确定所述音频文件数据对应的属性检测数据,其中,所述属性检测数据包括以下至少两项:用户等级数据、分类概率数据和声纹特征数据;
通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
2.根据权利要求1所述的方法,其特征在于,所述确定所述音频文件数据对应的属性检测数据,包括:
对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;
依据所述至少两帧音频时域信息进行特征提取,得到振幅谱特征数据和声纹特征数据;
对所述振幅谱特征数据和所述声纹特征数据进行拼接,生成特征向量数据;
通过预先训练的语音分类模型,依据所述特征向量数据进行语音分类处理,得到作为所述属性检测数据的分类概率数据。
3.根据权利要求2所述的方法,其特征在于,所述依据所述至少两帧音频时域信息进行特征提取,得到振幅谱特征数据,包括:
对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;
基于所述音频频域信息进行振幅谱特征提取,得到所述振幅谱特征数据。
4.根据权利要求1所述的方法,其特征在于,所述确定所述音频文件数据对应的属性检测数据,包括:
对所述音频文件数据进行切片处理,得到至少两帧音频时域信息;
对所述至少两帧音频时域信息进行频域变换,得到音频频域信息;
对所述音频频域信息进行均值处理,得到第一定长数据;
基于所述第一定长数据,通过预先训练的神经网络模型进行声纹特征提取,得到作为所述属性检测数据的声纹特征数据。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
从预设的训练集中,获取待训练音频文件数据;
采用预设的移动窗口,对所述待训练音频文件数据进行切片,得到帧时域信息;
对所述帧时域信息进行频域变换,得到帧频域信息;
对所述帧频域信息进行均值处理,得到第二定长数据;
基于所述第二定长数据和所述音频文件数据对应的标签数据,按照预设的神经网络算法进行训练,得到所述神经网络模型。
6.根据权利要求1所述的方法,其特征在于,还包括:
获取目标用户的历史行为数据,其中,所述历史行为数据包括以下至少一项:历史登录数据、用户消费行为数据、违规历史数据和充值历史数据;
根据所述历史行为数据得到作为所述属性检测数据的用户等级数据。
7.根据权利要求1所述的方法,其特征在于,所述用户等级数据用于表征用户等级,所述分类概率数据用于表征语音违规行为对应的分类概率,声纹特征数据用于表征音频文件数据对应的声纹特征。
8.根据权利要求1至7任一所述的方法,其特征在于,通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果,包括:
将所述属性检测数据输入到所述全连接网络模型进行检测;
将所述全连接网络模型输出的检测结果作为所述语音行为检测结果。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
当所述语音为检测结果为语音违规行为检测结果时,确定所述音频文件数据包含违规语音数据;
禁止传输或播放所述违规语音数据;或者,屏蔽所述违规语音数据对应用户的语音输入。
10.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
采用预设的移动窗口,对获取到的待训练音频文件数据进行切片,得到帧时域信息;
依据所述帧时域信息进行特征提取,得到振幅谱特征训练数据和声纹特征训练数据,其中,所述特征提取包括:振幅谱特征提取和声纹特征提取;
对所述振幅谱特征训练数据进行均值处理,得到第三定长数据;
对所述振幅谱特征训练数据和声纹特征训练数据进行拼接,生成特征向量训练数据;
依据第三定长数据和所述特征向量训练数据进行训练,得到所述语音分类模型。
11.根据权利要求1至7任一所述的方法,其特征在于,还包括:
获取待训练属性检测数据;
依据所述待训练属性检测数据进行训练,得到全连接网络模型。
12.一种音频检测装置,其特征在于,包括:
音频文件数据获取模块,用于获取音频文件数据;
属性检测数据确定模块,用于确定所述音频文件数据对应的属性检测数据,其中,所述属性检测数据包括以下至少两项:用户等级数据、分类概率数据和声纹特征数据;
语音违规行为检测模块,用于通过预先训练的全连接网络模型,依据所述属性检测数据进行语音违规行为检测,生成所述音频文件数据对应的语音行为检测结果。
13.一种设备,其特征在于,包括:处理器和存储器;
所述存储器中存储有至少一条指令,所述指令由所述处理器执行,使得所述设备执行如权利要求1至11任一所述的音频检测方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质中的指令由设备的处理器执行时,使得设备能够执行如权利要求1至11任一所述的音频检测方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811178750.2A CN109065069B (zh) | 2018-10-10 | 2018-10-10 | 一种音频检测方法、装置、设备及存储介质 |
PCT/CN2019/102172 WO2020073743A1 (zh) | 2018-10-10 | 2019-08-23 | 一种音频检测方法、装置、设备及存储介质 |
SG11202103561TA SG11202103561TA (en) | 2018-10-10 | 2019-08-23 | Audio detection method and apparatus, and device and storage medium |
US17/282,732 US11948595B2 (en) | 2018-10-10 | 2019-08-23 | Method for detecting audio, device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811178750.2A CN109065069B (zh) | 2018-10-10 | 2018-10-10 | 一种音频检测方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109065069A CN109065069A (zh) | 2018-12-21 |
CN109065069B true CN109065069B (zh) | 2020-09-04 |
Family
ID=64763727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811178750.2A Active CN109065069B (zh) | 2018-10-10 | 2018-10-10 | 一种音频检测方法、装置、设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11948595B2 (zh) |
CN (1) | CN109065069B (zh) |
SG (1) | SG11202103561TA (zh) |
WO (1) | WO2020073743A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109065069B (zh) * | 2018-10-10 | 2020-09-04 | 广州市百果园信息技术有限公司 | 一种音频检测方法、装置、设备及存储介质 |
CN109949827A (zh) * | 2019-03-15 | 2019-06-28 | 上海师范大学 | 一种基于深度学习与强化学习的室内声学行为识别方法 |
CN112182441A (zh) * | 2019-07-02 | 2021-01-05 | 中国移动通信集团贵州有限公司 | 违规数据的检测方法及装置 |
JP7290507B2 (ja) * | 2019-08-06 | 2023-06-13 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、認識モデルならびにプログラム |
CN111883139A (zh) * | 2020-07-24 | 2020-11-03 | 北京字节跳动网络技术有限公司 | 用于筛选目标语音的方法、装置、设备和介质 |
CN114125506B (zh) * | 2020-08-28 | 2024-03-19 | 上海哔哩哔哩科技有限公司 | 语音审核方法及装置 |
CN113782036A (zh) * | 2021-09-10 | 2021-12-10 | 北京声智科技有限公司 | 音频质量评估方法、装置、电子设备和存储介质 |
US11948599B2 (en) * | 2022-01-06 | 2024-04-02 | Microsoft Technology Licensing, Llc | Audio event detection with window-based prediction |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070071206A1 (en) * | 2005-06-24 | 2007-03-29 | Gainsboro Jay L | Multi-party conversation analyzer & logger |
CN101226743A (zh) * | 2007-12-05 | 2008-07-23 | 浙江大学 | 基于中性和情感声纹模型转换的说话人识别方法 |
WO2008092473A1 (en) * | 2007-01-31 | 2008-08-07 | Telecom Italia S.P.A. | Customizable method and system for emotional recognition |
CN101770774A (zh) * | 2009-12-31 | 2010-07-07 | 吉林大学 | 基于嵌入式的开集说话人识别方法及其系统 |
CN201698746U (zh) * | 2010-06-25 | 2011-01-05 | 北京安慧音通科技有限责任公司 | 携行多功能音频检测仪 |
CN102436806A (zh) * | 2011-09-29 | 2012-05-02 | 复旦大学 | 一种基于相似度的音频拷贝检测的方法 |
CN102572839A (zh) * | 2010-12-14 | 2012-07-11 | 中国移动通信集团四川有限公司 | 一种控制语音通信的方法和系统 |
CN102820033A (zh) * | 2012-08-17 | 2012-12-12 | 南京大学 | 一种声纹识别方法 |
CN103796062A (zh) * | 2012-10-26 | 2014-05-14 | 特克特朗尼克公司 | 用于选通响度测量恢复的响度记录及关联的分析仪 |
CN103796183A (zh) * | 2012-10-26 | 2014-05-14 | 中国移动通信集团上海有限公司 | 一种垃圾短信识别方法及装置 |
CN104616666A (zh) * | 2015-03-03 | 2015-05-13 | 广东小天才科技有限公司 | 一种基于语音分析改善对话沟通效果的方法及装置 |
CN106791024A (zh) * | 2016-11-30 | 2017-05-31 | 广东欧珀移动通信有限公司 | 语音信息播放方法、装置及终端 |
CN107527617A (zh) * | 2017-09-30 | 2017-12-29 | 上海应用技术大学 | 基于声音识别的监控方法、装置及系统 |
CN108269574A (zh) * | 2017-12-29 | 2018-07-10 | 安徽科大讯飞医疗信息技术有限公司 | 语音信号处理方法及装置、存储介质、电子设备 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9020114B2 (en) * | 2002-04-29 | 2015-04-28 | Securus Technologies, Inc. | Systems and methods for detecting a call anomaly using biometric identification |
US8930261B2 (en) * | 2005-04-21 | 2015-01-06 | Verint Americas Inc. | Method and system for generating a fraud risk score using telephony channel based audio and non-audio data |
US20060248019A1 (en) * | 2005-04-21 | 2006-11-02 | Anthony Rajakumar | Method and system to detect fraud using voice data |
US8886663B2 (en) * | 2008-09-20 | 2014-11-11 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
CN104282303B (zh) * | 2013-07-09 | 2019-03-29 | 威盛电子股份有限公司 | 利用声纹识别进行语音辨识的方法及其电子装置 |
CN103731832A (zh) * | 2013-12-26 | 2014-04-16 | 黄伟 | 防电话、短信诈骗的系统和方法 |
CN105827787B (zh) * | 2015-01-04 | 2019-12-17 | 中国移动通信集团公司 | 一种号码标记方法及装置 |
US10142471B2 (en) * | 2015-03-02 | 2018-11-27 | Genesys Telecommunications Laboratories, Inc. | System and method for call progress detection |
US10008209B1 (en) | 2015-09-25 | 2018-06-26 | Educational Testing Service | Computer-implemented systems and methods for speaker recognition using a neural network |
WO2017096473A1 (en) * | 2015-12-07 | 2017-06-15 | Syngrafii Inc. | Systems and methods for an advanced moderated online event |
CN107492382B (zh) * | 2016-06-13 | 2020-12-18 | 阿里巴巴集团控股有限公司 | 基于神经网络的声纹信息提取方法及装置 |
CN105869630B (zh) * | 2016-06-27 | 2019-08-02 | 上海交通大学 | 基于深度学习的说话人语音欺骗攻击检测方法及系统 |
CN107610707B (zh) * | 2016-12-15 | 2018-08-31 | 平安科技(深圳)有限公司 | 一种声纹识别方法及装置 |
US20190052471A1 (en) * | 2017-08-10 | 2019-02-14 | Microsoft Technology Licensing, Llc | Personalized toxicity shield for multiuser virtual environments |
US10574597B2 (en) * | 2017-09-18 | 2020-02-25 | Microsoft Technology Licensing, Llc | Conversational log replay with voice and debugging information |
CN107919137A (zh) * | 2017-10-25 | 2018-04-17 | 平安普惠企业管理有限公司 | 远程审批方法、装置、设备及可读存储介质 |
CN108053840A (zh) | 2017-12-29 | 2018-05-18 | 广州势必可赢网络科技有限公司 | 一种基于pca-bp的情绪识别方法及系统 |
GB2571548A (en) * | 2018-03-01 | 2019-09-04 | Sony Interactive Entertainment Inc | User interaction monitoring |
CN108419091A (zh) | 2018-03-02 | 2018-08-17 | 北京未来媒体科技股份有限公司 | 一种基于机器学习的视频内容审核方法及装置 |
CN108428447B (zh) | 2018-06-19 | 2021-02-02 | 科大讯飞股份有限公司 | 一种语音意图识别方法及装置 |
CN109065069B (zh) * | 2018-10-10 | 2020-09-04 | 广州市百果园信息技术有限公司 | 一种音频检测方法、装置、设备及存储介质 |
-
2018
- 2018-10-10 CN CN201811178750.2A patent/CN109065069B/zh active Active
-
2019
- 2019-08-23 SG SG11202103561TA patent/SG11202103561TA/en unknown
- 2019-08-23 WO PCT/CN2019/102172 patent/WO2020073743A1/zh active Application Filing
- 2019-08-23 US US17/282,732 patent/US11948595B2/en active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070071206A1 (en) * | 2005-06-24 | 2007-03-29 | Gainsboro Jay L | Multi-party conversation analyzer & logger |
WO2008092473A1 (en) * | 2007-01-31 | 2008-08-07 | Telecom Italia S.P.A. | Customizable method and system for emotional recognition |
CN101226743A (zh) * | 2007-12-05 | 2008-07-23 | 浙江大学 | 基于中性和情感声纹模型转换的说话人识别方法 |
CN101770774A (zh) * | 2009-12-31 | 2010-07-07 | 吉林大学 | 基于嵌入式的开集说话人识别方法及其系统 |
CN201698746U (zh) * | 2010-06-25 | 2011-01-05 | 北京安慧音通科技有限责任公司 | 携行多功能音频检测仪 |
CN102572839A (zh) * | 2010-12-14 | 2012-07-11 | 中国移动通信集团四川有限公司 | 一种控制语音通信的方法和系统 |
CN102436806A (zh) * | 2011-09-29 | 2012-05-02 | 复旦大学 | 一种基于相似度的音频拷贝检测的方法 |
CN102820033A (zh) * | 2012-08-17 | 2012-12-12 | 南京大学 | 一种声纹识别方法 |
CN103796062A (zh) * | 2012-10-26 | 2014-05-14 | 特克特朗尼克公司 | 用于选通响度测量恢复的响度记录及关联的分析仪 |
CN103796183A (zh) * | 2012-10-26 | 2014-05-14 | 中国移动通信集团上海有限公司 | 一种垃圾短信识别方法及装置 |
CN104616666A (zh) * | 2015-03-03 | 2015-05-13 | 广东小天才科技有限公司 | 一种基于语音分析改善对话沟通效果的方法及装置 |
CN106791024A (zh) * | 2016-11-30 | 2017-05-31 | 广东欧珀移动通信有限公司 | 语音信息播放方法、装置及终端 |
CN107527617A (zh) * | 2017-09-30 | 2017-12-29 | 上海应用技术大学 | 基于声音识别的监控方法、装置及系统 |
CN108269574A (zh) * | 2017-12-29 | 2018-07-10 | 安徽科大讯飞医疗信息技术有限公司 | 语音信号处理方法及装置、存储介质、电子设备 |
Non-Patent Citations (1)
Title |
---|
《Content-based classification, search, and retrieval of audio》;E. Wold et al.;《IEEE MultiMedia》;19961231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
US11948595B2 (en) | 2024-04-02 |
CN109065069A (zh) | 2018-12-21 |
WO2020073743A1 (zh) | 2020-04-16 |
US20220005493A1 (en) | 2022-01-06 |
SG11202103561TA (en) | 2021-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109065069B (zh) | 一种音频检测方法、装置、设备及存储介质 | |
US20190132214A1 (en) | Impact analyzer for a computer network | |
US9769190B2 (en) | Methods and apparatus to identify malicious activity in a network | |
US9591071B2 (en) | User location-based management of content presentation | |
CN111225234B (zh) | 视频审核方法、视频审核装置、设备和存储介质 | |
CN109346061B (zh) | 音频检测方法、装置及存储介质 | |
CN109426700B (zh) | 数据处理方法、装置、存储介质和电子装置 | |
CN110096611A (zh) | 一种歌曲推荐方法、移动终端及计算机可读存储介质 | |
CN111144344B (zh) | 人物年龄的确定方法、装置、设备及存储介质 | |
WO2018068664A1 (zh) | 网络信息识别方法和装置 | |
CN117113339A (zh) | 一种大模型风险评估方法、装置、存储介质及电子设备 | |
CN110347797A (zh) | 文本信息的侦测方法、系统、设备及存储介质 | |
KR102171658B1 (ko) | 크라우드전사장치 및 그 동작 방법 | |
CN107911447A (zh) | 业务系统扩容方法及装置 | |
US20200202552A1 (en) | Methods and systems for managing virtual reality sessions | |
CN115378619A (zh) | 敏感数据访问方法及电子设备、计算机可读存储介质 | |
CN110516151B (zh) | 有效行为检测和个性化推荐方法 | |
CN109831696B (zh) | 处理违规视频内容的方法、装置、电子设备及存储介质 | |
CN112184241A (zh) | 一种身份认证的方法及装置 | |
CN111245770B (zh) | 用户账户管理的方法、设备和计算机存储介质 | |
CN109450853B (zh) | 恶意网站判定方法、装置、终端及服务器 | |
WO2019187107A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN108322912A (zh) | 一种短信辨别的方法及装置 | |
CN108881151B (zh) | 一种无关节点确定方法、装置及电子设备 | |
CN107484015A (zh) | 节目处理方法及装置、终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20211203 Address after: 31a, 15 / F, building 30, maple mall, bangrang Road, Brazil, Singapore Patentee after: Baiguoyuan Technology (Singapore) Co.,Ltd. Address before: 511442 23-39 / F, building B-1, Wanda Plaza North, Wanbo business district, 79 Wanbo 2nd Road, Nancun Town, Panyu District, Guangzhou City, Guangdong Province Patentee before: GUANGZHOU BAIGUOYUAN INFORMATION TECHNOLOGY Co.,Ltd. |