CN106910494B - 一种音频识别方法和装置 - Google Patents

一种音频识别方法和装置 Download PDF

Info

Publication number
CN106910494B
CN106910494B CN201610487584.9A CN201610487584A CN106910494B CN 106910494 B CN106910494 B CN 106910494B CN 201610487584 A CN201610487584 A CN 201610487584A CN 106910494 B CN106910494 B CN 106910494B
Authority
CN
China
Prior art keywords
audio
frame
audio data
data
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610487584.9A
Other languages
English (en)
Other versions
CN106910494A (zh
Inventor
杜志军
王楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Priority to CN201610487584.9A priority Critical patent/CN106910494B/zh
Priority to TW106112617A priority patent/TWI659410B/zh
Priority to PCT/CN2017/088638 priority patent/WO2018001125A1/zh
Priority to KR1020197002466A priority patent/KR102220964B1/ko
Priority to JP2018568770A priority patent/JP6750048B2/ja
Priority to EP17819122.7A priority patent/EP3477632A4/en
Publication of CN106910494A publication Critical patent/CN106910494A/zh
Priority to US16/216,771 priority patent/US10910000B2/en
Application granted granted Critical
Publication of CN106910494B publication Critical patent/CN106910494B/zh
Priority to US17/142,917 priority patent/US11133022B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates

Abstract

本申请提供了一种音频识别方法和装置,其中,该方法包括:对待识别音频数据进行分帧处理,得到多帧音频数据;根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的。利用本申请实施例提供的技术方案,可以大大提高抗干扰的能力、识别成功率和识别结果的准确度。

Description

一种音频识别方法和装置
技术领域
本申请属于数据处理技术领域,尤其涉及一种音频识别方法和装置。
背景技术
随着智能化水平的不断提高,人们越来越多的生活都通过智能终端等实现。例如,近些年刚出现的电视互动、音频识别等等。举例而言,在播放车载电台,听到电台中放一首歌,想知道这首歌的名字,如果按照以前的处理方式,最多是录下来,然后问问朋友,或者是听一下歌词,然后网上搜索一下。
然而,随着智能化水平和识别技术的不断发展,人们现在已经可以通过智能终端中直接实现对音频的识别,只要开启终端中的音乐识别功能,然后就可以自动识别出当前歌曲的歌名或者歌手等,更有甚至可以直接连接到音乐软件播放该歌曲。
上述就是基于音频指纹的电视互动或音乐识别的简单实现场景,但是这一切都需要依赖于较为精准的音频识别技术,目前,主流的音频识别技术是:提取特征点对,利用特征点对音频进行识别判断,具体地,如图1所示,首先将音乐转换成语谱图,在语谱图上提取若干个如图1所示的极值点。为了减少识别的难度,提升识别的效率,可以采取点对的方式进行识别,即,两个极值点构成一个点对,如图1所示示出了7个点对,识别时,如果存在一样的点对则认为存在一个正确的匹配。
然而,由于受噪声的影响,极值点不一定都在一致的位置出现,因此点对可以匹配上的概率比较低,另外,这些极值点容易受到噪声的干扰,不是特别稳定,在噪声较大的时候不能获取较为稳定的识别结果。
针对现有的音频识别技术中所存在的匹配成功率低、以及由于抗噪能力较弱而导致的识别准确率低的问题,目前未提出有效的解决方案。
发明内容
本申请目的在于提供一种音频识别方法和装置,可以有效提高匹配成功率和识别结果的准确度。
本申请提供一种音频识别方法和装置是这样实现的:
一种音频识别方法,所述方法包括:
对待识别音频数据进行分帧处理,得到多帧音频数据;
根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的。
一种音频识别装置装置,所述装置包括:
分帧模块,用于对待识别音频数据进行分帧处理,得到多帧音频数据;
计算模块,用于根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
匹配识别模块,用于将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的。
本申请提供的一种音频识别方法和装置,通过根据帧与帧之间和帧内的音频变化趋势,计算得到待识别音频数据每一帧的特征值,然后将每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,从而得到识别结果,即,在频域不是提取极值点,而是利用帧与帧之间、帧内之间的比较关系,获得一个相对稳定的编码结果,从而可以有效地对抗噪声的干扰,使得识别结果更为准确。利用本申请实施方案,不仅可以大大提高抗干扰的能力,还可以有效提高识别成功率和识别结果的准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是现有的基于提取特征点对的音频识别方法示意图;
图2是本申请提供的音频识别方法一种实施例的方法流程图;
图3是本申请提供的特征向量示意图;
图4是本申请提供的音频特征值对照表示意图;
图5是本申请提供的待识别音频数据识别匹配示意图;
图6是本申请提供的二进制比特位求和示意图;
图7是本申请提供的音频识别装置的模块结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图2是本申请所述一种音频识别方法一个实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本申请实施例描述及附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构连接进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至分布式处理环境)。
具体的如图2所述,本申请一种实施例提供的一种音频识别方法可以包括:
S1:对待识别音频数据进行分帧处理,得到多帧音频数据;
待识别的音频数据可以是音频识别软件所录取的一小段语音,或者是在电视互动上的一段语音,一般主要是为了识别出这段语音的出处。在录取后,可以将其进行分帧处理,例如,可以每30ms作为一帧数据,当然,具体选择多少ms作为一帧音频数据的长度,本申请不作限定,可以按照实际需要选择,20ms,25ms,40ms等都可以。但是需要保证的是,待识别音频数据分帧处理的规则需要与预先建立的音频特征值对照表时的分帧原则相同。
进一步的,因为在进行匹配识别的时候,由于分帧的影响,难免会出现偏差,为了减少偏差的影响,在分帧处理的时候,需要设定帧与帧之间是重叠的,以30ms作为一帧为例进行说明,第一帧是0到30ms,那么第二帧就是16ms到45ms,第三帧就是30ms到60ms,即,按照相邻帧以预定毫秒数重叠的划分规则,对所述待识别音频数据进行分帧处理,也就是说,相邻帧之间是重叠的,从而避免了帧划分造成的偏差对匹配结果的影响。
在进行后续的数据处理前,可以对每一帧音频数据进行快速傅立叶变换(FastFourier Transform,简称为FFT)变换,从而将音频数据转换至频域,在频域对信号进行分析。
S2:根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
在确定特征的过程中,可以针对上述FFT变换后得到的频域结果,利用MFCC特征参数提取算法,获得预定维数的特征向量(例如12维),之所以采用MFCC特征参数提取算法,是因为MFCC特征在语音识别中能够提取出信号中的明显变化区域,具有较好的区分性。MFCC是Mel频率倒谱系数的缩写,其中,Mel频率是基于人耳听觉特性提出来的,它与Hz频率成非线性对应关系。Mel频率倒谱系数(MFCC)则是利用它们之间的这种关系,计算得到的Hz频谱特征,由于Mel频率与Hz频率之间非线性的对应关系,使得MFCC随着频率的提高,其计算精度随之下降。因此,在应用中常常只使用低频MFCC,而丢弃中高频MFCC。
在经过MFCC特征计算之后,每一帧的信号就会变成一个预定维数的向量,假设是12维的向量,那么可以如图3所示,第i帧信号就可以表示为(di0,di1…di10,di11),d为float型数据。进一步的,为了后续比较和匹配更为简单,可以对得到的向量进行编码,转换为二进制序列或者是与二进制序列对应的正数,具体地,按照图3所示的帧的特征向量表示,可以按照以下方式进行编码转换:
Figure BDA0001032751940000041
diff=-n*t1-mt2+mt3+n2*t4
Figure BDA0001032751940000042
其中,di-2,j表示第i-2帧音频数据第j个维度的向量值,di-2,j+1表示第i-2帧音频数据第j+1个维度的向量值,di-1,j表示第i-1帧音频数据第j个维度的向量值、di-1,j+1表示第i-1帧音频数据第j+1个维度的向量值、di+1,j表示第i+1帧音频数据第j个维度的向量值、di+1,j+1表示第i+1帧音频数据第j+1个维度的向量值、di+2,j表示第i+2帧音频数据第j个维度的向量值、di+2,j+1表示第i+2帧音频数据第j+1个维度的向量值,t1、t2、t3、t4、diff表示中间参量、Biti,j表示第i帧音频数据二进制序列第j个比特位的取值,n、m为定量系数。
由上述公式可以看出,二进制序列计算的过程中,是依据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值计算得到的,即,先将待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据;然后,根据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值,将每一帧音频数据的向量数据转换为一个二进制序列。
具体地,公式中是根据前后两帧数据的向量值,以及同一帧内相邻向量值计算得到的,这样就有效地将帧与帧之间、帧内之间的关系加入了特征值的计算中。
然而,值得注意是,上述n、m就可以按照需要选取,例如,可以分别取值为2和3,那么对应的:
diff=-2*t1-t2+t3+2*t4。
进一步的,上述所列举的例子和公式中,是以相邻两帧之间作为计算依据的,在实际执行的时候,也可以是相邻的三帧或者四帧等等,可以根据实际的计算精度和处理器的处理能力选取合适的帧数,当然,当帧数选取不同的时候,上述公式也需要进行适应性的调整,但是调整的思路是近似的,本申请对此不作限定。
按照上述方式计算得到二进制序列的过程中,如果原本向量维度是N,那么计算得到的二进制序列的位数就是N-1,例如,如果得到的是12维的特征向量,那么得到的二进制序列就是11位。
在本例中,可以以得到的二进制序列作为特征值,也可以二进制序列所对应的十进制作为特征值,举例而言,如果某一帧音频数据的二进制序列为00000000101,那么可以以00000000101作为最终的特征值,也可以5作为最终的特征值。
总的来说,可以利用一帧内相邻关系的系数做比较,成为帧内系数的比较,然后利用前后两帧的比较信息,综合这些前后帧和帧内的信息形成最后的值diff,这个值与0的比较结果构成最终对应位的编码值。具体地,一帧信号经MFCC变成12维的特征系数向量后,再经过编码变成11位的二值序列(Biti,0,Biti,1…Biti,10),如果将该二进制序列转换为十进制,那么对应的取值范围就是0到2的11次方。
S3:将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的。
为了实现对音频数据的有效匹配,需要预先建立一个音频特征值对照表,这个对照表中所记录就是每一帧数据和这帧数据所对应的特征值,当然,如果音频特征值对照表中是以二进制方式表示特征值的,那么相应的在音频识别的时候,待识别音频数据也就转换为二进制序列作为特征值,如果音频特征值对照表中是以十进制方式表示特征值的,那么相应的在音频识别的时候,待识别音频数据也就转换为十进制作为特征值。
具体地,可以按照以下方式建立音频特征值对照表包括:
步骤1:获取样本数据,其中,所述样本数据包括多段样本音频;
步骤2:对所述多段样本音频中的各段样本音频进行分帧处理,得到每段样本音频的多帧音频数据;
步骤3:根据帧与帧之间和帧内的音频变化趋势,计算得到每段样本音频每一帧的特征值;
步骤4:以特征值作为根节点,按照每段样本音频每一帧的特征值,将每段样本音频每一帧增加至对应的根节点之后,形成对应关系;
步骤5:将所述对应关系作为所述音频特征值对照表。
上述建立音频特征值对照表的过程中,计算特征值的过程和所涉及到的原理和方式与求取待识别音频数据的特征值是相同的,在此不再赘述。差别就在于,在建立音频特征值对照表的时候,需要以特征值作为根节点,按照每段样本音频每一帧的特征值,将每段样本音频每一帧增加至对应的根节点之后,形成对应关系。具体地,假设原始获取的是12维的向量,那么最终得到的建立音频特征值对照表可以如图4所示.
为了使得后续可以快速识别,不仅可以包括如图4所示的音频特征值对照表,还可以特征数组,记录的是每段样本音频的特征值。
因为向量是12维的,那么特征值就有2048(2的11次方11)种可能性,因此音频特征值对照表就对应有2048个根节点。每个根节点的后续存储就是所有特征值与之对应的音频数据帧(即,哪个声音信号的哪一帧)。举例:第0个跟节点,对应存储所有特征值为0的指纹信息,如第i个声音的第j帧对应特征值为0,第k个声音的第l帧特征值为0,则第0个跟节点下将存储这些声音片段信息(i,j)(k,l)。
为了实现最终的检索识别,可以通过建立投票矩阵的方式确定较为准确的匹配结果,具体地,可以包括:建立投票矩阵,其中,投票矩阵是按照样本音频的数量和每段样本音频的帧数建立的,即,该投票矩阵可以是一个二维矩阵,该二维矩阵的维数代表了数据库中有多少样本音频,即数据库中有多少声音信号,以及每个声音信号最长有多少数据帧。在建立完投票矩阵之后,可以对待识别音频数据的每一帧执行以下操作:从音频特征值对照表中,查找出与当前帧的特征值相同的一帧或多帧音频数据,在所述投票矩阵中与当前帧的音频特征值相同的一帧或多帧音频数据的对应位置进行投票标记;然后,将投票标记数最高且超出预设阈值的样本音频作为识别结果。
具体地,可以如图5所示,对于待识别音频数据,计算出该段音频数据每个帧的特征值后,可以依次根据音频特征值对照表进行投票操作。具体地,对于待识别音频数据的每一帧信号,先找到其特征值v,并在特征索引表中找到对应的根节点,该节点下存储了所有特征值为v的声音信息,例如,待识别音频数据第一帧的特征值为2046,那么找到音频特征值对照表的第2046个跟节点,该节点下存储了第k-1个声音信号的第l帧的特征为2046,因此,可以在投票矩阵中的(k-1,l)处做+1操作,这一+1操作就表示投票,而该投票操作的意思就是这段待识别音频数据可能来自第k-1个声音源的第l帧附近。
对该待识别音频数据的所有帧的特征值进行投票后,可以统计最终的投票结果,以确定哪些声音的哪些帧获得的投票较多,说明待识别信号与数据库中的这些声音段最为相似。
然而,值得注意的是,在投票的时候是存在一个换算过程的,即,如果匹配出待识别音频数据的第1帧与第5个样本音频的第3帧的特征值相同,那么后续如果匹配出待识别音频数据的第4帧与第5个样本音频的第6帧的特征值相同,那么这个时候标记的位置也是第5个样本音频的第1帧。即,所有的匹配的结果都投票在某个样本音频第一次被匹配出的位置。或者说,如果匹配出待识别音频数据的第3帧与第8个样本音频的第6帧的特征值相同(这是第一次与该样本音频匹配上),那么后续如果匹配出待识别音频数据的第4帧与第8个样本音频的第7帧的特征值相同,那么这个时候标记的位置也是第8个样本音频的第6帧。即,所有的匹配的结果都投票在某个样本音频第一次被匹配出的位置。
当然,也可以有其它的匹配方式,例如,待识别音频数据每一帧特征值的匹配都是直接对应到某一个样本音频,然后最终统计与每个样本音频的匹配度,这样操作也是可行的。但是相对于匹配出某一样本音频的某一帧作为起始帧的方式,确定某一帧的方式显然是更为精确的。
在实际实现的时候,有时可以匹配出多个满足条件的结果,为了使得最终的结果更为准确,可以设定一个匹配阈值(T),只有超出该阈值T,才进行后续的精确匹配。例如:如果找到第i个声音的第3帧处获取的投票大于阈值,那么从第3帧开始进行片段的特征值比较。如图6所示,假设voice_i的第3帧的特征值为f3,待识别信号的第一帧的特征值为f0,那么比较方式就是将f3和f0转成二进制序列后,统计对应位不同的个数,当然这种比较可以通过查表的方式进行。具体比较的时候,是用11位的二进制序列进行比较,这个11位的二进制序列其实对应一个十进制的特征值,因此,两个特征值的相似性比较,先将其还原到二进制的序列,统计这两个序列对应位不同的个数。因为待识别的音频数据中一般有多帧的数据,可以将多帧的比较结果相加,将最终统计结果最小值对应的投票位置确定为识别结果。
即,可以将待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,查找出与所述待识别音频数据的匹配度大于预设阈值的一段或多段样本音频,然后,从该一段或多段样本音频中确定出匹配度最高的样本音频作为识别结果,具体地,可以对该一段或多段样本音频中的每段音频执行以下操作:确定待识别音频数据的帧数,并获取所述待识别音频数据每一帧的二进制序列,确定所述待识别音频数据每一帧的二进制序列与所述与待识别音频数据对应的每一帧数据的二进制序列之间相同比特位置比特值不同的位数;将一段或多段样本音频中比特值不同的位数最少的样本音频作为识别结果。
例如:二进制序列一为0010001,二进制序列二为1010000,那么比较结果就是1。
上例所提供的音频数据识别方法具有较好的鲁棒性,同时提出的识别方法识别速度较快,且可以应用在后续的电视互动、音乐识别等场景中,在本例中,在频域不是提取极值点,而是利用帧与帧之间、帧内之间的比较关系,获得一个相对稳定的编码结果,这种编码方式可以有效对抗一些噪声的干扰,因为具有较好的音频识别效果。
基于同一发明构思,本发明实施例中还提供了一种音频识别装置,如下面的实施例所述。由于音频识别装置解决问题的原理与音频识别方法相似,因此音频识别装置的实施可以参见音频识别方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。图7是本发明实施例的音频识别装置的一种结构框图,如图7所示,可以包括:分帧模块701、计算模块702和匹配识别模块703,下面对该结构进行说明。
分帧模块701,可以用于对待识别音频数据进行分帧处理,得到多帧音频数据;
计算模块702,可以用于根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
匹配识别模块703,可以用于将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的。
在一个实施方式中,上述音频识别装置还可以包括:对照表建立模块,用于预先建立音频特征值对照表,所述对照表建立模块包括:获取单元,用于获取样本数据,其中,所述样本数据包括多段样本音频;分帧单元,用于对所述多段样本音频中的各段样本音频进行分帧处理,得到每段样本音频的多帧音频数据;计算单元,用于根据帧与帧之间和帧内的音频变化趋势,计算得到每段样本音频每一帧的特征值;关系确定单元,用于以特征值作为根节点,按照每段样本音频每一帧的特征值,将每段样本音频每一帧增加至对应的根节点之后,形成对应关系;生成单元,用于将所述对应关系作为所述音频特征值对照表。
在一个实施方式中,匹配识别模块703可以包括:建立单元,用于建立投票矩阵,其中,所述投票矩阵是按照样本音频的数量和每段样本音频的帧数建立的;执行单元,用于对所述待识别音频数据每一帧执行以下操作:从所述音频特征值对照表中,查找出与当前帧的特征值相同的一帧或多帧音频数据,在所述投票矩阵中与当前帧的音频特征值相同的一帧或多帧音频数据的对应位置进行投票标记;结果生成单元,用于将投票标记数最高且超出预设阈值的样本音频作为识别结果。
在一个实施方式中,计算模块702可以包括:第一转换单元,用于将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据;第二转换单元,用于根据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值,将每一帧音频数据的向量数据转换为一个二进制序列;特征值生成单元,用于将转换得到的二进制序列作为对应的一帧音频数据的特征值,或者将二进制序列对应的十进制数值作为对应的一帧数据的特征值。
在一个实施方式中,第二转换单元具体可以用于按照以下公式,将每一帧音频数据的向量数据转换为一个二进制序列:
Figure BDA0001032751940000091
diff=-n*t1-mt2+mt3+n2*t4
Figure BDA0001032751940000092
其中,di-2,j表示第i-2帧音频数据第j个维度的向量值,di-2,j+1表示第i-2帧音频数据第j+1个维度的向量值,di-1,j表示第i-1帧音频数据第j个维度的向量值、di-1,j+1表示第i-1帧音频数据第j+1个维度的向量值、di+1,j表示第i+1帧音频数据第j个维度的向量值、di+1,j+1表示第i+1帧音频数据第j+1个维度的向量值、di+2,j表示第i+2帧音频数据第j个维度的向量值、di+2,j+1表示第i+2帧音频数据第j+1个维度的向量值,t1、t2、t3、t4、diff表示中间参量、Biti,j表示第i帧音频数据二进制序列第j个比特位的取值,n、m为定量系数。
在一个实施方式中,第一转换单元具体可以用于通过MCFF特征参数提取算法,将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据。
在一个实施方式中,预定维数可以是12。
在一个实施方式中,匹配识别模块703可以包括:识别单元,用于将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,查找出与所述待识别音频数据的匹配度大于预设阈值的一段或多段样本音频;匹配单元,用于从所述一段或多段样本音频中确定出匹配度最高的样本音频作为识别结果。
在一个实施方式中,匹配单元可以包括:执行子单元,用于对所述一段或多段样本音频中的每段音频执行以下操作:确定所述待识别音频数据的帧数,并获取所述待识别音频数据每一帧的二进制序列,获取当前段样本音频与所述待识别音频数据对应的每一帧数据的二进制序列,确定所述待识别音频数据每一帧的二进制序列与所述与待识别音频数据对应的每一帧数据的二进制序列之间相同比特位置比特值不同的位数;匹配子单元,用于将所述一段或多段样本音频中比特值不同的位数最少的样本音频作为识别结果。
在一个实施方式中,分帧模块701具体可以用于按照相邻帧以预定毫秒数重叠的划分规则,对所述待识别音频数据进行分帧处理。
本申请提供的一种音频识别方法和装置,通过根据帧与帧之间和帧内的音频变化趋势,计算得到待识别音频数据每一帧的特征值,然后将每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,从而得到识别结果,即,在频域不是提取极值点,而是利用帧与帧之间、帧内之间的比较关系,获得一个相对稳定的编码结果,从而可以有效地对抗噪声的干扰,使得识别结果更为准确。利用本申请实施方案,不仅可以大大提高抗干扰的能力,有效提高识别成功率和识别结果的准确度。
本申请中各个实施例所涉及的上述描述仅是本申请中的一些实施例中的应用,在某些标准、模型、方法的基础上略加修改后的实施方式也可以实行上述本申请各实施例的方案。当然,在符合本申请上述各实施例的中所述的处理方法步骤的其他无创造性的变形,仍然可以实现相同的申请,在此不再赘述。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
上述实施例阐明的装置或模块,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。当然,也可以将实现某功能的模块由多个子模块或子单元组合实现。
本申请中所述的方法、装置或模块可以以计算机可读程序代码方式实现控制器按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请所述装置中的部分模块可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,也可以通过数据迁移的实施过程中体现出来。该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本申请的全部或者部分可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、移动通信终端、多处理器系统、基于微处理器的系统、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
虽然通过实施例描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。

Claims (16)

1.一种音频识别方法,其特征在于,所述方法包括:
对待识别音频数据进行分帧处理,得到多帧音频数据;
根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的;
其中,预先建立音频特征值对照表包括:
获取样本数据,其中,所述样本数据包括多段样本音频;
对所述多段样本音频中的各段样本音频进行分帧处理,得到每段样本音频的多帧音频数据;
根据帧与帧之间和帧内的音频变化趋势,计算得到每段样本音频每一帧的特征值;
以特征值作为根节点,按照每段样本音频每一帧的特征值,将每段样本音频每一帧增加至对应的根节点之后,形成对应关系;
将所述对应关系作为所述音频特征值对照表;
其中,将所述每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,包括:
建立投票矩阵,其中,所述投票矩阵是按照样本音频的数量和每段样本音频的帧数建立的;
对所述待识别音频数据每一帧执行以下操作:从所述音频特征值对照表中,查找出与当前帧的特征值相同的一帧或多帧音频数据,在所述投票矩阵中与当前帧的音频特征值相同的一帧或多帧音频数据的对应位置进行投票标记;
将投票标记数最高且超出预设阈值的样本音频作为识别结果。
2.根据权利要求1所述的方法,其特征在于,根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值,包括:
将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据;
根据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值,将每一帧音频数据的向量数据转换为一个二进制序列;
将转换得到的二进制序列作为对应的一帧音频数据的特征值,或者将二进制序列对应的十进制数值作为对应的一帧数据的特征值。
3.根据权利要求2所述的方法,其特征在于,根据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值,将每一帧音频数据的向量数据转换为一个二进制序列,包括:
按照以下公式,将每一帧音频数据的向量数据转换为一个二进制序列:
Figure FDA0002671276770000021
diff=-n*t1-m*t2+m*t3+n*t4
Figure FDA0002671276770000022
其中,di-2,j表示第i-2帧音频数据第j个维度的向量值,di-2,j+1表示第i-2帧音频数据第j+1个维度的向量值,di-1,j表示第i-1帧音频数据第j个维度的向量值、di-1,j+1表示第i-1帧音频数据第j+1个维度的向量值、di+1,j表示第i+1帧音频数据第j个维度的向量值、di+1,j+1表示第i+1帧音频数据第j+1个维度的向量值、di+2,j表示第i+2帧音频数据第j个维度的向量值、di+2,j+1表示第i+2帧音频数据第j+1个维度的向量值,t1、t2、t3、t4、diff表示中间参量、Biti,j表示第i帧音频数据二进制序列第j个比特位的取值,n、m为定量系数。
4.根据权利要求2所述的方法,其特征在于,将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据,包括:
通过MFCC特征参数提取算法,将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据。
5.根据权利要求2所述的方法,其特征在于,所述预定维数为12。
6.根据权利要求2所述的方法,其特征在于,将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,包括:
将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,查找出与所述待识别音频数据的匹配度大于预设阈值的一段或多段样本音频;
从所述一段或多段样本音频中确定出匹配度最高的样本音频作为识别结果。
7.根据权利要求6所述的方法,其特征在于,从所述一段或多段样本音频中确定出匹配度最高的样本音频作为识别结果,包括:
对所述一段或多段样本音频中的每段音频执行以下操作:确定所述待识别音频数据的帧数,并获取所述待识别音频数据每一帧的二进制序列,获取当前段样本音频与待识别音频数据对应的每一帧数据的二进制序列,确定所述待识别音频数据每一帧的二进制序列与所述与待识别音频数据对应的每一帧数据的二进制序列之间相同比特位置比特值不同的位数;
将所述一段或多段样本音频中比特值不同的位数最少的样本音频作为识别结果。
8.根据权利要求1至7中任一项所述的方法,其特征在于,对待识别音频数据进行分帧处理,包括:
按照相邻帧以预定毫秒数重叠的划分规则,对所述待识别音频数据进行分帧处理。
9.一种音频识别装置,其特征在于,包括:
分帧模块,用于对待识别音频数据进行分帧处理,得到多帧音频数据;
计算模块,用于根据帧与帧之间和帧内的音频变化趋势,计算得到所述待识别音频数据每一帧的特征值;
匹配识别模块,用于将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,得到识别结果,其中,所述音频特征值对照表是根据样本数据帧与帧之间和帧内的音频变化趋势建立的;
其中,上述装置还包括:对照表建立模块,用于预先建立音频特征值对照表,所述对照表建立模块包括:
获取单元,用于获取样本数据,其中,所述样本数据包括多段样本音频;
分帧单元,用于对所述多段样本音频中的各段样本音频进行分帧处理,得到每段样本音频的多帧音频数据;
计算单元,用于根据帧与帧之间和帧内的音频变化趋势,计算得到每段样本音频每一帧的特征值;
关系确定单元,用于以特征值作为根节点,按照每段样本音频每一帧的特征值,将每段样本音频每一帧增加至对应的根节点之后,形成对应关系;
生成单元,用于将所述对应关系作为所述音频特征值对照表;
其中,所述匹配识别模块包括:
建立单元,用于建立投票矩阵,其中,所述投票矩阵是按照样本音频的数量和每段样本音频的帧数建立的;
执行单元,用于对所述待识别音频数据每一帧执行以下操作:从所述音频特征值对照表中,查找出与当前帧的特征值相同的一帧或多帧音频数据,在所述投票矩阵中与当前帧的音频特征值相同的一帧或多帧音频数据的对应位置进行投票标记;
结果生成单元,用于将投票标记数最高且超出预设阈值的样本音频作为识别结果。
10.根据权利要求9所述的装置,其特征在于,所述计算模块包括:
第一转换单元,用于将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据;
第二转换单元,用于根据每一帧音频数据的向量数据相邻维度之间的向量值和相邻帧的向量值,将每一帧音频数据的向量数据转换为一个二进制序列;
特征值生成单元,用于将转换得到的二进制序列作为对应的一帧音频数据的特征值,或者将二进制序列对应的十进制数值作为对应的一帧数据的特征值。
11.根据权利要求10所述的装置,其特征在于,所述第二转换单元具体用于按照以下公式,将每一帧音频数据的向量数据转换为一个二进制序列:
Figure FDA0002671276770000041
diff=-n*t1-m*t2+m*t3+n*t4
Figure FDA0002671276770000042
其中,di-2,j表示第i-2帧音频数据第j个维度的向量值,di-2,j+1表示第i-2帧音频数据第j+1个维度的向量值,di-1,j表示第i-1帧音频数据第j个维度的向量值、di-1,j+1表示第i-1帧音频数据第j+1个维度的向量值、di+1,j表示第i+1帧音频数据第j个维度的向量值、di+1,j+1表示第i+1帧音频数据第j+1个维度的向量值、di+2,j表示第i+2帧音频数据第j个维度的向量值、di+2,j+1表示第i+2帧音频数据第j+1个维度的向量值,t1、t2、t3、t4、diff表示中间参量、Biti,j表示第i帧音频数据二进制序列第j个比特位的取值,n、m为定量系数。
12.根据权利要求10所述的装置,其特征在于,所述第一转换单元具体用于通过MFCC特征参数提取算法,将所述待识别音频数据的每一帧音频数据转换为一个预定维数的向量数据。
13.根据权利要求10所述的装置,其特征在于,所述预定维数为12。
14.根据权利要求10所述的装置,其特征在于,所述匹配识别模块包括:
识别单元,用于将所述待识别音频数据每一帧的特征值与预先建立的音频特征值对照表进行匹配识别,查找出与所述待识别音频数据的匹配度大于预设阈值的一段或多段样本音频;
匹配单元,用于从所述一段或多段样本音频中确定出匹配度最高的样本音频作为识别结果。
15.根据权利要求14所述的装置,其特征在于,所述匹配单元包括:
执行子单元,用于对所述一段或多段样本音频中的每段音频执行以下操作:确定所述待识别音频数据的帧数,并获取所述待识别音频数据每一帧的二进制序列,获取当前段样本音频与待识别音频数据对应的每一帧数据的二进制序列,确定所述待识别音频数据每一帧的二进制序列与所述与待识别音频数据对应的每一帧数据的二进制序列之间相同比特位置比特值不同的位数;
匹配子单元,用于将所述一段或多段样本音频中比特值不同的位数最少的样本音频作为识别结果。
16.根据权利要求9至15中任一项所述的装置,其特征在于,所述分帧模块具体用于按照相邻帧以预定毫秒数重叠的划分规则,对所述待识别音频数据进行分帧处理。
CN201610487584.9A 2016-06-28 2016-06-28 一种音频识别方法和装置 Active CN106910494B (zh)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CN201610487584.9A CN106910494B (zh) 2016-06-28 2016-06-28 一种音频识别方法和装置
TW106112617A TWI659410B (zh) 2016-06-28 2017-04-14 Audio recognition method and device
KR1020197002466A KR102220964B1 (ko) 2016-06-28 2017-06-16 오디오 인식을 위한 방법 및 디바이스
JP2018568770A JP6750048B2 (ja) 2016-06-28 2017-06-16 音声認識のための方法及び装置
PCT/CN2017/088638 WO2018001125A1 (zh) 2016-06-28 2017-06-16 一种音频识别方法和装置
EP17819122.7A EP3477632A4 (en) 2016-06-28 2017-06-16 AUDIO RECOGNITION METHOD AND DEVICE
US16/216,771 US10910000B2 (en) 2016-06-28 2018-12-11 Method and device for audio recognition using a voting matrix
US17/142,917 US11133022B2 (en) 2016-06-28 2021-01-06 Method and device for audio recognition using sample audio and a voting matrix

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610487584.9A CN106910494B (zh) 2016-06-28 2016-06-28 一种音频识别方法和装置

Publications (2)

Publication Number Publication Date
CN106910494A CN106910494A (zh) 2017-06-30
CN106910494B true CN106910494B (zh) 2020-11-13

Family

ID=59206235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610487584.9A Active CN106910494B (zh) 2016-06-28 2016-06-28 一种音频识别方法和装置

Country Status (7)

Country Link
US (2) US10910000B2 (zh)
EP (1) EP3477632A4 (zh)
JP (1) JP6750048B2 (zh)
KR (1) KR102220964B1 (zh)
CN (1) CN106910494B (zh)
TW (1) TWI659410B (zh)
WO (1) WO2018001125A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106910494B (zh) * 2016-06-28 2020-11-13 创新先进技术有限公司 一种音频识别方法和装置
CN111986698B (zh) * 2019-05-24 2023-06-30 腾讯科技(深圳)有限公司 音频片段的匹配方法、装置、计算机可读介质及电子设备
CN116614841B (zh) * 2023-07-17 2023-10-27 中汽智联技术有限公司 一种路侧数据质量评估方法和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101014953A (zh) * 2003-09-23 2007-08-08 音乐Ip公司 音频指纹识别系统和方法
CN101493918A (zh) * 2008-10-21 2009-07-29 深圳市牧笛科技有限公司 在线音乐盗版监控方法和系统
US20120209612A1 (en) * 2011-02-10 2012-08-16 Intonow Extraction and Matching of Characteristic Fingerprints from Audio Signals
US20140074469A1 (en) * 2012-09-11 2014-03-13 Sergey Zhidkov Apparatus and Method for Generating Signatures of Acoustic Signal and Apparatus for Acoustic Signal Identification
CN103810236A (zh) * 2012-11-13 2014-05-21 三星电子株式会社 音乐信息搜索方法及其设备
US20140277640A1 (en) * 2013-03-15 2014-09-18 Facebook, Inc. Generating Audio Fingerprints based on Audio Signal Complexity
US20150199974A1 (en) * 2014-01-13 2015-07-16 Facebook, Inc. Detecting distorted audio signals based on audio fingerprinting

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748763A (en) 1993-11-18 1998-05-05 Digimarc Corporation Image steganography system featuring perceptually adaptive and globally scalable signal embedding
US7194752B1 (en) 1999-10-19 2007-03-20 Iceberg Industries, Llc Method and apparatus for automatically recognizing input audio and/or video streams
US7853664B1 (en) 2000-07-31 2010-12-14 Landmark Digital Services Llc Method and system for purchasing pre-recorded music
US6968337B2 (en) * 2001-07-10 2005-11-22 Audible Magic Corporation Method and apparatus for identifying an unknown work
US7529659B2 (en) * 2005-09-28 2009-05-05 Audible Magic Corporation Method and apparatus for identifying an unknown work
WO2003009277A2 (en) 2001-07-20 2003-01-30 Gracenote, Inc. Automatic identification of sound recordings
US7505911B2 (en) 2001-09-05 2009-03-17 Roth Daniel L Combined speech recognition and sound recording
AU2003230993A1 (en) 2002-04-25 2003-11-10 Shazam Entertainment, Ltd. Robust and invariant audio pattern matching
US7336890B2 (en) 2003-02-19 2008-02-26 Microsoft Corporation Automatic detection and segmentation of music videos in an audio/video stream
US7323629B2 (en) 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
CN1882984A (zh) * 2003-11-18 2006-12-20 皇家飞利浦电子股份有限公司 通过匹配取得的指纹来匹配数据对象
US8468183B2 (en) * 2004-02-26 2013-06-18 Mobile Research Labs Ltd. Method and apparatus for automatic detection and identification of broadcast audio and video signals
DE102004023436B4 (de) * 2004-05-10 2006-06-14 M2Any Gmbh Vorrichtung und Verfahren zum Analysieren eines Informationssignals
GB2414369B (en) 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
US7567899B2 (en) 2004-12-30 2009-07-28 All Media Guide, Llc Methods and apparatus for audio recognition
US7516074B2 (en) 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
WO2008083315A2 (en) 2006-12-31 2008-07-10 Personics Holdings Inc. Method and device configured for sound signature detection
JP4436858B2 (ja) 2007-04-09 2010-03-24 シャープ株式会社 画像処理装置、画像形成装置、画像送信装置、画像読取装置、画像処理システム、画像処理方法、画像処理プログラムおよびその記録媒体
US8131083B2 (en) 2007-04-09 2012-03-06 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method having storage section, divided into a plurality of regions, for storing identification information for identifying reference image
US8266142B2 (en) 2007-06-06 2012-09-11 Dolby Laboratories Licensing Corporation Audio/Video fingerprint search accuracy using multiple search combining
US8990073B2 (en) 2007-06-22 2015-03-24 Voiceage Corporation Method and device for sound activity detection and sound signal classification
US8140331B2 (en) 2007-07-06 2012-03-20 Xia Lou Feature extraction for identification and classification of audio signals
US8996538B1 (en) * 2009-05-06 2015-03-31 Gracenote, Inc. Systems, methods, and apparatus for generating an audio-visual presentation using characteristics of audio, visual and symbolic media objects
JP4788810B2 (ja) * 2009-08-17 2011-10-05 ソニー株式会社 楽曲同定装置及び方法、楽曲同定配信装置及び方法
US9025428B2 (en) 2010-04-14 2015-05-05 Qualcomm Incorporated Allocating and receiving tones for a frame
CN102959543B (zh) * 2010-05-04 2016-05-25 沙扎姆娱乐有限公司 用于处理媒体流的样本的方法和系统
CN102314875B (zh) * 2011-08-01 2016-04-27 北京音之邦文化科技有限公司 一种音频文件的识别方法和装置
WO2013029838A1 (en) * 2011-08-29 2013-03-07 Telefonica, S.A. A method to generate audio fingerprints
CN103093761B (zh) * 2011-11-01 2017-02-01 深圳市世纪光速信息技术有限公司 音频指纹检索方法及装置
US9992745B2 (en) 2011-11-01 2018-06-05 Qualcomm Incorporated Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate
KR20130104878A (ko) * 2012-03-15 2013-09-25 주식회사 다이렉트미디어 에너지 및 통계적 필터링을 이용한 음악 검색 방법, 장치 및 시스템
KR101315970B1 (ko) * 2012-05-23 2013-10-08 (주)엔써즈 오디오 신호를 이용한 콘텐츠 인식 장치 및 방법
JP5994974B2 (ja) 2012-05-31 2016-09-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、プログラム及び情報処理方法
US9401153B2 (en) 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
US9305559B2 (en) * 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US9195649B2 (en) * 2012-12-21 2015-11-24 The Nielsen Company (Us), Llc Audio processing techniques for semantic audio recognition and report generation
US9183849B2 (en) * 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9076459B2 (en) 2013-03-12 2015-07-07 Intermec Ip, Corp. Apparatus and method to classify sound to detect speech
CN104252480B (zh) * 2013-06-27 2018-09-07 深圳市腾讯计算机系统有限公司 一种音频信息检索的方法和装置
CN103440313B (zh) * 2013-08-27 2018-10-16 复旦大学 基于音频指纹特征的音乐检索系统
CN104050259A (zh) * 2014-06-16 2014-09-17 上海大学 一种基于som算法的音频指纹提取方法
CN105513587B (zh) * 2014-09-22 2020-07-24 联想(北京)有限公司 一种mfcc提取方法及装置
CN104462537A (zh) * 2014-12-24 2015-03-25 北京奇艺世纪科技有限公司 一种音频数据分类方法及装置
US9740775B2 (en) 2015-03-13 2017-08-22 TCL Research America Inc. Video retrieval based on optimized selected fingerprints
CN105118503A (zh) * 2015-07-13 2015-12-02 中山大学 一种音频翻录检测方法
CN106910494B (zh) * 2016-06-28 2020-11-13 创新先进技术有限公司 一种音频识别方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101014953A (zh) * 2003-09-23 2007-08-08 音乐Ip公司 音频指纹识别系统和方法
CN101493918A (zh) * 2008-10-21 2009-07-29 深圳市牧笛科技有限公司 在线音乐盗版监控方法和系统
US20120209612A1 (en) * 2011-02-10 2012-08-16 Intonow Extraction and Matching of Characteristic Fingerprints from Audio Signals
US20140074469A1 (en) * 2012-09-11 2014-03-13 Sergey Zhidkov Apparatus and Method for Generating Signatures of Acoustic Signal and Apparatus for Acoustic Signal Identification
CN103810236A (zh) * 2012-11-13 2014-05-21 三星电子株式会社 音乐信息搜索方法及其设备
US20140277640A1 (en) * 2013-03-15 2014-09-18 Facebook, Inc. Generating Audio Fingerprints based on Audio Signal Complexity
US20150199974A1 (en) * 2014-01-13 2015-07-16 Facebook, Inc. Detecting distorted audio signals based on audio fingerprinting

Also Published As

Publication number Publication date
KR20190021421A (ko) 2019-03-05
EP3477632A4 (en) 2020-01-08
JP6750048B2 (ja) 2020-09-02
TWI659410B (zh) 2019-05-11
JP2019526070A (ja) 2019-09-12
KR102220964B1 (ko) 2021-03-02
US10910000B2 (en) 2021-02-02
US20210125628A1 (en) 2021-04-29
CN106910494A (zh) 2017-06-30
EP3477632A1 (en) 2019-05-01
WO2018001125A1 (zh) 2018-01-04
US11133022B2 (en) 2021-09-28
TW201801066A (zh) 2018-01-01
US20190115044A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
TW201935464A (zh) 基於記憶性瓶頸特徵的聲紋識別的方法及裝置
CN109308912B (zh) 音乐风格识别方法、装置、计算机设备及存储介质
CN109360572B (zh) 通话分离方法、装置、计算机设备及存储介质
US11133022B2 (en) Method and device for audio recognition using sample audio and a voting matrix
CN111785288A (zh) 语音增强方法、装置、设备及存储介质
Hsieh et al. Improving perceptual quality by phone-fortified perceptual loss for speech enhancement
CN116490920A (zh) 用于针对由自动语音识别系统处理的语音输入检测音频对抗性攻击的方法、对应的设备、计算机程序产品和计算机可读载体介质
KR20090089674A (ko) 휴대 단말기의 소리 인식 방법 및 장치
CN110136726A (zh) 一种语音性别的估计方法、装置、系统及存储介质
Gutierrez-Arriola et al. Synthetic Sound Event Detection based on MFCC.
CN110226201B (zh) 利用周期指示的声音识别
CN111737515B (zh) 音频指纹提取方法、装置、计算机设备和可读存储介质
Nathwani et al. Group delay based methods for speaker segregation and its application in multimedia information retrieval
CN113257238B (zh) 预训练模型的训练方法、编码特征获取方法及相关装置
CN111477248B (zh) 一种音频噪声检测方法及装置
CN108962389A (zh) 用于风险提示的方法及系统
CN107993666B (zh) 语音识别方法、装置、计算机设备及可读存储介质
US20220277761A1 (en) Impression estimation apparatus, learning apparatus, methods and programs for the same
CN115331673B (zh) 一种复杂声音场景下的声纹识别家电控制方法和装置
Ponraj et al. Extraction of speech signal based on power normalized cepstral coefficient and mel frequency cepstral coefficient: A comparison
JP6139430B2 (ja) 信号処理装置、方法及びプログラム
Pattanayak et al. Significance of single frequency filter for the development of children's KWS system.
Kumari et al. Designing Highly Secured Speaker Identification with Audio Fingerprinting using MODWT and RBFNN
CN115985347A (zh) 基于深度学习的语音端点检测方法、装置和计算机设备
CN113674766A (zh) 语音评价方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1238404

Country of ref document: HK

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201014

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20201014

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: Greater Cayman, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

GR01 Patent grant
GR01 Patent grant