CN101763848A - 一种用于音频内容识别的同步方法 - Google Patents
一种用于音频内容识别的同步方法 Download PDFInfo
- Publication number
- CN101763848A CN101763848A CN200810243580A CN200810243580A CN101763848A CN 101763848 A CN101763848 A CN 101763848A CN 200810243580 A CN200810243580 A CN 200810243580A CN 200810243580 A CN200810243580 A CN 200810243580A CN 101763848 A CN101763848 A CN 101763848A
- Authority
- CN
- China
- Prior art keywords
- point
- frame
- audio frequency
- synchronous
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Abstract
本发明提供一种用于识别音频的同步方法,该方法既适用于音乐信息的识别中,又适用于语音信息的识别。实现本发明目的技术方案是:一种用于音频内容识别的同步方法,该方法包括下列步骤:步骤1提取两个音频信号的频域或时域的特征点;步骤2将两个音频的特征点分别组成特征点组;步骤3对两个特征点组进行匹配,找到匹配点,将二者在匹配点上开始同步。
Description
技术领域
本发明涉及数字信号处理、音频信号处理及软件技术,具体地说涉及一种用于音频信息内容识别的同步方法。
背景技术
随着计算机网络和现代通信技术的发展,多媒体信息的容量得到了飞速的增加。多媒体信息已经成了人们日常生活中不可或缺的一部分。
音频在多媒体信息中占有相当大的比例,因此对音频信息的识别也就有了实际的意义。
在特征维数存储空间有限的条件下,得到两个音频后,为了识别两个音频信息是否相同,对接下来的信息进行提取特征。为了使有公共部分的音乐片段,能够提取出共有的音乐片段的特征,以作度量,就需要对两个音频同步,即假如两个是大致相同的音频内容的话,但是由于起始时间上不是完全一致,为了提取信息特征时采用相同的成分,就需要先对两段音频同步,使二者有共同的参考点或参考点组,即对相似的,但长度大小又不同的音频,找到共有的音频段去处理。它们之间应该有同步点使二音频对应起来。同步点一般在特征突变位置时,比较好标记。
在此之前,已有数种提取节拍的尝试。在中华人民共和国国家知识产权局的公开专利200610108649.0中公开了拍子提取及检测设备和方法、音乐同步显示设备和方法,其利用检测输入音乐信号的声谱图中,功率谱的急剧变化来提取拍子,计算自相关来推算节拍值。公开专利200480008226.0中公开了一种拍子分析装置和拍子分析方法,其根据从分析数据提取来的声音信号的电平信息,以规定的单位时间区间的帧作为处理单元,检测出在规定电平以上的峰值位置,并求该帧区间中的各峰值位置之间的间隔,将发生频度高的峰值间隔决定为拍子。
上述专利中的节奏提取,主要为了获得音乐的拍子,得到整段音乐的节拍,主要针对的是音乐信号。
发明内容
本发明的目的在于克服现有技术的不足,提供一种为了识别两个音频信息的异同,将两个音频同步的方法。该方法既适用于音乐信息的识别中,又适用于语音信息的识别。
实现本发明目的技术方案是:一种用于音频内容识别的同步方法,该方法包括下列
步骤:
步骤1提取两个音频信号的频域或时域的特征点;
步骤2将两个音频的特征点分别组成特征点组;
步骤3对两个特征点组进行匹配,找到匹配点,将二者在匹配点上开始同步。
音频文件的识别中存在两种不同情况,其中之一是两个不同的音频文件的同步问题,毫无疑问,两个完全不同的音频文件,无论如何都不可能达到同步,但是我们也可以认为,他们任何时候都是同步的,只是同步后的内容不同,因此,本发明中的特征点组匹配后得到的匹配点就可以作为其同步点,只是后续的特征提取所得到的特征不同而已。另一种情况是两个基本相同的文件的同步问题,可以认为有公共部分的两个文件,其一定可以找到相同的点,这个点之后的同样大小的部分则可以认为是这两个音频文件所共有的部分。这样一来,有共有部分的音频文件就可以看作是同步了,同步点之后的就可以认为是相同的内容了。
本发明中的特征点组通过提取频域或时域特征点进行组合的方式来实现,可以用于音乐信息和语音信息的识别中的同步。
作为本发明的进一步改进,所述步骤1中,采用以帧为单位,计算归一化能量差的方式提取特征点。
作为本发明的进一步改进,所述步骤2中,选取帧间能量差最大的若干点组成特征点组。
作为本发明的进一步改进,所述步骤3中,可由特征点组之间的时间差做参考同步特征,即如果音频a中参考点之间的时间差和b中参考点之间的时间差相同或者在允许的误差范围内,则可以认为a中某个参考点和b中某个参考点构成了a和b的同步点。
本发明中,所述提取两个音频信号的频域特征点步骤中,具体包括以下步骤:
将音频段以帧为单位转化到频域,经过梳状滤波器组滤波,并进行归一化;
选取帧间能量差最大的特征点组成特征点组。对于和某个滤波器中心频率有共鸣或相近的地方,信号将有较大的增幅导致能量激增。
本发明中,所述步骤1中,具体包括以下步骤:
将音频以帧为单位进行处理,计算各帧能量,计算能量差,并归一化;
选取较大的能量差的点组成特征点组。由于音频信号在时域中是缓慢变化的信号。但是在节奏突变处,将有明显的跳动,导致前后两帧能量有较大的反差,这些点可形成特征点组。
本发明中,所述步骤3可以采用下列方式:
一种是把相比较的两个音频中较第一音频的特征点组分成两半,分别取最大值得到假设参考点,然后从另一特征点组中采取比较时间差t的方式搜索,使其在合理误差范围内从而决定是否同步。
另一种方法是首先经过量化器,将时间差映射为一组字符串S,每一个字符和其它字符所代表的时间差数值,有一定的交叠,以保证合理的误差允许度,然后把较第一音频分成两半,分别选取合适的子字符串S1,S2,利用查找字符子串的方式从较第二音频字符串S中搜索子串S1,S2,根据搜索结果来判别是否同步以及相应同步点。
本发明主要目的是用作音频同步,并不需要提取节奏,这也是本发明和之前所提到的专利很大的不同。本发明不仅仅适用于音乐信号,对语音信号也同样适用,解决了两端起始端有出入的音频信号的同步问题。
附图说明
图1两端大致相同而又没有同步的两个音频
图2本发明实施例1的流程图
图3本发明实施例1中第一种同步匹配方法的流程图
图4本发明实施例1中第二种同步匹配方法的流程图
图5本发明实施例1中的第一音频特征点输出
图6本发明实施例1中的第二音频特征点输出
图7本发明实施例2中特征点提取的流程图
图8本发明实施例3中特征点提取和筛选流程图
图9本发明实施例3中的第一音频特征点输出
图10本发明实施例3中的第二音频特征点输出
具体实施方式
以下将参考附图来描述本发明的具体实施方式。
实施例1
本实施例是基于提取音频文件中的频域特征点的同步方法。
如图1所示,两个进行内容比较识别的音频,第一音频和第二音频。
如图2所示,对第一音频和第二音频的数据分别进行下列步骤10一步骤13的处理。
步骤10对音频数据预加重,去除一些环境噪音;以帧为单位对音频信号进行处理,将原音频段分割成以帧为单位,并进行加帧窗的处理;
步骤11分帧后的时域数据转化到频域:根据帧大小,通过N点FFT运算,把来到的每一帧的数据,变换到频率域,然后输出。这样原始信号就变成一帧帧的频域数值,而帧号就相当于某种意义上的时间轴,此时的输出信号既和时间相关,又和频率相关。
步骤12特征点的提取:
步骤120将数据首先经过梳状滤波器组滤波,然后进行能量提取和量化,接着是计算能量变化率;音频信号经过梳状滤波器,由于梳状滤波器平均的散布在频率域上,所以通过后的每帧能量和所分析信号的谐波有很大关系,而当节奏突变时,必将导致这一帧信号能量相比于前一帧有较大的变化。本发明要得到的就是这种畸变点。
步骤121提取经过滤波器后的各路信号的能量;
步骤122把上步骤得到的多路信号的能量进行量化,使得量化后的信号能量E的范围在0到1之间。
步骤123把当前帧的能量E减去上一帧的本路信号的能量E得到这一路的能量差输出,把各路信号能量差相加后输出。输出的信号如图5和图6所示。
步骤13特征点组筛选:在上步骤输出数据中选出M个最大值,并记录其帧号位置,作为M个特征点,M可根据音频大小调整,音频越长相应M也越大,由此得到第一音频的特征点组第二音频的特征点组其中xi为此帧和前一帧能量差值,ti为此帧帧号本发明中的特征点并不是实际意义上的一个音频数据点,而是指第几帧。
同步匹配具体可以采用两种方式,其一种方式如图3所示:
步骤141将两个音频文件中第一音频的M1个特征点,按顺序分成前后个数相等的两部分,即每个部分含有M1/2个特征点;即,假设进行同步匹配的两个特征点组为 同时假设第一音频的长度<第二音频的长度,于是有M1<M2,那么T1被分为
步骤142计算出前M1/2个点中的最大值点Xs1=(xs1,ts1),并以其作为一个假设同步点,同理也计算出后半部的最大值Xs2=(xs2,ts2),作为第二假设同步点。即:分别找出前、后M1/2个点中xi的最大值,为xs1,xs2,并取出其之后相邻N-1个特征点组成Ts1={(xs1,ts1),(xs1+1,ts1+1),...,(xs1+N,ts1+N)},Ts2={(xs2,ts2),(xs2+1,ts2+1),...,(xs2+N,ts2+N)}。此处我们假设的N没有超出范围,即Xs1,Xs2,之后的N可以取到。
步骤143计算Xs1之后的各特征点和Xs1之间的时间差,以及计算Xs2之后的各特征点和Xs2之间的时间差;由于我们知道特征点的帧号,那么两个特征点的帧号之差就相当于他们之间的时间间隔。
步骤144在两个音频中的第二音频特征组T2中,以第一个特征点X′1=(x′1,t′1)开始,找出它之后相邻的N-1个特征点之间时间差并和第一音频中相邻参考点组Ts1={(xs1,ts1),(xs1+1,ts1+1),...,(xs1+N,ts1+N)}之时间差比较,看是否相同,若连续几个都相同或者误差比较小,则认为找到了同步点,即第二音频中的当前特征点X′1=(x′1,t′1)和第一音频中假设同步点Xs1构成了一组同步点,同时第一音频同步点Xs1之后相邻的其他特征点与第二音频中当前特征点X′1之后的特征点一起组成了一个同步点组。若没有,从第二音频中第二个参考点X′2继续遍历。即:以T2的X′1=(x′1,t′1)开始选取N个构成{(x′1,t′1),(x′2,t′2),...,(x′N,t′N)}和Ts1比较,即:若(ti+1-ti)-(t′j+1-t′j),等于0或在规定误差内,其中s1≤i<s1+N,1≤j<N。那么可以认为Xs1=(xs1,ts1),X′1=(x′1,t′1)构成了同步点,Ts1={(xs1,ts1),(xs1+1,ts1+1),...,(xs1+N,ts1+N)}和{(x′1,t′1),(x′2,t′2),...,(x′N,t′N)}构成同步点组。若不符合条件,继续以以T2的X′2=(x′2,t′2)开始选取N个构成{(x′2,t′2),(x′3,t′3),...,(x′N+1,t′N+1)}和Ts1比较,以此类推,直到找到满足符合条件的X′j。
步骤145若第二音频T2中的所有参考点遍历完以后,没有找到符合条件的点,则再从第二音频T2中第一个特征点X′1开始,对第二个假设同步点Xs2作同样遍历操作。
其另一种方法如图4所示:
步骤147提取第二音频特征点组T2的M1个特征点中的相邻的特征点之间的差值,得到各相邻特征点之间的时间差。
步骤148将时间差进行量化处理,输出一串M1-1长的字符串P,其中不同的字母去代表不同大小的量化间隔,并保存映射表。
步骤149在较第一音频的特征点组T1中,筛选出前M1/2,和后M1/2个特征点中最大值Xs1=(xs1,ts1),Xs2=(xs2,ts2),并将它们作为两个假设同步点,分别将其之后相邻的N-1个特征点之差送入量化设备,分别得到两个N-1长字符串P1,P2。
步骤150将M1-1长字符串P和N-1长字符串P1进行字符串匹配,在M1-1长字符串P中寻找和P1相匹配的子串,并进行定位。字符串匹配可以用简单串匹配算法,或KMP算法,BM算法,RK算法,Z算法等常用算法或硬件设备来实现。
步骤151若未找到匹配串,则将字符串P和P2进行字符串匹配,在字符串P中寻找和P2相匹配的子串,并进行定位。
若找到相同的字符串则说明找到同步位置,并将字符串设备中输出的定位点作为同步点,字符串P1或P2为同步点组。
若仍然未找到,把音频特征点组T1最大特征点和音频特征点组T2的最大特征点作为假同步点给出。
实施例2
本实施例中,与上例的不同之处在于,特征点的提取的方法不同,本实施例中采用相邻帧间相位特征突变来提取参考点。
如图7所示,特征点的提取的方法:
步骤124对每帧的频域相位分别进行计算;
步骤125计算相邻帧之间的相位差,滤除相位差在某阈值以下的点,输出至特征点组筛选13。
实施例3
本实施例是基于提取音频文件中的时域特征点的同步方法,特征点提取和特征点组筛选与实施例1不同。
如图8所示,假设我们获得的是两个wav的PCM数据,对两个音频数据分别进行下列步骤20一步骤23的处理。
步骤20对音频数据预加重,去除一些环境噪音;以帧为单位对音频信号进行处理,将原音频段分割成以帧为单位,并进行加窗的处理;
步骤21计算帧信号能量,并将此帧信号能量和前一帧信号的能量值相减后,并归一化,然后输出;输出信号如图9和10所示。
步骤22把负值全部置零;
步骤23特征点组筛选:指定控制参数M,控制最大值筛选器获取前M个最大值,获得M个特征点,并记录其位置,得到两个音频的特征点组T1={(x1,t1),(x2,t2),(x3,t3),...,(xM,tM)},T2={(x′1,t′1),(x′2,t′2),(x′3,t′3),...,(x′M,t′M)},其中xi为此帧和前一帧能量差值,ti为此帧帧号和前一帧号之差,即为此帧和前一帧的时间差。
Claims (10)
1.一种用于音频内容识别的同步方法,其特征是,该方法包括下列步骤:
步骤1提取两个音频信号的频域或时域的特征点;
步骤2将两个音频的特征点分别组成特征点组;
步骤3对两个特征点组进行匹配,找到匹配点,将二者在匹配点上开始同步。
2.根据权利要求1所述的同步方法,其特征是,所述步骤1中,采用以帧为单位,计算归一化能量差的方式提取特征点;所述步骤2中,选取帧间能量差最大的若干点组成特征点组;所述步骤3中,采用特征点组之间的时间差作为参考同步特征。
3.根据权利要求1所述的同步方法,其特征是,所述步骤1中进一步包括下列步骤:
步骤10对音频数据预加重,去除一些环境噪音;以帧为单位对音频信号进行处理,将原音频段分割成以帧为单位,并进行加窗的处理;
步骤11分帧后的时域数据转化到频域:根据帧大小,通过N点FFT运算,把来到的每一帧的数据,变换到频率域,然后输出;
步骤12特征点的提取。
6.根据权利要求3所述的同步方法,其特征是,上述步骤12中进一步包括:
步骤120将数据首先经过梳状滤波器组滤波,然后进行能量提取和量化,接着是计算能量变化率;
步骤121提取经过滤波器后的各路信号的能量;
步骤122把上步骤得到的多路信号的能量进行量化,使得量化后的信号能量E的范围在0到1之间;
步骤123把当前帧的能量E减去上一帧的本路信号的能量E得到这一路的能量差输出,把各路信号能量差相加后输出。
7.根据权利要求3所述的同步方法,其特征是,上述步骤12中进一步包括:
步骤124对每帧的频域相位分别进行计算;
步骤125计算相邻帧之间的相位差,滤除相位差在某阈值以下的点,输出至特征点组筛选。
9.根据权利要求6或7所述的同步方法,其特征是,上述步骤3中进一步包括:
步骤141假设第一音频的长度<第二音频的长度,将第一音频特征组T1的M1个特征点,按顺序分成前后个数相等的两部分,每个部分含有M1/2个特征点,第一音频特征点组T1被分为两个特征点组:
步骤142计算出前M1/2个点中的最大值Xs1=(xs1,ts1),并以其作为一个假设同步点,计算出后半部的最大值Xs2=(xs2,ts2),作为第二假设同步点;
步骤143计算特征点Xs1之后的各特征点和特征点Xs1之间的时间差,以及计算特征点Xs2之后的各特征点和特征点Xs2之间的时间差;
步骤144在第二音频特征组T2中,以第一个特征点X′=(x′1,t′1)开始,找出它之后相邻的N-1特征点之间时间差并和第一音频中相邻参考点组Ts1={(xs1,ts1),(xs1+1,ts1+1),...,(xs1+N,ts1+N)}之时间差比较,看是否相同的,若连续几个都相同或者误差比较小,第二音频中的当前特征点X′1=(x′1,t′1)和第一音频中假设同步点Xs1构成了一组同步点,同时第一音频同步点Xs1之后相邻的其他特征点与第二音频中当前特征点X′1之后的特征点一起组成了一个同步点组;若没有,从第二音频中第二个参考点X′2继续遍历;
10.根据权利要求6或7所述的同步方法,其特征是,上述步骤3中进一步包括:
步骤147提取较第二音频特征点组T2的M1个特征点中的相邻的特征点之间的差值,得到各相邻特征点之间的时间差;
步骤148将时间差进行量化处理,输出一串M1-1长的字符串P,其中不同的字母去代表不同大小的量化间隔,保存映射表;
步骤149在较第一音频的特征点组T1中,筛选出前M1/2,和后M1/2个特征点中最大值Xs1=(xs1,ts1),Xs2=(xs2,ts2),,并将它们作为两个假设同步点,计算相邻特征点之间时间差,并将N-1个时间差送入量化设备,分别得到两个N-1长字符串P1,P2;
步骤150将M1-1长字符串P和N-1长字符串P1进行字符串匹配,在M1-1长字符串P中寻找和P1相匹配的子串,并进行定位;
步骤151若未找到匹配串,则将字符串P和P2进行字符串匹配,在字符串P中寻找和P2相匹配的子串,并进行定位;
若找到相同的字符串则说明找到同步位置,并将字符串设备中输出的定位点作为同步点,字符串P1或P2为同步点组;
若仍然未找到,把音频特征点组T1最大特征点和音频特征点组T2的最大特征点作为假同步点给出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200810243580 CN101763848B (zh) | 2008-12-23 | 2008-12-23 | 一种用于音频内容识别的同步方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 200810243580 CN101763848B (zh) | 2008-12-23 | 2008-12-23 | 一种用于音频内容识别的同步方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101763848A true CN101763848A (zh) | 2010-06-30 |
CN101763848B CN101763848B (zh) | 2013-06-12 |
Family
ID=42494971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 200810243580 Active CN101763848B (zh) | 2008-12-23 | 2008-12-23 | 一种用于音频内容识别的同步方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101763848B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102142257A (zh) * | 2010-12-28 | 2011-08-03 | 北大方正集团有限公司 | 一种音频信号处理方法及装置 |
CN102387408A (zh) * | 2011-10-25 | 2012-03-21 | 深圳市同洲电子股份有限公司 | 一种音乐信息的获取方法、机顶盒及相关系统 |
CN103718482A (zh) * | 2011-05-10 | 2014-04-09 | 斯玛特哈伯私人有限公司 | 用于识别广播节目内容的系统与方法 |
CN103824556A (zh) * | 2012-11-16 | 2014-05-28 | 索尼公司 | 声音处理设备、声音处理方法和程序 |
CN112969134A (zh) * | 2021-02-07 | 2021-06-15 | 深圳市微纳感知计算技术有限公司 | 麦克风异常检测方法、装置、设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1385014A (zh) * | 1999-10-29 | 2002-12-11 | 艾利森电话股份有限公司 | 语音同步 |
WO2004075565A1 (en) * | 2003-02-14 | 2004-09-02 | Thomson Licensing S.A. | Automatic synchronization of audio and video based media services of media content |
CN100521781C (zh) * | 2003-07-25 | 2009-07-29 | 皇家飞利浦电子股份有限公司 | 生成并检测用于同步音频和视频的指纹的方法和设备 |
JP2006330541A (ja) * | 2005-05-30 | 2006-12-07 | Matsushita Electric Ind Co Ltd | 音声受信再生装置 |
-
2008
- 2008-12-23 CN CN 200810243580 patent/CN101763848B/zh active Active
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102142257A (zh) * | 2010-12-28 | 2011-08-03 | 北大方正集团有限公司 | 一种音频信号处理方法及装置 |
CN102142257B (zh) * | 2010-12-28 | 2013-07-03 | 北大方正集团有限公司 | 一种音频信号处理方法及装置 |
CN103718482A (zh) * | 2011-05-10 | 2014-04-09 | 斯玛特哈伯私人有限公司 | 用于识别广播节目内容的系统与方法 |
CN103718482B (zh) * | 2011-05-10 | 2017-05-17 | 电子创新控股私人有限公司 | 用于识别广播节目内容的系统与方法 |
CN102387408A (zh) * | 2011-10-25 | 2012-03-21 | 深圳市同洲电子股份有限公司 | 一种音乐信息的获取方法、机顶盒及相关系统 |
CN103824556A (zh) * | 2012-11-16 | 2014-05-28 | 索尼公司 | 声音处理设备、声音处理方法和程序 |
CN112969134A (zh) * | 2021-02-07 | 2021-06-15 | 深圳市微纳感知计算技术有限公司 | 麦克风异常检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN101763848B (zh) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2659480B1 (en) | Repetition detection in media data | |
CN107293307B (zh) | 音频检测方法及装置 | |
EP2791935B1 (en) | Low complexity repetition detection in media data | |
CN101763848B (zh) | 一种用于音频内容识别的同步方法 | |
CN103971689A (zh) | 一种音频识别方法及装置 | |
CN105741835A (zh) | 一种音频信息处理方法及终端 | |
CN104538033A (zh) | 基于嵌入式gpu系统的并行化语音识别系统及方法 | |
Wang et al. | An algorithm of detecting audio copy-move forgery based on DCT and SVD | |
Kamaladas et al. | Fingerprint extraction of audio signal using wavelet transform | |
CN101594527B (zh) | 从音频视频流中高精度检测模板的两阶段方法 | |
CN105608105A (zh) | 一种基于收听上下文的音乐推荐方法 | |
Degani et al. | A heuristic for distance fusion in cover song identification | |
KÖSEOĞLU et al. | Effect of Spectrogram Parameters and Noise Types on The Performance of Spectro-temporal Peaks Based Audio Search Method | |
Wang et al. | Robust audio fingerprint extraction algorithm based on 2-D chroma | |
Van Nieuwenhuizen et al. | The study and implementation of shazam’s audio fingerprinting algorithm for advertisement identification | |
Wang et al. | Structural fingerprint based hierarchical filtering in song identification | |
Yang | Towards real-time music auto-tagging using sparse features | |
JPH04261591A (ja) | 自動採譜装置 | |
Kumari et al. | Audio signal classification based on optimal wavelet and support vector machine | |
CN107833582A (zh) | 基于弧长的语音信号端点检测方法 | |
Kodag et al. | Harmonic product spectrum based approach for tonic extraction in Indian music | |
Wang et al. | A Low-Resource-Cost FPGA Implementation of Population Threshold Coding for Spiking Neural Networks | |
CN103324663A (zh) | 基于mdct频谱期望的压缩域音频指纹提取方法 | |
Moschou et al. | Systematic comparison of BIC-based speaker segmentation systems | |
Xu et al. | Feature selection for automatic classification of Chinese folk songs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |