CN112784099B - 抵抗变调干扰的采样计数音频检索方法 - Google Patents
抵抗变调干扰的采样计数音频检索方法 Download PDFInfo
- Publication number
- CN112784099B CN112784099B CN202110125352.XA CN202110125352A CN112784099B CN 112784099 B CN112784099 B CN 112784099B CN 202110125352 A CN202110125352 A CN 202110125352A CN 112784099 B CN112784099 B CN 112784099B
- Authority
- CN
- China
- Prior art keywords
- audio
- fingerprint
- frequency
- retrieved
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/635—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/638—Presentation of query results
Abstract
本发明提供一种抵抗变调干扰的采样计数音频检索方法,属于音频检索领域,以解决现有Philips指纹音频检索方法无法抵抗变调干扰的问题。通过在去边的斐波那契哈希索引表中对第一目标音频指纹进行检索,在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹,利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配,可抵抗变调的音频信号在频率方向缩放所导致的指纹移位,使本发明可在保持检索效率和对各种噪声干扰鲁棒的前提下实现了对变调干扰音频的检索。通过采样计数法可快速过滤掉大量不相似音频,得到结果候选序号集。通过加入基于阈值的固定间隔抽样匹配方法,可保证对其它非变调干扰音频的快速检索。
Description
技术领域
本发明涉及音频检索技术领域,尤其涉及一种抵抗变调干扰的采样计数音频检索方法。
背景技术
音频检索已被广泛应用于音乐识别、版权监测等任务。目前,基于内容的音频检索已成为近年来国内外研究的热点。基于内容的音频检索方法是将待查询音频的目标音频指纹与音频指纹数据库中的参考音频指纹进行相似度匹配,通过比较相似度获取检索结果的过程。音频检索系统通常包括音频指纹和检索方法两部分,其中,音频指纹的鲁棒性决定了检索的准确性,检索方法的效率则决定了检索系统的效率。
提取具有强代表性、高区分性和好鲁棒性的音频指纹是准确进行音频检索的前提。Philips指纹(飞利浦指纹)是典型的指纹代表。提取Philips类的指纹是基于频带能量来实现的,但是Philips指纹无法抵抗大于±4%的变调干扰。基于Philips指纹的采样计数音频检索方法(Sampling and Counting Retrieval Method,SC),利用Philips指纹重叠帧的特性,有效地提高了检索的效率,但是由于使用了Philips指纹,同时也继承了Philips指纹无法抵抗±4%以上的变调干扰的缺点。如果能解决Philips指纹的这一缺点,则SC方法将进一步趋于理想。
发明内容
为解决现有的基于Philips指纹的采样计数音频检索方法无法抵抗变调干扰的技术问题,本发明提供一种抵抗变调干扰的采样计数音频检索方法。
为解决上述技术问题,本发明采用的技术方案是:
一种抵抗变调干扰的采样计数音频检索方法,其包括如下步骤:
S1,计算并保存待检索音频的频谱图,并基于频谱图提取待检索音频的第一目标音频指纹,所述第一目标音频指纹为Philips指纹;
S2,在预先建立的去边的斐波那契哈希索引表中对第一目标音频指纹进行检索,得到第一目标音频指纹的第一候选序号集;
S3,利用采样计数法对第一候选序号集进行筛选,得到第二候选序号集;
S4,通过基于阈值的固定间隔抽样匹配方法将第二候选序号集中的序号在预先建立的音频指纹库中对应的指纹与第一目标音频指纹进行匹配,根据匹配结果确定第二候选序号集中的序号在音频指纹库中对应的音频指纹是否包括第一目标音频指纹;
S5,如果第二候选序号集中的序号在音频指纹库中对应的音频指纹不包括第一目标音频指纹,则在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹;
S6,利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配,得到检索结果。
可选地,所述步骤S2,在预先建立的去边的斐波那契哈希索引表中对第一目标音频指纹进行检索之前,还包括:
S21,提取所有参考音频的音频指纹,得到音频指纹数据库,所述音频指纹数据库包括每一条参考音频的序号和音频指纹,每一条参考音频的音频指纹由若干音频子指纹组成;
S22,对于音频指纹数据库中每一条参考音频的音频指纹,利用如下公式(1)计算每一个音频子指纹对应的哈希值,使用音频子指纹作为key,将该参考音频的序号加入哈希值对应的哈希桶中,得到去边的斐波那契哈希索引表;
f(key)=((key<<l)>>(l+r))×Cw (1);
公式(1)中,key是32位的0/1字符串,代表参考音频的音频子指纹;Cw由黄金分割比例导出,依据斐波那契方法,当key是32位时,Cw取2654435769;l代表左移的位数;r代表右移的位数;f(key)表示音频子指纹对应的哈希值;哈希桶的数量为232-(l+r)。
可选地,所述S5中在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹,包括如下步骤:
S51,在待检索音频的频谱图上取300Hz至2000Hz之间的频率,再使用自然对数划分33个对数间隔,通过如下公式(2)对待检索音频的频带间隔进行划分:
lnfb=ln300+(ln2000-ln300)×nb/33+lnC (2)
公式(2)中,nb表示第nb个频带划分点,取0到33;fb表示第nb个频带划分点的对应频率值,通过取不同的nb,即可得到34个对应的频率值fb;设定C为频率缩放因子,通过取不同的C,可计算出不同频率缩放所对应的频带划分频率;
S52,通过如下公式(3)计算采样点与频率之间的对应关系:
公式(3)中,nm表示频率f对应的第nm个幅度值点;将公式(2)得到的34个频率值fb代入公式(3)中的f,得到对应的34个幅度值点nm,通过34个幅度值点nm即可划分33个频带;Fs表示采样率;Ns表示一帧音频子指纹的采样点个数;
S53,分别累加nm到nm+1之间的幅度值之和,得到第m+1个频带的能量值E(n,m+1),利用如下公式(4)计算相邻两个频带之间的能量值的差值,再比较相邻两帧之间对应频带的能量差,得到32位音频子指纹:
公式(4)中,E(n,m)表示待检索音频第n帧第m个频带的能量值,F(n,m)表示待检索音频第n帧第m位的音频子指纹;
S54,分别计算待检索音频的所有帧的音频子指纹,得到第二目标音频指纹。
可选地,所述S6在利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配时,包括如下步骤:
S61,设定待检索音频的变调幅度的位移方向δ和位移个数Nδ,其中δ取0和1,0代表变调幅度缩小,1代表变调幅度放大;Nδ取1到P,代表缩放尺度,以5%为间隔递增,则位移方向δ和位移个数Nδ对应的缩放频率为(100±p×5)%,其中,p∈(1,P),当δ为0时,取-号,当为1时,取+号,将(100±p×5)%代入S51中的C,得到(100±p×5)%对应的第二目标音频指纹;
S62,在去边的斐波那契哈希索引表中对(100±p×5)%对应的第二目标音频指纹进行检索,并使用采样计数法筛选得到候选序号集;
S63,将(100±p×5)%对应的第二目标音频指纹与候选序号集中的序号在音频指纹库中对应的音频进行匹配,如果匹配未成功,则返回S61;如果匹配成功,则检索结束。
本发明的有益效果是:
通过在去边的斐波那契哈希索引表中对第一目标音频指纹进行检索,在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹,并利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配,可以抵抗变调的音频信号在频率方向缩放所导致的指纹移位,使得本发明可以在保持检索效率和对各种噪声干扰鲁棒的前提下实现了对变调干扰音频的检索。该方法通过采样计数法,可以快速过滤掉大量不相似音频,得到结果候选序号集。通过加入基于阈值的固定间隔抽样匹配方法,可以保证对其它非变调干扰的音频的快速检索。本发明在进行音频快速检索时,可以达到在不降低精度和检索效率的前提下,扩充检索能力,实现对于变调的待检索音频片段的检索。
附图说明
图1是本发明的流程图。
具体实施方式
下面将结合附图和实施例对本发明作进一步地详细描述。
如图1本实施例中的一种抵抗变调干扰的采样计数音频检索方法,其特征在于,包括如下步骤:
S1,计算并保存待检索音频的频谱图,并基于频谱图提取待检索音频的第一目标音频指纹,所述第一目标音频指纹为Philips指纹。
其中,计算检索音频的频谱图时,可以利用短时傅里叶变换得到。
S2,在预先建立的去边的斐波那契哈希索引表中对第一目标音频指纹进行检索,得到第一目标音频指纹的第一候选序号集。
其中,所述步骤S2,在预先建立的去边的斐波那契哈希索引表中对目标音频指纹进行检索之前,还包括建立去边的斐波那契哈希索引表的步骤。建立去边的斐波那契哈希索引表的步骤包括如下步骤S21和S22:
S21,提取所有参考音频的音频指纹,得到音频指纹数据库,所述音频指纹数据库包括每一条参考音频的序号和音频指纹,每一条参考音频的音频指纹由若干音频子指纹组成。
S22,对于音频指纹数据库中每一条参考音频的音频指纹,利用如下公式(1)计算每一个音频子指纹对应的哈希值,使用音频子指纹作为key,将该参考音频的序号加入哈希值对应的哈希桶中,得到去边的斐波那契哈希索引表;
f(key)=((key<<l)>>(l+r))×Cw (1);
公式(1)中,key是32位的0/1字符串,代表参考音频的音频子指纹;Cw由黄金分割比例导出,依据斐波那契方法,当key是32位时,Cw取2654435769;l代表左移的位数;r代表右移的位数;f(key)表示音频子指纹对应的哈希值;哈希桶的数量为232-(l+r)。
S3,利用采样计数法对第一候选序号集进行筛选,得到第二候选序号集。
S4,通过基于阈值的固定间隔抽样匹配方法将第二候选序号集中的序号在预先建立的音频指纹库中对应的指纹与第一目标音频指纹进行匹配,根据匹配结果确定第二候选序号集中的序号在音频指纹库中对应的音频指纹是否包括第一目标音频指纹。
其中,在将第二候选序号集中的序号在音频指纹库中对应的指纹与第一目标音频指纹进行匹配时,可以通过计算相似度来实现,计算相似度Similarity的公式如下公式(5)。
公式(5)中,a代表匹配过程中不相同位的个数,b代表第一目标音频指纹的总长度。
S5,如果第二候选序号集中的序号在音频指纹库中对应的音频指纹不包括第一目标音频指纹,则在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹。
其中,所述S5中在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹,包括如下步骤S51至S54:
S51,在待检索音频的频谱图上取300Hz至2000Hz之间的频率,再使用自然对数划分33个对数间隔,通过如下公式(2)对待检索音频的频带间隔进行划分:
lnfb=ln300+(ln2000-ln300)×nb/33+lnC (2)
公式(2)中,nb表示第nb个频带划分点,取0到33;fb表示第nb个频带划分点的对应频率值,通过取不同的nb,即可得到34个对应的频率值fb;设定C为频率缩放因子,通过取不同的C,可计算出不同频率缩放所对应的频带划分频率。例如对于95%频率变换的音频,取C=0.95即可。
S52,通过如下公式(3)计算采样点与频率之间的对应关系:
公式(3)中,nm表示频率f对应的第nm个幅度值点;将公式(2)得到的34个频率值fb代入公式(3)中的f,得到对应的34个幅度值点nm,通过34个幅度值点nm即可划分33个频带;Fs表示采样率;Ns表示一帧音频子指纹的采样点个数。
S53,分别累加nm到nm+1之间的幅度值之和,得到第m+1个频带的能量值E(n,m+1),利用如下公式(4)计算相邻两个频带之间的能量值的差值,再比较相邻两帧之间对应频带的能量差,得到32位音频子指纹:
公式(4)中,E(n,m)表示待检索音频第n帧第m个频带的能量值,F(n,m)表示待检索音频第n帧第m位的音频子指纹。
S54,分别计算待检索音频的所有帧的音频子指纹,得到第二目标音频指纹。
S6,利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配,得到检索结果。
其中,所述S6在利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配时,包括如下步骤S61至S63:
S61,设定待检索音频的变调幅度的位移方向δ和位移个数Nδ,其中δ取0和1,0代表变调幅度缩小,1代表变调幅度放大;Nδ取1到P,代表缩放尺度,以5%为间隔递增,则位移方向δ和位移个数Nδ对应的缩放频率为(100±p×5)%,其中,p∈(1,P),当δ为0时,取-号,当为1时,取+号,将(100±p×5)%代入S51中的C,得到(100±p×5)%对应的第二目标音频指纹。
由于Philips指纹无法抵抗±4%以上的频率变换,本发明实施例以5%的频率缩放为间隔,假设变调幅度为70%至130%,则共需使用12种不同的缩放频率。在检索匹配时,比较不同变调幅度的音频,则此时P为6,Nδ取1到6。比如,当δ=1,Nδ=1时,代表变调幅度为105%;当δ=0,Nδ=2,代表变调幅度为90%,以此类推。
在检索匹配时,按照变换程度由低到高进行匹配。逐次增加Nδ,在每个缩放尺度中,根据δ缩小或者放大,分别进行两次匹配,得到结果即检索结束,否则继续匹配。比如先匹配变调幅度为95%和105%的情况,若未匹配成功,再匹配90%和110%,依次进行。在最坏的情况下,即变调幅度为130%时,需要一共匹配12次,才能得到检索结果。
S62,在去边的斐波那契哈希索引表中对(100±p×5)%对应的第二目标音频指纹进行检索,并使用采样计数法筛选得到候选序号集。
S63,将(100±p×5)%对应的第二目标音频指纹与候选序号集中的序号在音频指纹库中对应的音频进行匹配,如果匹配未成功,则返回S61;如果匹配成功,则检索结束。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (2)
1.一种抵抗变调干扰的采样计数音频检索方法,其特征在于,包括如下步骤:
S1,计算并保存待检索音频的频谱图,并基于频谱图提取待检索音频的第一目标音频指纹,所述第一目标音频指纹为Philips指纹;
S2,在预先建立的去边的斐波那契哈希索引表中对第一目标音频指纹进行检索,得到第一目标音频指纹的第一候选序号集;
S3,利用采样计数法对第一候选序号集进行筛选,得到第二候选序号集;
S4,通过基于阈值的固定间隔抽样匹配方法将第二候选序号集中的序号在预先建立的音频指纹库中对应的指纹与第一目标音频指纹进行匹配,根据匹配结果确定第二候选序号集中的序号在音频指纹库中对应的音频指纹是否包括第一目标音频指纹;
S5,如果第二候选序号集中的序号在音频指纹库中对应的音频指纹不包括第一目标音频指纹,则在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹;
S6,利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配,得到检索结果;
所述S5中在待检索音频的频谱图上利用变频带间隔的查询指纹生成方法计算第二目标音频指纹,包括如下步骤:
S51,在待检索音频的频谱图上取300Hz至2000Hz之间的频率,再使用自然对数划分33个对数间隔,通过如下公式(2)对待检索音频的频带间隔进行划分:
lnfb=ln300+(ln2000-ln300)×nb/33+lnC(2)
公式(2)中,nb表示第nb个频带划分点,取0到33;fb表示第nb个频带划分点的对应频率值,通过取不同的nb,即可得到34个对应的频率值fb;设定C为频率缩放因子,通过取不同的C,可计算出不同频率缩放所对应的频带划分频率;
S52,通过如下公式(3)计算采样点与频率之间的对应关系:
公式(3)中,nm表示频率f对应的第nm个幅度值点;将公式(2)得到的34个频率值fb代入公式(3)中的f,得到对应的34个幅度值点nm,通过34个幅度值点nm即可划分33个频带;Fs表示采样率;Ns表示一帧音频子指纹的采样点个数;
S53,分别累加nm到nm+1之间的幅度值之和,得到第m+1个频带的能量值E(n,m+1),利用如下公式(4)计算相邻两个频带之间的能量值的差值,再比较相邻两帧之间对应频带的能量差,得到32位音频子指纹:
公式(4)中,E(n,m)表示待检索音频第n帧第m个频带的能量值,F(n,m)表示待检索音频第n帧第m位的音频子指纹;
S54,分别计算待检索音频的所有帧的音频子指纹,得到第二目标音频指纹;
所述S6在利用多频率尺度的查询匹配方法对第二目标音频指纹进行检索匹配时,包括如下步骤:
S61,设定待检索音频的变调幅度的位移方向δ和位移个数Nδ,其中δ取0和1,0代表变调幅度缩小,1代表变调幅度放大;Nδ取1到P,代表缩放尺度,以5%为间隔递增,则位移方向δ和位移个数Nδ对应的缩放频率为(100±p×5)%,其中,p∈(1,P),当δ为0时,取-号,当为1时,取+号,将(100±p×5)%代入S51中的C,得到(100±p×5)%对应的第二目标音频指纹;
S62,在去边的斐波那契哈希索引表中对(100±p×5)%对应的第二目标音频指纹进行检索,并使用采样计数法筛选得到候选序号集;
S63,将(100±p×5)%对应的第二目标音频指纹与候选序号集中的序号在音频指纹库中对应的音频进行匹配,如果匹配未成功,则返回S61;如果匹配成功,则检索结束。
2.根据权利要求1所述的抵抗变调干扰的采样计数音频检索方法,其特征在于,所述步骤S2,在预先建立的去边的斐波那契哈希索引表中对第一目标音频指纹进行检索之前,还包括:
S21,提取所有参考音频的音频指纹,得到音频指纹数据库,所述音频指纹数据库包括每一条参考音频的序号和音频指纹,每一条参考音频的音频指纹由若干音频子指纹组成;
S22,对于音频指纹数据库中每一条参考音频的音频指纹,利用如下公式(1)计算每一个音频子指纹对应的哈希值,使用音频子指纹作为key,将该参考音频的序号加入哈希值对应的哈希桶中,得到去边的斐波那契哈希索引表;
f(key)=((key<<l)>>(l+r))×Cw(1);
公式(1)中,key是32位的0/1字符串,代表参考音频的音频子指纹;Cw由黄金分割比例导出,依据斐波那契方法,当key是32位时,Cw取2654435769;l代表左移的位数;r代表右移的位数;f(key)表示音频子指纹对应的哈希值;哈希桶的数量为232-(l+r)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110125352.XA CN112784099B (zh) | 2021-01-29 | 2021-01-29 | 抵抗变调干扰的采样计数音频检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110125352.XA CN112784099B (zh) | 2021-01-29 | 2021-01-29 | 抵抗变调干扰的采样计数音频检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112784099A CN112784099A (zh) | 2021-05-11 |
CN112784099B true CN112784099B (zh) | 2022-11-11 |
Family
ID=75759802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110125352.XA Active CN112784099B (zh) | 2021-01-29 | 2021-01-29 | 抵抗变调干扰的采样计数音频检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112784099B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1997989A (zh) * | 2004-02-26 | 2007-07-11 | 媒介向导有限公司 | 用于自动检测和标识广播音频或视频节目信号的方法和装置 |
WO2007119221A2 (en) * | 2006-04-18 | 2007-10-25 | Koninklijke Philips Electronics, N.V. | Method and apparatus for extracting musical score from a musical signal |
CN102959624A (zh) * | 2010-06-09 | 2013-03-06 | 阿德尔福伊有限公司 | 用于音频媒体识别的系统和方法 |
CN104715033A (zh) * | 2015-03-16 | 2015-06-17 | 太原理工大学 | 一种阶梯式音频检索方法 |
CN108004565A (zh) * | 2018-01-30 | 2018-05-08 | 中南大学 | 一种铝电解槽的全分布式语音预警方法及其系统 |
CN108509558A (zh) * | 2018-03-23 | 2018-09-07 | 太原理工大学 | 一种抗变速干扰的采样计数音频检索方法 |
CN110377782A (zh) * | 2019-07-12 | 2019-10-25 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频检索方法、装置和存储介质 |
CN110647656A (zh) * | 2019-09-17 | 2020-01-03 | 北京工业大学 | 一种利用变换域稀疏化和压缩降维的音频检索方法 |
CN110767248A (zh) * | 2019-09-04 | 2020-02-07 | 太原理工大学 | 一种抗变调干扰的音频指纹提取方法 |
CN112035696A (zh) * | 2020-09-09 | 2020-12-04 | 兰州理工大学 | 一种基于音频指纹的语音检索方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002311996A (ja) * | 2001-02-09 | 2002-10-25 | Sony Corp | コンテンツ供給システム |
JP4503292B2 (ja) * | 2001-12-05 | 2010-07-14 | ディズニー エンタープライゼズ インコーポレイテッド | 携帯デバイスをワイヤレスにトリガするシステムおよび方法 |
US8347088B2 (en) * | 2005-02-01 | 2013-01-01 | Newsilike Media Group, Inc | Security systems and methods for use with structured and unstructured data |
US8311823B2 (en) * | 2006-08-31 | 2012-11-13 | Sony Mobile Communications Ab | System and method for searching based on audio search criteria |
-
2021
- 2021-01-29 CN CN202110125352.XA patent/CN112784099B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1997989A (zh) * | 2004-02-26 | 2007-07-11 | 媒介向导有限公司 | 用于自动检测和标识广播音频或视频节目信号的方法和装置 |
WO2007119221A2 (en) * | 2006-04-18 | 2007-10-25 | Koninklijke Philips Electronics, N.V. | Method and apparatus for extracting musical score from a musical signal |
CN102959624A (zh) * | 2010-06-09 | 2013-03-06 | 阿德尔福伊有限公司 | 用于音频媒体识别的系统和方法 |
CN104715033A (zh) * | 2015-03-16 | 2015-06-17 | 太原理工大学 | 一种阶梯式音频检索方法 |
CN108004565A (zh) * | 2018-01-30 | 2018-05-08 | 中南大学 | 一种铝电解槽的全分布式语音预警方法及其系统 |
CN108509558A (zh) * | 2018-03-23 | 2018-09-07 | 太原理工大学 | 一种抗变速干扰的采样计数音频检索方法 |
CN110377782A (zh) * | 2019-07-12 | 2019-10-25 | 腾讯音乐娱乐科技(深圳)有限公司 | 音频检索方法、装置和存储介质 |
CN110767248A (zh) * | 2019-09-04 | 2020-02-07 | 太原理工大学 | 一种抗变调干扰的音频指纹提取方法 |
CN110647656A (zh) * | 2019-09-17 | 2020-01-03 | 北京工业大学 | 一种利用变换域稀疏化和压缩降维的音频检索方法 |
CN112035696A (zh) * | 2020-09-09 | 2020-12-04 | 兰州理工大学 | 一种基于音频指纹的语音检索方法及系统 |
Non-Patent Citations (4)
Title |
---|
A Robust Audio Fingerprinting Using a New Hashing Method;Heui-Su Son 等;《IEEE Access》;20200918;第8卷;172343-172351 * |
一种改进的Philips音频指纹检索算法;孙宁 等;《计算机工程》;20170329;第44卷(第01期);280-284 * |
分段式音频检索算法;郑贵滨 等;《计算机科学》;20050323(第03期);73-75 * |
抗频率变换的采样计数音频检索方法;姚姗姗 等;《计算机工程与应用》;20210412;第57卷(第12期);126-131 * |
Also Published As
Publication number | Publication date |
---|---|
CN112784099A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5907511B2 (ja) | オーディオメディア認識のためのシステム及び方法 | |
KR100774585B1 (ko) | 변조 스펙트럼을 이용한 음악 정보 검색 방법 및 그 장치 | |
EP2659480B1 (en) | Repetition detection in media data | |
Arzt et al. | Fast Identification of Piece and Score Position via Symbolic Fingerprinting. | |
CN108509558B (zh) | 一种抗变速干扰的采样计数音频检索方法 | |
Sanguansat | Multiple multidimensional sequence alignment using generalized dynamic time warping | |
US8108452B2 (en) | Keyword based audio comparison | |
Ishwar et al. | Motif Spotting in an Alapana in Carnatic Music. | |
Martin et al. | Blast for audio sequences alignment: a fast scalable cover identification | |
Nkambule et al. | Classification of music by genre using probabilistic models and deep learning models | |
CN112784099B (zh) | 抵抗变调干扰的采样计数音频检索方法 | |
Yao et al. | Enhancing sampling and counting method for audio retrieval with time-stretch resistance | |
Shao et al. | Note onset detection based on sparse decomposition | |
Ribbrock et al. | A full-text retrieval approach to content-based audio identification | |
Glazyrin | Audio chord estimation using chroma reduced spectrogram and self-similarity | |
CN113066512A (zh) | 佛教音乐识别方法、装置、设备及存储介质 | |
Chu et al. | Peak-based philips fingerprint robust to pitch-shift for massive audio retrieval | |
JPH04261591A (ja) | 自動採譜装置 | |
Thiruvengatanadhan | Music genre classification using mfcc and aann | |
Chu et al. | Peak-Based Philips Fingerprint Robust to Pitch-Shift for Audio Identification | |
Haro et al. | Power-law distribution in encoded MFCC frames of speech, music, and environmental sound signals | |
Seo | Salient chromagram extraction based on trend removal for cover song identification | |
Rychlicki-Kicior et al. | Multipitch estimation using judge-based model | |
Qian et al. | A novel algorithm for audio information retrieval based on audio fingerprint | |
US20220335082A1 (en) | Method for audio track data retrieval, method for identifying audio clip, and mobile device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |