CN110322886A - 一种音频指纹提取方法及装置 - Google Patents

一种音频指纹提取方法及装置 Download PDF

Info

Publication number
CN110322886A
CN110322886A CN201810273669.6A CN201810273669A CN110322886A CN 110322886 A CN110322886 A CN 110322886A CN 201810273669 A CN201810273669 A CN 201810273669A CN 110322886 A CN110322886 A CN 110322886A
Authority
CN
China
Prior art keywords
audio
frequency fingerprint
bit
frequency
sonograph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810273669.6A
Other languages
English (en)
Inventor
李�根
李磊
何轶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201810273669.6A priority Critical patent/CN110322886A/zh
Priority to US16/652,028 priority patent/US10950255B2/en
Priority to SG11202008533VA priority patent/SG11202008533VA/en
Priority to JP2020502951A priority patent/JP6908774B2/ja
Priority to PCT/CN2018/125491 priority patent/WO2019184517A1/zh
Publication of CN110322886A publication Critical patent/CN110322886A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本公开涉及一种音频指纹提取方法及装置,该方法包括:将音频信号转换成声谱图;确定所述声谱图中的特征点;在所述声谱图上,为所述特征点确定一个或多个掩模,每个所述掩模包含多个谱区域;确定每个所述谱区域的均值能量;根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特;判断所述音频指纹比特的可信程度以确定强弱权重比特;将所述音频指纹比特和所述强弱权重比特进行组合,得到音频指纹。

Description

一种音频指纹提取方法及装置
技术领域
本公开涉及音频处理技术领域,特别是涉及一种音频指纹提取方法及装置。
背景技术
音频指纹(或者称为音频特征)以及音频指纹检索在如今的“多媒体信息社会”中具有广泛的应用。音频指纹检索最初被应用到听歌识曲之中,也就是输入一段音频,通过提取和比对该段音频的指纹特征,就能识别出对应的歌曲。另外,音频指纹检索也可应用到内容监控之中,比如音频消重、基于检索的语音广告监控、音频版权等。
现有的音频指纹检索方法存在准确性差的问题,在一定程度上这是由于所提取的音频指纹的准确性较差导致的。现有的音频指纹提取方法存在着对噪声的鲁棒性较差、处理复杂等问题。
发明内容
本公开的目的在于提供一种新的音频指纹提取方法及装置。
本公开的目的是采用以下的技术方案来实现的。依据本公开提出的音频指纹提取方法,包括以下步骤:将音频信号转换成声谱图;确定所述声谱图中的特征点;在所述声谱图上,为所述特征点确定一个或多个掩模,每个所述掩模包含多个谱区域;确定每个所述谱区域的均值能量;根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特;判断所述音频指纹比特的可信程度以确定强弱权重比特;将所述音频指纹比特以及所述强弱权重比特进行组合,得到音频指纹。
本公开的目的还可以采用以下的技术措施来进一步实现。
前述的音频指纹提取方法,其中所述将音频信号转换成声谱图包括:通过短时傅里叶变换将音频信号转换成时间-频率的二维声谱图,所述声谱图中每个点的取值代表所述音频信号的能量。
前述的音频指纹提取方法,其中所述将音频信号转换成声谱图还包括:对所述声谱图进行梅尔变化。
前述的音频指纹提取方法,其中所述将音频信号转换成声谱图还包括:对所述声谱图进行人类听觉系统滤波。
前述的音频指纹提取方法,其中所述特征点为所述声谱图中的固定点。
前述的音频指纹提取方法,其中所述特征点为频率值与预设的多个频率设定值相等的点。
前述的音频指纹提取方法,其中所述特征点为所述声谱图中的能量极大值点,或者,所述特征点为所述声谱图中的能量极小值点。
前述的音频指纹提取方法,其中所述掩模所包含的多个所述谱区域是对称分布的。
前述的音频指纹提取方法,其中所述掩模所包含的多个所述谱区域具有相同的频率范围、和/或具有相同的时间范围、和/或以所述特征点为中心而中心对称分布。
前述的音频指纹提取方法,其中所述谱区域均值能量为所述谱区域所包含的所有点的能量值的平均值。
前述的音频指纹提取方法,其中所述的根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特包括:根据一个所述掩模所包含的多个所述谱区域的均值能量的差值确定一个音频指纹比特的取值。
前述的音频指纹提取方法,其中所述的判断所述音频指纹比特的可信程度以确定强弱权重比特包括:判断所述差值的绝对值是否达到或超过预设的强弱比特阈值,如果达到或超过所述强弱比特阈值,则将所述音频指纹比特确定为强比特,否则将所述音频指纹比特确定为弱比特;根据所述音频指纹比特是强比特还是弱比特来确定所述强弱权重比特。
前述的音频指纹提取方法,其中所述的强弱比特阈值为固定值、或者为基于所述差值的值、或者为比例值。
前述的音频指纹提取方法,其还包括:将音频信号按时间分成多段音频子信号;提取所述音频子信号的所述音频指纹;将提取得到的各个所述音频子信号的所述音频指纹进行组合,得到所述音频信号的音频指纹。
本公开的目的还采用以下技术方案来实现。依据本公开提出的音频指纹库构建方法,包括:按照前述的任意一项的音频指纹提取方法提取音频信号的音频指纹;将所述音频指纹存储到音频指纹库中。
本公开的目的还采用以下技术方案来实现。依据本公开提出的音频指纹提取装置,包括:声谱图转换模块,用于将音频信号转换成声谱图;特征点确定模块,用于确定所述声谱图中的特征点;掩模确定模块,用于在所述声谱图上,为所述特征点确定一个或多个掩模,每个所述掩模包含多个谱区域;均值能量确定模块,用于确定每个所述谱区域的均值能量;音频指纹比特确定模块,用于根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特;强弱权重比特确定模块,用于判断所述音频指纹比特的可信程度以确定强弱权重比特;音频指纹确定模块,用于将所述音频指纹比特以及所述强弱权重比特进行组合,得到音频指纹。
本公开的目的还可以采用以下的技术措施来进一步实现。
前述的音频指纹提取装置,其还包括执行前述任一音频指纹提取方法步骤的模块。
本公开的目的还采用以下技术方案来实现。依据本公开提出的音频指纹库构建装置,包括:音频指纹提取模块,用于按照前述任意一项的音频指纹提取方法提取音频信号的音频指纹;音频指纹存储模块,用于将所述音频指纹存储到音频指纹库中;音频指纹库,用于存储所述音频指纹。
本公开的目的还采用以下技术方案来实现。依据本公开提出的一种音频指纹提取硬件装置,包括:存储器,用于存储非暂时性计算机可读指令;以及处理器,用于运行所述计算机可读指令,使得所述处理器执行时实现前述任意一种音频指纹提取方法。
本公开的目的还采用以下技术方案来实现。依据本公开提出的一种计算机可读存储介质,用于存储非暂时性计算机可读指令,当所述非暂时性计算机可读指令由计算机执行时,使得所述计算机执行前述任意一种音频指纹提取方法。
本公开的目的还采用以下技术方案来实现。依据本公开提出的一种终端设备,包括前述任意一种音频指纹提取装置。
上述说明仅是本公开技术方案的概述,为了能更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为让本公开的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1是本公开一个实施例的音频指纹提取方法的流程示意图。
图2是本公开一个实施例的音频指纹库构建方法的流程示意图。
图3是本公开一个实施例的音频指纹提取装置的结构框图。
图4是本公开一个实施例的音频指纹库构建装置的结构框图。
图5是本公开一个实施例的音频指纹提取硬件装置的硬件框图。
图6是本公开一个实施例的计算机可读存储介质的示意图。
图7是本公开一个实施例的终端设备的结构框图。
具体实施方式
为更进一步阐述本公开为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本公开提出的音频指纹提取方法及装置的具体实施方式、结构、特征及其功效,详细说明如后。
图1为本公开的音频指纹提取方法一个实施例的示意性流程图。请参阅图1,本公开示例的音频指纹提取方法,主要包括以下步骤:
步骤S11,将音频信号转换成声谱图(Spectrogram)。具体地,通过短时傅里叶变换(Fast Fourier Transformation)将音频信号转换成时间-频率声谱图。其中的声谱图是一种常用的音频信号的二维频谱图,横轴是时间t,纵轴是频率f,图中每个点(t,f)的具体的取值E(t,f)代表了信号的能量。需注意,对音频信号的具体类型不做限制,可以是静态文件(static file)也可以是流音频(streaming audio)。此后,处理进到步骤S12。
在本公开的实施例中,可利用梅尔(MEL)变换对声谱图进行预处理,利用梅尔变换能够将频谱分成多个频率区块(频率bin),而所分成的频率区块的数目是可以配置的。另外,还可以对声谱图进行人类听觉系统滤波(Human Auditory System filtering),利用人类听觉系统滤波等非线性变换,能够使得声谱图中的频谱分布更适合人耳感知。
需要说明的是,可以通过调整短时傅里叶变换中的各个超参数以适应不同的实际情况。在本公开的实施例中,可将步骤S11中的各个超参数设置为:在短时傅里叶变换中,时间窗设置为100ms,间隔设置为50ms;在梅尔变换中,频率区块的数目设置为32~128。
步骤S12,确定声谱图中的特征点。
具体地,采用多种标准中的一种来确定特征点,例如,可以将特征点选为声谱图中的能量的极大值点,或者,也可以选为能量的极小值点。其中,如果声谱图中的一个点(t,f)的能量E(t,f)能够同时满足:E(t,f)>E(t+1,f)、E(t,f)>E(t-1,f)、E(t,f)>E(t,f+1)且E(t,f)>E(t,f-1),则该(t,f)点为声谱图中的能量极大值点。类似地,如果一个点(t,f)的能量E(t,f)能够同时满足:E(t,f)<E(t+1,f)、E(t,f)<E(t-1,f)、E(t,f)<E(t,f+1)且E(t,f)<E(t,f-1),则该(t,f)点为声谱图中的能量极小值点。此后,处理进到步骤S12。
在本公开的实施例中,由于选取能量极值点作为特征点存在:能量极值点易受噪声影响;不易控制极值点的数量,可能一个声谱图中没有极值点,而另一个声谱图中有多个极值点,导致特征点不均匀;需要存储额外的时间戳以记录能量极值点在声谱图中的位置等问题。因此,也可以不选能量的极值点作为特征点,而是选取固定点作为特征点,例如可以选取频率值与预设的频率设定值相等的点(频率固定的点)。进一步地,可按照频率大小预设低频、中频、高频的多个频率设定值(低频、中频、高频的具体值是可以设置的)。通过选取频率为低频、中频、高频的多个固定点作为特征点,可以使得选取的特征点更加均匀。需要注意的是,也可以按照其他标准选取固定点,如选取与一个或多个预设能量值相等的点。
需要说明的是,可以通过调整所选取的特征点的数量以适应不同的实际情况。在本公开的实施例中,可将步骤S12中的超参数设置为:特征点的密度设置为每秒20~80个。
步骤S13,在声谱图上,在特征点的附近,为特征点确定一个或多个掩模(mask),每个掩模包含(或者说,覆盖)多块声谱图上的区域(不妨称为谱区域)。此后,处理进到步骤S14。
具体地,在声谱图中,每个掩模所包含的多块谱区域可以是对称分布的:
以时间轴对称(即,多个谱区域具有相同的频率范围),例如,在一个梅尔-声谱图中,可以为特征点确定一个包含R11和R12这两块谱区域的掩模,R11、R12均位于特征点的左侧,且R11位于R12的左侧,并且R11与R12覆盖相同的频率区块;
或者以频率轴对称(即,多个谱区域具有相同的时间范围)。例如,在一个梅尔-声谱图中,可以为特征点确定一个包含R13和R14这两块谱区域的掩模,R13位于特征点的上侧,R14位于特征点的下侧,并且R13与R14具有相同的时间范围;
或者以特征点为中心而中心对称分布,例如,在一个梅尔-声谱图中,可以为特征点确定一个包含R15和R16这两块谱区域的掩模,R15位于特征点的左上侧,R16位于特征点的右下侧,并且R15与R16以特征点为中心而相互对称。
当然,一个掩模所包含的多块谱区域也可以同时满足多种对称分布情况。例如,可以为特征点确定一个包含R21、R22、R23和R24这四块谱区域的掩模,R21、R22、R23、R24分别位于特征点的左上、右上、左下、右下,并且R21与R22具有相同的频率范围、R23与R24具有相同的频率范围、R21与R23具有相同的时间范围、R22与R24具有相同的时间范围,而且这四块谱区域还以特征点为中心而中心对称。需要说明的是,一个掩模的四个谱区域并非一定以特征点为中心而中心对称分布,例如,可以均位于特征点的左侧,且在频率轴上分布于特征点的两侧。
需要说明的是,属于同一掩模的多块谱区域之间是可以相互交叠的。另外,不同的掩模之间也是可以相互交叠的。可选地,每个掩模可包含偶数个谱区域。
需要注意的是,掩模可以是按照固定的预设标准确定的,即每个掩模在声谱图中的位置及覆盖的区域是预先设置好的。或者,也可以不预先固定掩模的位置和范围,而是使用数据驱动的方式自动确定掩模区域:从大量掩模中选取协方差最小、最有区分度的掩模。
步骤S14,确定每个谱区域的均值能量。具体地,对于仅包含一个点的谱区域,该谱区域的均值能量就是这个点的能量值;当谱区域由多个点组成时,可以将该谱区域的均值能量设置为这多个点的能量值的平均值。此后,处理进到步骤S15。
步骤S15,根据掩模中的多块谱区域的均值能量,确定音频指纹比特(bit)。此后,处理进到步骤S16。
在本公开实施例的步骤S15中,可根据一个掩模所包含的多个谱区域的均值能量的差值确定一个音频指纹比特。
具体地,如果一个掩模包含两个谱区域,例如前述的包含R11和R12两块谱区域的示例,可以按照下面的公式一来计算R11、R12的均值能量的差值D1:
D1=E(R11)-E(R12),(公式一)
然后判断差值D1的正负,如果差值D1为正值,则得到一个取值为1的音频指纹比特,如果差值D1为负值,则得到一个取值为0的音频指纹比特。
如果一个掩模包含四个谱区域,例如前述的包含R21、R22、R23、R24四块谱区域的示例,可以按照下面的公式二来计算R21、R22、R23、R24的均值能量的差值D2:
D2=(E(R21)+E(R22))-(E(R23)+E(R24)),(公式二)
然后判断差值D2的正负,如果差值D2为正值,则得到一个取值为1的音频指纹比特,如果差值D2为负值,则得到一个取值为0的音频指纹比特。需要说明的是,并非必须通过差值D2来确定一个包含四个谱区域的掩模的音频指纹比特,也可以利用其他形式的差值来确定音频指纹比特。例如,也可以计算这四个谱区域的均值能量的二阶差值D3:
D3=(E(R23)-E(R24))-(E(R21)-E(R22)),(公式三)
然后判断差值D1的正负来确定音频指纹比特。
需要说明的是,如果为特征点确定了多个掩模,则能够对应地得到多个音频指纹比特。
步骤S16,确定音频指纹比特对应的强弱权重比特,该强弱权重比特用于表示该音频指纹比特的可信程度。具体他,将可信度高的音频指纹比特定义为强比特,将可信度低的音频指纹比特定义为弱比特。判断一个音频指纹比特的可信程度,并根据该音频指纹比特是强比特还是弱比特来确定强弱权重比特的取值。此后,处理进到步骤S17。
在本公开的实施例中,如果音频指纹比特是根据一个掩模所包含的多个谱区域均值能量的差值来确定的,则步骤S16具体包括:判断生成该音频指纹比特所使用的该差值的绝对值是否达到(或超过)预设的强弱比特阈值;如果达到强弱比特阈值,则将该音频指纹比特确定为强比特,并得到一个与该音频指纹比特对应的取值为1的强弱权重比特;如果未达到强弱比特阈值,则将该音频指纹比特确定为弱比特,并得到一个与该音频指纹比特对应的取值为0的强弱权重比特。
作为一个具体示例,如果一个音频指纹比特是通过判断前述公式二的四个谱区域均值能量的差值D2的正负来确定的,则步骤S16包括:判断该差值D2的绝对值与预设的强弱比特阈值T的大小关系,如果|D2|≥T,则该音频指纹比特是强比特,并将该音频指纹比特对应的强弱权重比特取值设置为1;如果|D2|<T,则该音频指纹比特是弱比特,并将该音频指纹比特对应的强弱权重比特取值设置为0。需要说明的是,该强弱比特阈值可以是多种类型的阈值:该强弱比特阈值可以是个预设的固定值,例如可以固定取为1;或者,该强弱比特阈值也可以是基于均值能量的差值而得到的数值,例如可将该强弱比特阈值设置为多个掩模(或多个特征点)对应的多个差值的平均数(事实上不限于平均数,也可以是任意一个介于最大的差值与最小的差值之间的数值),并且将差值达到该平均数的音频指纹比特确定为强比特,将差值未达到该平均数的音频指纹比特确定为弱比特;再或者,该强弱比特阈值也可以是个比例值,例如可将该强弱比特阈值设置为60%,在多个掩模(或多个特征点)对应的多个差值中,如果一个差值的绝对值位于所有差值中的前60%,则将该音频指纹比特确定为强比特,否则将该音频指纹比特确定为弱比特。
步骤S17,将得到的多个音频指纹比特以及多个强弱权重比特组合在一起,得到音频指纹。具体地,对音频指纹的组合方式、音频指纹的长度不做限制。例如,一个音频指纹可以包括两部分,一部分是将一个特征点的所有掩模所对应的音频指纹比特组合在一起而得到的音频指纹比特序列,然后将多个特征点对应的多个音频指纹比特序列按照特征点的时间顺序排列得到音频指纹的第一部分;另一部分是将对应的强弱权重比特组合在一起而得到的与音频指纹比特序列长度相等的强弱权重比特序列,然后将多个特征点对应的多个强弱权重比特序列按照特征点的时间顺序排列得到音频指纹的第二部分。可选地,获得的音频指纹比特序列的长度可以是32bits。
本公开通过在提取音频指纹比特的同时,提取该指纹比特对应的强弱权重比特,能够为一段音频生成一个准确性高、鲁棒性好的音频指纹。
可选地,该音频指纹提取方法还包括:为音频指纹添加一个时间戳字段,用于表示音频起始位置与该特征点的时间差的字段,该字段可以是一个hash值。而如果将特征点设为固定点,则可以不必包含本步骤,即不必记录该时间戳。
可选地,该音频指纹提取方法还包括:为音频指纹添加一个音频信号标识字段,用于记录该音频指纹所对应的音频信号的ID标识信息,该字段可以是一个hash值。
可选地,该音频指纹提取方法还包括:将音频信号按时间分成多段音频子信号;按照前述方法的步骤,对各段音频子信号提取音频指纹,得到多个音频指纹;将提取的各段音频子信号的各个特征点的音频指纹组合在一起,得到该整段音频信号的音频指纹。
作为一种可选示例,在利用本公开提取的音频指纹进行音频检索、音频识别的过程中,在计算两个音频指纹间的距离(例如汉明距离)时,针对每个音频指纹比特,利用对应的强弱权重比特进行加权,强比特的权重高,弱比特的权重低(也可将弱比特的权重设为零),以削弱或移除弱比特所占的权重,进而使音频检索对噪声更加鲁棒,有效解决噪声误码率问题。
其中的汉明距离是一种信息论领域中常用的度量,两个等长字符串之间的汉明距离是两个字符串对应位置的不同字符的个数。在实际计算汉明距离时,可以对两个字符串进行异或运算,并统计结果为1的个数,而这个数就是汉明距离。
图2为本公开的音频指纹库构建方法一个实施例的示意性流程图。请参阅图2,本公开示例的音频指纹库构建方法,主要包括以下步骤:
步骤S21,按照前述的本公开示例的音频指纹提取方法的步骤提取音频信号的音频指纹。此后,处理进到步骤S22。
步骤S22,将得到的音频信号的音频指纹存储到音频指纹库中。
需要说明的是,上述音频信号的数量越多,该音频指纹库存储到信息就越丰富。另外,随着时间的推移,可以随时对音频指纹库进行更新。
图3为本公开的音频指纹提取装置一个实施例的示意性结构图。请参阅图3,本公开示例的音频指纹提取装置100主要包括:声谱图转换模块101、特征点确定模块102、掩模确定模块103、均值能量确定模块104、音频指纹比特确定模块105、强弱权重比特确定模块106以及音频指纹确定模块107。
其中,该声谱图转换模块101用于将音频信号转换成声谱图(Spectrogram)。具体地,声谱图转换模块101可具体用于通过短时傅里叶变换(Fast Fourier Transformation)将音频信号转换成时间-频率声谱图。
在本公开的实施例中,声谱图转换模块101可包括梅尔变换子模块,用于利用梅尔(MEL)变换对声谱图进行预处理,利用梅尔变换能够将频谱分成多个频率区块(bin),其中所分成的频率区块的数目是可以配置的。另外,声谱图转换模块101还可以包括人类听觉系统滤波子模块,用于对声谱图进行人类听觉系统滤波(Human Auditory Systemfiltering),利用人类听觉系统滤波等非线性变换,能够使得声谱图中的频谱分布更适合人耳感知。
该特征点确定模块102用于确定声谱图中的特征点。
具体地,该特征点确定模块102可以具体用于采用多种标准中的一种来确定特征点,例如,可以将特征点选为声谱图中的能量的极大值点,或者也可以选为能量的极小值点。
在本公开的实施例中,该特征点确定模块102也可以不选能量的极值点作为特征点,而是用于选取固定点作为特征点,例如可以选取频率值与预设的频率设定值相等的点(频率固定的点)。进一步地,该特征点确定模块102可用于按照频率大小分别选取低频、中频、高频的多个频率设定值(低频、中频、高频的具体值是可以设置的)。
该掩模确定模块103用于在声谱图上,在特征点的附近,为特征点确定一个或多个掩模(mask),每个掩模包含多个谱区域。具体地,在声谱图中,每个掩模所包含的多块谱区域可以是对称分布的。
该均值能量确定模块104,用于分别确定每个谱区域的均值能量。
该音频指纹比特确定模块105,用于根据一个掩模中的多块谱区域的均值能量,来确定一个音频指纹比特。
在本公开的实施例中,该音频指纹比特确定模块105可具体用于根据一个掩模所包含的多个谱区域的均值能量的差值确定一个音频指纹比特。
该强弱权重比特确定模块106,用于判断音频指纹比特的可信程度,以确定每个音频指纹比特对应的强弱权重比特。
在本公开的实施例中,如果音频指纹比特是根据一个掩模所包含的多个谱区域均值能量的差值确定的,则该强弱权重比特确定模块106具体用于:判断生成该音频指纹比特所使用的该差值的绝对值是否达到(或超过)预设的强弱比特阈值;如果达到强弱比特阈值,则将该音频指纹比特确定为强比特,并得到一个取值为1的强弱权重比特;如果未达到强弱比特阈值,则将该音频指纹比特确定为弱比特,并得到一个取值为0的强弱权重比特。
该音频指纹确定模块107,用于将得到的多个音频指纹比特以及多个强弱权重比特组合在一起,得到音频指纹。
可选地,该音频指纹提取装置100还包括时间戳添加模块(图中未示出),用于为音频指纹添加一个时间戳字段,用于表示音频起始位置与该特征点的时间差的字段,该字段可以是一个hash值。而如果将特征点设为固定点,则可以不必包含该时间戳添加模块。
可选地,该音频指纹提取装置100还包括音频信号标识添加模块(图中未示出),用于为音频指纹添加一个音频信号标识字段,以记录该音频指纹所对应的音频信号的ID标识信息。
可选地,该音频指纹提取装置100还包括音频分割模块(图中未示出)和音频指纹组合模块(图中未示出)。该音频分割模块用于将音频信号按时间分成多段音频子信号。利用音频指纹提取装置所包含的模块,对各段音频子信号提取音频指纹,以得到多个音频指纹。而音频指纹组合模块用于将提取的各段音频子信号的各个特征点的音频指纹组合在一起,得到该整段音频信号的音频指纹。
图4为本公开的音频指纹库构建装置一个实施例的示意性结构图。请参阅图4,本公开示例的音频指纹库构建装置200主要包括:
音频指纹提取模块201,包括前述的本公开示例的音频指纹提取装置100的声谱图转换模块101、特征点确定模块102、掩模确定模块103、均值能量确定模块104、音频指纹比特确定模块105、强弱权重比特确定模块106及音频指纹确定模块107,用于按照前述的本公开示例的音频指纹提取方法的步骤提取音频信号的音频指纹。
音频指纹存储模块202,用于将由音频指纹提取模块201得到的音频信号的音频指纹存储到音频指纹库203中。
音频指纹数据库203,用于存储各个音频信号的音频指纹。
图5是图示根据本公开的实施例的音频指纹提取硬件装置的硬件框图。如图5所示,根据本公开实施例的音频指纹提取硬件装置300包括存储器301和处理器302。音频指纹提取硬件装置300中的各组件通过总线系统和/或其它形式的连接机构(未示出)互连。
该存储器301用于存储非暂时性计算机可读指令。具体地,存储器301可以包括一个或多个计算机程序产品,该计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。该易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。该非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
该处理器302可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制音频指纹提取硬件装置300中的其它组件以执行期望的功能。在本公开的一个实施例中,该处理器302用于运行该存储器301中存储的该计算机可读指令,使得该音频指纹提取硬件装置300执行前述的本公开各实施例的音频指纹提取方法的全部或部分步骤。
图6是图示根据本公开的实施例的计算机可读存储介质的示意图。如图6所示,根据本公开实施例的计算机可读存储介质400,其上存储有非暂时性计算机可读指令401。当该非暂时性计算机可读指令401由处理器运行时,执行前述的本公开各实施例的音频指纹提取方法的全部或部分步骤。
图7是图示根据本公开实施例的终端设备的硬件结构示意图。终端设备可以以各种形式来实施,本公开中的终端设备可以包括但不限于诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置、车载终端设备、车载显示终端、车载电子后视镜等等的移动终端设备以及诸如数字TV、台式计算机等等的固定终端设备。
如图7所示,终端设备1100可以包括无线通信单元1110、A/V(音频/视频)输入单元1120、用户输入单元1130、感测单元1140、输出单元1150、存储器1160、接口单元1170、控制器1180和电源单元1190等等。图7示出了具有各种组件的终端设备,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。
其中,无线通信单元1110允许终端设备1100与无线通信系统或网络之间的无线电通信。A/V输入单元1120用于接收音频或视频信号。用户输入单元1130可以根据用户输入的命令生成键输入数据以控制终端设备的各种操作。感测单元1140检测终端设备1100的当前状态、终端设备1100的位置、用户对于终端设备1100的触摸输入的有无、终端设备1100的取向、终端设备1100的加速或减速移动和方向等等,并且生成用于控制终端设备1100的操作的命令或信号。接口单元1170用作至少一个外部装置与终端设备1100连接可以通过的接口。输出单元1150被构造为以视觉、音频和/或触觉方式提供输出信号。存储器1160可以存储由控制器1180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据。存储器1160可以包括至少一种类型的存储介质。而且,终端设备1100可以与通过网络连接执行存储器1160的存储功能的网络存储装置协作。控制器1180通常控制终端设备的总体操作。另外,控制器1180可以包括用于再现或回放多媒体数据的多媒体模块。控制器1180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。电源单元1190在控制器1180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
本公开提出的音频指纹提取方法的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,本公开提出的音频指纹提取方法的各种实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,本公开提出的音频指纹提取方法的各种实施方式可以在控制器1180中实施。对于软件实施,本公开提出的音频指纹提取方法的各种实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器1160中并且由控制器1180执行。
以上,根据本公开实施例的音频指纹提取方法、装置、硬件装置、计算机可读存储介质以及终端设备,利用掩模提取音频指纹比特,并且提取对应的强弱权重比特,能够大大提高音频指纹提取的准确性和提取的效率,为音频信号生成优良程度高、鲁棒性好的音频指纹,进而使得基于本公开的音频指纹提取方法得到的音频指纹进行的音频比对、音频检索、音频消重以及音频内容监测具有更高的准确率、更高的效率和更好的鲁棒性。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的系统和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (21)

1.一种音频指纹提取方法,所述方法包括:
将音频信号转换成声谱图;
确定所述声谱图中的特征点;
在所述声谱图上,为所述特征点确定一个或多个掩模,每个所述掩模包含多个谱区域;
确定每个所述谱区域的均值能量;
根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特;
判断所述音频指纹比特的可信程度以确定强弱权重比特;
将所述音频指纹比特和所述强弱权重比特进行组合,得到音频指纹。
2.根据权利要求1所述的音频指纹提取方法,其中,所述将所述音频信号转换成声谱图包括:通过短时傅里叶变换将所述音频信号转换成时间-频率的二维声谱图,所述声谱图中每个点的取值代表所述音频信号的能量。
3.根据权利要求2所述的音频指纹提取方法,其中,所述将音频信号转换成声谱图还包括:对所述声谱图进行梅尔变化。
4.根据权利要求2所述的音频指纹提取方法,其中,所述将音频信号转换成声谱图还包括:对所述声谱图进行人类听觉系统滤波。
5.根据权利要求2所述的音频指纹提取方法,其中,所述特征点为所述声谱图中的固定点。
6.根据权利要求5所述的音频指纹提取方法,其中,所述特征点为频率值与预设的多个频率设定值相等的点。
7.根据权利要求2所述的音频指纹提取方法,其中,所述特征点为所述声谱图中的能量极大值点,或者,所述特征点为所述声谱图中的能量极小值点。
8.根据权利要求1所述的音频指纹提取方法,其中,所述掩模所包含的多个所述谱区域是对称分布的。
9.根据权利要求8所述的音频指纹提取方法,其中,所述掩模所包含的多个所述谱区域具有相同的频率范围、和/或具有相同的时间范围、和/或以所述特征点为中心而中心对称分布。
10.根据权利要求1所述的音频指纹提取方法,其中,所述谱区域均值能量为所述谱区域所包含的所有点的能量值的平均值。
11.根据权利要求1所述的音频指纹提取方法,其中,所述的根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特包括:
根据一个所述掩模所包含的多个所述谱区域的均值能量的差值确定一个音频指纹比特。
12.根据权利要求11所述的音频指纹提取方法,其中,所述的判断所述音频指纹比特的可信程度以确定强弱权重比特包括:
判断所述差值的绝对值是否达到或超过预设的强弱比特阈值,如果达到或超过所述强弱比特阈值,则将所述音频指纹比特确定为强比特,否则将所述音频指纹比特确定为弱比特;根据所述音频指纹比特是强比特还是弱比特来确定所述强弱权重比特。
13.根据权利要求12所述的音频指纹提取方法,其中,所述的强弱比特阈值为固定值、或者为基于所述差值的值、或者为比例值。
14.根据权利要求1所述的音频指纹提取方法,所述方法还包括:
将音频信号按时间分成多段音频子信号;
提取所述音频子信号的所述音频指纹;
将提取得到的各个所述音频子信号的所述音频指纹进行组合,得到所述音频信号的音频指纹。
15.一种音频指纹库构建方法,所述方法包括:
按照如权利要求1到14中任意一项所述的音频指纹提取方法提取音频信号的音频指纹;
将所述音频指纹存储到音频指纹库中。
16.一种音频指纹提取装置,所述装置包括:
声谱图转换模块,用于将音频信号转换成声谱图;
特征点确定模块,用于确定所述声谱图中的特征点;
掩模确定模块,用于在所述声谱图上,为所述特征点确定一个或多个掩模,每个所述掩模包含多个谱区域;
均值能量确定模块,用于确定每个所述谱区域的均值能量;
音频指纹比特确定模块,用于根据所述掩模中的所述多个谱区域的均值能量确定音频指纹比特;
强弱权重比特确定模块,用于判断所述音频指纹比特的可信程度以确定强弱权重比特;
音频指纹确定模块,用于将所述音频指纹比特和所述强弱权重比特进行组合,得到音频指纹。
17.根据权利要求16所述的音频指纹提取装置,所述装置还包括执行权利要求2到14中任一权利要求所述步骤的模块。
18.一种音频指纹库构建装置,所述装置包括:
音频指纹提取模块,用于按照如权利要求1到14中任意一项所述的音频指纹提取方法提取音频信号的音频指纹;
音频指纹存储模块,用于将所述音频指纹存储到音频指纹库中;
音频指纹库,用于存储所述音频指纹。
19.一种音频指纹提取硬件装置,包括:
存储器,用于存储非暂时性计算机可读指令;以及
处理器,用于运行所述计算机可读指令,使得所述处理器执行时实现根据权利要求1到14中任意一项所述的音频指纹提取方法。
20.一种计算机可读存储介质,用于存储非暂时性计算机可读指令,当所述非暂时性计算机可读指令由计算机执行时,使得所述计算机执行权利要求1到14中任意一项所述的音频指纹提取方法。
21.一种终端设备,包括权利要求16或17所述的一种音频指纹提取装置。
CN201810273669.6A 2018-03-29 2018-03-29 一种音频指纹提取方法及装置 Pending CN110322886A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201810273669.6A CN110322886A (zh) 2018-03-29 2018-03-29 一种音频指纹提取方法及装置
US16/652,028 US10950255B2 (en) 2018-03-29 2018-12-29 Audio fingerprint extraction method and device
SG11202008533VA SG11202008533VA (en) 2018-03-29 2018-12-29 Audio fingerprint extraction method and device
JP2020502951A JP6908774B2 (ja) 2018-03-29 2018-12-29 オーディオ指紋抽出方法及び装置
PCT/CN2018/125491 WO2019184517A1 (zh) 2018-03-29 2018-12-29 一种音频指纹提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810273669.6A CN110322886A (zh) 2018-03-29 2018-03-29 一种音频指纹提取方法及装置

Publications (1)

Publication Number Publication Date
CN110322886A true CN110322886A (zh) 2019-10-11

Family

ID=68062543

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810273669.6A Pending CN110322886A (zh) 2018-03-29 2018-03-29 一种音频指纹提取方法及装置

Country Status (5)

Country Link
US (1) US10950255B2 (zh)
JP (1) JP6908774B2 (zh)
CN (1) CN110322886A (zh)
SG (1) SG11202008533VA (zh)
WO (1) WO2019184517A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111581430A (zh) * 2020-04-30 2020-08-25 厦门快商通科技股份有限公司 一种音频指纹的生成方法和装置以及设备
CN111862989A (zh) * 2020-06-01 2020-10-30 北京捷通华声科技股份有限公司 一种声学特征处理方法和装置
CN113889119A (zh) * 2021-09-15 2022-01-04 北京市农林科学院信息技术研究中心 一种畜禽音频指纹提取方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138471B2 (en) * 2018-05-18 2021-10-05 Google Llc Augmentation of audiographic images for improved machine learning
CN112104892B (zh) * 2020-09-11 2021-12-10 腾讯科技(深圳)有限公司 一种多媒体信息处理方法、装置、电子设备及存储介质
US11798577B2 (en) * 2021-03-04 2023-10-24 Gracenote, Inc. Methods and apparatus to fingerprint an audio signal

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041753A1 (en) * 2002-09-30 2006-02-23 Koninklijke Philips Electronics N.V. Fingerprint extraction
WO2008127052A1 (en) * 2007-04-17 2008-10-23 Electronics And Telecommunications Research Institute System and method for searching audio fingerprint by index information
CN102324232A (zh) * 2011-09-12 2012-01-18 辽宁工业大学 基于高斯混合模型的声纹识别方法及系统
CN102820033A (zh) * 2012-08-17 2012-12-12 南京大学 一种声纹识别方法
WO2013008956A1 (ja) * 2011-07-14 2013-01-17 日本電気株式会社 音響処理方法と音響処理システム、ビデオ処理方法とビデオ処理システム、音響処理装置およびその制御方法と制御プログラム
US20130259211A1 (en) * 2012-03-28 2013-10-03 Kevin Vlack System and method for fingerprinting datasets
US20140040088A1 (en) * 2010-11-12 2014-02-06 Google Inc. Media rights management using melody identification
CN103999473A (zh) * 2011-12-20 2014-08-20 雅虎公司 用于内容识别的音频指纹
CN104050259A (zh) * 2014-06-16 2014-09-17 上海大学 一种基于som算法的音频指纹提取方法
CN104865313A (zh) * 2015-05-12 2015-08-26 福建星网锐捷通讯股份有限公司 一种基于声谱条纹检测玻璃破碎的检测方法及装置
US20160253548A1 (en) * 2015-02-27 2016-09-01 Qualcomm Incorporated Fingerprint Verification System
CN106250742A (zh) * 2016-07-22 2016-12-21 北京小米移动软件有限公司 移动终端的解锁方法、装置和移动终端
CN106296890A (zh) * 2016-07-22 2017-01-04 北京小米移动软件有限公司 移动终端的解锁方法、装置和移动终端
CN106782568A (zh) * 2016-11-22 2017-05-31 合肥星服信息科技有限责任公司 一种频率极值和均值结合的声纹过滤方法
CN107610708A (zh) * 2017-06-09 2018-01-19 平安科技(深圳)有限公司 识别声纹的方法及设备

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6990453B2 (en) * 2000-07-31 2006-01-24 Landmark Digital Services Llc System and methods for recognizing sound and music signals in high noise and distortion
CN1672155A (zh) 2002-07-24 2005-09-21 皇家飞利浦电子股份有限公司 用于调控文件共享的方法和设备
US20050249080A1 (en) * 2004-05-07 2005-11-10 Fuji Xerox Co., Ltd. Method and system for harvesting a media stream
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
US9299364B1 (en) * 2008-06-18 2016-03-29 Gracenote, Inc. Audio content fingerprinting based on two-dimensional constant Q-factor transform representation and robust audio identification for time-aligned applications
US20130152767A1 (en) * 2010-04-22 2013-06-20 Jamrt Ltd Generating pitched musical events corresponding to musical content
US9275141B2 (en) * 2010-05-04 2016-03-01 Shazam Entertainment Ltd. Methods and systems for processing a sample of a media stream
US9093120B2 (en) * 2011-02-10 2015-07-28 Yahoo! Inc. Audio fingerprint extraction by scaling in time and resampling
JP2012185195A (ja) 2011-03-03 2012-09-27 Jvc Kenwood Corp オーディオデータ特徴抽出方法、オーディオデータ照合方法、オーディオデータ特徴抽出プログラム、オーディオデータ照合プログラム、オーディオデータ特徴抽出装置、オーディオデータ照合装置及びオーディオデータ照合システム
ES2459391T3 (es) * 2011-06-06 2014-05-09 Bridge Mediatech, S.L. Método y sistema para conseguir hashing de audio invariante al canal
US9384272B2 (en) * 2011-10-05 2016-07-05 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for identifying similar songs using jumpcodes
CN103999150B (zh) * 2011-12-12 2016-10-19 杜比实验室特许公司 媒体数据中的低复杂度重复检测
US10986399B2 (en) * 2012-02-21 2021-04-20 Gracenote, Inc. Media content identification on mobile devices
US9305559B2 (en) * 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US9183849B2 (en) * 2012-12-21 2015-11-10 The Nielsen Company (Us), Llc Audio matching with semantic audio recognition and report generation
US9451048B2 (en) * 2013-03-12 2016-09-20 Shazam Investments Ltd. Methods and systems for identifying information of a broadcast station and information of broadcasted content
JP6257537B2 (ja) 2015-01-19 2018-01-10 日本電信電話株式会社 顕著度推定方法、顕著度推定装置、プログラム
US20170097992A1 (en) * 2015-10-02 2017-04-06 Evergig Music S.A.S.U. Systems and methods for searching, comparing and/or matching digital audio files
US10318813B1 (en) * 2016-03-11 2019-06-11 Gracenote, Inc. Digital video fingerprinting using motion segmentation
US10236006B1 (en) * 2016-08-05 2019-03-19 Digimarc Corporation Digital watermarks adapted to compensate for time scaling, pitch shifting and mixing
CN107622773B (zh) * 2017-09-08 2021-04-06 科大讯飞股份有限公司 一种音频特征提取方法与装置、电子设备
EP3701528B1 (en) * 2017-11-02 2023-03-15 Huawei Technologies Co., Ltd. Segmentation-based feature extraction for acoustic scene classification

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060041753A1 (en) * 2002-09-30 2006-02-23 Koninklijke Philips Electronics N.V. Fingerprint extraction
WO2008127052A1 (en) * 2007-04-17 2008-10-23 Electronics And Telecommunications Research Institute System and method for searching audio fingerprint by index information
US20140040088A1 (en) * 2010-11-12 2014-02-06 Google Inc. Media rights management using melody identification
WO2013008956A1 (ja) * 2011-07-14 2013-01-17 日本電気株式会社 音響処理方法と音響処理システム、ビデオ処理方法とビデオ処理システム、音響処理装置およびその制御方法と制御プログラム
CN102324232A (zh) * 2011-09-12 2012-01-18 辽宁工业大学 基于高斯混合模型的声纹识别方法及系统
CN103999473A (zh) * 2011-12-20 2014-08-20 雅虎公司 用于内容识别的音频指纹
US20130259211A1 (en) * 2012-03-28 2013-10-03 Kevin Vlack System and method for fingerprinting datasets
US20140195501A1 (en) * 2012-03-28 2014-07-10 Interactive Intelligence, Inc. System and method for fingerprinting datasets
CN102820033A (zh) * 2012-08-17 2012-12-12 南京大学 一种声纹识别方法
CN104050259A (zh) * 2014-06-16 2014-09-17 上海大学 一种基于som算法的音频指纹提取方法
US20160253548A1 (en) * 2015-02-27 2016-09-01 Qualcomm Incorporated Fingerprint Verification System
CN104865313A (zh) * 2015-05-12 2015-08-26 福建星网锐捷通讯股份有限公司 一种基于声谱条纹检测玻璃破碎的检测方法及装置
CN106250742A (zh) * 2016-07-22 2016-12-21 北京小米移动软件有限公司 移动终端的解锁方法、装置和移动终端
CN106296890A (zh) * 2016-07-22 2017-01-04 北京小米移动软件有限公司 移动终端的解锁方法、装置和移动终端
CN106782568A (zh) * 2016-11-22 2017-05-31 合肥星服信息科技有限责任公司 一种频率极值和均值结合的声纹过滤方法
CN107610708A (zh) * 2017-06-09 2018-01-19 平安科技(深圳)有限公司 识别声纹的方法及设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AVERY LI-CHUN WANG: "An industrial-strength audio search algorithm", 《INTERNATIONAL CONFERENCE ON MUSIC INFORMATION RETRIEVAL》 *
BOB COOVER ET AL.: "A POWER MASK BASED AUDIO FINGERPRINT", 《ICASSP》 *
XAVIER ANGUERA ET AL.: "MASK: Robust Local Features for Audio Fingerprinting", 《INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO》 *
琚玉建 等: "基于自适应权值的数据报指纹特征识别与发现", 《计算机测量与控制》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111581430A (zh) * 2020-04-30 2020-08-25 厦门快商通科技股份有限公司 一种音频指纹的生成方法和装置以及设备
CN111862989A (zh) * 2020-06-01 2020-10-30 北京捷通华声科技股份有限公司 一种声学特征处理方法和装置
CN111862989B (zh) * 2020-06-01 2024-03-08 北京捷通华声科技股份有限公司 一种声学特征处理方法和装置
CN113889119A (zh) * 2021-09-15 2022-01-04 北京市农林科学院信息技术研究中心 一种畜禽音频指纹提取方法及装置

Also Published As

Publication number Publication date
JP6908774B2 (ja) 2021-07-28
US20200273483A1 (en) 2020-08-27
JP2020527255A (ja) 2020-09-03
WO2019184517A1 (zh) 2019-10-03
US10950255B2 (en) 2021-03-16
SG11202008533VA (en) 2020-10-29

Similar Documents

Publication Publication Date Title
CN110322886A (zh) 一种音频指纹提取方法及装置
CN108280458B (zh) 群体关系类型识别方法及装置
CN110322897A (zh) 一种音频检索识别方法及装置
CN103038777B (zh) 用于分析及检测恶意软件的方法和装置
CN109634698B (zh) 菜单显示方法、装置、计算机设备及存储介质
CN107133135B (zh) 一种基于统计学与声音定位的键盘按键检测方法
CN102982804A (zh) 音频分类方法和系统
KR20130033378A (ko) 콘텍스트 감지 및 융합을 위한 방법, 장치 및 컴퓨터 프로그램제품
CN111222005B (zh) 声纹数据重排序方法、装置、电子设备及存储介质
KR101496876B1 (ko) 휴대 단말기의 소리 인식 방법 및 장치
CN112861844A (zh) 业务数据的处理方法、装置和服务器
CN109241525A (zh) 关键词的提取方法、装置和系统
CN108073293B (zh) 一种目标词组的确定方法和装置
CN109388696A (zh) 删除谣言文章的方法、装置、存储介质及电子设备
CN111192601A (zh) 音乐标注方法、装置、电子设备及介质
CN107181879A (zh) 识别来电意图
JP2018018330A (ja) データ検索プログラム、データ検索方法およびデータ検索装置
CN109117622A (zh) 一种基于音频指纹的身份认证方法
CN107808100A (zh) 针对特定测试样本的隐写分析方法
CN110111811A (zh) 音频信号检测方法、装置和存储介质
CN110321759A (zh) 一种视频特征提取方法及装置
CN107340864A (zh) 一种基于声波的虚拟输入方法
CN104347070A (zh) 以语音识别来选择控制客体的装置及方法
CN110532772A (zh) 文件检测方法、模型、设备及计算机可读存储介质
WO2015171061A1 (en) Audio signal discriminator and coder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20191011

RJ01 Rejection of invention patent application after publication