CN104620313A - 音频信号分析 - Google Patents

音频信号分析 Download PDF

Info

Publication number
CN104620313A
CN104620313A CN201280075416.9A CN201280075416A CN104620313A CN 104620313 A CN104620313 A CN 104620313A CN 201280075416 A CN201280075416 A CN 201280075416A CN 104620313 A CN104620313 A CN 104620313A
Authority
CN
China
Prior art keywords
signal
beat
generate
stress
bpm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280075416.9A
Other languages
English (en)
Other versions
CN104620313B (zh
Inventor
A·J·埃罗宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of CN104620313A publication Critical patent/CN104620313A/zh
Application granted granted Critical
Publication of CN104620313B publication Critical patent/CN104620313B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/051Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or detection of onsets of musical sounds or notes, i.e. note attack timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/081Beat indicator, e.g. marks or flashing LEDs to indicate tempo or beat positions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/086Beats per minute [bpm] indicator, i.e. displaying a tempo value, e.g. in words or as numerical value in beats per minute
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

提供一种服务器系统(500)用于接收在服务器系统处处理的具有相关联的音轨/音乐轨道的视频片段。该系统包括第一节拍跟踪模块,用于使用信号的速度估计和色度重音信息从音频信号中生成第一节拍时间序列。对速度估计应用向上取整函数和向下取整函数以提供整数版本,这些整数版本随后被分别应用于从音频信号的较低频率子带中导出的另一个重音信号以生成第二和第三节拍时间序列。然后,选择模块将节拍时间序列中的每一个与该另一个重音信号进行比较以识别最佳匹配。

Description

音频信号分析
技术领域
本发明涉及音频信号分析,更具体地,涉及音乐韵律分析。
背景技术
在音乐术语中,音乐韵律包括音乐中强调或重音的循环模式。音乐韵律可以被描述为包括旋律脉冲(measure pulse)、节拍脉冲和塔特姆脉冲,分别是指在脉冲持续时间方面最长到最短的脉冲。
节拍脉冲提供音乐中的基本时间单位,节拍脉冲的速率(速度)被认为是大多数人在听到一段音乐时会用脚点地的速率。在许多实际应用中,识别一段音乐中节拍脉冲的出现或者所谓的节拍跟踪是有利的。这样的应用包括音乐推荐应用,其中,在例如需要播放列表中的音乐之间的无缝混音转换的电台节目主持人(DJ)应用中以自动循环技术搜索与基准音轨相似的音乐。
节拍跟踪系统和方法生成节拍序列,其包括在一段音乐或其一部分中节拍的时间位置。
以下的术语有助于理解将在后面描述的某些概念。
音高:音符的基频(fo)的生理相关性。
色度(chroma),也称为音高集合:用整数个八度音阶分隔的音乐音高属于常见的音高集合。在西方音乐中使用12个音高集合。
节拍或节拍法(tactus):音乐中的基本时间单位,它可被认为是大多数人在听到一段音乐时会用脚点地的速率。这个词也用于表示属于单个节拍的音乐部分。
速度:节拍或节拍法脉冲的速率,通常以每分钟节拍(BPM)的单位表示。
小节或旋律:定义为指定数量的具有指定持续时间的节拍的时间段。例如,在具有4/4拍号的音乐中,每个小节包括4个节拍。
重音或基于重音的音频分析:分析音频信号以检测音乐中的事件和/或变化,包括但不限于所有离散声音事件的开始,特别是长而高的声音的开始、音色的响度的突然变化及和声变化。在下文给出进一步的细节。
人们相信人类是通过从重音中推断规律的脉冲模式来感知音乐韵律的,其中重音是音乐中被强调的时刻。音乐中的不同事件导致重音。示例包括响度或音色的变化、和声变化以及一般的所有声音事件的开始。特别地,长而高的声音的开始导致重音。自动的速度、节拍或强拍估计器可尝试在一定程度上模仿人类对音乐韵律的感知。这可包含以下步骤:测量音乐强调、执行对一个或多个脉冲的周期估计、找出所估计的脉冲的相位、以及选择与速度对应的韵律水平或者一些其它感兴趣的韵律水平。由于重音与音乐中的事件有关,因此,基于重音的音频分析是指对音乐中的事件和/或变化的检测。这种变化可能与信号的响度、频谱和/或音高内容的变化有关。作为一个示例,基于重音的分析可能与例如使用色度特征从信号中检测频谱变化、从信号中计算新的或起始点检测函数、从信号中检测离散的起始点或者检测信号的音高和/或和声内容的变化有关。在执行频谱变化检测时,可以使用各种变换或滤波器组分解,诸如快速傅里叶变换或多速率滤波器组、或者甚至基频fo或音高突出度估计器。作为简单的示例,重音检测可通过在信号上以短帧计算信号在一组频带上的短时能量、然后计算每两个相邻帧之间的差(诸如欧几里得距离)来执行。为了增加针对各种音乐类型的鲁棒性,已经开发了很多不同的重音信号分析方法。
以下将要描述的系统和方法利用在以下公开物中描述的背景知识,这些公开物在此通过引用结合。
[1]Cemgil A.T.等"On tempo tracking:tempogram representationand Kalman filtering."J.New Music Research,2001.
[2]Eronen,A.和Klapuri,A.,"Music Tempo Estimation with k-NNregression,"IEEE Trans.Audio,Speech and Language Processing,Vol.18,No.1,Jan 2010.
[3]Seppanen,Eronen,Hiipakka."Joint Beat&Tatum Tracking fromMusic Signals",International Conference on Music Information Retrieval,ISMIR 2006and Jarno Seppanen,Antti Eronen,Jarmo Hiipakka:Method,apparatus and computer program product for providing rhythminformation from an audio signal.Nokia November 2009:US 7612275.
[4]Antti Eronen和Timo Kosonen"Creating and sharing variations ofa music file"-United States Patent Application 20070261537.
[5]Klapuri,A.,Eronen,A.,Astola,J.,"Analysis of the meter ofacoustic musical signals,"IEEE Trans.Audio,Speech,and LanguageProcessing,Vol.14,No.1,2006.
[6]Jehan,Creating Music by Listening,PhD Thesis,MIT,2005.
http://web.media.mit.edu/~tristan/phd/pdf/Tristan_PhD_MIT.pdf
[7]D.Ellis,"Beat Tracking by Dynamic Programming",J.NewMusic Research,Special Issue on Beat and Tempo Extraction,vol.36no.1,March 2007,pp.51-60.(10pp)DOI:10.1080/09298210701653344.
[8]A.Klapuri,"Multiple fundamental frequency estimation bysumming harmonic amplitudes,"in Proc.7th Int.Conf.Music Inf.Retrieval(ISMIR-06),Victoria,Canada,2006.
发明内容
本发明的第一个方面提供了一种装置,其包括:
第一重音信号模块,用于生成表示音频信号中的音乐重音的第一重音信号(a1);
第二重音信号模块,用于生成表示所述音频信号中的音乐重音的不同的第二重音信号(a2);
第一节拍跟踪模块,用于根据所述第一重音信号估计第一节拍时间序列(b1);
第二节拍跟踪模块,用于根据所述第二重音信号估计第二节拍时间序列(b2);以及
序列选择器,用于识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
该装置提供了用于识别音乐信号中的节拍位置的稳健且在计算上简单的系统和方法。特别地,该装置提供了在从电子音乐到古典和摇滚音乐的音乐风格的范围上的节拍跟踪的稳健且准确的方式。特别地,电子舞蹈音乐被更准确地处理。
第一重音信号模块可被配置为通过基于基频(f0)突出度分析而提取色度重音特征,生成第一重音信号(a1)
该装置可以进一步包括速度估计器,其被配置为使用第一重音信号(a1)生成音频信号的估计速度(BPMest)。
第一节拍跟踪模块可被配置为使用第一重音信号(a1)和估计速度(BPMest)估计第一节拍时间序列。
第二重音信号模块可被配置为使用音频信号的带宽的预定子带生成第二重音信号(a2)。预定子带可以低于200Hz。
第二重音信号模块可被配置为通过执行音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成重音信号,生成第二重音信号(a2)。
该装置可进一步包括用于获取估计速度(BPMest)的整数表示的装置,其中,第二节拍跟踪模块可被配置为使用第二重音信号(a2)和整数表示来生成第二节拍时间序列(b2)。
估计速度(BPMest)的整数表示可以使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))来计算。
该装置可以进一步包括用于对估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest))的装置,其中,第二节拍跟踪模块可被配置为使用第二重音信号(a2)分别与向上取整的速度估计和向下取整的速度估计来生成第二节拍时间序列(b2)和第三节拍时间序列(b3),其中,序列选择器可被配置为识别第一节拍时间序列、第二节拍时间序列和第三节拍时间序列中的哪一个与重音信号的一个或两者中的峰值最接近一致。
第二节拍跟踪模块可被配置为对于向上取整的速度估计和向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),将它与基准节拍时间序列(bi)进行比较,以及使用预定的相似度算法生成第二节拍时间序列和第三节拍时间序列。
由第二节拍跟踪模块使用的预定的相似度算法可包括在偏移位置的范围上比较初始节拍时间序列(bt)和基准节拍时间序列(bi)以识别该范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致最佳匹配的基准节拍时间序列(bi)的偏移版本。
基准节拍时间序列(bi)可具有恒定的节拍间隔。基准节拍时间序列(bi)可在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成,其中,X是估计速度的整数表示,n是整数。
在算法中使用的偏移位置的范围可以是0到1.1/(X/60)之间,其中,X是估计速度的整数表示。在算法中用于比较的偏移位置可具有0.1/(BPMest/60)的步长。
序列选择器可被配置为识别节拍时间序列中的哪一个与第二重音信号中的峰值最接近一致。
序列选择器可被配置为对于节拍时间序列中的每一个,计算概括统计量或值,并选择导致最大概括统计量或值的节拍时间序列,其中,概括统计量或值依赖于在序列中的节拍时间处或者在节拍时间附近发生的重音信号或每个重音信号的值。
序列选择器可被配置为对于节拍时间序列中的每一个,计算在序列中的节拍时间处或者在节拍时间附近发生的重音信号或每个重音信号的平均值,并选择导致最大平均值的节拍时间序列。
进一步地,可以提供根据上述限定的装置,包括:用于接收多个视频片段的装置,其中,每个视频片段各自具有包括共同内容的音频信号;以及视频编辑模块,用于使用在所选择的节拍序列中的节拍来识别用于视频片段的可能的编辑点。视频编辑模块还可被配置为在一个或多个编辑点处连接多个视频片段以生成连接的视频片段。
本发明的第二个方面提供了一种方法,包括:生成表示音频信号中的音乐重音的第一重音信号(a1);生成表示音频信号中的音乐重音的不同的第二重音信号(a2);根据所述第一重音信号估计第一节拍时间序列(b1);根据所述第二重音信号估计第二节拍时间序列(b2);以及识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
第一重音信号(a1)可通过基于基频(f0)突出度分析而提取色度重音特征来生成。
该方法还可以包括使用第一重音信号(a1)生成音频信号的估计速度(BPMest)。
第一节拍时间序列可使用第一重音信号(a1)和估计速度(BPMest)生成。
第二重音信号(a2)可使用音频信号的带宽的预定子带生成。
第二重音信号(a2)可使用低于200Hz的预定子带生成。
第二重音信号(a2)是通过执行音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成的。
该方法还可包括:获取所述估计速度(BPMest)的整数表示,以及使用第二重音信号(a2)和整数表示来生成第二节拍时间序列(b2)。
估计速度(BPMest)的整数表示可使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))来计算。
该方法还包括:对估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest)),使用第二重音信号(a2)和向上取整的速度估计来生成第二节拍时间序列(b2),使用第二重音信号(a2)和向下取整的速度估计来生成第三节拍时间序列(b3),以及识别第一节拍时间序列、第二节拍时间序列和第三节拍时间序列中的哪一个与重音信号的一个或两者中的峰值最接近一致。对于向上取整的速度估计和向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),所述初始节拍时间序列(bt)然后与基准节拍时间序列(bi)进行比较,以用于使用预定的相似度算法生成第二节拍时间序列和第三节拍时间序列。
使用预定的相似度算法的比较步骤可包括:在偏移位置的范围上比较初始节拍时间序列(bt)和基准节拍时间序列(bi),以识别该范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致最佳匹配的基准节拍时间序列(bi)的偏移版本。
基准节拍时间序列(bi)可具有恒定的节拍间隔。
基准节拍时间序列(bi)可在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成,其中,X是估计速度的整数表示,n是整数。
在算法中使用的偏移位置的范围是在0到1.1/(X/60)之间,其中,X是估计速度的整数表示。在算法中用于比较的偏移位置可具有0.1/(BPMest/60)的步长。
识别步骤可包括识别节拍时间序列中的哪一个与第二重音信号中的峰值最接近一致。
识别步骤可包括:对于节拍时间序列中的每一个,计算概括统计量或值,以及选择导致最大概括统计量或值的节拍时间序列,其中,概括统计量或值依赖于在序列中的节拍时间处或者在节拍时间附近发生的重音信号或每个重音信号的值。
识别步骤可包括:对于节拍时间序列中的每一个,计算在序列中的节拍时间处或者在节拍时间附近发生的重音信号或每个重音信号的平均值,以及选择导致最大平均值的节拍时间序列。
还可提供使用如上所限定的节拍识别方法的方法,该方法包括:接收多个视频片段,其中,每个视频片段各自具有包括共同内容的音频信号;以及使用所选择的节拍序列中的节拍来识别用于视频片段的可能的编辑点。该方法还可包括:在一个或多个编辑点处连接多个视频片段,以生成连接的视频片段。
本发明的第三个方面提供了一种计算机程序,包括在由计算机装置执行时控制它执行根据上述限定的任意一个的方法的指令。
本发明的第四个方面提供了一种非暂时性计算机可读存储介质,在其上存储有计算机可读代码,该计算机可读代码在被计算装置执行时使该计算装置执行一种方法,该方法包括:生成表示音频信号中的音乐重音的第一重音信号(a1);生成表示音频信号中的音乐重音的不同的第二重音信号(a2);根据第一重音信号估计第一节拍时间序列(b1);根据第二重音信号估计第二节拍时间序列(b2);以及识别第一节拍时间序列(b1)和第二节拍时间序列(b2)中的哪一个与重音信号的一个或两者中的峰值最接近一致。
本发明的第五个方面提供了一种装置,其包括至少一个处理器和至少一个存储器,其中,在至少一个存储器上存储有计算机可读代码,该计算机可读代码在被执行时控制至少一个处理器以:生成表示音频信号中的音乐重音的第一重音信号(a1);生成表示音频信号中的音乐重音的不同的第二重音信号(a2);根据第一重音信号估计第一节拍时间序列(b1);根据第二重音信号估计第二节拍时间序列(b2);以及识别第一节拍时间序列(b1)和第二节拍时间序列(b2)中的哪一个与重音信号的一个或两者中的峰值最接近一致。
计算机可读代码在被执行时可控制至少一个处理器以通过基于基频(f0)突出度分析而提取色度重音特征来生成第一重音信号(a1)。
计算机可读代码在被执行时可控制至少一个处理器以使用第一重音信号(a1)生成音频信号的估计速度(BPMest)。
计算机可读代码在被执行时可控制至少一个处理器以使用第一重音信号(a1)和估计速度(BPMest)生成第一节拍时间序列。
计算机可读代码在被执行时可控制至少一个处理器以使用音频信号的带宽的预定子带生成第二重音信号(a2)。
计算机可读代码在被执行时可控制至少一个处理器以使用低于200Hz的预定子带生成第二重音信号(a2)。
计算机可读代码在被执行时可控制至少一个处理器以通过执行音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成第二重音信号(a2)。
计算机可读代码在被执行时可控制至少一个处理器以获取估计速度(BPMest)的整数表示以及使用第二重音信号(a2)和整数表示来生成第二节拍时间序列(b2)。
计算机可读代码在被执行时可控制至少一个处理器以使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))来计算估计速度(BPMest)的整数表示。
计算机可读代码在被执行时可控制至少一个处理器以对估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest)),使用第二重音信号(a2)和向上取整的速度估计来生成第二节拍时间序列(b2),使用第二重音信号(a2)和向下取整的速度估计来生成第三节拍时间序列(b3),以及识别第一节拍时间序列、第二节拍时间序列和第三节拍时间序列中的哪一个与重音信号的一个或两者中的峰值最接近一致。
计算机可读代码在被执行时可控制至少一个处理器以对于向上取整的速度估计和向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),所述初始节拍时间序列(bt)然后与基准节拍时间序列(bi)进行比较,以用于使用预定的相似度算法生成第二节拍时间序列和第三节拍时间序列。
计算机可读代码在被执行时可控制至少一个处理器以在偏移位置的范围上比较初始节拍时间序列(bt)和基准节拍时间序列(bi),以识别在该范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致最佳匹配的基准节拍时间序列(bi)的偏移版本。
基准节拍时间序列(bi)可具有恒定的节拍间隔。
计算机可读代码在被执行时可控制至少一个处理器以在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成基准节拍时间序列(bi),其中,X是估计速度的整数表示,n是整数。
计算机可读代码在被执行时可控制至少一个处理器以在算法中使用0与1.1/(X/60)之间的偏移位置的范围,其中,X是估计速度的整数表示。
计算机可读代码在被执行时可控制至少一个处理器以在算法中使用具有0.1/(BPMest/60)的步长的用于比较的偏移位置。
计算机可读代码在被执行时可控制至少一个处理器以识别节拍时间序列中的哪一个最接近与第二重音信号中的峰值一致。
计算机可读代码在被执行时可控制至少一个处理器以对于节拍时间序列中的每一个,计算概括统计量或值,以及选择导致最大概括统计量或值的节拍时间序列,其中,概括统计量或值依赖于在序列中的节拍时间处或在节拍时间附近发生的重音信号或每个重音信号的值。
计算机可读代码在被执行时可控制至少一个处理器以对于节拍时间序列中的每一个,计算在序列中的节拍时间处或在节拍时间附近发生的重音信号或每个重音信号的平均值,以及选择导致最大平均值的节拍时间序列。
计算机可读代码在被执行时可控制至少一个处理器以:接收多个视频片段,其中,每个视频片段各自具有包括共同内容的音频信号;以及使用所选择的节拍序列中的节拍来识别用于视频片段的可能的编辑点。
计算机可读代码在被执行时可控制至少一个处理器以在一个或多个编辑点处连接多个视频片段以生成连接的视频片段。
附图说明
现在将参考附图通过非限定性示例来描述本发明的实施例,其中:
图1是包括根据本发明的实施例的音乐分析服务器和多个终端的网络的示意图;
图2是图1所示的一个终端的斜视图;
图3是图2所示的终端的组件的示意图;
图4是示出图1的终端在普通音乐事件中使用时的示意图;
图5是图1所示的分析服务器的组件的示意图;
图6是示出由图1所示的分析服务器执行的处理阶段的方框图;
图7是示出图6所示的处理阶段的一个子阶段所执行的处理阶段的方框图;
图8是更详细地示出在图6所示的处理阶段中执行的3个处理阶段的方框图。
具体实施方式
以下描述的实施例涉及用于音频分析的系统和方法,主要涉及对音乐及其音乐旋律的分析,以识别在一段音乐或其一部分中节拍的时间位置。该过程通常被称为节拍跟踪。如上所述,节拍被认为是表示可用于各种实际应用(包括音乐推荐算法、DJ应用和自动循环)的在音乐上有意义的点。以下描述的特定实施例涉及视频编辑系统,其使用在视频片段相关联的音轨中被识别为潜在的视频角度切换点的节拍位置来自动地剪切视频片段。
参考图1,示出了音乐分析服务器500(以下称为“分析服务器”)连接到网络300,其可以是诸如局域网(LAN)、广域网(WAN)或因特网的任何数据网络。分析服务器500被配置为分析与所接收的视频片段相关联的音频,以为了自动视频编辑的目的而执行节拍跟踪。这将在下文详细描述。
使用中的外部终端100、102、104通过网络300与分析服务器500进行通信,以便上传具有相关联的音轨的视频片段。在这种情况下,终端100、102、104合并摄影机和音频捕捉(即麦克风)硬件和软件以用于通过网络300拍摄、存储、上传和下载视频数据。
参考图2,示出了一个所述终端100,尽管其它终端102、104被认为是相同或相似的。终端100的外部具有触敏显示器102、硬件键104、后置照相机105、扬声器118和头戴式耳机端口120。
图3示出了终端100的组件的示意图。终端100具有控制器106、包括显示部108和触觉式接口部110的触敏显示器102、硬件键104、照相机132、存储器112、RAM 114、扬声器118、头戴式耳机端口120、无线通信模块122、天线124和电池116。控制器106被连接到其它组件(除电池116之外)的每一个以便控制其操作。
存储器112可以是诸如只读存储器(ROM)、硬盘驱动器(HDD)或固态驱动器(SSD)的非易失性存储器。存储器112存储操作系统126,并可存储软件应用128。RAM 114由控制器106用于数据的临时存储。操作系统126可包含代码,其在由控制器106连同RAM 114执行时控制终端的每个硬件组件的运行。
控制器106可以采用任何适合的形式。例如,它可以是一个微控制器、多个微控制器、一个处理器或者多个处理器。
终端100可以是移动电话或智能电话、个人数字助理(PDA)、便携式媒体播放器(PMP)、便携式计算机或者任何其它能够运行软件应用并提供音频输出的设备。在一些实施例中,终端100可以使用无线通信模块122和天线124进行蜂窝通信。无线通信模块122可以被配置为通过若干协议进行通信,诸如全球移动通信系统(GSM)、码分多址(CDMA)、通用移动电信系统(UMTS)、蓝牙和IEEE 802.11(Wi-Fi)。
触敏显示器102的显示部108用于向终端的用户显示图像和文本,触觉式接口部110用于从用户接收触摸输入。
除了存储操作系统126和软件应用128,存储器112还可以存储诸如音乐和视频文件的多媒体文件。很多软件应用128可被安装在终端上,包括Web浏览器、无线和音乐播放器、游戏和工具应用。存储在终端上的某些或全部软件应用可以提供音频输出。由应用提供的音频可以由终端的扬声器118转换为声音;或者,如果头戴式耳机或扬声器已经被连接到头戴式耳机端口120,则音频可以由连接到头戴式耳机端口120的头戴式耳机或扬声器转换为声音。
在一些实施例中,终端100还可以与没有存储在终端上的外部软件应用相关联。这些外部软件应用可以是存储在远程服务器设备上的应用,并可以在远程服务器设备上部分或专门地运行。这些应用可以称为云端应用。终端100可以与远程服务器设备进行通信,以便利用存储在那儿的软件应用。这可包括接收由外部软件应用提供的音频输出。
在一些实施例中,硬件键104是专用的音量控制键或开关。硬件键可以例如包括两个相邻的键、单独的拨动开关或拨号盘。在一些实施例中,硬件键104可以位于终端100的侧面。
存储在存储器112上的一个所述软件应用128是专用应用(或者App),其被配置为将所拍摄的视频片段(包括其相关联的音轨上传到分析服务器500。
分析服务器500被配置为从终端100、102、104接收视频片段,并执行对每个相关联的音轨的节拍跟踪,以用于自动视频处理和编辑的目的,例如将片段在在音乐上有意义的点处连接在一起。代替执行对每个相关联的音轨的节拍跟踪,分析服务器500可被配置为在共同音轨中执行节拍跟踪,其中共同音轨已经通过结合来自一个或多个视频片段的音轨的部分来获取。
参考图4,将描述实际的示例。示出了终端100、102、104的每一个在由舞台区域1和扬声器3表示的音乐会的事件中使用。假定每个终端100、102、104使用它们各自的摄影机拍摄事件;考虑到终端100、102、104的不同位置,各自的视频片段将不同,但是,假如终端100、102、104都在共同的时段进行拍摄,则将会存在共同音轨。
终端100、102、104的用户随后使用他们的上述App或者从与终端同步的计算机来将他们的视频片段上传到分析服务器500。同时,用户被提示通过输入事件的描述或者通过从下拉菜单中选择已经注册的事件来识别事件。可以设想到可替换的识别方法,例如通过使用来自终端100、102、104的相关联的GPS数据来识别拍摄位置。
在分析服务器500处,从终端100、102、104接收的视频片段被识别为与共同事件相关联。然后,可执行对每个视频片段的后续分析以识别被用作对自动视频编辑有用的视频角度切换点的节拍。
参考图5,示出了分析服务器500的硬件组件。这些组件包括控制器202、输入和输出接口204、存储器206和用于存储所接收的视频和音频片段的大容量存储设备208。控制器202被连接到其它组件的每一个以便控制其运行。
存储器206(和大容量存储设备208)可以是诸如只读存储器(ROM)、硬盘驱动器(HDD)或固态驱动器(SSD)的非易失性存储器。存储器206存储操作系统210,并可存储软件应用212。RAM(未示出)由控制器202用于数据的临时存储。操作系统210可以包含代码,其在被控制器202连同RAM执行时控制每个硬件组件的运行。
控制器202可以采用任何适合的形式。例如,控制器202可以是一个微控制器、多个微控制器、一个处理器或者多个处理器。
软件应用212被配置为控制并执行视频处理;包括处理相关联的音频信号以执行节拍跟踪。这可以可替换地使用与软件对照的硬件级别的实现或软件和硬件两者的结合来执行。
节拍跟踪过程参考图6进行描述。
可以看到,在概念上至少存在两个处理路径,分别从步骤6.1和6.6开始。应用于每个处理阶段的参考标记并不指示处理的顺序。在一些实现中,处理路径可能以允许快速执行的并行方式执行。概括地说,三个节拍时间序列根据所输入的音频信号生成,具体地,根据从音频信号中导出的重音信号生成。然后,选择阶段识别三个节拍时间序列中的哪一个最匹配或适合重音信号中的一个,这个序列被认为是对于视频处理应用或者事实上任何节拍跟踪对其有用的应用最有用和准确。
现在将依次考虑每个处理阶段。
第一(色度)重音信号阶段
方法在步骤6.1和6.2开始,基于基频(F0)突出度估计来计算第一重音信号(a1)。该重音信号(a1)是色度重音信号,如在[2]中所描述的提取。色度重音信号(a1)表示根据时间的音乐变化,因为它基于F0信息进行提取,因此,它强调信号中的和声和音高信息。注意,代替基于F0突出度估计来计算色度重音信号,可使用可替换的重音信号表示和计算方法。例如,可以利用在[5]或[7]中描述的重音信号。
图9描绘了第一重音信号计算方法的概述。第一重音信号计算方法使用色度特征。存在多种方式提取色度特征,包括例如将快速傅里叶变换二进制量级与其所对应的音高集合直接相加或者使用常量Q变换。在本方法中,使用多个基频(F0)估计器以计算色度特征。F0估计可以例如如在[8]中提出的那样进行。对该方法的输入可以以44.1kHz的采样速率进行采样,并具有16比特的分辨率。成帧可以通过将输入信号分成具有一定量的重叠的帧来对输入信号应用。在本实现中,已经使用了具有50%重叠的93ms帧。该方法首先在光谱上对信号帧进行白化,然后估计每个F0候选的强度或突出度。F0候选强度被计算为它的和声分音的振幅的加权和。用于估计的基频的范围是80-640Hz。F0估计步骤的输出是每一帧的基频候选的强度向量。在此,基频被表示在线性频率刻度上。为了更好地适合音乐信号分析,基频突出度在音乐频率刻度上进行变换。具体地,使用具有1/3半音程的分辨率的频率刻度,其对应于每个八度具有36个容器(bin)。对于每一个1/3半音程范围,系统找到具有最大突出度值的基频分量,并仅保持它。为了获取36维色度向量xb(k),其中,k是帧索引,b=1,2,...b0是音高集合索引,b0=36,八度等价类在整个音高范围上进行求和。色度向量的归一化矩阵通过在帧k上减去平均值并除以每个色度系数的标准差来获取。
下一个步骤是使用归一化色度矩阵进行音乐重音的估计,其中,k=1,2,…,K,b=1,2,...b0。重音估计类似于在[5]中提出的方法,但是,在此使用音高集合以代替频带。为了提高时间分辨率,色度系数的时间轨迹可以首先被插入整数因数。已经使用了因数8进行插入。可以使用通过在样本之间添加0的简单插入方法。使用该参数,在插入之后,产生的采样率fr=172Hz。随后是平滑步骤,其通过应用6阶巴特沃斯(Butterworth)低通滤波器(LPF)来进行。LPF具有截止频率fLP=10Hz。将平滑后的信号表示为zb(n)。下一步骤包括微分计算和半波校正(HWR):
z ^ b ( n ) = HWR ( z b ( n ) - z b ( n - 1 ) ) - - - ( 1 )
其中,HWR(x)=max(x,0)。在下一个步骤中,形成zb(n)和其半波校正后的微分的加权平均。产生的信号是
u b ( n ) = ( 1 - ρ ) z b ( n ) + ρ f r f LP z ^ b ( n ) - - - ( 2 )
在等式(2)中,因数0≤ρ≤1控制zb(n)与其半波校正后的微分之间的平衡。在本实现中,值ρ=0.6。在本发明的一个实施例中,通过对频带b进行线性平均来基于上述重音信号分析而获取重音信号a1。这样的重音信号表示在时间上的音乐强调或增强的数量。
第一节拍跟踪阶段
在步骤6.3中,音频信号的速度的估计(以下称为“BPMest”)使用在[2]中描述的方法进行。
速度估计中的第一个步骤是周期性分析。周期性分析对重音信号(a1)执行。广义自相关函数(GACF)用于周期性估计。为了获取在信号的不同时间位置处的周期性估计,GACF在连续的帧中计算。帧的长度是W,在相邻帧之间有16%的重叠。不使用窗口技术。在第m个帧处,用于GACF的输入向量被表示为am
am=[a1((m-1)W),...,a1(mW-1),0,...0]T            (3)
其中,T表示转置。输入向量被0填充至其长度的两倍,因此,其长度是2W。GACF可以被定义为
γm(τ)=IDFT(|DFT(am)|p)            (4)
其中,离散傅里叶变换和其逆变换分别用DFT和IDFT表示。频域压缩的数量使用系数p控制。在周期(滞后)τ处的周期性的强度由γm(τ)给出。
其它针对GACF的可替换的周期性估计器包括例如音高开始时间间隔(inter onset interval)直方图、自相关函数(ACF)、或者梳状滤波器组。注意,传统的ACF可通过在等式(4)中设置p=2来获取。参数p可能需要对于不同的重音特征进行优化。这可以例如通过用p的不同值进行试验并评估周期性估计的准确度来进行。准确度评估可例如通过对注释了速度的数据的子集评估速度估计准确度来进行。可选择使用导致最好准确度的值。对于在此使用的色度重音特征,可以使用例如值p=0.65,其被发现在这类用于所使用的重音特征的试验中表现良好。
在周期性估计之后,存在来自相邻帧的周期性向量的序列。为了获取音乐作品或一段音乐的单个典型速度,可计算周期性向量随时间的逐点中值。中值周期性向量可由γmed(τ)表示。此外,中值周期性向量可以被归一化以消除趋势:
γ ^ med ( τ ) = 1 W - τ γ med ( τ ) - - - ( 5 )
趋势是由用于更大的滞后的缩小窗口而引起的。周期性向量的子范围可被选择作为最终的周期性向量。子范围可被当作与例如从0.06秒到2.2秒的周期对应的容器(bin)的范围。另外,最终的周期性向量可通过对于每个周期性向量除去标量平均值并将标量标准差归一化成一致来归一化。归一化后的周期性向量用s(τ)表示。注意,代替采用随时间的中值周期性向量,在帧中的周期性向量可被分别输出并进行速度估计。
然后,基于周期性向量s(τ)执行速度估计。速度估计使用k最近邻回归进行。也可以使用其它速度估计方法,诸如基于找到可能用各种速度的先验分布加权的最大周期性值的方法。
用T表示该周期性向量的未知速度。速度估计可以从生成重采样的测试向量sr(τ)开始。r表示重采样比率。重采样操作可用于伸展或缩小测试向量,其在某些情况下已被发现可改善结果。由于速度值是连续的,因此,这种重采样可以增加从训练数据中找到的相似成形的周期性向量的可能性。使用比率r重采样的测试向量将对应于T/r的速度。适合的比率集合可以例如是在0.87和1.15之间的57个线性分隔的比率。对于具有120BPM速度的音乐节选,重采样的测试向量对应于从104到138BPM的速度范围。
速度估计包括计算每个训练向量tm(τ)与重采样的测试向量sr(τ)之间的欧几里得距离:
d ( m , r ) = Σ τ ( t m ( τ ) - s r ( τ ) ) 2 - - - ( 6 )
在等式(6)中,m=1,...,M是训练向量的索引。对于每一个训练实例m,可以存储最小距离d(m)=minr d(m,r)。还存储导致最小距离的重采样比然后,速度可以基于导致d(m)的k个最低值的k个最近邻居进行估计。与最近邻居i对应的参考或注释速度用Tann(i)表示。测试向量速度的估计被获取作为
速度估计可被获取为最近邻速度估计的均值或中值。另外,加权可在中值计算中使用,以将更多权重给予那些最接近测试向量的训练实例。例如,权重wi可以被计算为
w i = exp ( - θd ( i ) ) Σ i = 1 k exp ( - θd ( i ) ) - - - ( 7 )
其中,i=1,...,k。参数θ可以被用于控制加权的陡度(steepness)。例如,可以使用值θ=0.01。然后,使用权重wi,速度估计BPMest可以被计算为速度估计的加权中值。
仍然参考图6,在步骤6.4中,基于在步骤6.3中获取的BPMest和在步骤6.2中获取的色度重音信号(a1)执行节拍跟踪。该第一节拍跟踪阶段6.4的结果是指示节拍时间实例的第一节拍时间序列(b1)。为此,使用与在[7]中描述的相似的动态编程例程。这个动态编程例程识别匹配第一色度重音信号(a1)中的峰值的第一节拍时间序列(b1),其允许节拍持续时间在连续的节拍之间变化。存在基于BPM估计而获取节拍时间的可替换的方法,例如,可使用隐马尔可夫模型、卡尔曼滤波器或各种启发式方法。动态编程例程的益处在于它有效地搜索了所有可能的节拍序列。
例如,节拍跟踪阶段6.4采用BPMest并试图找到节拍时间的序列,以使得很多节拍时间对应于第一重音信号(a1)中的大的值。如在[7]中所建议的,重音信号首先使用高斯窗进行平滑。高斯窗的半宽度可以被设定成等于与BPMest对应的节拍持续时间的1/32。
在平滑后,动态编程例程通过平滑后的重音信号值(a1)继续向前。标记时间索引n。对于每一个索引n,找到最佳前任(predecessor)节拍候选。最佳前任节拍通过最大化过渡分数与累计分数的乘积而在过去的窗口内找到。也就是说,该算法计算δ(n)=maxi(ts(l)·cs(n+l)),其中,ts(l)是过渡分数,cs(n+l)是累计分数。搜索窗口的跨度l=-round(-2P),…,-round(P/2),其中,P是与BPMest对应的样本中的持续时间。过渡分数可以被定义为
ts ( l ) = exp ( - 0.5 ( θ * log ( l - p ) ) 2 ) - - - ( 9 )
其中,l=-round(-2P),…,-round(P/2),参数θ=8控制过渡分数如何随着前一个节拍位置偏离节拍持续时间P而陡峭地减少。累计分数被存储为cs(n)=αδ(n)+(1-[α)α]1(n)。参数α用于保持过去的分数与局部匹配之间的平衡。值α=0.8。该算法还将最佳前任节拍的索引存储为其中, l ^ = arg max l ( ts ( n + l ) · + cs ( n + l ) ) .
在音乐节选的结尾,选择从结尾开始的一个节拍持续时间内的最佳累计分数,然后,使用所存储的前任节拍索引,追溯导致该分数的整个节拍序列B1。最佳累积分数可被选择为从结尾开始的一个节拍持续时间内的累计分数值的局部最大值中的最大值。如果没有找到这样的分数,则最佳累计分数被选择为超过阈值的最新局部最大值。此处的阈值是0.5乘以累计分数中局部最大值的中值累计分数值。
应当注意,在步骤6.4中获取的节拍序列可以用于更新BPMest。在本发明的一些实施例中,BPMest基于根据从动态编程节拍跟踪步骤中获取的节拍时间来计算的中值节拍持续时间而更新。
在步骤6.3中生成的BPMest的值是最小BPM与最大BPM之间的连续的实际值,其中,最小BPM和最大BPM对应于可被输出的最小和最大BPM值。在这个阶段,BPM的最小和最大值被在基于k个最近邻居的速度估计器的训练数据中出现的最小和最大BPM值限制。
使用向上取整函数和向下取整函数的BPM est 修正
电子音乐经常使用整数BPM设置。考虑到这个理解,在步骤6.5中,将向上取整和向下取整函数应用于BPM est 。如将要知道的,向上取整和向下取整函数分别给出上下最接近的整数或者最小的下一个和最大的前一个整数。因此,这个阶段6.5的结果是两个数据集合,表示为floor(BPMest)和ceil(BPMest)。
floor(BPMest)和ceil(BPMest)的值被用作将要在下面描述的第二处理路径中的BPM值,在第二处理路径中,对低音重音信号或者在由低频分量主导的重音信号执行节拍跟踪。
多速率重音计算
第二重音信号(a2)在步骤6.6中使用在[3]中描述的重音信号分析方法生成。第二重音信号(a2)基于信号的在计算上有效的多速率滤波器组分解。与基于F0突出度的重音信号(a1)相比,第二重音信号(a2)以这种方式生成:它与所输入的音乐信号中的打击和/或低频内容更相关并且不强调和声信息。具体地,在步骤6.7中,从在步骤6.6中使用的最低频带滤波器中选择重音信号,如在[3]中所描述的,以使得第二重音信号(a2)强调低音鼓敲击和其它低频事件。该子带的典型上限是187.5Hz,或者可以给定200Hz作为更一般的数字。这是由于电子舞蹈音乐通常以低音鼓所产生的稳定节拍为特征的理解而执行的。
图10至12表示在[3]中描述的方法的一部分,特别是与使用音频信号的多速率滤波器组分解来获取第二重音信号(a2)相关的部分。还可以具体参考描述了这个过程的使用的相关美国专利No.7612275。参考图10,显示了信号分析器的一部分,其包括重采样器222和重音滤波器组226。重采样器222以恒定的采样率对音频信号220进行重采样。恒定的采样率可以是预先确定的,例如,基于重音滤波器组226的特性。因为音频信号220在重采样器222处被重采样,所以具有任意采样率的数据可被提供给分析器,并可以实现将采样率转换为适合用于重音滤波器组226的采样率,因为重采样器222能够执行任何必要的上采样和下采样,以便创建适合用于重音滤波器组226的恒定速率信号。重采样器222的输出可以被认为是重采样的音频输入。因此,在任何音频分析发生之前,重采样器222将音频信号220转换成所选择的采样率,例如,在大约20-30kHz的范围。一个实施例使用24kHz作为例子实现。所选择的采样率是满足需要的,因为分析发生在特定的频率区域。重采样可以用诸如线性内插法的相对低质量的算法进行,因为成功的分析并不需要高保真度。因此,总之,任何标准的重采样方法都可以成功地应用。
重音滤波器组226与重采样器222通信以从重采样器22接收重采样的音频输入224。重音滤波器组226实施信号处理,以便将重采样的音频输入224变换成适合后续分析的形式。重音滤波器组226处理重采样的音频输入224,以生成子带重音信号228。每个子带重音信号228对应于重采样的音频输入224的特定频率区域。这样,子带重音信号228表示在每个子带上所感知的强调的估计。音频信号220的许多原始信息在重音滤波器组226中丢失,因为子带重音信号228被严重地下采样。应当注意,虽然图10示出了4个子带重音信号228,但是任何数量的子带重音信号228都是可能的。然而,在本申请中,只关心获取最低的子带重音信号。
图11更详细地显示了重音滤波器组226的示例性实施例。然而,通常重音滤波器组226可以被具体化为能够下采样输入数据的任何装置或设备。如在此所引用的,术语“下采样”被定义为降低所采样的数据的采样率连同进一步处理所采样的数据,以便执行数据缩减。这样,示例性实施例采用重音滤波器组226作为抽取子带滤波器组和重音估计器来执行这样的数据缩减。适合的抽取子带滤波器组的例子可以包括如下所描述的正交镜像滤波器。
如在图11中所示,重采样的音频信号224首先由子带滤波器组230分成子带音频信号232,然后,对于每个带,分别在对应的功率估计单元234处计算表示子带功率的功率估计信号。可替换地,可以采用基于绝对信号样本值的级别估计。然后,子带重音信号228可通过对应的重音计算单元236对每个带计算出。节拍跟踪算法的计算效率在很大程度上由重音滤波器组226的前端处理确定,因为音频信号采样率相对高,以使得即使每次采样的适度数量的操作也将导致每秒大量的操作。因此,对于该实施例,实现子带滤波器组230以使得子带滤波器组可以在内部对输入音频信号进行下采样(或抽取)。另外,功率估计提供在时间窗口上平均的功率估计,从而输出被再一次下采样的信号。
如上所述,音频子带的数量可以变化。然而,实际上已经显示了具有4个所定义的信号带的示例性实施例,以包括足够的细节并提供良好的计算性能。在当前的示例性实施例中,假设输入采样率是24kHz,则频带可以例如是0-187.5Hz、187.5-750Hz、750-3000Hz和3000-12000Hz。这样的频带配置可以通过连续滤波和下采样相位来实现,其中,在每个阶段,采样率降低4倍。例如,在图12中,产生子带重音信号(a)的阶段从24KHz到6KHz进行下采样,产生子带重音信号(b)的阶段从6KHz到1.5KHz进行下采样,产生子带重音信号(c)的阶段从1.5KHz到375Hz进行下采样。可替换地,还可以执行更激进的下采样。因为在这个实施例中,分析结果不会以任何方式被转换回音频,子带信号的实际质量并不重要。因此,信号可以被进一步抽取,而无需考虑可能在下采样到比根据尼奎斯特定理可被允许的采样率更低的采样率时发生的混淆。
图12更加详细地示出了重音滤波器组226的示例性实施例。重音滤波器组226通过正交镜像滤波器(QMF)238利用正交镜像滤波将重采样的音频信号224分成7个频带(在该示例中为12kHz、6kHz、3kHz、1.5kHz、750Hz、375Hz、125Hz)。来自QMF的7个一个八度的子带信号被组合成4个两个八度的子带信号(a)至(d)。在该示例性实施例中,两个最上端的组合子带信号(即,(a)和(b))被分别延迟15个和3个样本(分别在z<-15>和z<-3>),以均衡在子带上的信号组延迟。功率估计单元234和重音计算单元236生成每个子带的子带重音信号228。
对于本申请,仅关心表示信号中的低音鼓节拍和/或其它低频事件的最低子带信号。在输出之前,最低子带重音信号可选地通过用最大样本值划分样本来进行归一化。也可以应用诸如平均值移除和/或方差归一化的其它归一化方法。归一化了的最低子带重音信号被输出为a2
第二节拍跟踪阶段
在图6的步骤6.8中,生成第二和第三节拍时间序列(Bceil)、(Bfloor)。
对该处理阶段的输入包括第二重音信号(a2)和在步骤6.5中生成的floor(BPMest)和ceil(BPMest)的值。这样做的动机是如果音乐是电子舞蹈音乐,则节拍时间的序列将很可能在floor(BPMest)或ceil(BPMest)处匹配(a2)中的峰值。
存在各种使用(a2)、floor(BPMest)和ceil(BPMest)执行节拍跟踪的方法。在这种情况下,第二节拍跟踪阶段6.8如下执行。
参考图7,使用被分别使用floor(BPMest)和ceil(BPMest)的每一个而应用的第二重音信号(a2)执行在[7]中描述的动态编程节拍跟踪方法。这提供了在图7中示出的两个处理路径,其中,动态编程节拍跟踪步骤用参考标记7.1和7.4表示。
以下段落描述了仅仅一个路径(即应用于floor(BPMest))的过程,但是,将知道相同的过程在应用于ceil(BPMest)的另一个路径中执行。像前面那样,与两个处理路径有关的参考标记决不表示处理的顺序;两个路径可以并行地进行。
步骤7.1的动态编程节拍跟踪方法给出初始节拍时间序列bt。接下来,在步骤7.2中,理想节拍时间序列bi被计算为:
bi=0、1/(floor(BPMest)/60)、2/(floor(BPMest)/60)等。
接下来,在步骤7.3中,当bi偏移很小的量时,在初始节拍时间序列bt与理想节拍时间序列bi之间找出最佳匹配。为了找到该匹配,使用在[1]中提出的用于测量两个节拍时间序列的相似度的标准。评估分数R(bt、bi+dev),其中,R是在[1]中提出的用于速度跟踪准确度的标准,dev是范围从0开始以0.1/(floor(BPMest)/60)为步长到1.1/(floor(BPMest)/60)的偏差。注意,步长是参数,并且可以改变。在Matlab语言中,分数R可被计算为:
function R=beatscore_cemgil(bt,at)
sigma_e=0.04;%所期望的开始展开
%匹配最近的节拍
id=nearest(at(:)',bt(:));
%计算距离
d=at-bt(id);
%计算跟踪索引
s=exp(-d.^2/(2*sigma_e^2));
R=2*sum(s)/(length(bt)+length(at));
对例程的输入“bt”是bt,在每次迭代的输入“at”是bi+dev。函数“nearest”找出两个向量中的最近值并返回“bt”中最接近“at”的值的索引。在Matlab语言中,该函数可以被表示为
function n=nearest(x,y)
%x行向量
%y列向量:
%y中最接近x的值的索引
=ones(size(y,i),i)*x;
[junk,n]=min(abs(x-y));
输出是节拍时间序列bi+devmax,其中,devmax是导致最大分数R的偏差。应当注意,在此也可以使用除了R之外的分数。期望的是,分数测量两个节拍序列的相似度。
如上所指示的,也可以在步骤7.4、7.5和7.6中对ceil(BPMest)执行该过程,而上面段落中的floor(BPMest)的值也相应地变化。
步骤7.3和7.6的输出是2个节拍时间序列:基于ceil(BPMest)的Bceil和基于floor(BPMest)的Bfloor。注意,这些节拍时间序列具有恒定的节拍间隔。也就是说,两个相邻节拍间的持续时间在整个节拍时间序列中是恒定的。
节拍时间序列的选择
继续参考图6,作为第一和第二节拍跟踪阶段6.4、6.8的结果,有3个节拍时间序列:
基于色度重音信号和实际BPM值BPMest的b1
基于ceil(BPMest)的bceil;以及
基于floor(BPMest)的bfloor
剩下的处理阶段6.9、6.10、6.11确定这些序列中的哪个最好地解释所获取的重音信号。为此,可使用重音信号a1、a2中的任一个或两者。更准确和稳健的结果已经通过只使用a2观察到,其表示多速率重音信号的最低频带。
如在图8中所表示的,采用如下的评分系统:首先,分别计算在与b1、bceil和bfloor中的每一个中的节拍时间对应的时间处的重音信号a2的平均值。在步骤6.11中,无论哪个节拍时间序列给出重音信号a2的最大平均值都被认为是最佳匹配,并被选择为步骤6.12的输出节拍时间序列。代替平均值,可使用其它测量,诸如几何平均值、调和平均值、中值、最大值或总和。
作为实现细节,当计算平均重音信号值时,在节拍索引中允许重音信号采样周期的最大+/-十倍的小的恒定偏差。也就是说,在找平均分数时,系统通过偏差的范围进行迭代,在每一次迭代中将当前偏差值加到节拍索引上,并计算和存储与所取代的节拍索引对应的重音信号的平均值。最后,从与不同偏差值对应的平均值中找出最大平均值并输出。该步骤是可选的,但是已经发现可提高稳健性,因为借助于偏差,可以使节拍时间更准确地与重音信号中的峰值匹配。此外,可选地,也可以使偏离的节拍时间序列中的个别节拍索引偏离。在这种情况下,每个节拍索引偏离最多-/+一个样本,在计算平均值时,与每个节拍对应的重音信号值被当作在该范围内的最大值。这允许搜索个别节拍的准确位置。该步骤还已被发现可以稍微提高方法的稳健性。
直观地,最终的评分步骤执行三个所获取的候选节拍时间序列b1、Bceil、Bfloor的每一个与重音信号a2的匹配,并选择给出最佳匹配的节拍时间序列。如果重音信号中的高值与节拍时间一致,则匹配是好的,导致在节拍时间处的高的平均重音信号值。如果基于整数BPM的节拍序列即Bceil和Bfloor中的一个很好地解释了重音信号a2,也就是说,导致在节拍处的高的平均重音信号值,则它将在基线节拍时间序列b1上被选择。实验数据已经显示这在所输入的音乐信号对应于电子舞蹈音乐(或者具有由低音鼓指示的强节拍并具有整数值的速度的其它音乐)时通常都是这种情况,并且该方法显著提高了在这种风格音乐中的性能。当Bceil和Bfloor没有给出足够高的平均值时,则使用节拍序列b1。这已经被观察到是针对除了电子音乐以外的大多数音乐类型的情况。
代替使用ceil(BPMest)和floor(BPMest),该方法还可以使用单个整数值的BPM估计。也就是说,该方法计算例如round(BPMest)、ceil(BPMest)和floor(BPMest)之一,并使用低频重音信号a2执行节拍跟踪。在些情况下,从BPM值到整数的转换可完全省略,使用BPMest对a2执行节拍跟踪。
在速度估计步骤产生了在信号的不同时间位置上的BPM值的序列的情况下,可以例如通过对BPM值求平均值或取中值来获取用于对重音信号a2的节拍跟踪的速度值。也就是说,在这种情况下,该方法可以使用来自速度估计器的逐帧速度估计,对基于色度重音特征的重音信号a1执行节拍跟踪。应用于a2的节拍跟踪可以假定恒定速度,并使用全局平均或中值BPM估计(可取整为整数)进行。
总的来说,在软件控制下由控制器202执行的音频分析处理包括以下步骤:
-使用在[2]和[7]中描述的方法的组合,获取速度(BPM)估计和第一节拍时间序列;
-使用在[3]中描述的方法,获取强调低频带重音的重音信号;
-计算速度估计的向上取整整数和向下取整整数;
-使用重音信号、速度估计的向上取整整数和向下取整整数,计算第二和第三节拍时间序列;
-使用重音信号,计算第一、第二和第三节拍时间序列的优良分数;以及
-输出对应于最佳优良分数的节拍时间序列。
所述步骤利用了以下理解:工作室制作的电子音乐,某些时候也可以是现场音乐(特别是在俱乐部和/或其它电子音乐音乐会或演出中),使用被设定在音序器内或者通过使用节拍器获取的恒定速度。另外,速度通常是整数值。实验结果已经显示,使用上述的系统和方法,电子音乐的节拍跟踪准确度从大约60%正确提高到超过90%正确。特别地,基于在[2]中提出的速度估计和在[7]中提出的应用在色度重音特征上的节拍跟踪步骤的节拍跟踪方法有时易于产生节拍相位误差,这意味着节拍可位于节拍之间而不是位于节拍上。这样的误差可能是由于例如展示了大量切分音的音乐,即,具有音乐事件、强调或重音弱拍(off-beat)而不是强拍(on-beat)。以上描述的系统和方法特别有助于除去电子舞蹈音乐中的节拍相位误差。
虽然主要实施例采用速度估计,但在更一般的意义上,可以使用持续时间或频率估计,即,与诸如节拍的某一韵律级别对应的信号中的持续时间或频率的估计。节拍持续时间的持续时间估计被称为速度估计,但是也可以使用其它韵律级别。速度与如1/<节拍持续时间>*60的节拍持续时间有关,也就是说,0.5秒的持续时间对应于每分钟120节拍的速度。也就是说,速度是与速度的脉冲的频率的表示。可替换地,系统当然可以使用另一种频率表示,诸如Hz,其中,2Hz对应于120BPM。
可以知道,以上描述的实施例仅仅是说明性的,而并不限定本发明的范围。对于阅读了本申请的本领域技术人员,其它变化和修改是显而易见的。
另外,本申请的公开应当被理解为包括在此明确或者隐含公开的任何新的特征或任何新的特征组合或其任何概括,在对本申请或从本申请中产生的任何申请的审查期间,可以编写新的权利要求以覆盖这样的特征和/或这样的特征的组合。

Claims (65)

1.一种装置,包括:
第一重音信号模块,用于生成表示音频信号中的音乐重音的第一重音信号(a1);
第二重音信号模块,用于生成表示所述音频信号中的音乐重音的不同的第二重音信号(a2);
第一节拍跟踪模块,用于根据所述第一重音信号估计第一节拍时间序列(b1);
第二节拍跟踪模块,用于根据所述第二重音信号估计第二节拍时间序列(b2);以及
序列选择器,用于识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
2.根据权利要求1所述的装置,其中,所述第一重音信号模块被配置为通过基于基频(f0)突出度分析来提取色度重音特征,生成所述第一重音信号(a1)。
3.根据权利要求1或2所述的装置,还包括:速度估计器,其被配置为使用所述第一重音信号(a1)来生成所述音频信号的估计速度(BPMest)。
4.根据权利要求3所述的装置,其中,所述第一节拍跟踪模块被配置为使用所述第一重音信号(a1)和所述估计速度(BPMest)来估计所述第一节拍时间序列。
5.根据前述任意权利要求所述的装置,其中,所述第二重音信号模块被配置为使用所述音频信号的带宽的预定子带来生成所述第二重音信号(a2)。
6.根据权利要求5所述的装置,其中,所述第二重音信号模块被配置为使用低于200Hz的预定子带来生成所述第二重音信号(a2)。
7.根据权利要求5或6所述的装置,其中,所述第二重音信号模块被配置为通过执行所述音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成所述重音信号,生成所述第二重音信号(a2)。
8.根据权利要求3或其任何从属权利要求所述的装置,还包括:用于获取所述估计速度(BPMest)的整数表示的装置,其中,所述第二节拍跟踪模块被配置为使用所述第二重音信号(a2)和所述整数表示来生成所述第二节拍时间序列(b2)。
9.根据权利要求8所述的装置,其中,所述估计速度(BPMest)的所述整数表示是使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))计算的。
10.根据权利要求3或其任何从属权利要求所述的装置,还包括:用于对所述估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest))的装置,其中,所述第二节拍跟踪模块被配置为使用所述第二重音信号(a2)和所述向上取整的速度估计来生成所述第二节拍时间序列(b2),并使用所述第二重音信号(a2)和所述向下取整的速度估计来生成第三节拍时间序列(b3),其中,所述序列选择器被配置为识别所述第一节拍时间序列、所述第二节拍时间序列和所述第三节拍时间序列中的哪一个与所述重音信号中的一个或两者中的峰值最接近一致。
11.根据权利要求10所述的装置,其中,所述第二节拍跟踪模块被配置为对于所述向上取整的速度估计和所述向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),将其与基准节拍时间序列(bi)进行比较,以及使用预定的相似度算法生成所述第二节拍时间序列和所述第三节拍时间序列。
12.根据权利要求11所述的装置,其中,由所述第二节拍跟踪模块使用的所述预定的相似度算法包括在偏移位置的范围上比较所述初始节拍时间序列(bt)和所述基准节拍时间序列(bi)以识别所述范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致所述最佳匹配的所述基准节拍时间序列(bi)的偏移版本。
13.根据权利要求11或12所述的装置,其中,所述基准节拍时间序列(bi)具有恒定的节拍间隔。
14.根据权利要求13所述的装置,其中,所述基准节拍时间序列(bi)在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成,其中,X是所述估计速度的整数表示,n是整数。
15.根据权利要求12至14任意一项所述的装置,其中,在所述算法中使用的所述偏移位置的范围在0到1.1/(X/60)之间,其中,X是所述估计速度的整数表示。
16.根据权利要求12至15任意一项所述的装置,其中,在所述算法中用于比较的所述偏移位置具有0.1/(BPMest/60)的步长。
17.根据前述任意权利要求所述的装置,其中,所述序列选择器被配置为识别所述节拍时间序列中的哪一个与所述第二重音信号中的峰值最接近一致。
18.根据前述任意权利要求所述的装置,其中,所述序列选择器被配置为对于所述节拍时间序列中的每一个,计算概括统计量或值,并选择导致最大概括统计量或值的节拍时间序列,其中,所述概括统计量或值依赖于在所述序列中的节拍时间处或者在所述节拍时间附近发生的所述重音信号或每个重音信号的值。
19.根据权利要求18所述的装置,其中,所述序列选择器被配置为对于所述节拍时间序列中的每一个,计算在所述序列中的节拍时间处或者在所述节拍时间附近发生的所述重音信号或每个重音信号的平均值,并选择导致最大平均值的节拍时间序列。
20.根据前述任意权利要求所述的装置,包括:
用于接收多个视频片段的装置,其中,每个视频片段各自具有包括共同内容的音频信号;以及
视频编辑模块,用于使用在所选择的节拍序列中的节拍来识别用于所述视频片段的可能的编辑点。
21.根据权利要求20所述的装置,其中,所述视频编辑模块还被配置为在一个或多个编辑点处连接多个视频片段以生成连接的视频片段。
22.一种方法,包括:
生成表示音频信号中的音乐重音的第一重音信号(a1);
生成表示所述音频信号中的音乐重音的不同的第二重音信号(a2);
根据所述第一重音信号估计第一节拍时间序列(b1);
根据所述第二重音信号估计第二节拍时间序列(b2);以及
识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
23.根据权利要求22所述的方法,其中,所述第一重音信号(a1)通过基于基频(f0)突出度分析而提取色度重音特征来生成。
24.根据权利要求23或24所述的方法,还包括:使用所述第一重音信号(a1)生成所述音频信号的估计速度(BPMest)。
25.根据权利要求24所述的方法,其中,所述第一节拍时间序列是使用所述第一重音信号(a1)和所述估计速度(BPMest)生成的。
26.根据权利要求22-25中任意一个所述的方法,其中,所述第二重音信号(a2)是使用所述音频信号的带宽的预定子带生成的。
27.根据权利要求26所述的方法,其中,所述第二重音信号(a2)是使用低于200Hz的预定子带生成的。
28.根据权利要求26或27所述的方法,其中,所述第二重音信号(a2)是通过执行所述音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成的。
29.根据权利要求24或其任何从属权利要求所述的方法,还包括:获取所述估计速度(BPMest)的整数表示,以及使用所述第二重音信号(a2)和所述整数表示来生成所述第二节拍时间序列(b2)。
30.根据权利要求29所述的方法,其中,所述估计速度(BPMest)的所述整数表示是使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))计算的。
31.根据权利要求24或其任何从属权利要求所述的方法,还包括:对所述估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest)),使用所述第二重音信号(a2)和所述向上取整的速度估计来生成所述第二节拍时间序列(b2),使用所述第二重音信号(a2)和所述向下取整的速度估计来生成所述第三节拍时间序列(b3),以及识别所述第一节拍时间序列、所述第二节拍时间序列和所述第三节拍时间序列中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
32.根据权利要求31所述的方法,其中,对于所述向上取整的速度估计和所述向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),所述初始节拍时间序列(bt)然后与基准节拍时间序列(bi)进行比较,以用于使用预定的相似度算法生成所述第二节拍时间序列和所述第三节拍时间序列。
33.根据权利要求32所述的方法,其中,使用所述预定的相似度算法的所述比较步骤包括:在偏移位置的范围上比较所述初始节拍时间序列(bt)和所述基准节拍时间序列(bi),以识别所述范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致所述最佳匹配的所述基准节拍时间序列(bi)的偏移版本。
34.根据权利要求32或33所述的方法,其中,所述基准节拍时间序列(bi)具有恒定的节拍间隔。
35.根据权利要求34所述的方法,其中,所述基准节拍时间序列(bi)在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成,其中,X是所述估计速度的整数表示,n是整数。
36.根据权利要求33至35中的任意一个所述的方法,其中,在所述算法中使用的所述偏移位置的范围是在0与1.1/(X/60)之间,其中,X是所述估计速度的整数表示。
37.根据权利要求33至36中的任意一个所述的方法,其中,所述算法中用于比较的所述偏移位置具有0.1/(BPMest/60)的步长。
38.根据权利要求22至37中的任意一个所述的方法,其中,所述识别步骤包括:识别所述节拍时间序列中的哪一个与所述第二重音信号中的峰值最接近一致。
39.根据权利要求22至38中的任意一个所述的方法,其中,所述识别步骤包括:对于所述节拍时间序列中的每一个,计算概括统计量或值,以及选择导致最大概括统计量或值的节拍时间序列,其中,所述概括统计量或值依赖于在所述序列中的节拍时间处或者在所述节拍时间附近发生的所述重音信号或每个重音信号的值。
40.根据权利要求39所述的方法,其中,所述识别步骤包括:对于所述节拍时间序列中的每一个,计算在所述序列中的节拍时间处或者在所述节拍时间附近发生的所述重音信号或每个重音信号的平均值,以及选择导致最大平均值的节拍时间序列。
41.根据权利要求22至40中的任意一个所述的方法,包括:
接收多个视频片段,其中,每个视频片段各自具有包括共同内容的音频信号;以及
使用所选择的节拍序列中的节拍来识别用于所述视频片段的可能的编辑点。
42.根据权利要求41所述的方法,还包括:在一个或多个编辑点处连接多个视频片段,以生成连接的视频片段。
43.一种计算机程序,包括在由计算机装置执行时控制它执行权利要求22至42中的任意一个的方法的指令。
44.一种非暂时性计算机可读存储介质,在其上存储有计算机可读代码,所述计算机可读代码在被计算装置执行时使所述计算装置执行一种方法,该方法包括:
生成表示音频信号中的音乐重音的第一重音信号(a1);
生成表示所述音频信号中的音乐重音的不同的第二重音信号(a2);
根据所述第一重音信号估计第一节拍时间序列(b1);
根据所述第二重音信号估计第二节拍时间序列(b2);以及
识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
45.一种装置,包括至少一个处理器和至少一个存储器,其中,在所述至少一个存储器上存储有计算机可读代码,所述计算机可读代码在被执行时控制所述至少一个处理器以:
生成表示音频信号中的音乐重音的第一重音信号(a1);
生成表示所述音频信号中的音乐重音的不同的第二重音信号(a2);
根据所述第一重音信号估计第一节拍时间序列(b1);
根据所述第二重音信号估计第二节拍时间序列(b2);以及
识别所述第一节拍时间序列(b1)和所述第二节拍时间序列(b2)中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
46.根据权利要求45所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以通过基于基频(f0)突出度分析而提取色度重音特征来生成所述第一重音信号(a1)。
47.根据权利要求45或46所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以使用所述第一重音信号(a1)生成所述音频信号的估计速度(BPMest)。
48.根据权利要求47所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以使用所述第一重音信号(a1)和所述估计速度(BPMest)生成所述第一节拍时间序列。
49.根据权利要求45至48中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以使用所述音频信号的带宽的预定子带生成所述第二重音信号(a2)。
50.根据权利要求49所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以使用低于200Hz的预定子带生成所述第二重音信号(a2)。
51.根据权利要求49或50所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以通过执行所述音频信号的多速率滤波器组分解以及使用来自预定的一个滤波器的输出来生成所述第二重音信号(a2)。
52.根据权利要求47或其任何从属权利要求所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以获取所述估计速度(BPMest)的整数表示以及使用所述第二重音信号(a2)和所述整数表示来生成所述第二节拍时间序列(b2)。
53.根据权利要求52所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以使用四舍五入取整的速度估计函数(round(BPMest))或者向上取整的速度估计函数(ceil(BPMest))或者向下取整的速度估计函数(floor(BPMest))来计算所述估计速度(BPMest)的所述整数表示。
54.根据权利要求47或其任何从属权利要求所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以对所述估计速度BPMest执行向上取整函数和向下取整函数以分别生成向上取整的速度估计(ceil(BPMest))和向下取整的速度估计(floor(BPMest)),使用所述第二重音信号(a2)和所述向上取整的速度估计来生成所述第二节拍时间序列(b2),使用所述第二重音信号(a2)和所述向下取整的速度估计来生成所述第三节拍时间序列(b3),以及识别所述第一节拍时间序列、所述第二节拍时间序列和所述第三节拍时间序列中的哪一个与所述重音信号的一个或两者中的峰值最接近一致。
55.根据权利要求54所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以对于所述向上取整的速度估计和所述向下取整的速度估计中的每一个,使用所述估计来生成初始节拍时间序列(bt),所述初始节拍时间序列(bt)然后与基准节拍时间序列(bi)进行比较,以用于使用预定的相似度算法生成所述第二节拍时间序列和所述第三节拍时间序列。
56.根据权利要求55所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以在偏移位置的范围上比较所述初始节拍时间序列(bt)和所述基准节拍时间序列(bi),以识别在所述范围内的最佳匹配,所生成的第二/第三节拍时间序列包括导致所述最佳匹配的所述基准节拍时间序列(bi)的偏移版本。
57.根据权利要求55或56所述的装置,其中,所述基准节拍时间序列(bi)具有恒定的节拍间隔。
58.根据权利要求57所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以在t=0,1/(X/60),2/(X/60)......n/(X/60)时生成所述基准节拍时间序列(bi),其中,X是所述估计速度的整数表示,n是整数。
59.根据权利要求56至58中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以在所述算法中使用0与1.1/(X/60)之间的偏移位置的范围,其中,X是所述估计速度的整数表示。
60.根据权利要求56至59中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以在所述算法中使用具有0.1/(BPMest/60)的步长的用于比较的偏移位置。
61.根据权利要求45至60中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以识别所述节拍时间序列中的哪一个与所述第二重音信号中的峰值最接近一致。
62.根据权利要求45至61中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以对于所述节拍时间序列中的每一个,计算概括统计量或值,以及选择导致最大概括统计量或值的节拍时间序列,其中,所述概括统计量或值依赖于在所述序列中的节拍时间处或在所述节拍时间附近发生的所述重音信号或每个重音信号的值。
63.根据权利要求62所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以对于所述节拍时间序列中的每一个,计算在所述序列中的节拍时间处或在所述节拍时间附近发生的所述重音信号或每个重音信号的平均值,以及选择导致最大平均值的节拍时间序列。
64.根据权利要求45至62中的任意一个所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以:
接收多个视频片段,其中,每个视频片段各自具有包括共同内容的音频信号;以及
使用所选择的节拍序列中的节拍来识别用于所述视频片段的可能的编辑点。
65.根据权利要求64所述的装置,其中,所述计算机可读代码在被执行时控制所述至少一个处理器以在一个或多个编辑点处连接多个视频片段以生成连接的视频片段。
CN201280075416.9A 2012-06-29 2012-06-29 音频信号分析 Expired - Fee Related CN104620313B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2012/053329 WO2014001849A1 (en) 2012-06-29 2012-06-29 Audio signal analysis

Publications (2)

Publication Number Publication Date
CN104620313A true CN104620313A (zh) 2015-05-13
CN104620313B CN104620313B (zh) 2017-08-08

Family

ID=49782340

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280075416.9A Expired - Fee Related CN104620313B (zh) 2012-06-29 2012-06-29 音频信号分析

Country Status (5)

Country Link
US (1) US9418643B2 (zh)
EP (1) EP2867887B1 (zh)
JP (1) JP6017687B2 (zh)
CN (1) CN104620313B (zh)
WO (1) WO2014001849A1 (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320730A (zh) * 2018-01-09 2018-07-24 广州市百果园信息技术有限公司 音乐分类方法及节拍点检测方法、存储设备及计算机设备
CN108335703A (zh) * 2018-03-28 2018-07-27 腾讯音乐娱乐科技(深圳)有限公司 确定音频数据的重音位置的方法和装置
CN108417223A (zh) * 2017-12-29 2018-08-17 申子涵 在社交网络中发送变调语音的方法
CN110495180A (zh) * 2017-03-30 2019-11-22 格雷斯诺特公司 生成用于伴随音频的视频呈现
CN110867174A (zh) * 2018-08-28 2020-03-06 努音有限公司 自动混音装置
CN110955862A (zh) * 2019-11-26 2020-04-03 新奥数能科技有限公司 一种用于设备模型趋势相似度的评估方法及装置
CN112233662A (zh) * 2019-06-28 2021-01-15 百度在线网络技术(北京)有限公司 音频分析方法、装置、计算设备和存储介质
US20210241729A1 (en) * 2018-05-24 2021-08-05 Roland Corporation Beat timing generation device and method thereof
CN113590872A (zh) * 2021-07-28 2021-11-02 广州艾美网络科技有限公司 跳舞谱面生成的方法、装置以及设备
CN113674723A (zh) * 2021-08-16 2021-11-19 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、计算机设备及可读存储介质

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8364633B2 (en) * 2005-01-12 2013-01-29 Wandisco, Inc. Distributed computing systems and system components thereof
US9646592B2 (en) 2013-02-28 2017-05-09 Nokia Technologies Oy Audio signal analysis
CN104217729A (zh) * 2013-05-31 2014-12-17 杜比实验室特许公司 音频处理方法和音频处理装置以及训练方法
GB201310861D0 (en) 2013-06-18 2013-07-31 Nokia Corp Audio signal analysis
GB2522644A (en) * 2014-01-31 2015-08-05 Nokia Technologies Oy Audio signal analysis
US9536509B2 (en) * 2014-09-25 2017-01-03 Sunhouse Technologies, Inc. Systems and methods for capturing and interpreting audio
US11308928B2 (en) * 2014-09-25 2022-04-19 Sunhouse Technologies, Inc. Systems and methods for capturing and interpreting audio
EP3096242A1 (en) 2015-05-20 2016-11-23 Nokia Technologies Oy Media content selection
US9756281B2 (en) 2016-02-05 2017-09-05 Gopro, Inc. Apparatus and method for audio based video synchronization
EP3209033B1 (en) 2016-02-19 2019-12-11 Nokia Technologies Oy Controlling audio rendering
US9502017B1 (en) * 2016-04-14 2016-11-22 Adobe Systems Incorporated Automatic audio remixing with repetition avoidance
EP3255904A1 (en) 2016-06-07 2017-12-13 Nokia Technologies Oy Distributed audio mixing
WO2018013823A1 (en) * 2016-07-13 2018-01-18 Smule, Inc. Crowd-sourced technique for pitch track generation
US9697849B1 (en) 2016-07-25 2017-07-04 Gopro, Inc. Systems and methods for audio based synchronization using energy vectors
US9640159B1 (en) 2016-08-25 2017-05-02 Gopro, Inc. Systems and methods for audio based synchronization using sound harmonics
US9653095B1 (en) 2016-08-30 2017-05-16 Gopro, Inc. Systems and methods for determining a repeatogram in a music composition using audio features
US10014841B2 (en) 2016-09-19 2018-07-03 Nokia Technologies Oy Method and apparatus for controlling audio playback based upon the instrument
US9916822B1 (en) 2016-10-07 2018-03-13 Gopro, Inc. Systems and methods for audio remixing using repeated segments
CN106547874A (zh) * 2016-10-26 2017-03-29 广州酷狗计算机科技有限公司 多媒体推荐方法及装置
GB2557970B (en) * 2016-12-20 2020-12-09 Mashtraxx Ltd Content tracking system and method
KR20180088184A (ko) * 2017-01-26 2018-08-03 삼성전자주식회사 전자 장치 및 그 제어 방법
US10957297B2 (en) * 2017-07-25 2021-03-23 Louis Yoelin Self-produced music apparatus and method
CN108108457B (zh) * 2017-12-28 2020-11-03 广州市百果园信息技术有限公司 从音乐节拍点中提取大节拍信息的方法、存储介质和终端
US10916229B2 (en) * 2018-07-03 2021-02-09 Soclip! Beat decomposition to facilitate automatic video editing
CN109308910B (zh) * 2018-09-20 2022-03-22 广州酷狗计算机科技有限公司 确定音频的bpm的方法和装置
KR102119654B1 (ko) * 2018-11-14 2020-06-05 현대자동차주식회사 배터리의 그리퍼 장치
JP2020106753A (ja) * 2018-12-28 2020-07-09 ローランド株式会社 情報処理装置および映像処理システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070240558A1 (en) * 2006-04-18 2007-10-18 Nokia Corporation Method, apparatus and computer program product for providing rhythm information from an audio signal

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876760A (ja) * 1994-08-31 1996-03-22 Kawai Musical Instr Mfg Co Ltd 自動演奏装置のテンポスピード制御装置
US6542869B1 (en) * 2000-05-11 2003-04-01 Fuji Xerox Co., Ltd. Method for automatic analysis of audio including music and speech
US6518492B2 (en) * 2001-04-13 2003-02-11 Magix Entertainment Products, Gmbh System and method of BPM determination
US20030205124A1 (en) * 2002-05-01 2003-11-06 Foote Jonathan T. Method and system for retrieving and sequencing music by rhythmic similarity
JP2004096617A (ja) * 2002-09-03 2004-03-25 Sharp Corp ビデオ編集方法、ビデオ編集装置、ビデオ編集プログラム、及び、プログラム記録媒体
US20060041731A1 (en) 2002-11-07 2006-02-23 Robert Jochemsen Method and device for persistent-memory mangement
JP3982443B2 (ja) * 2003-03-31 2007-09-26 ソニー株式会社 テンポ解析装置およびテンポ解析方法
JP4767691B2 (ja) * 2005-07-19 2011-09-07 株式会社河合楽器製作所 テンポ検出装置、コード名検出装置及びプログラム
US20070261537A1 (en) 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
US7842874B2 (en) * 2006-06-15 2010-11-30 Massachusetts Institute Of Technology Creating music by concatenative synthesis
JP2008076760A (ja) 2006-09-21 2008-04-03 Chugoku Electric Power Co Inc:The 光ケーブル心線の識別表示方法および表示物
JP5309459B2 (ja) * 2007-03-23 2013-10-09 ヤマハ株式会社 ビート検出装置
US7659471B2 (en) * 2007-03-28 2010-02-09 Nokia Corporation System and method for music data repetition functionality
JP5282548B2 (ja) 2008-12-05 2013-09-04 ソニー株式会社 情報処理装置、音素材の切り出し方法、及びプログラム
GB0901263D0 (en) * 2009-01-26 2009-03-11 Mitsubishi Elec R&D Ct Europe Detection of similar video segments
JP5654897B2 (ja) * 2010-03-02 2015-01-14 本田技研工業株式会社 楽譜位置推定装置、楽譜位置推定方法、及び楽譜位置推定プログラム
US8983082B2 (en) * 2010-04-14 2015-03-17 Apple Inc. Detecting musical structures
EP2845188B1 (en) 2012-04-30 2017-02-01 Nokia Technologies Oy Evaluation of downbeats from a musical audio signal
JP5672280B2 (ja) * 2012-08-31 2015-02-18 カシオ計算機株式会社 演奏情報処理装置、演奏情報処理方法及びプログラム
GB2518663A (en) * 2013-09-27 2015-04-01 Nokia Corp Audio analysis apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070240558A1 (en) * 2006-04-18 2007-10-18 Nokia Corporation Method, apparatus and computer program product for providing rhythm information from an audio signal

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANTTI ERONEN ETC: "Music Tempo Estimate with k-NN Regression", 《IEEE TRANSACTIONS ON AUDIO, SPEECH, AND LANGUAGE PROCESSING》 *
DANIEL P.W. ELLIS: "Beat Tracking by Dynamic Programming", 《LABROSA,COLUMBIA UNIVERSITY》 *
JARNO SEPPANEN ETC: "Joint Beat & Tatum Tracking from Music Signals", 《INTERNATIONAL CONFERENCE ON ISMIR》 *
M. F. MCKINNEY ETC: "Evaluation of Audio Beat Tracking and Music Tempo Extraction", 《JOURNAL OF NEW MUSIC RESEARCH》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110495180A (zh) * 2017-03-30 2019-11-22 格雷斯诺特公司 生成用于伴随音频的视频呈现
US11915722B2 (en) 2017-03-30 2024-02-27 Gracenote, Inc. Generating a video presentation to accompany audio
CN108417223A (zh) * 2017-12-29 2018-08-17 申子涵 在社交网络中发送变调语音的方法
US11715446B2 (en) * 2018-01-09 2023-08-01 Bigo Technology Pte, Ltd. Music classification method and beat point detection method, storage device and computer device
EP3723080A4 (en) * 2018-01-09 2021-02-24 Guangzhou Baiguoyuan Information Technology Co., Ltd. METHOD OF CLASSIFYING MUSIC AND METHOD FOR DETECTING RHYTHM POINTS, STORAGE DEVICE AND COMPUTER DEVICE
CN108320730A (zh) * 2018-01-09 2018-07-24 广州市百果园信息技术有限公司 音乐分类方法及节拍点检测方法、存储设备及计算机设备
US20200357369A1 (en) * 2018-01-09 2020-11-12 Guangzhou Baiguoyuan Information Technology Co., Ltd. Music classification method and beat point detection method, storage device and computer device
WO2019137115A1 (zh) * 2018-01-09 2019-07-18 广州市百果园信息技术有限公司 音乐分类方法及节拍点检测方法、存储设备及计算机设备
RU2743315C1 (ru) * 2018-01-09 2021-02-17 Гуанчжоу Байгуоюань Информейшен Текнолоджи Ко., Лтд. Способ классификации музыки и способ детектирования долей музыкального такта, носитель данных и компьютерное устройство
CN108335703A (zh) * 2018-03-28 2018-07-27 腾讯音乐娱乐科技(深圳)有限公司 确定音频数据的重音位置的方法和装置
CN108335703B (zh) * 2018-03-28 2020-10-09 腾讯音乐娱乐科技(深圳)有限公司 确定音频数据的重音位置的方法和装置
US20210241729A1 (en) * 2018-05-24 2021-08-05 Roland Corporation Beat timing generation device and method thereof
US11749240B2 (en) * 2018-05-24 2023-09-05 Roland Corporation Beat timing generation device and method thereof
CN110867174A (zh) * 2018-08-28 2020-03-06 努音有限公司 自动混音装置
CN112233662A (zh) * 2019-06-28 2021-01-15 百度在线网络技术(北京)有限公司 音频分析方法、装置、计算设备和存储介质
CN112233662B (zh) * 2019-06-28 2024-06-07 百度在线网络技术(北京)有限公司 音频分析方法、装置、计算设备和存储介质
CN110955862A (zh) * 2019-11-26 2020-04-03 新奥数能科技有限公司 一种用于设备模型趋势相似度的评估方法及装置
CN110955862B (zh) * 2019-11-26 2023-10-13 新奥数能科技有限公司 一种用于设备模型趋势相似度的评估方法及装置
CN113590872A (zh) * 2021-07-28 2021-11-02 广州艾美网络科技有限公司 跳舞谱面生成的方法、装置以及设备
CN113590872B (zh) * 2021-07-28 2023-11-28 广州艾美网络科技有限公司 跳舞谱面生成的方法、装置以及设备
CN113674723A (zh) * 2021-08-16 2021-11-19 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、计算机设备及可读存储介质
CN113674723B (zh) * 2021-08-16 2024-05-14 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、计算机设备及可读存储介质

Also Published As

Publication number Publication date
US20160005387A1 (en) 2016-01-07
EP2867887A1 (en) 2015-05-06
US9418643B2 (en) 2016-08-16
CN104620313B (zh) 2017-08-08
JP6017687B2 (ja) 2016-11-02
JP2015525895A (ja) 2015-09-07
EP2867887A4 (en) 2015-12-02
EP2867887B1 (en) 2016-12-28
WO2014001849A1 (en) 2014-01-03

Similar Documents

Publication Publication Date Title
CN104620313A (zh) 音频信号分析
EP2816550B1 (en) Audio signal analysis
EP2845188B1 (en) Evaluation of downbeats from a musical audio signal
EP2854128A1 (en) Audio analysis apparatus
Holzapfel et al. Three dimensions of pitched instrument onset detection
Goto A robust predominant-F0 estimation method for real-time detection of melody and bass lines in CD recordings
US9646592B2 (en) Audio signal analysis
EP3723080A1 (en) Music classification method and beat point detection method, storage device and computer device
US9111526B2 (en) Systems, method, apparatus, and computer-readable media for decomposition of a multichannel music signal
Clarisse et al. An Auditory Model Based Transcriber of Singing Sequences.
WO2007010637A1 (ja) テンポ検出装置、コード名検出装置及びプログラム
US8865993B2 (en) Musical composition processing system for processing musical composition for energy level and related methods
CN104538011A (zh) 一种音调调节方法、装置及终端设备
CN110472097A (zh) 乐曲自动分类方法、装置、计算机设备和存储介质
WO2015114216A2 (en) Audio signal analysis
CN104143339B (zh) 音乐信号处理设备和方法
JP5395399B2 (ja) 携帯端末、拍位置推定方法および拍位置推定プログラム
Benetos et al. Auditory spectrum-based pitched instrument onset detection
Thomas et al. Detection of largest possible repeated patterns in indian audio songs using spectral features
CN107025902A (zh) 数据处理方法及装置
CN110853678B (zh) 颤音识别评分方法、装置、终端和非临时性计算机可读存储介质
JP5054646B2 (ja) 拍位置推定装置、拍位置推定方法および拍位置推定プログラム
Finkelstein Music Segmentation Using Markov Chain Methods
Mikula Concatenative music composition based on recontextualisation utilising rhythm-synchronous feature extraction
Bapat et al. Pitch tracking of voice in tabla background by the two-way mismatch method

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20160106

Address after: Espoo, Finland

Applicant after: Technology Co., Ltd. of Nokia

Address before: Espoo, Finland

Applicant before: Nokia Oyj

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170808

Termination date: 20200629