JP2005292207A - 音楽分析の方法 - Google Patents

音楽分析の方法 Download PDF

Info

Publication number
JP2005292207A
JP2005292207A JP2004103172A JP2004103172A JP2005292207A JP 2005292207 A JP2005292207 A JP 2005292207A JP 2004103172 A JP2004103172 A JP 2004103172A JP 2004103172 A JP2004103172 A JP 2004103172A JP 2005292207 A JP2005292207 A JP 2005292207A
Authority
JP
Japan
Prior art keywords
music analysis
analysis according
music
tempo
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004103172A
Other languages
English (en)
Inventor
Juni O
純怡 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ulead Systems Inc
Original Assignee
Ulead Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ulead Systems Inc filed Critical Ulead Systems Inc
Priority to JP2004103172A priority Critical patent/JP2005292207A/ja
Priority to US10/823,536 priority patent/US7276656B2/en
Priority to TW093121470A priority patent/TWI253058B/zh
Publication of JP2005292207A publication Critical patent/JP2005292207A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/135Autocorrelation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

【課題】 ビデオクリップを備えたサウンドトラックの配置のインデックスを作る音楽のテンポ推定、ビートとマイクロチェンジ(micro−change)の検出の方法を提供する。
【解決手段】 本発明のビデオクリップを備えたサウンドトラックの配列にインデックスを作る音楽のテンポ推定、ビートとマイクロチェンジの検出の方法によれば、テンポ値、ビートの出だしとマイクロチェンジは、重複のサンプルを有するオーディオブロックのサブバンドベクトルを用いて検出され、ベクトルを決定づけるサブバンドセットは、ユーザーの入力によって決めることができるようになる。よって、ビデオクリップを備えたサウンドトラックの配列のインデックスは、より正確で、容易に得られる。
【選択図】図1

Description

本発明は、音楽分析に関し、特に、自動ビデオ編集システムにビデオクリップを備えたサウンドトラックの配列のインデックスを作る音楽のテンポ推定、ビート検出とマイクロチェンジ(micro−change)検出の方法に関するものである。
音楽の引用(musical excerts)から周期パルスの自動抽出は、近年の研究の盛んな話題になっている。ビートトラッキングとフットタッピングとも言われ、目的は、聴取者にビート、またはパルスの現象的経験に対応する象徴を抽出できる計算アルゴリズムを構築することである。
音楽的なコンセプトとしてのリズムは、直感的に認識できるものであるが、定義するのは、やや難しい。ヘンデルは、リズムの体験は動き、調和、グルーピング、さらに、抑揚と分化を含む、と書き、更に、音響による信号の簡易な測定でリズムが検出できるグラウンド・トゥルースはなく、現象的な観点の重大さを強調している。唯一のグラウンド・トゥルースは、その信号の音楽内容のリズム面を聴取者がどう同感するかだけである。
1989年にヘンデルは、一般に、リズムとは対照的に、ビートとパルスは、等しく間隔を置かれた一時的な単位の感覚にだけ対応すると述べた。拍子とリズムは、グルーピング、序列、強/弱の二分法の特質と関係しており、一曲のパルスは、シンプルなレベルでの単に周期的なものである。一曲のビートは、等しく間隔を開けた現象インパルス(impulses)の配列であり、音楽のテンポを定義する。
注意するのは、一曲で1回演奏される数と音調の多声の複雑性と、そのリズムの複雑性、またはパルスの複雑性の間には、シンプルな関係はない。音感的、音調的に複雑だが、率直で、知覚的にシンプルなリズムの音楽の曲とスタイルのものがあれば、それほど複雑でない音感を扱うが、リズム的に理解することや説明することがより難しいものも存在する。
前者のような音楽の曲は、後者のとは対照的に、強いビートを有する。このような音楽には、リスナーのリズムの反応はシンプル、即刻、明白で、全てのリスナーは、リズムの内容に同感する。
自動ビデオ編集(AVE)システムでは、音楽分析のプロセッシングは、ビデオクリップを備えたサウンドトラックの配列のインデックスを得るのに不可欠である。ほとんどのポップミュージックビデオでは、ビデオ/画像のショット変換は、通常ビートで起こる。更に、速い音楽は通常、多くの短いビデオクリップと速い変換と協調し、遅い音楽は通常、長いビデオクリップと遅い変換と協調する。よって、テンポ推定とビート検出は、自動ビデオ編集システムにおいて2つの重要で不可欠なプロセスである。ビートとテンポに加えて、自動ビデオ編集システムに不可欠なその他の重要なデータは、マイクロチェンジであり、一曲の中で局所的に著しく変化する音楽や、特に、ドラムのない、または、正確にビートを検出し、テンポを推定するのが難しい音楽に適する。
特開2004−96617号公報
本発明の目的は、ビデオクリップを備えたサウンドトラックの配置のインデックスを作る音楽のテンポ推定、ビートとマイクロチェンジ(micro−change)の検出の方法を提供する。
本発明は、ミュージックサウンドトラックを得るステップ、
前記ミュージックサウンドトラックのオーディオストリームを再サンプリングすることで、前記再サンプルされたオーディオストリームがブロックで構成されるステップ、
前記各ブロックにフーリエ変換をさせるステップ、
前記各変換されたブロックから第1ベクトルを求め、前記第1ベクトルの構成要素は、複数の第1サブバンド内の前記ブロックのエネルギーの合計であるステップ、
複数のテンポ値を用いて、同じ前記第1サブバンドで前記全ブロックの前記第1ベクトルの前記要素で構成された各配列に自己相関をさせ、各配列には、最大相関結果が信頼度として識別され、前記最大相関結果を生み出すテンポ値は、推定されたテンポとして識別されるステップ、および
前記全配列の信頼度を比較し、前記最大信頼度を最終推定のテンポとして対応して前記推定したテンポを識別するステップを含む音楽分析の方法を提供する。
本発明のビデオクリップを備えたサウンドトラックの配列にインデックスを作る音楽のテンポ推定、ビートとマイクロチェンジの検出の方法によれば、テンポ値、ビートの出だしとマイクロチェンジは、重複のサンプルを有するオーディオブロックのサブバンドベクトルを用いて検出され、ベクトルを決定づけるサブバンドセットは、ユーザーの入力によって決めることができるようになる。よって、ビデオクリップを備えたサウンドトラックの配列のインデックスは、より正確で、容易に得られる。
本発明についての目的、特徴、長所が一層明確に理解されるよう、以下に実施形態を例示し、図面を参照しながら、詳細に説明する。
図1は、本発明の実施例1に基づいたテンポ推定、ビートとマイクロチェンジ検出方法のフローチャートである。
ステップS10では、ミュージックサウンドトラックが取得される。例えば、ミュージックサウンドトラックのテンポは、60から180M.M(1分毎のビート)である。
ステップS11では、ミュージックサウンドトラックのオーディオストリームが前処理される。オーディオストリームは、再サンプルされる。図2に見られるように、従来のオーディオストリームは、複数の塊C1、C2、…、に分割され、例えば、それぞれ256サンプルを含む。ブロックB1は、塊C1、C2で構成され、ブロックB2は、塊C2、C3で構成され、以下同様に構成される。よって、ブロックB1、B2、…は、重複するサンプルを有する。
ステップS12では、FFTが各オーディオブロックに与えられ、オーディオブロックを時間領域から周波数領域に変換する。
ステップS13では、一対のサブバンドのベクトルが各オーディオブロックから求められ、1つのベクトルは、テンポ推定とビート検出に、その他のベクトルは、マイクロチェンジ検出に用いられる。各ベクトルの構成要素は、異なる周波数帯域(サブバンド)内のオーディオブロックのエネルギー合計で、2つのベクトルのサブバンドセットは異なる。
2つのベクトルは、
Figure 2005292207

Figure 2005292207

と表すことができる。
なお、V1(n)とV2(n)は、n番目オーディオブロックから分割された2つのベクトルで、A1(n)(i=1〜I)は、テンポ推定とビート検出のためのサブバンドセットのi番目サブバンド内のn番目オーディオブロックのエネルギー合計で、Bj(n)(j=1〜J)は、マイクロチェンジ検出のためのサブバンドセットのj番目サブバンド内のn番目オーディオブロックのエネルギー合計である。
更に、エネルギーの合計は、下記の方程式(3),(4)より分割される。
Figure 2005292207
Figure 2005292207
なお、LiとHiは、テンポ推定とビート検出のためのサブバンドセットのi番目サブバンドの上界と下界で、LjとHjは、マイクロチェンジ検出のためのサブバンドセットのj番目サブバンドの上界と下界であり、a(n、k)は、周波数kでのn番目オーディオブロックのエネルギー値(振幅)である。例えば、テンポ推定とビート検出のためのサブバンドセットは、3つのサブバンド[0Hz、125Hz]、[125Hz、250Hz]と[250Hz、500Hz]を含み、マイクロチェンジ検出のためのサブバンドセットは、4つのサブバンド[0Hz、1100Hz]、[1100Hz、2500Hz]、[2500Hz、5500Hz]と[5500Hzと11000Hz]を含む。
低周波数のドラム音がほとんどのポップミュージックで非常に規則的であることから、ビートの出だし(onset)をそれらから容易に引き出すことができる。テンポ推定とビート検出のためのサブバンドセットの全範囲は、マイクロチェンジ検出のより低い。
ステップS141では、同じサブバンドのベクトルV1(1)、V1(2)、…、V1(n)(Nは、オーディオブロックの数)の要素から構成された各配列は、フィルターされ、ノイズを除去する。例えば、3つの配列がそれぞれサブバンド[0Hz、125Hz]、[125Hz、250Hz]と[250Hz、500Hz]にある。各配列には、既定値より大きい振幅を有する構成要素だけが変更されず、その他は、ゼロにセットされる。
ステップS142では、自己相関が各フィルターされた配列に用いられる。各フィルターされた配列では、相関結果はテンポ値を用いて計算され、例えば、60から186M.M.で、最大相関結果を生み出すテンポ値は、推定されたテンポで、推定されたテンポの信頼度は、最大関数結果である。更に、相関結果の妥当性の識別に閾値を用いることができ、閾値より大きい相関結果だけが、妥当である。仮に、サブバンドの1つに妥当な関数結果がない場合、そのサブバンドの推定されたテンポと信頼度は、それぞれ60と0にセットされる。
ステップS143では、テンポ推定とビート検出のために、全サブバンドの推定されたテンポの信頼度を比較すると、最大信頼度を備えた推定のテンポは、最終的に推定されたテンポとして決定される。
ステップS144では、ビートの出だしは、最終的に推定されたテンポによって決定される。第一に、推定されたテンポが最終推定のテンポであるサブバンドの配列の最大ピークが識別される。第二に、最終推定のテンポの範囲内の最大ピークの近傍は、削除される。第三に、配列の次の最大ピークが識別される。第四に、他のピークが識別されなくなるまで第二と第三のステップを繰り返される。これらの識別されたピークがビートの出だしである。
ステップ15では、ミュージックサウンドトラックのマイクロチェンジは、サブバンドベクトルV2(1)、V2(2)、…、V2(n)を用いて検出される。マイクロチェンジ値MVは、各オーディオブロックのために計算される。マイクロチェンジ値は、現在のベクトルと前回のベクトル間の差の合計である。より具体的に言うと、n番目オーディオブロックのマイクロチェンジ値は、下記の方程式(5)によって求められる。
Figure 2005292207
なお、2つのベクトル間の差は、さまざまに定義することができる。例えば、それは、二つのベクトルの振幅の差であることができる。マイクロチェンジ値が得られた後、それらは既定の閾値と比較される。閾値より大きいマイクロチェンジ値を有するオーディオブロックは、マイクロチェンジとして識別される。
上述の実施例では、サブバンドのセットは、ユーザーの入力によって決めることができ、インタラクティブな音楽分析を達成することができる。
以上、本発明の好適な実施例を例示したが、これは本発明を限定するものではなく、本発明の精神及び範囲を逸脱しない限りにおいては、当業者であれば行い得る少々の変更や修飾を付加することは可能である。従って、本発明が保護を請求する範囲は、特許請求の範囲を基準とする。
本発明の実施例1に基づいたテンポ推定、ビートとマイクロチェンジ検出方法のフローチャートである。 本発明の実施例1に基づいたオーディオブロックを示している。
符号の説明
C1、C2 塊
B1、B2 ブロック

Claims (16)

  1. ミュージックサウンドトラックを得るステップ、
    前記ミュージックサウンドトラックのオーディオストリームを再サンプリングすることで、前記再サンプルされたオーディオストリームがブロックで構成されるステップ、
    前記各ブロックにフーリエ変換をさせるステップ、
    前記各変換されたブロックから第1ベクトルを求め、前記第1ベクトルの構成要素は、複数の第1サブバンド内の前記ブロックのエネルギーの合計であるステップ、
    複数のテンポ値を用いて、同じ前記第1サブバンドで前記全ブロックの前記第1ベクトルの前記要素で構成された各配列に自己相関をさせ、各配列には、最大相関結果が信頼度として識別され、前記最大相関結果を生み出すテンポ値は、推定されたテンポとして識別されるステップ、および
    前記全配列の信頼度を比較し、前記最大信頼度を最終推定のテンポとして対応して前記推定したテンポを識別するステップを含むことを特徴とする、音楽分析の方法。
  2. 前記各変換されたブロックから第2ベクトルを求め、前記第2ベクトルの構成要素は、複数の第1サブバンド内の前記ブロックのエネルギーの合計であるステップ、および
    前記第2ベクトルを用いてマイクロチェンジを検出するステップを更に含む、請求項1に記載の音楽分析の方法。
  3. 前記各ブロックには、前記ブロックの前記第2ベクトルと前回のベクトル間の差の合計であるマイクロチェンジ値が計算される、請求項2に記載の音楽分析の方法。
  4. 各マイクロチェンジ値は、下記の方程式(1)によって求められる、請求項3に記載の音楽分析の方法。
    Figure 2005292207
  5. 前記2つの第2ベクトル間の差は、その振幅の差である、請求項4に記載の音楽分析の方法。
  6. 前記マイクロチェンジ値は、既定の閾値と比較され、
    前記閾値より大きい前記マイクロチェンジ値を有する前記ブロックは、マイクロチェンジとして識別される、請求項5に記載の音楽分析の方法。
  7. 前記第2サブバンドは、[0Hz、1100Hz]、[1100Hz、2500Hz]、[2500Hz、5500Hz]と[5500Hzと11000Hz]である、請求項6に記載の音楽分析の方法。
  8. 前記第2サブバンドは、ユーザーの入力によって決められる、請求項6に記載の音楽分析の方法。
  9. 自己相関が用いられる前に配列をフィルターし、既定値より大きい振幅を有する構成要素だけが変更されず、その他は、ゼロにセットされるステップを更に含む、請求項1に記載の音楽分析の方法。
  10. 前記オーディオストリームは、前記オーディオストリームを複数の塊に分割し、2つの隣接する塊を1つのブロックに接合することで、前記ブロックは重複するサンプルを有するステップによって、再サンプルされる、請求項1に記載の音楽分析の方法。
  11. 1つの塊にある前記サンプルの数は、256である、請求項10に記載の音楽分析の方法。
  12. 前記i番目サブバンド内の前記n番目ブロックの前記エネルギー合計は、下記の方程式(2)より分割される、請求項1に記載の音楽分析の方法。
    Figure 2005292207
  13. 前記第1サブバンドは、[0Hz、125Hz]、[125Hz、250Hz]と[250Hz、500Hz]である、請求項1に記載の音楽分析の方法。
  14. 前記第1サブバンドは、ユーザーの入力によって決められる、請求項6に記載の音楽分析の方法。
  15. 前記最終推定のテンポを用いて前記ミュージックサウンドトラックのビートの出だしを決定するステップを更に含む、請求項15に記載の音楽分析の方法。
  16. 前記ビートの出だしは、
    a)推定されたテンポが前記最終推定のテンポである前記サブバンドの前記配列の最大ピークを識別するステップ、
    b)前記最終推定のテンポの範囲内の最大ピークの近傍を削除するステップ、
    c)前記配列の次の最大ピークを識別するステップ、および
    d)他のピークが識別されなくなるまでb)とc)のステップを繰り返すステップによって決定され、
    前記全識別されたピークが前記ビートの出だしである、請求項15に記載の音楽分析の方法。
JP2004103172A 2004-03-31 2004-03-31 音楽分析の方法 Pending JP2005292207A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004103172A JP2005292207A (ja) 2004-03-31 2004-03-31 音楽分析の方法
US10/823,536 US7276656B2 (en) 2004-03-31 2004-04-14 Method for music analysis
TW093121470A TWI253058B (en) 2004-03-31 2004-07-19 Method for music analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004103172A JP2005292207A (ja) 2004-03-31 2004-03-31 音楽分析の方法

Publications (1)

Publication Number Publication Date
JP2005292207A true JP2005292207A (ja) 2005-10-20

Family

ID=35052805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004103172A Pending JP2005292207A (ja) 2004-03-31 2004-03-31 音楽分析の方法

Country Status (3)

Country Link
US (1) US7276656B2 (ja)
JP (1) JP2005292207A (ja)
TW (1) TWI253058B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026512A (ja) * 2008-07-16 2010-02-04 Honda Motor Co Ltd ビートトラッキング装置、ビートトラッキング方法、記録媒体、ビートトラッキング用プログラム、及びロボット

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7563971B2 (en) * 2004-06-02 2009-07-21 Stmicroelectronics Asia Pacific Pte. Ltd. Energy-based audio pattern recognition with weighting of energy matches
US7626110B2 (en) * 2004-06-02 2009-12-01 Stmicroelectronics Asia Pacific Pte. Ltd. Energy-based audio pattern recognition
US8184712B2 (en) 2006-04-30 2012-05-22 Hewlett-Packard Development Company, L.P. Robust and efficient compression/decompression providing for adjustable division of computational complexity between encoding/compression and decoding/decompression
JP4672613B2 (ja) * 2006-08-09 2011-04-20 株式会社河合楽器製作所 テンポ検出装置及びテンポ検出用コンピュータプログラム
US7645929B2 (en) * 2006-09-11 2010-01-12 Hewlett-Packard Development Company, L.P. Computational music-tempo estimation
US8433009B2 (en) 2007-05-14 2013-04-30 Agency For Science, Technology And Research Method for determining as to whether a received signal includes a data signal
DE102008013172B4 (de) * 2008-03-07 2010-07-08 Neubäcker, Peter Verfahren zur klangobjektorientierten Analyse und zur notenobjektorientierten Bearbeitung polyphoner Klangaufnahmen
JP2013205830A (ja) * 2012-03-29 2013-10-07 Sony Corp トーン成分検出方法、トーン成分検出装置およびプログラム
US8943020B2 (en) * 2012-03-30 2015-01-27 Intel Corporation Techniques for intelligent media show across multiple devices
EP2868112A4 (en) 2012-06-29 2016-06-29 Nokia Technologies Oy Video remixing system
GB2518663A (en) * 2013-09-27 2015-04-01 Nokia Corp Audio analysis apparatus
CN107103917B (zh) * 2017-03-17 2020-05-05 福建星网视易信息系统有限公司 音乐节奏检测方法及其系统
WO2022227037A1 (zh) * 2021-04-30 2022-11-03 深圳市大疆创新科技有限公司 音频处理、视频处理方法、装置、设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5614687A (en) * 1995-02-20 1997-03-25 Pioneer Electronic Corporation Apparatus for detecting the number of beats
US6316712B1 (en) * 1999-01-25 2001-11-13 Creative Technology Ltd. Method and apparatus for tempo and downbeat detection and alteration of rhythm in a musical segment
US7532943B2 (en) * 2001-08-21 2009-05-12 Microsoft Corporation System and methods for providing automatic classification of media entities according to sonic properties
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
DE10223735B4 (de) * 2002-05-28 2005-05-25 Red Chip Company Ltd. Verfahren und Vorrichtung zum Ermitteln von Rhythmuseinheiten in einem Musikstück
US7026536B2 (en) * 2004-03-25 2006-04-11 Microsoft Corporation Beat analysis of musical signals
US7500176B2 (en) * 2004-04-01 2009-03-03 Pinnacle Systems, Inc. Method and apparatus for automatically creating a movie

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010026512A (ja) * 2008-07-16 2010-02-04 Honda Motor Co Ltd ビートトラッキング装置、ビートトラッキング方法、記録媒体、ビートトラッキング用プログラム、及びロボット
JP2010026513A (ja) * 2008-07-16 2010-02-04 Honda Motor Co Ltd ロボット
US8594846B2 (en) 2008-07-16 2013-11-26 Honda Motor Co., Ltd. Beat tracking apparatus, beat tracking method, recording medium, beat tracking program, and robot

Also Published As

Publication number Publication date
US20050217461A1 (en) 2005-10-06
US7276656B2 (en) 2007-10-02
TWI253058B (en) 2006-04-11
TW200532645A (en) 2005-10-01

Similar Documents

Publication Publication Date Title
Foote et al. The beat spectrum: A new approach to rhythm analysis
EP2633524B1 (en) Method, apparatus and machine-readable storage medium for decomposing a multichannel audio signal
Grosche et al. Extracting predominant local pulse information from music recordings
Friberg et al. Using listener-based perceptual features as intermediate representations in music information retrieval
JP2019507912A (ja) 歌曲メロディ情報処理方法、サーバ、および記憶媒体
JP2004528599A (ja) オーディトリーイベントに基づく特徴付けを使ったオーディオの比較
JP3789326B2 (ja) テンポ抽出装置、テンポ抽出方法、テンポ抽出プログラム及び記録媒体
JP2005292207A (ja) 音楽分析の方法
Mauch et al. Timbre and Melody Features for the Recognition of Vocal Activity and Instrumental Solos in Polyphonic Music.
Hargreaves et al. Structural segmentation of multitrack audio
US8983082B2 (en) Detecting musical structures
CN104885153A (zh) 音频校正设备及其音频校正方法
EP2962299A1 (en) Audio signal analysis
Holzapfel et al. Beat tracking using group delay based onset detection
US8193436B2 (en) Segmenting a humming signal into musical notes
Zhang et al. Main melody extraction from polyphonic music based on modified Euclidean algorithm
Monti et al. Monophonic transcription with autocorrelation
Goto A predominant-f0 estimation method for real-world musical audio signals: MAP estimation for incorporating prior knowledge about f0s and tone models
JP6263383B2 (ja) 音声信号処理装置、音声信号処理装置の制御方法、プログラム
Woodruff et al. Resolving overlapping harmonics for monaural musical sound separation using pitch and common amplitude modulation
Coyle et al. Onset detection using comb filters
Theimer et al. Definitions of audio features for music content description
Benetos et al. Auditory spectrum-based pitched instrument onset detection
JP2015125238A (ja) 音声信号処理装置、音声信号処理装置の制御方法、プログラム
CN114093388A (zh) 音符切割方法、切割系统及视唱评价方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070320

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070717

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090113