JP5732994B2 - 楽曲検索装置および方法、プログラム、並びに記録媒体 - Google Patents

楽曲検索装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP5732994B2
JP5732994B2 JP2011092987A JP2011092987A JP5732994B2 JP 5732994 B2 JP5732994 B2 JP 5732994B2 JP 2011092987 A JP2011092987 A JP 2011092987A JP 2011092987 A JP2011092987 A JP 2011092987A JP 5732994 B2 JP5732994 B2 JP 5732994B2
Authority
JP
Japan
Prior art keywords
input signal
index
music
signal
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011092987A
Other languages
English (en)
Other versions
JP2012226080A5 (ja
JP2012226080A (ja
Inventor
澁谷 崇
崇 澁谷
安部 素嗣
素嗣 安部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011092987A priority Critical patent/JP5732994B2/ja
Priority to EP12161895.3A priority patent/EP2515295B1/en
Priority to US13/445,027 priority patent/US8754315B2/en
Priority to CN201210107281.1A priority patent/CN102750948B/zh
Publication of JP2012226080A publication Critical patent/JP2012226080A/ja
Publication of JP2012226080A5 publication Critical patent/JP2012226080A5/ja
Application granted granted Critical
Publication of JP5732994B2 publication Critical patent/JP5732994B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本技術は、楽曲検索装置および方法、プログラム、並びに記録媒体に関し、特に、入力信号から楽曲を同定することができるようにする楽曲検索装置および方法、プログラム、並びに記録媒体に関する。
従来、入力信号として入力される楽曲を同定するために、入力信号の特徴量と、同定される楽曲の候補となる参照信号の特徴量とのマッチング処理が行われている。しかしながら、例えば、ドラマ等のテレビジョン番組の放送音源を入力信号とした場合、入力信号には、BGM(Back Ground Music)としての楽曲の信号成分と、人の会話や騒音(環境雑音)、ホワイトノイズやピンクノイズ、効果音等、楽曲以外の信号成分である雑音成分(以下、単に雑音ともいう)とが混在していることが多く、この雑音による入力信号の特徴量の変化が、マッチング処理の結果に影響を及ぼしてしまう。
そこで、入力信号の特徴量において、信頼度の低い成分をマスクするマスクパターンを用いて、信頼度の高い成分のみを用いてマッチング処理を行う技術が提案されている。
具体的には、時間周波数領域の信号に変換された入力信号の特徴量を表現する特徴行列に対して、所定の時間周波数領域に対応する行列成分をマスクする複数種類のマスクパターンを予め用意し、入力信号の特徴量とデータベース内の複数の参照信号の特徴量とのマッチング処理を全てのマスクパターンを用いて行い、最も高い類似度が算出された参照信号の楽曲を、入力信号の楽曲として同定するようにしたものがある(例えば、特許文献1参照)。
特開2009−276776号公報
しかしながら、入力信号において、どの時間にどの周波数の雑音が重畳されているかは予測できず、そのような入力信号に適したマスクパターンを予め用意することは困難であるので、特許文献1の技術では、適切なマッチング処理を行うことができず、楽曲と雑音とが混在する入力信号から、その楽曲を精度良く同定することはできない。
一方で、入力信号において平均パワーが大きい時間区間における成分を、楽曲以外の雑音が重畳されている成分と仮定し、入力信号において平均パワーが小さい時間区間の特徴量のみを用いてマッチングを行うようにするマスクパターンを作成する技術がある。この手法によれば、入力信号に応じたマスクパターンを作成することはできるが、そのマスクパターンは、周波数成分が考慮されておらず、入力信号に適したマスクパターンとは言えない。さらに、図1の左側に示されるように、時間周波数領域の入力信号において、楽曲の信号成分Dmに人の会話による雑音Dvが含まれている場合、この技術では、人の会話が途切れている領域S1およびS2におけるわずかな時間区間の特徴量のみを用いてしかマッチング処理を行うことができないので、楽曲と雑音とが混在する入力信号から、その楽曲を精度良く同定することは困難である。楽曲と雑音とが混在する入力信号から、その楽曲を精度良く同定するには、図1の右側に示されるように、領域S3およびS4における楽曲の信号成分Dmの特徴量を用いてマッチング処理を行うことが望ましい。
本技術は、このような状況に鑑みてなされたものであり、入力信号から楽曲を精度良く同定することができるようにするものである。
本技術の一側面の楽曲検索装置は、入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する楽曲検索装置であって、時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出部と、前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出部と、前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定部とを備え、前記指標算出部は、所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出部と、前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理部とを備え、前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
前記指標算出部には、前記テンプレート関数の曲率に応じて前記指標を調整させることができる。
前記指標算出部には、前記テンプレート関数が極大となる点の周波数に応じて前記指標を調整させることができる。
前記楽曲検索装置には、前記入力信号の各領域における第1の特徴量と、前記参照信号の各領域における前記第1の特徴量とに基づいて、前記入力信号および前記参照信号の各領域に対する重み分布を生成するとともに、前記入力信号の各領域における第1の特徴量と、前記参照信号の各領域における前記第1の特徴量との第1の特徴量同士の類似度を算出する重み分布生成手段をさらに設け、前記類似度算出部には、前記重み分布による重み付けおよび前記第1の特徴量同士の類似度に基づいて、前記入力信号の各領域における第2の特徴量と、前記参照信号の各領域における前記第2の特徴量の類似度を算出させることができる。
前記楽曲検索装置には、前記指標を時間方向にフィルタリングすることにより得られる前記指標の時間平均量を、前記第1の特徴量として算出する第1の特徴量算出部と、前記指標を時間方向にフィルタリングすることにより得られる前記指標の時間変化量を、前記第2の特徴量として算出する第2の特徴量算出部とをさらに設けることができる。
本技術の一側面の楽曲検索方法は、入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する楽曲検索方法であって、時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出ステップと、前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出ステップと、前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定ステップとを含み、前記指標算出ステップは、所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出ステップと、前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理ステップとを含み、前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
本技術の一側面のプログラムおよび一側面の記録媒体に記録されるプログラムは、入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する信号処理をコンピュータに実行させるプログラムであって、時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出ステップと、前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出ステップと、前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定ステップとを含む処理をコンピュータに実行させ、前記指標算出ステップは、所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出ステップと、前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理ステップとを含み、前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
本技術の一側面においては、時間周波数領域に変換された入力信号の各領域の信号成分の強さと、信号成分の強さを近似した関数とに基づいて、信号成分のトーンらしさの指標が算出され、指標に基づいて求められる入力信号の各領域における特徴量と、時間周波数領域に変換された参照信号について算出された指標に基づいて求められる参照信号の各領域における特徴量の類似度が算出され、類似度に基づいて、入力信号の楽曲が同定される。特に、所定の時間区間の入力信号から、信号成分の強さが極大となる点が検出され、極大となる点近傍の信号成分の強さがテンプレート関数で近似され、極大となる点近傍の信号成分の強さとテンプレート関数との誤差に基づいて、指標が算出される。
本技術の一側面によれば、入力信号から楽曲を精度良く同定することが可能となる。
マッチング処理に用いられる入力信号の特徴量について説明する図である。 本技術を適用した楽曲検索装置の一実施の形態の構成を示すブロック図である。 指標算出部の機能構成例を示すブロック図である。 第1の特徴量算出部の機能構成例を示すブロック図である。 第2の特徴量算出部の機能構成例を示すブロック図である。 楽曲同定処理について説明するフローチャートである。 入力信号解析処理について説明するフローチャートである。 指標算出処理について説明するフローチャートである。 ピークの検出について説明する図である。 ピーク周辺のパワースペクトルの近似について説明する図である。 指標の調整関数について説明する図である。 入力信号のトーンらしさの指標の例について説明する図である。 第1の特徴量算出処理について説明するフローチャートである。 第1の特徴量の例について説明する図である。 第2の特徴量算出処理について説明するフローチャートである。 第2の特徴量の例について説明する図である。 参照信号解析処理について説明するフローチャートである。 マッチング処理について説明するフローチャートである。 マスクパターンの生成の例について説明する図である。 入力信号の第2の特徴量と参照信号の第2の特徴量とのマッチング処理について説明する図である。 時系列に並べられた類似度の例を示す図である。 類似度の時間的連続性について説明する図である。 コンピュータのハードウェアの構成例を示すブロック図である。
以下、本技術の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.楽曲検索装置の構成
2.楽曲同定処理
<1.楽曲検索装置の構成>
図2は、本技術を適用した楽曲検索装置の一実施の形態の構成を示している。
図2の楽曲検索装置11は、楽曲の信号成分と、人の会話や騒音等の雑音成分(雑音)とが混在した入力信号と、雑音が混在しない楽曲の信号成分からなる参照信号とを比較することで、入力信号の楽曲を同定し、その同定結果を出力する。
楽曲検索装置11は、入力信号解析部31、参照信号解析部32、およびマッチング処理部33から構成される。
入力信号解析部31は、外部の装置等から入力される入力信号を解析し、入力信号の特徴を表す特徴量を入力信号から抽出し、マッチング処理部33に供給する。
入力信号解析部31は、切り出し部51、時間周波数変換部52、指標算出部53、第1の特徴量算出部54、および第2の特徴量算出部55を備えている。
切り出し部51は、入力信号から所定時間分の信号を切り出し、時間周波数変換部52に供給する。
時間周波数変換部52は、切り出し部51からの所定時間分の入力信号を、時間周波数領域の信号(スペクトログラム)に変換し、指標算出部53に供給する。
指標算出部53は、時間周波数変換部52からの入力信号のスペクトログラムから、そのスペクトログラムの時間周波数領域毎に、楽曲の信号成分であることを表すトーンらしさの指標を算出し、第1の特徴量算出部54および第2の特徴量算出部55に供給する。
ここで、トーンらしさの指標とは、入力信号における周波数毎の信号成分の強さ(パワースペクトル)で表されるトーンの時間に対する安定性を示すものとする。一般的に、楽曲においては、ある特定の音程(周波数)を持つ音がある一定時間鳴り続けるため、時間方向に対してトーンは安定する。一方、人の会話においては、時間方向に対してトーンはゆらぐ性質を持ち、また、環境雑音においては、時間方向に連続するトーンがあまり見られない。そこで、指標算出部53は、所定の時間区間分の入力信号について、トーンの有無および安定性を数値化することで、トーンらしさの指標を求める。
第1の特徴量算出部54は、指標算出部53からの、スペクトログラムの時間周波数領域毎のトーンらしさの指標に基づいて、入力信号の楽曲らしさを表す特徴量である第1の特徴量を算出し、マッチング処理部33に供給する。
第2の特徴量算出部55は、指標算出部53からの、スペクトログラムの時間周波数領域毎のトーンらしさの指標に基づいて、入力信号の楽曲の個性を表す特徴量である第2の特徴量を算出し、マッチング処理部33に供給する。
参照信号解析部32は、図示せぬ記憶部に蓄積されているか、または、外部の装置等から入力されてくる参照信号を解析し、その参照信号の特徴を表す特徴量を参照信号から抽出し、マッチング処理部33に供給する。
参照信号解析部32は、時間周波数変換部61、指標算出部62、第1の特徴量算出部63、および第2の特徴量算出部64を備えている。
時間周波数変換部61は、参照信号をスペクトログラムに変換し、指標算出部62に供給する。
指標算出部62は、時間周波数変換部61からの参照信号のスペクトログラムから、そのスペクトログラムの時間周波数領域毎に、楽曲の信号成分であることを表すトーンらしさの指標を算出し、第1の特徴量算出部63および第2の特徴量算出部64に供給する。
第1の特徴量算出部63は、指標算出部62からの、スペクトログラムの時間周波数領域毎のトーンらしさの指標に基づいて、参照信号の楽曲らしさを表す第1の特徴量を算出し、マッチング処理部33に供給する。
第2の特徴量算出部64は、指標算出部62からの、スペクトログラムの時間周波数領域毎のトーンらしさの指標に基づいて、参照信号の楽曲の個性を表す第2の特徴量を算出し、マッチング処理部33に供給する。
マッチング処理部33は、入力信号解析部31からの入力信号の第1の特徴量と、参照信号解析部32からの参照信号の第1の特徴量とに基づいて、入力信号解析部31からの入力信号の第2の特徴量と、参照信号解析部32からの参照信号の第2の特徴量とのマッチング処理を行うことで、入力信号に含まれる楽曲を同定する。
マッチング処理部33は、マスクパターン生成部71、類似度算出部72、および比較判定部73を備えている。
マスクパターン生成部71は、入力信号解析部31からの入力信号の時間周波数領域毎の第1の特徴量と、参照信号解析部32からの参照信号の時間周波数領域毎の第1の特徴量とに基づいて、入力信号の第2の特徴量と参照信号の第2の特徴量とのマッチング処理に用いられるマスクパターンを生成し、類似度算出部72に供給する。また、マスクパターン生成部71は、入力信号解析部31からの入力信号の時間周波数領域毎の第1の特徴量と、参照信号解析部32からの参照信号の時間周波数領域毎の第1の特徴量との類似度である第1の特徴量同士の類似度を算出し、類似度算出部72に供給する。
類似度算出部72は、マスクパターン生成部71からのマスクパターンおよび第1の特徴量同士の類似度を用いて、入力信号解析部31からの入力信号の第2の特徴量と、参照信号解析部32からの第2の参照信号の特徴量との類似度を算出し、比較判定部73に供給する。
比較判定部73は、類似度算出部72からの類似度に基づいて、入力信号に含まれる楽曲が参照信号の楽曲であるか否かを判定し、その参照信号の楽曲の属性を表す楽曲属性情報を、同定結果として出力する。
[指標算出部の構成]
次に、図3を参照して、図2の指標算出部53の詳細な構成について説明する。
図3の指標算出部53は、時間区間選択部81、ピーク検出部82、近似処理部83、トーン度算出部84、および出力部85を備えている。
時間区間選択部81は、時間周波数変換部52からの入力信号のスペクトログラムにおいて、所定の時間区間のスペクトログラムを選択し、ピーク検出部82に供給する。
ピーク検出部82は、時間区間選択部81によって選択された所定の時間区間(時間フレーム)のスペクトログラムにおいて、単位周波数毎に、信号成分の強さが極大となる点であるピークを検出する。
近似処理部83は、所定の時間区間のスペクトログラムにおいて、ピーク検出部82によって検出されたピーク周辺の信号成分の強さ(パワースペクトル)を、所定の関数で近似する。
トーン度算出部84は、近似処理部83により近似された所定の関数と、ピーク検出部82によって検出されたピーク周辺のパワースペクトルとの距離(誤差)に基づいて、所定の時間区間分のスペクトログラムについての、トーンらしさの指標を数値化したトーン度を算出する。
出力部85は、トーン度算出部84によって算出された、所定の時間区間分のスペクトログラムについてのトーン度を保持する。また、出力部85は、保持している全時間区間分のスペクトログラムについてのトーン度を、切り出し部51により切り出された所定時間分の入力信号のトーンらしさの指標として、第1の特徴量算出部54および第2の特徴量算出部55に供給する。
このようにして、時間周波数領域における所定の時間区間毎、単位周波数毎にトーン度(要素)を持つトーンらしさの指標が算出される。
[第1の特徴量算出部の構成]
次に、図4を参照して、図2の第1の特徴量算出部54の詳細な構成について説明する。
図4の第1の特徴量算出部54は、フィルタ処理部91、リサンプリング処理部92、および2値化処理部93を備えている。
フィルタ処理部91は、指標算出部53からの、入力信号の時間周波数領域における所定の時間区分毎、単位周波数毎にトーン度(要素)を持つトーンらしさの指標に対して、時間方向にフィルタリングすることで、トーンらしさの指標の時間平均量を算出し、入力信号の楽曲らしさを表す第1の特徴量として、リサンプリング処理部92に供給する。
リサンプリング処理部92は、フィルタ処理部91からの第1の特徴量を、時間方向にリサンプリング(ダウンサンプリング)し、2値化処理部93に供給する。
2値化処理部93は、リサンプリング処理部92からのダウンサンプリングされた第1の特徴量に対して2値化処理を施し、マッチング処理部33に供給する。
[第2の特徴量算出部の構成]
次に、図5を参照して、図2の第2の特徴量算出部55の詳細な構成について説明する。
図5の第2の特徴量算出部55は、フィルタ処理部101、リサンプリング処理部102、および3値化処理部103を備えている。
フィルタ処理部101は、指標算出部53からの、入力信号の時間周波数領域における所定の時間区分毎、単位周波数毎にトーン度(要素)を持つトーンらしさの指標に対して、時間方向にフィルタリングすることで、トーンらしさの指標の時間変化量を算出し、入力信号の楽曲の個性を表す第2の特徴量として、リサンプリング処理部102に供給する。
リサンプリング処理部102は、フィルタ処理部101からの第2の特徴量を、時間方向にリサンプリング(ダウンサンプリング)し、3値化処理部103に供給する。
3値化処理部103は、リサンプリング処理部102からのダウンサンプリングされた第2の特徴量に対して3値化処理を施し、マッチング処理部33に供給する。
なお、図2の参照信号解析部32の指標算出部62、第1の特徴量算出部63、および第2の特徴量算出部64は、それぞれ、上述で説明した入力信号解析部31の指標算出部53、第1の特徴量算出部54、および第2の特徴量算出部55と同様の機能および構成を有するので、その詳細な説明は省略する。
<2.楽曲同定処理>
次に、図6のフローチャートを参照して、楽曲検索装置11の楽曲同定処理について説明する。楽曲同定処理は、外部の装置等から、同定されるべき楽曲が含まれる入力信号が楽曲検索装置11に入力されると開始される。なお、楽曲検索装置11には、入力信号が、時間的に連続して入力される。
ステップS11において、入力信号解析部31は、入力信号解析処理を実行し、外部の装置等から入力された入力信号を解析し、入力信号の特徴量を入力信号から抽出する。
[入力信号解析処理の詳細]
ここで、図7のフローチャートを参照して、図6のフローチャートのステップS11における入力信号解析処理の詳細について説明する。
ステップS31において、入力信号解析部31の切り出し部51は、入力信号から所定時間(例えば、15秒間)分の信号を切り出し、時間周波数変換部52に供給する。
ステップS32において、時間周波数変換部52は、例えばハン窓等の窓関数や、例えば離散フーリエ変換等を用いて、切り出し部51からの所定時間分の入力信号をスペクトログラムに変換し、指標算出部53に供給する。なお、ここでは、窓関数として、ハン窓に限らず、サイン窓やハミング窓が用いられてもよく、また、離散フーリエ変換に限らず、離散コサイン変換が用いられてもよい。さらに、変換されたスペクトログラムは、パワースペクトルや振幅スペクトル、対数振幅スペクトルのいずれであってもよい。また、周波数分解能を高めるために、零詰めによるオーバーサンプリングにより周波数変換長を窓の長さより長く(例えば2倍や4倍等に)してもよい。
ステップS33において、指標算出部53は、指標算出処理を実行することで、時間周波数変換部52からの入力信号のスペクトログラムから、そのスペクトログラムの時間周波数領域毎に入力信号のトーンらしさの指標を算出する。
[指標算出処理の詳細]
ここで、図8のフローチャートを参照して、図7のフローチャートのステップS33における指標算出処理の詳細について説明する。
ステップS51において、指標算出部53の時間区間選択部81は、時間周波数変換部52からの入力信号のスペクトログラムにおいて、所定の時間区間(例えば、15秒間の入力信号のうちの最初の1秒間)のスペクトログラムを選択し、ピーク検出部82に供給する。
ステップS52において、ピーク検出部82は、時間区間選択部81によって選択された1秒間分のスペクトログラムにおいて、時間フレーム(時間bin)毎に、各周波数帯についての信号成分のパワースペクトル(強さ)が、その周波数帯の近傍で極大となる時間周波数領域上の点であるピークを検出する。
例えば、図9の上段に示される、時間周波数領域に変換された入力信号のスペクトログラムにおいて、ある時間フレームで、ある周波数帯近傍の時間周波数領域Γでは、図9の下段に示されるようなピークpが検出されるようになる。
ステップS53において、近似処理部83は、時間区間選択部81によって選択された1秒間分のスペクトログラムについて、ピーク検出部82によって検出された時間フレーム毎の各周波数帯のピーク周辺のパワースペクトルを、予め定義された定型的な関数であるテンプレート関数で近似する。以下においては、テンプレート関数は2次関数であるものとするが、これに限らず、3次以上の高次関数や三角関数等、その他の関数であってもよい。
上述したように、図9の下段においてはピークpが検出されるものとしたが、ピークとなるパワースペクトルは、時間方向に対して安定するトーン(以下、持続性トーンともいう)に限らず、ノイズ、サイドローブ、干渉、時間変動トーン等の信号成分についても発生するため、そのピークに基づいてトーンらしさの指標が適切に算出されるとは限らない。また、離散フーリエ変換のピークは離散的であるので、そのピーク周波数は、真のピーク周波数であるとは限らない。
文献「J. O. Smith III and X. Serra:“PARSHL: A program for analysis/synthesis of inharmonic sounds based on a sinusoidal representation”in Proc. ICMC’87」によれば、楽曲であるか人の声であるかにかかわらず、ある時間フレームでのピーク周辺の対数パワースペクトルの値は、2次関数で近似することが可能であるとされている。
そこで、本技術においては、時間フレーム毎の各周波数帯のピーク周辺のパワースペクトルを2次関数で近似する。
さらに、本技術においては、以下の仮定の下、そのピークが持続性トーンによるものであるか否かを決定する。
a)持続性トーンは、その2次関数を時間方向に伸ばした関数により近似される。
b)周波数の時間変化については、楽曲によるピークは時間方向に持続するので、零次近似される(変化しないものとする)。
c)振幅の時間変化については、ある程度の許容を必要とし、例えば2次関数等で近似される。
したがって、持続性トーンは、図10で示されるような、ある時間フレームにおける2次関数を時間方向に伸ばしたトンネル型の関数(双2次関数)でモデル化され、時間tおよび周波数ωに対して、以下の式(1)で表すことができる。なお、ωは、ピーク周波数を表している。
Figure 0005732994
・・・(1)
よって、ある着目しているピーク周辺において、上述した仮定a)乃至c)に基づいた双2次関数を、例えば最小二乗近似で当てはめたときの誤差を、トーン(持続性トーン)らしさの指標とすることができる。すなわち、以下の式(2)を誤差関数とすることができる。
Figure 0005732994
・・・(2)
式(2)において、f(k,n)は、第nフレーム、第kビンのDFTスペクトルを示しており、g(k,n)は、上述で示された、持続性トーンのモデルを示す式(1)と同義の式であり、以下の式(3)で示される。
Figure 0005732994
・・・(3)
なお、式(2)におけるΓは、対象となるピーク周辺の時間周波数領域を示している。時間周波数領域Γにおいて、周波数方向のサイズは、時間周波数変換に用いた窓関数に応じて、かつ、周波数変換長により決定されるメインローブのサンプルポイント数を超えないように決定される。また、時間方向のサイズは、持続性トーンを定義するのに必要な時間長に応じて決定される。
図8のフローチャートに戻り、ステップS54において、トーン度算出部84は、近似処理部83により近似された2次関数と、ピーク検出部82によって検出されたピーク周辺のパワースペクトルとの誤差、すなわち、上述した式(2)の誤差関数に基づいて、時間区間選択部81によって選択された1秒間分のスペクトログラムについての、トーンらしさの指標であるトーン度を算出する。
ここで、上述した式(2)の誤差関数を、平面モデルへ当てはめたときの誤差関数を以下の式(4)で表すこととすると、トーン度ηは、以下の式(5)のように示される。
Figure 0005732994
・・・(4)
Figure 0005732994
・・・(5)
式(5)において、aハット(aに^を付した文字をaハットと記述する。以下、本明細書において、同様に記載する。)、bハット、cハット、dハット、eハットは、それぞれ、J(a,b,c,d,e)を最小とするa,b,c,d,eであり、e’ハットは、J(e’)を最小とするe’である。
このようにして、トーン度ηが求められる。
ところで、式(5)において、aハットは、持続性トーンを表すモデルの曲線(2次関数)のピーク曲率を示している。
ピーク曲率は、入力信号の信号成分が正弦波であれば、理論的には、時間周波数変換に用いた窓関数の種類とサイズによって決まる定数である。したがって、実際に得られたピーク曲率aハットの値が理論値からずれるほど、その信号成分が持続性トーンである可能性は低くなると考えられる。また、そのピークがサイドローブ性のものであったとしても、得られるピーク曲率は変わってくるため、ピーク曲率aハットのずれはトーンらしさの指標に影響すると言える。すなわち、ピーク曲率aハットの理論値からのずれの値に応じて、トーン度ηを調整することにより、より適正なトーンらしさの指標を得ることができるようになる。ピーク曲率aハットの理論値からのずれの値に応じて調整されたトーン度η’は、以下の式(6)のように示される。
Figure 0005732994
・・・(6)
式(6)において、値aidealは、時間周波数変換に用いた窓関数の種類とサイズによって決まるピーク曲率の理論値である。また、関数D(x)は、図11に示されるような値をとる調整関数であり、関数D(x)によれば、ピーク曲率の値が理論値から離れるほど、トーン度は小さくなる。すなわち、式(6)によれば、ピークでない要素については、トーン度η’は0となる。なお、関数D(x)は、図11に示される形状の関数に限らず、ピーク曲率の値が理論値から離れるほど、トーン度が小さくなるような関数であればよい。
このように、曲線(2次関数)のピーク曲率に応じてトーン度を調整することで、より適切なトーン度が得られるようになる。
ところで、式(5)におけるaハットおよびbハットによって与えられる値−(bハット)/2(aハット)は、離散ピーク周波数から真のピーク周波数へのオフセットを示している。
真のピーク周波数は、理論上、離散ピーク周波数から±0.5ビンの位置にある。離散ピーク周波数から真のピーク周波数へのオフセット値−(bハット)/2(aハット)が、着目しているピークの位置と極端に異なる場合、上述で示された式(2)の誤差関数を計算する際のマッチングが正しくない可能性が高い。すなわち、このことは、トーンらしさの指標の信頼性に影響すると考えられるので、オフセット値−(bハット)/2(aハット)の、着目しているピークの位置(ピーク周波数)kからのずれの値に応じて、トーン度ηを調整することにより、より適切なトーンらしさの指標を得るようにしてもよい。具体的には、図11に示される関数D(x)に−(bハット)/2(aハット)−kを代入した項を、式(6)の左辺と乗算した値をトーン度ηとするようにしてもよい。
また、トーン度ηは、上述した手法以外の手法により算出されるようにもできる。
具体的には、まず、上述した式(2)の誤差関数において、持続性トーンを表すモデルg(k,n)を、ピーク周辺のパワースペクトルの時間平均形状を近似した2次関数ak2+bk+cで置き換えた、以下の式(7)の誤差関数を与える。
Figure 0005732994
・・・(7)
次に、上述した式(2)の誤差関数において、持続性トーンを表すモデルg(k,n)を、着目しているピークのある第mフレームのパワースペクトルを近似した2次関数a’k2+b’k+c’で置き換えた、以下の式(8)の誤差関数を与える。なお、mは、着目しているピークのあるフレーム番号を示している。
Figure 0005732994
・・・(8)
ここで、式(7)において、J(a,b,c)を最小とするa,b,cを、それぞれaハット、bハット、cハットとし、式(8)において、J(a’,b’,c’)を最小とするa’,b’,c’を、それぞれa’ハット、b’ハット、c’ハットとしたとき、トーン度ηは以下の式(9)で与えられる。
Figure 0005732994
・・・(9)
式(9)において、関数D1(x),D2(x)は、それぞれ、上述で説明した図11に示されるような値をとる関数とされる。なお、式(9)によれば、ピークでない要素については、トーン度η’は0となり、また、aハットが0またはa’ハットが0の場合にも、トーン度η’は0となる。
なお、以上のように算出されたトーン度ηに対して、シグモイド関数等による非線形変換を施すようにしてもよい。
さて、図8のフローチャートに戻り、ステップS55において、出力部85は、トーン度算出部84によって算出された、1秒間分のスペクトログラムについてのトーン度を保持し、全ての時間区間(例えば、15秒間)について、上述した処理を行ったか否かを判定する。
ステップS55において、全ての時間区間について上述した処理が行われていないと判定された場合、処理はステップS51に戻り、次の時間区間(1秒間)のスペクトログラムに対して、ステップS51乃至S55の処理が繰り返される。なお、ステップS51乃至S55の処理は、上述したように、1秒間の時間区間ずつのスペクトログラムに対して行われるようにしてもよいし、処理対象となるスペクトログラムの時間区間を、例えば0.5秒ずつずらして、処理対象の時間区間の一部を、前の処理対象の時間区間とオーバーラップさせながら行われるようにしてもよい。
一方、ステップS55において、全ての時間区間について上述した処理が行われたと判定された場合、処理はステップS56に進む。
ステップS56において、出力部85は、保持している時間区間(1秒間)毎のトーン度を時系列に配列することで得られる行列を、第1の特徴量算出部54および第2の特徴量算出部55に供給(出力)し、処理はステップS33に戻る。
図12は、指標算出部53によって算出されるトーンらしさの指標の例について説明する図である。
図12に示されるように、入力信号のスペクトログラムから算出された入力信号のトーンらしさの指標Sは、時間方向および周波数方向に、トーン度を要素(以下、成分ともいう)として有している。トーンらしさの指標Sにおける四角形(マス目)のそれぞれは、各時間、各周波数毎の成分を表しており、図示されないが、それぞれトーン度としての値を有する。また、図12に示されるように、トーンらしさの指標Sの時間粒度は1秒とされる。
このように、入力信号のスペクトログラムから算出される入力信号のトーンらしさの指標は、各時間、各周波数毎に成分を有しているので、行列として扱うことができる。以下、行列としてのトーンらしさの指標を、適宜、指標行列と言う。
なお、極低周波帯域については、例えばハムノイズ等の楽曲以外の信号成分によるピークが含まれる可能性が高いので、トーン度を算出しないようにしてもよい。また、例えば8kHzより上の高周波帯域についても、楽曲を構成する重要な要素でない可能性があるので、トーン度を算出しないようにしてもよい。さらに、離散ピーク周波数におけるパワースペクトルの値が、例えば−80dB等の所定の値よりも小さい場合にも、トーン度を算出しないようにしてもよい。
図7のフローチャートに戻り、ステップS33の後、ステップS34において、第1の特徴量算出部54は、指標算出部53からのトーンらしさの指標に基づいて、第1の特徴量算出処理を実行し、入力信号の楽曲らしさを表す第1の特徴量を算出する。
[第1の特徴量算出処理の詳細]
ここで、図13のフローチャートを参照して、図7のフローチャートのステップS34における第1の特徴量算出処理の詳細について説明する。
ステップS71において、フィルタ処理部91は、指標算出部53からの指標行列に対して、例えばハン窓等の窓関数(平滑化フィルタ)を用いて、時間方向にフィルタリングすることで、トーンらしさの指標の時間平均量を算出し、入力信号の楽曲らしさを表す第1の特徴量として、リサンプリング処理部92に供給する。
ステップS72において、リサンプリング処理部92は、フィルタ処理部91からの第1の特徴量を、時間方向にリサンプリング(ダウンサンプリング)し、2値化処理部93に供給する。
ステップS73において、2値化処理部93は、リサンプリング処理部92からの、ダウンサンプリングされた第1の特徴量に対して2値化処理を施し、マッチング処理部33に供給して、処理はステップS34に戻る。
図14は、上述した処理によって得られる第1の特徴量の例を示している。
図14においては、左から順番に、時間周波数領域の入力信号、トーンらしさの指標、および第1の特徴量が示されている。入力信号に楽曲の信号成分が含まれている場合、トーンらしさの指標においては、対応する時間周波数領域の値が大きくなる(持続性トーンが現れる)。そして、トーンらしさの指標の値が大きい(持続性トーンが現れる)領域においては、上述した第1の特徴量算出処理によって、大きい値の第1の特徴量が現れるようになる。したがって、図14に示されるように、第1の特徴量は、入力信号の楽曲の信号成分と同様の領域に値を持つようになる。また、その値は、例えば0,1等の値に2値化されるようになるので、第1の特徴量の情報量が削減されるようになり、後段の処理の高速化を図ることができるようになる。
なお、2値化処理に用いられる閾値は、固定の値としてもよいし、時間フレーム毎の平均値等から得られる統計的な値としてもよい。
また、上述した第1の特徴量算出処理においては、時間方向にリサンプリングするのに加えて、周波数方向にリサンプリングするようにしてもよいし、2値化処理に代えて量子化処理を行うようにしてもよい。
図7のフローチャートに戻り、ステップS34の後、ステップS35において、第2の特徴量算出部55は、指標算出部53からのトーンらしさの指標に基づいて、第2の特徴量算出処理を実行し、入力信号の楽曲の個性を表す第2の特徴量を算出する。
[第2の特徴量算出処理の詳細]
ここで、図15のフローチャートを参照して、図7のフローチャートのステップS35における第2の特徴量算出処理の詳細について説明する。
ステップS91において、フィルタ処理部101は、指標算出部53からの指標行列に対して、例えば1周期サイン窓等の窓関数(フィルタ)を用いて、時間方向にフィルタリングすることで、トーンらしさの指標の時間平均変化量を算出し、入力信号の楽曲の個性を表す第2の特徴量として、リサンプリング処理部102に供給する。
ステップS92において、リサンプリング処理部102は、フィルタ処理部101からの第2の特徴量を、時間方向にリサンプリング(ダウンサンプリング)し、3値化処理部103に供給する。
ステップS93において、3値化処理部103は、リサンプリング処理部102からの、ダウンサンプリングされた第2の特徴量に対して3値化処理を施し、マッチング処理部33に供給して、処理はステップS35に戻る。
図16は、上述した処理によって得られる第2の特徴量の例を示している。
図16においては、左から順番に、時間周波数領域の入力信号、トーンらしさの指標、および第2の特徴量が示されている。入力信号に楽曲の信号成分が含まれている場合、トーンらしさの指標においては、対応する時間周波数領域の値が大きくなる(持続性トーンが現れる)。そして、トーンらしさの指標の値が大きい(持続性トーンが現れる)領域においては、上述した第2の特徴量算出処理によって、トーンの立上がりにおいては大きい値(正の値)で、トーンの立下がりにおいては小さい値(負の値)となる第2の特徴量が現れるようになる。したがって、図16に示されるように、第2の特徴量は、入力信号の楽曲の信号成分と同様の領域に値を持つようになり、その値は、例えば、図16における領域s1においては正の値となり、領域s2においては負の値となる。また、その値は、−1,0,1等の値に3値化されるようになるので、第2の特徴量の情報量が削減されるようになり、後段の処理の高速化を図ることができるようになる。
なお、3値化処理に用いられる閾値は、固定の値としてもよいし、時間フレーム毎の平均値等から得られる統計的な値としてもよい。
また、上述した第2の特徴量算出処理においては、時間方向にリサンプリングするのに加えて、周波数方向にリサンプリングするようにしてもよいし、3値化処理に代えて量子化処理を行うようにしてもよい。
なお、以上のようにして算出された第1の特徴量と第2の特徴量の、時間方向および周波数方向の粒度は同一とされる。
さて、図7のフローチャートに戻り、ステップS35の後、処理は図6のフローチャートのステップS11に戻る。
図6のフローチャートにおいて、ステップS11の後、処理はステップS12に進み、参照信号解析部32は、参照信号解析処理を実行し、外部の装置等から入力される参照信号を解析し、参照信号の特徴量を参照信号から抽出する。
[参照信号解析処理の詳細]
ここで、図17のフローチャートを参照して、図6のフローチャートのステップS12における参照信号解析処理の詳細について説明する。
ステップS111において、参照信号解析部32の時間周波数変換部61は、入力された参照信号をスペクトログラムに変換し、指標算出部62に供給する。
ステップS112において、指標算出部62は、指標算出部53と同様にして、指標算出処理を実行することで、時間周波数変換部61からの参照信号のスペクトログラムから、そのスペクトログラムの時間周波数領域毎に参照信号のトーンらしさの指標を算出し、第1の特徴量算出部63および第2の特徴量算出部64に供給する。
なお、ステップS112の指標算出処理は、図8のフローチャートを参照して説明した指標算出処理と基本的に同様であるので、その説明は省略する。
ステップS113において、第1の特徴量算出部63は、第1の特徴量算出部54と同様にして、指標算出部62からのトーンらしさの指標に基づいて、第1の特徴量算出処理を実行し、参照信号の楽曲らしさを表す第1の特徴量を算出し、マッチング処理部33に供給する。
なお、ステップS113の第1の特徴量算出処理は、図13のフローチャートを参照して説明した第1の特徴量算出処理と基本的に同様であるので、その説明は省略する。なお、2値化処理に用いられる閾値は、異なる値であってもよい。
ステップS114において、第2の特徴量算出部64は、第2の特徴量算出部55と同様にして、指標算出部62からのトーンらしさの指標に基づいて、第2の特徴量算出処理を実行し、参照信号の楽曲の個性を表す第2の特徴量を算出し、マッチング処理部33に供給する。
なお、ステップS114の第2の特徴量算出処理は、図15のフローチャートを参照して説明した第2の特徴量算出処理と基本的に同様であるので、その説明は省略する。
また、このとき、参照信号解析部32は、楽曲検索装置11内の図示せぬデータベースから、参照信号の楽曲の属性を表す楽曲属性情報(楽曲名、演奏者名、楽曲ID等)を読み出し、算出した参照信号の特徴量(第1および第2の特徴量)に対応付けて、マッチング処理部33に供給する。
なお、複数の参照信号についての特徴量および楽曲属性情報は、楽曲検索装置11内の図示せぬデータベースに記憶されて、マッチング処理部33に取得されるようにしてもよい。
図17のフローチャートにおいて、ステップS114の後、処理は図6のフローチャートのステップS12に戻る。
このようにして算出される入力信号および参照信号の第1の特徴量および第2の特徴量は行列として扱われ、その時間方向および周波数方向の粒度は同一とされる。
また、楽曲の個性を表す第2の特徴量は、上述した入力信号(参照信号)のトーンらしさの指標の時間変化量に限らず、他の評価値とするようにしてもよい。
図6のフローチャートにおいて、ステップS12の後、処理はステップS13に進み、マッチング処理部33は、マッチング処理を実行し、入力信号に含まれる楽曲を同定し、その同定結果を出力する。
[マッチング処理の詳細]
ここで、図18のフローチャートを参照して、図6のフローチャートのステップS13におけるマッチング処理の詳細について説明する。
ステップS131において、マスクパターン生成部71は、入力信号解析部31からの入力信号の時間周波数領域毎の第1の特徴量と、参照信号解析部32からの参照信号の時間周波数領域毎の第1の特徴量とに基づいて、入力信号の第2の特徴量と参照信号の第2の特徴量とのマッチング処理に用いられるマスクパターンを生成し、類似度算出部72に供給する。
例えば、入力信号解析部31からの第1の特徴量として、図19の左上段に示されるような第1の特徴量S1が供給され、参照信号解析部32からの第1の特徴量として、図19の左下段に示されるような第1の特徴量A1が供給された場合、マスクパターン生成部71は、第1の特徴量S1の各要素と、第1の特徴量A1の各要素とを乗算した値を要素とするマスクパターンWを生成する。このように、入力信号および参照信号のスペクトログラムにおいて、トーンらしさの指標の高い領域には第1の特徴量に応じた重み付けをし、トーンらしさの指標の低い領域をマスクする、重み分布としてのマスクパターンが生成される。
ステップS132において、マスクパターン生成部71は、入力信号解析部31からの入力信号の時間周波数領域毎の第1の特徴量と、参照信号解析部32からの参照信号の時間周波数領域毎の第1の特徴量の各要素に基づいて、入力信号の第1の特徴量S1と参照信号の第1の特徴量A1の類似度R1を算出し、類似度算出部72に供給する。
ステップS133において、類似度算出部72は、マスクパターン生成部71からのマスクパターンW、および、第1の特徴量同士の類似度R1を用いて、入力信号解析部31からの入力信号の第2の特徴量と、参照信号解析部32からの第2の参照信号の特徴量との類似度を算出し、算出された類似度を、比較判定部73に供給する。
ここで、図20を参照して、入力信号の第2の特徴量と参照信号の第2の特徴量との類似度の算出の例について説明する。
図20においては、上段に、参照信号の第2の特徴量L、下段左側に、入力信号の第2の特徴量S2、そして、下段右側に、マスクパターンWが示されている。上述で説明したように、これらは行列として扱うことができる。
図20に示されるように、参照信号の第2の特徴量Lの時間方向の成分の数は、入力信号の第2の特徴量S2の時間方向の成分の数と比較して多い(なお、入力信号の第2の特徴量S2の時間方向の成分の数と、マスクパターンWの時間方向の成分の数とは同一である)。そこで、入力信号の第2の特徴量と参照信号の第2の特徴量との類似度を算出する際、類似度算出部72は、参照信号の第2の特徴量Lから、入力信号の第2の特徴量S2と同一の時間方向の成分の数となる部分行列A2を、時間方向(図中右方向)にずらしながら(時間方向にオフセットを与えながら)順次切り出し、この部分行列A2と入力信号の第2の特徴量S2との類似度を算出する。ここで、部分行列A2を切り出す際の時間方向のオフセットをtとすると、まず、マスクパターンW、および、第1の特徴量同士の類似度R1は、以下の式(10),(11)で示される。
Figure 0005732994
・・・(10)
Figure 0005732994
・・・(11)
そして、式(10)で示されるマスクパターンW、および、式(11)で示される第1の特徴量の類似度R1を用いて、部分行列A2と入力信号の第2の特徴量S2との類似度R(t)は、以下の式(12)で示される。
Figure 0005732994
・・・(12)
なお、式(10)乃至(12)において、f,uは、参照信号の第2の特徴量の部分行列A2、入力信号の第2の特徴量S2、マスクパターンWの各行列の周波数成分および時間成分を表している。すなわち、fおよびuが添字として付されているA1,S1,W,A2,S2は、それぞれの行列A1,S1,W,A2,S2における各要素を表している。
なお、式(12)で示される類似度R(t)の算出においては、各行列の全要素について演算する必要はなく、マスクパターンWにおいてマスクされていない時間周波数領域の要素(0でない要素)について演算すればよいので、演算コストを抑えることができる。さらに、マスクパターンWにおいてマスクされていない時間周波数領域の要素の値は、入力信号および参照信号の時間周波数領域毎の楽曲らしさを表しているので、楽曲らしさの高い(楽曲の成分のみからなる)時間周波数領域の要素に対してより大きい重み付けをして類似度R(t)を算出することができる。すなわち、より精度の高い類似度を算出することができるようになる。なお、マスクパターンWの各要素が全て0である場合、類似度R(t)=0とされる。
このようにして、類似度算出部72は、全ての部分行列A2(全ての部分行列A2を切り出す時間オフセットt)に対して類似度を算出し、最大となる類似度を、入力信号の第2の特徴量と参照信号の第2の特徴量との類似度として、比較判定部73に供給する。比較判定部73は、類似度算出部72からの類似度を、内部の記憶領域に保持する。
なお、マスクパターンWは、式(10)で表される行列要素間の乗算に限らず、加重幾何平均や加重相加平均等の他の演算により求められるようにしてもよい。
さらに、マスクパターンWは、行列要素間の演算後に、各要素に対してシグモイド関数等による非線形変換を施すようにしてもよい。
また、第1の特徴量同士の類似度R1は、上述した式(12)による演算に限らず、二乗誤差や絶対誤差等、2つの行列の各要素間の差に基づいて算出されるようにしてもよいし、予め決められた固定の値としてもよい。
さらに、類似度R(t)は、入力信号および参照信号の第2の特徴量が3値化されている場合には、以下の式(13),(14)に示されるように、離散関数を用いて算出されるようにしてもよい。
Figure 0005732994
・・・(13)
Figure 0005732994
・・・(14)
図18のフローチャートに戻り、ステップS134において、類似度算出部71は、全ての時間分の入力信号に対して類似度算出の処理を行ったか否かを判定する。
ステップS134において、全ての時間分の入力信号について類似度算出の処理を行っていないと判定された場合、ステップS131に戻り、全ての時間分の入力信号について類似度算出の処理を行うまで、ステップS131乃至S134の処理が繰り返される。
そして、ステップS134において、全ての時間分の入力信号について類似度算出の処理を行ったと判定されると、処理はステップS135に進み、比較判定部73は、類似度算出部72から供給された類似度に基づいて、入力信号に含まれる楽曲が参照信号の楽曲であるか否かを判定し、その参照信号の楽曲の属性を表す楽曲属性情報を、同定結果として出力する。
具体的には、まず、比較判定部73は、類似度算出部72から供給され保持されている、全ての時間分の入力信号についての類似度を時系列に並べる。
図21は、時系列に並べられた類似度の例を示している。
比較判定部73は、図21に示される時系列に並べられた類似度に対して、所定の閾値THsを超える類似度の区間Tsを、全ての時間分の入力信号において、参照信号の楽曲が含まれる可能性が高い候補区間とする。また、比較判定部73は、候補区間Tsにおいて、最大となる類似度Rpを特定する。さらに、比較判定部73は、類似度の時間的連続性を求める。
ここで、図22を参照して、類似度の時間的連続性について説明する。
上述したように、比較判定部73に保持される類似度は、所定時間分の入力信号の特徴量(第2の特徴量)の行列S2と、参照信号の特徴量(第2の特徴量)Lの部分行列A2の類似度のうち最大となる類似度である。
ここで、全ての時間分の入力信号の特徴量の行列S2allについて類似度を算出したとき、入力信号の一部に参照信号の楽曲が含まれている場合には、類似度が最大となった入力信号の特徴量の行列S2と参照信号の特徴量の部分行列A2のペアは、図22に示されるように、同じ時間間隔で時間方向にシフトすると考えられる。そこで、比較判定部73は、類似度が最大となった入力信号の特徴量の行列S2と参照信号の特徴量の部分行列A2のペアが、同じ時間間隔で時間方向にシフトした量(時間)を、類似度の時間的連続性の指標とする。
そして、比較判定部73は、上述した候補区間Tsの長さ、最大類似度Rpの値、および類似度の時間的連続性の指標に基づいて、所定の識別関数を用いて、入力信号に含まれる楽曲が参照信号の楽曲であるか否かを判定する。比較判定部73は、入力信号に含まれる楽曲が参照信号の楽曲であると判定した場合、その参照信号の楽曲の属性を表す楽曲属性情報を、同定結果として出力する。
なお、比較判定部73は、入力信号に含まれる楽曲が参照信号の楽曲でないと判定した場合、入力信号に含まれる楽曲は参照信号の楽曲ではない旨の情報を出力する。
以上の処理によれば、楽曲と雑音とが混在した入力信号を、楽曲のみからなる参照信号と比較する際、時間周波数領域の入力信号と参照信号において、トーンらしさの指標が算出され、その指標から求められる入力信号の特徴量と参照信号の特徴量の類似度が算出され、その類似度に基づいて入力信号の楽曲が同定されるようになる。トーンらしさの指標は、パワースペクトルの時間に対する安定性を定量化したものであるので、その指標から求められる特徴量は、楽曲らしさを確実に表現するものとなる。したがって、より精度の高い類似度を算出することができるようになり、ひいては、楽曲と雑音とが混在する入力信号から、その楽曲を精度良く同定することが可能となる。
また、マスクパターンを、入力信号の特徴量と参照信号の特徴量とを用いて生成するようにしたので、入力信号の特徴量のみから生成されたマスクパターンと比較して、より確実に入力信号と参照信号をマスクしてマッチング処理を行うことができるようになる。
具体的には、入力信号に音の少ない楽曲が含まれている場合、入力信号の特徴量のみから生成されたマスクパターンを用いると、参照信号の楽曲にその音が含まれていれば、異なる楽曲であっても、参照信号のその他の音はマスクされてしまうので、入力信号が参照信号と一致すると判断されてしまう可能性がある。例えば、入力信号にベース(低音)のみの楽曲が含まれている場合、参照信号の楽曲のベース進行が、入力信号に含まれる楽曲のベース進行に似ているだけで、入力信号が参照信号と一致すると判断されてしまう。
そこで、本技術においては、入力信号の第1の特徴量と参照信号の第1の特徴量とからマスクパターンを生成するとともに、マスクパターンの生成に用いられる入力信号の第1の特徴量と参照信号の第1の特徴量との類似度も算出することで、入力信号および参照信号の両方に含まれる音の特徴量に基づいて、マッチング処理が行われるようになる。これにより、入力信号に含まれる音が、参照信号に含まれる音の一部と似ているだけでは、入力信号が参照信号と一致すると判断されなくなり、楽曲と雑音とが混在する入力信号から、その楽曲を精度良く同定することが可能となる。
また、時間成分だけでなく、周波数成分を考慮した特徴量を用いて、マッチング処理を行うことができるので、図1で示されたような、途切れている時間が非常に短い会話が雑音として含まれている入力信号であっても、その入力信号から、楽曲を精度良く同定することができる。これにより、ドラマ等のテレビジョン番組において、出演者等の会話が被ってしまっているBGMを精度良く同定することが可能となる。
なお、図7のフローチャートを参照して説明した楽曲同定処理においては、入力信号解析処理とマッチング処理との間に、参照信号解析処理が実行されるようにしたが、参照信号解析処理は、マッチング処理が実行される前に実行されていればよく、入力信号解析処理が実行される前に実行されてもよいし、入力信号解析処理と並行して実行されてもよい。
また、本技術は、図2に示される楽曲検索装置11に適用される他、例えば、インターネット等のネットワークを介して情報を送受信するネットワークシステムに適用されるようにもできる。具体的には、携帯電話機等の端末装置に、図2の切り出し部51を設けるようにするとともに、サーバに、図2の切り出し部51以外の構成を設けるようにし、端末装置からインターネットを介して送信されてくる入力信号に対して、サーバが楽曲同定処理を行うようにしてもよい。この場合、サーバは、同定結果を、インターネットを介して端末装置に送信し、端末装置は、サーバからの同定結果を表示部等に表示するようにもできる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図23は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
11 楽曲検索装置, 51 切り出し部, 52 時間周波数変換部, 53 指標算出部, 54 第1の特徴量算出部, 55 第2の特徴量算出部, 61 時間周波数変換部, 62 指標算出部, 63 第1の特徴量算出部, 64 第2の特徴量算出部, 71 マスクパターン生成部, 72 類似度算出部, 73 比較判定部, 81 時間区間選択部, 82 ピーク検出部, 83 近似処理部, 84 トーン度算出部, 85 出力部

Claims (8)

  1. 入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する楽曲検索装置において、
    時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出部と、
    前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出部と、
    前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定部と
    を備え
    前記指標算出部は、
    所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出部と、
    前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理部とを備え、
    前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
    楽曲検索装置。
  2. 前記指標算出部は、前記テンプレート関数の曲率に応じて前記指標を調整する
    請求項に記載の楽曲検索装置。
  3. 前記指標算出部は、前記テンプレート関数が極大となる点の周波数に応じて前記指標を調整する
    請求項に記載の楽曲検索装置。
  4. 前記入力信号の各領域における第1の特徴量と、前記参照信号の各領域における前記第1の特徴量とに基づいて、前記入力信号および前記参照信号の各領域に対する重み分布を生成するとともに、前記入力信号の各領域における第1の特徴量と、前記参照信号の各領域における前記第1の特徴量との第1の特徴量同士の類似度を算出する重み分布生成手段をさらに備え、
    前記類似度算出部は、前記重み分布による重み付けおよび前記第1の特徴量同士の類似度に基づいて、前記入力信号の各領域における第2の特徴量と、前記参照信号の各領域における前記第2の特徴量の類似度を算出する
    請求項1または2に記載の楽曲検索装置。
  5. 前記指標を時間方向にフィルタリングすることにより得られる前記指標の時間平均量を、前記第1の特徴量として算出する第1の特徴量算出部と、
    前記指標を時間方向にフィルタリングすることにより得られる前記指標の時間変化量を、前記第2の特徴量として算出する第2の特徴量算出部とをさらに備える
    請求項に記載の楽曲検索装置。
  6. 入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する楽曲検索方法において、
    時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出ステップと、
    前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出ステップと、
    前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定ステップと
    を含み、
    前記指標算出ステップは、
    所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出ステップと、
    前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理ステップとを含み、
    前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
    楽曲検索方法。
  7. 入力信号を楽曲のみからなる参照信号と比較することによって、前記入力信号の楽曲を同定する信号処理をコンピュータに実行させるプログラムにおいて、
    時間周波数領域に変換された前記入力信号の各領域の信号成分の強さと、前記信号成分の強さを近似した関数とに基づいて、前記信号成分のトーンらしさの指標を算出する指標算出ステップと、
    前記指標に基づいて求められる前記入力信号の各領域における特徴量と、時間周波数領域に変換された前記参照信号について算出された前記指標に基づいて求められる前記参照信号の各領域における前記特徴量の類似度を算出する類似度算出ステップと、
    前記類似度に基づいて、前記入力信号の楽曲を同定する楽曲同定ステップと
    を含む処理をコンピュータに実行させ
    前記指標算出ステップは、
    所定の時間区間の前記入力信号から、前記信号成分の強さが極大となる点を検出する極大点検出ステップと、
    前記極大となる点近傍の前記信号成分の強さをテンプレート関数で近似する近似処理ステップとを含み、
    前記極大となる点近傍の前記信号成分の強さと前記テンプレート関数との誤差に基づいて、前記指標を算出する
    プログラム。
  8. 請求項に記載のプログラムが記録されているコンピュータ読み取り可能な記録媒体。
JP2011092987A 2011-04-19 2011-04-19 楽曲検索装置および方法、プログラム、並びに記録媒体 Expired - Fee Related JP5732994B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011092987A JP5732994B2 (ja) 2011-04-19 2011-04-19 楽曲検索装置および方法、プログラム、並びに記録媒体
EP12161895.3A EP2515295B1 (en) 2011-04-19 2012-03-28 Music search apparatus and method, program, and recording medium
US13/445,027 US8754315B2 (en) 2011-04-19 2012-04-12 Music search apparatus and method, program, and recording medium
CN201210107281.1A CN102750948B (zh) 2011-04-19 2012-04-12 音乐搜索设备及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011092987A JP5732994B2 (ja) 2011-04-19 2011-04-19 楽曲検索装置および方法、プログラム、並びに記録媒体

Publications (3)

Publication Number Publication Date
JP2012226080A JP2012226080A (ja) 2012-11-15
JP2012226080A5 JP2012226080A5 (ja) 2014-05-15
JP5732994B2 true JP5732994B2 (ja) 2015-06-10

Family

ID=46045732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011092987A Expired - Fee Related JP5732994B2 (ja) 2011-04-19 2011-04-19 楽曲検索装置および方法、プログラム、並びに記録媒体

Country Status (4)

Country Link
US (1) US8754315B2 (ja)
EP (1) EP2515295B1 (ja)
JP (1) JP5732994B2 (ja)
CN (1) CN102750948B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5732994B2 (ja) * 2011-04-19 2015-06-10 ソニー株式会社 楽曲検索装置および方法、プログラム、並びに記録媒体
JP2012226106A (ja) * 2011-04-19 2012-11-15 Sony Corp 楽曲区間検出装置および方法、プログラム、記録媒体、並びに楽曲信号検出装置
JP6019858B2 (ja) * 2011-07-27 2016-11-02 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
JP2013205830A (ja) * 2012-03-29 2013-10-07 Sony Corp トーン成分検出方法、トーン成分検出装置およびプログラム
JP6233625B2 (ja) * 2012-11-16 2017-11-22 ソニー株式会社 音声処理装置および方法、並びにプログラム
EP3060976A4 (en) * 2013-10-21 2017-07-26 Amazon Technologies Inc. Managing media content
TWI527025B (zh) * 2013-11-11 2016-03-21 財團法人資訊工業策進會 電腦系統、音訊比對方法及其電腦可讀取記錄媒體
CN111757189B (zh) * 2014-12-01 2022-07-15 构造数据有限责任公司 用于连续介质片段识别的系统和方法
JP6588212B2 (ja) * 2015-03-05 2019-10-09 学校法人大阪産業大学 音源検索装置および音源検索方法
JP6533141B2 (ja) * 2015-10-08 2019-06-19 株式会社メガチップス 振動解析システム、ユーザーインターフェースシステムおよび振動解析データ生成方法
CN106228976B (zh) * 2016-07-22 2019-05-31 百度在线网络技术(北京)有限公司 语音识别方法和装置
JP7025145B2 (ja) * 2017-07-13 2022-02-24 株式会社メガチップス 電子メロディ特定装置、プログラム、及び電子メロディ特定方法
JP7025144B2 (ja) * 2017-07-13 2022-02-24 株式会社メガチップス 電子メロディ特定装置、プログラム、及び電子メロディ特定方法
CN108039178A (zh) * 2017-12-15 2018-05-15 奕响(大连)科技有限公司 一种傅里叶变换时域与频域的音频相似判断方法
CN108091346A (zh) * 2017-12-15 2018-05-29 奕响(大连)科技有限公司 一种局部傅里叶变换的音频相似判断方法
CN112270929B (zh) * 2020-11-18 2024-03-22 上海依图网络科技有限公司 一种歌曲识别的方法及装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3481241A (en) * 1966-09-22 1969-12-02 Yvon Andre Gaillard Method and apparatus for storing and retrieving technical musical data
US5040217A (en) * 1989-10-18 1991-08-13 At&T Bell Laboratories Perceptual coding of audio signals
US5302777A (en) * 1991-06-29 1994-04-12 Casio Computer Co., Ltd. Music apparatus for determining tonality from chord progression for improved accompaniment
JP3569104B2 (ja) * 1997-05-06 2004-09-22 日本電信電話株式会社 音情報処理方法および装置
JP3434223B2 (ja) * 1998-11-19 2003-08-04 日本電信電話株式会社 音楽情報検索装置,音楽情報蓄積装置,音楽情報検索方法,音楽情報蓄積方法およびそれらのプログラムを記録した記録媒体
JP2000207000A (ja) * 1999-01-14 2000-07-28 Nippon Columbia Co Ltd 信号処理装置および信号処理方法
JP2000305578A (ja) * 1999-04-26 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> 音楽データベース作成装置、作成方法およびそのプログラム記録媒体
DE10134471C2 (de) * 2001-02-28 2003-05-22 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals
DE10117870B4 (de) * 2001-04-10 2005-06-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Überführen eines Musiksignals in eine Noten-basierte Beschreibung und Verfahren und Vorrichtung zum Referenzieren eines Musiksignals in einer Datenbank
US8063295B2 (en) * 2002-10-03 2011-11-22 Polyphonic Human Media Interface, S.L. Method and system for video and film recommendation
US8535236B2 (en) * 2004-03-19 2013-09-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for analyzing a sound signal using a physiological ear model
US8332216B2 (en) * 2006-01-12 2012-12-11 Stmicroelectronics Asia Pacific Pte., Ltd. System and method for low power stereo perceptual audio coding using adaptive masking threshold
SG136836A1 (en) * 2006-04-28 2007-11-29 St Microelectronics Asia Adaptive rate control algorithm for low complexity aac encoding
US20070270987A1 (en) * 2006-05-18 2007-11-22 Sharp Kabushiki Kaisha Signal processing method, signal processing apparatus and recording medium
US7930173B2 (en) * 2006-06-19 2011-04-19 Sharp Kabushiki Kaisha Signal processing method, signal processing apparatus and recording medium
DE102008028328B4 (de) * 2008-06-13 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Notensignals auf eine manuelle Eingabe hin
JP5463655B2 (ja) * 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5625235B2 (ja) * 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5593608B2 (ja) * 2008-12-05 2014-09-24 ソニー株式会社 情報処理装置、メロディーライン抽出方法、ベースライン抽出方法、及びプログラム
WO2010097870A1 (ja) * 2009-02-27 2010-09-02 三菱電機株式会社 音楽検索装置
JP4788810B2 (ja) 2009-08-17 2011-10-05 ソニー株式会社 楽曲同定装置及び方法、楽曲同定配信装置及び方法
JP5440051B2 (ja) * 2009-09-11 2014-03-12 株式会社Jvcケンウッド コンテンツ同定方法、コンテンツ同定システム、コンテンツ検索装置及びコンテンツ利用装置
JP2012226106A (ja) * 2011-04-19 2012-11-15 Sony Corp 楽曲区間検出装置および方法、プログラム、記録媒体、並びに楽曲信号検出装置
JP5732994B2 (ja) * 2011-04-19 2015-06-10 ソニー株式会社 楽曲検索装置および方法、プログラム、並びに記録媒体
TWI473078B (zh) * 2011-08-26 2015-02-11 Univ Nat Central 音訊處理方法以及裝置

Also Published As

Publication number Publication date
US20120266743A1 (en) 2012-10-25
EP2515295A1 (en) 2012-10-24
CN102750948A (zh) 2012-10-24
CN102750948B (zh) 2016-05-18
EP2515295B1 (en) 2014-07-23
US8754315B2 (en) 2014-06-17
JP2012226080A (ja) 2012-11-15

Similar Documents

Publication Publication Date Title
JP5732994B2 (ja) 楽曲検索装置および方法、プログラム、並びに記録媒体
JP5728888B2 (ja) 信号処理装置および方法、並びにプログラム
US11657798B2 (en) Methods and apparatus to segment audio and determine audio segment similarities
US9111526B2 (en) Systems, method, apparatus, and computer-readable media for decomposition of a multichannel music signal
US8543387B2 (en) Estimating pitch by modeling audio as a weighted mixture of tone models for harmonic structures
JP2004110422A (ja) 曲分類装置、曲分類方法、及びプログラム
US9626949B2 (en) System of modeling characteristics of a musical instrument
US8779271B2 (en) Tonal component detection method, tonal component detection apparatus, and program
US20170024495A1 (en) Method of modeling characteristics of a musical instrument
US20240062738A1 (en) Methods and Apparatus for Harmonic Source Enhancement
CN107210029A (zh) 用于处理一连串信号以进行复调音符辨识的方法和装置
JP2012226106A (ja) 楽曲区間検出装置および方法、プログラム、記録媒体、並びに楽曲信号検出装置
CN108806721A (zh) 信号处理器
US9398387B2 (en) Sound processing device, sound processing method, and program
CN114302301B (zh) 频响校正方法及相关产品
CN109308910B (zh) 确定音频的bpm的方法和装置
CN101853262A (zh) 基于交叉熵的音频指纹快速搜索方法
EP1939861B1 (en) Registration for speaker verification
RU2295163C1 (ru) Способ распознавания музыкальных произведений и устройство для его осуществления
Rychlicki-Kicior et al. Multipitch estimation using judge-based model
Rychlicki-Kicior et al. Multipitch estimation using multiple transformation analysis
US12125472B2 (en) Methods and apparatus to segment audio and determine audio segment similarities
CN115691468A (zh) 歌声合成方法、计算机设备及存储介质
US7613579B2 (en) Generalized harmonicity indicator
KR101047668B1 (ko) 선율조절 방법 및 그 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150330

R151 Written notification of patent or utility model registration

Ref document number: 5732994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees