JP4698606B2 - 楽曲処理装置 - Google Patents

楽曲処理装置 Download PDF

Info

Publication number
JP4698606B2
JP4698606B2 JP2006546679A JP2006546679A JP4698606B2 JP 4698606 B2 JP4698606 B2 JP 4698606B2 JP 2006546679 A JP2006546679 A JP 2006546679A JP 2006546679 A JP2006546679 A JP 2006546679A JP 4698606 B2 JP4698606 B2 JP 4698606B2
Authority
JP
Japan
Prior art keywords
music
information
appearance probability
load
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006546679A
Other languages
English (en)
Other versions
JPWO2006062064A1 (ja
Inventor
裕明 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006546679A priority Critical patent/JP4698606B2/ja
Publication of JPWO2006062064A1 publication Critical patent/JPWO2006062064A1/ja
Application granted granted Critical
Publication of JP4698606B2 publication Critical patent/JP4698606B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/395Special musical scales, i.e. other than the 12-interval equally tempered scale; Special input devices therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、楽曲処理装置に関し、より特定的には、楽曲の音階情報から曲調情報を検出したり、それを用いて楽曲の検索を行ったりする楽曲処理装置に関する。
従来から、楽曲の曲調情報を検出する方法が知られている。曲調情報とは、楽曲のイメージを決める要素(例えば調など)を示す情報である。例えば楽曲の調を検出する方法として、楽曲の音階に関する情報(以下、音階情報という)に基づいて当該音階情報に含まれる各音名の出現確率を算出し、各音名に関する当該出現確率の分布(出現確率分布と呼ぶ。後述する図3参照。)を用いて楽曲の調を検出する方法(第1の方法)がある。この方法では、複数種類の調それぞれについて、予め作成された理想的な出現確率分布をテンプレートとしてそれぞれ用意しておく。そして、調を検出する対象となる楽曲の出現確率分布を算出し、当該楽曲についての出現確率分布と当該各テンプレートとを1つずつ個別に照合する。その結果、出現確率分布が当該楽曲と最も近似するテンプレートにより示される調を楽曲の調として決定する。
また、従来においては、入力される音階情報を所定の区間に区切り、区間毎に調を検出する方法もある(例えば、特許文献1参照。)。この方法では、例えば楽曲の1小節目から4小節目までを1つの区間、2小節目から5小節目までを次の区間というように、楽曲の音階情報を複数の区間に区切る。そして、区間毎にその区間の調を検出する。
特許第2715816号公報
ここで、実際の楽曲には、転調を含むような複数種類の調で構成される楽曲がある。このような転調を含む楽曲の出現確率分布は、複数種類の調の出現確率分布が合成された分布となる結果、楽曲に含まれる各調の出現確率分布のいずれとも異なる分布となる場合がある。第1の方法では、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するので、楽曲の出現確率分布が複数の調の合成分布となる場合、合成分布に最も近似するテンプレートにより示される調が楽曲の調に決定される。つまり、この場合、楽曲に含まれる調のいずれとも異なる調が楽曲の調として決定されることになる。したがって、上記第1の方法では、転調を含むような複数種類の調で構成される楽曲については調を誤検出してしまう可能性がある。
また、特許文献1に開示された方法では、楽曲の音階情報を複数の区間に区切り、その区間毎に調が検出される。そして、検出された各区間の調の変化によって、転調する箇所が検出される。ここで、調を検出する対象は、入力された音階情報の全体ではなく、当該音階情報を短く区切った区間である。具体的には、特許文献1の方法では、転調を検出するためには、少なくとも数小節程度(例えば4小節程度)の単位に音階情報を区切らなければならない。ここで、音階情報を区間に区切ると、調を検出する対象に含まれる音の数が少なくなる。つまり、音階情報を区間に区切ることによって、調を検出する対象に含まれる情報数が少なくなるので、調を検出する精度が必然的に低下してしまう。以上より、特許文献1の方法では、音階情報を区切らなければならないことが理由で、各区間における調を検出する精度が低下してしまう。
それ故、本発明は、楽曲が転調を含む場合であっても楽曲の曲調情報を正確に検出することが可能な楽曲処理装置を提供することを目的とする。
第1の発明は、所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置であって、所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、テンプレート記憶部に記憶されている複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出部と、荷重度算出部によって各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を曲調情報として検出する曲調情報検出部とを備える。
第2の発明は、上記第1の発明において、テンプレート記憶部に記憶されているテンプレートは、楽曲の調を示し、楽曲の調毎に異なるテンプレートであって、曲調情報検出部は、荷重度の組に基づいて、所定の楽曲の調、調性、調性占有率、およびスケールのうち少なくとも1つを曲調情報としてさらに検出する。
第3の発明は、上記第2の発明において、曲調情報検出部は、テンプレート記憶部に記憶されている各テンプレートのうち、荷重度算出部によって算出された荷重度が最大値となるテンプレートにより示される調を所定の楽曲の調として検出する。
第4の発明は、上記第2の発明において、曲調情報検出部は、調性が同じである調を示す複数のテンプレートについて荷重度の総和を算出する処理を各調性について行い、算出された総和が大きい方の調性を所定の楽曲の調性として検出する。
第5の発明は、上記第2の発明において、曲調情報検出部は、スケールが同じである調を示す複数のテンプレートについて荷重度の総和を算出する処理を各スケールについて行い、算出された総和が最も大きいスケールを所定の楽曲のスケールとして検出する。
第6の発明は、上記第1の発明において、出現確率取得部が出現確率の分布を取得する対象となる複数の楽曲のデータを記憶する楽曲データ記憶部と、曲調情報検出部によって検出された荷重度の組および当該組から算出される情報の少なくとも一方の情報を、楽曲データ記憶部にデータが記憶されている楽曲のうちの当該情報に対応する楽曲に関連付けて曲調情報として楽曲データ記憶部に記憶させる曲調情報記憶部と、楽曲データ記憶部にデータが記憶されている楽曲を、曲調情報を用いて検索する検索部とをさらに備える。
第7の発明は、上記第6の発明において、ユーザによって入力されるべき選曲情報と曲調情報に関する条件とを関連付けた選曲ルールを記憶する選曲ルール記憶部をさらに備え、検索部は、ユーザによって選曲情報が入力された場合、楽曲データ記憶部にデータが記憶されている楽曲のうち、当該入力された選曲情報に関連付けられた条件を満たす楽曲を検索結果として出力する。
第8の発明は、所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置において用いられる方法であって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得ステップと、記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出ステップと、荷重度算出ステップにおいて各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を曲調情報として検出する曲調情報検出ステップとを含む。
第9の発明は、上記第8の発明において、楽曲処理装置には、出現確率取得ステップにおいて出現確率の分布が取得される対象となる複数の楽曲のデータがさらに予め記憶されており、曲調情報検出ステップにおいて検出された荷重度の組および当該組から算出される情報の少なくとも一方の情報を、楽曲処理装置にデータが記憶されている楽曲のうちの当該情報に対応する楽曲に関連付けて曲調情報として楽曲処理装置に記憶させる曲調情報記憶ステップと、楽曲処理装置にデータが記憶されている楽曲を、曲調情報を用いて検索する検索ステップとをさらに含む。
第10の発明は、所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置のコンピュータに実行させるためのプログラムであって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得ステップと、記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出ステップと、荷重度算出ステップにおいて各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を曲調情報として検出する曲調情報検出ステップとを、コンピュータに実行させる。
第11の発明は、上記第10の発明において、上記プログラムを記録した、コンピュータで読み取り可能な記録媒体である。
第12の発明は、所定の楽曲について、楽曲の曲調を示す曲調情報を検出する集積回路であって、所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出部と、荷重度算出部によって各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を曲調情報として検出する曲調情報検出部とを備える。
上記第1の発明によれば、複数のテンプレートの中から最も一致するテンプレートを1つ選択するのではなく、各テンプレートの荷重度の組が検出される。これによって、所定の楽曲(曲調情報を検出する対象となる楽曲)における出現確率の分布に占める各テンプレートの割合を知ることができる。すなわち、テンプレートに対応する楽曲のタイプを1つ決定するのではなく、「所定の楽曲に占める各タイプの割合」を検出することができ、所定の楽曲の曲調を各タイプ毎の割合として表すことができる。したがって、例えば所定の楽曲が2つの調を含む場合には、その2つの調のテンプレートの荷重度が大きく算出される。つまり、第1の発明によれば、楽曲が転調を含む場合であっても楽曲の曲調情報を正確に検出することが可能となる。
上記第2の発明によれば、荷重度の組を用いて算出することで、最も優勢な調、最も優勢な調性、最も優勢な調性占有率および最も優勢なスケールを正確に検出することができる。
上記第3の発明によれば、荷重度が最大値となるテンプレートにより示される調を検出することで、楽曲の調を正確に検出することができる。
上記第4の発明によれば、調性が同じである調を示す複数のテンプレートについて荷重度の総和をそれぞれ算出し、総和が大きい方の調性を検出することで、楽曲の調性を正確に検出することができる。
上記第5の発明によれば、スケールが同じである調を示す複数のテンプレートについて荷重度の総和を算出し、総和が最も大きいスケールを検出することで、楽曲のスケールを正確に検出することができる。
上記第6の発明によれば、荷重度の組、または、それから得られる情報(調、調性、スケール等)を用いて楽曲の検索を行うことができる。したがって、曲調情報を用いた検索を正確に行うことができる。
上記第7の発明によれば、ユーザは、入力した選曲条件に関連する楽曲を容易に検索することができる。
本発明のこれらおよび他の目的、特徴、効果は、添付図面と照合して、以下の詳細な説明から一層明らかになるであろう。
以下に、本発明の実施形態について図面を参照しながら説明する。なお、以下の説明において、「調性」とはメジャーおよびマイナーを意味し、「調性占有率」とは楽曲内におけるメジャー(またはマイナー)の占有率を意味する。また、「スケール」とは、調号が同一となるメジャーおよびマイナーの12種類の組み合わせを意味する。また、「調」とは調性とスケールとで構成される24種類(C;Cメジャー、Am;Aマイナー、等)を意味する。これらの調、調性、調性占有率、およびスケールは、楽曲の曲調を示す指標であり、曲調情報の1つである。なお、後述する荷重度を組として示す情報(荷重度の組)も曲調情報の1つである。また、本発明における楽曲処理装置の一例として、上記曲調情報を検出する曲調検出装置を第1の実施形態として説明する。また、本発明における楽曲処理装置の他の例として、上記曲調情報を用いて楽曲を検索する楽曲検索装置を第2の実施形態として説明する。
(第1の実施形態)
まず、本発明の第1の実施形態に係る曲調検出装置1について、図1を用いて説明する。図1は、本発明の第1の実施形態に係る曲調検出装置1を示すブロック図である。図1において、曲調検出装置1は、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14および曲調情報検出部15を備える。
音階情報入力部11は、曲調検出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける。音階情報入力部11に入力される楽曲の音階情報は、少なくとも音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報を含むデータとする。図2は、音階情報入力部11に入力される楽曲の音階情報の一例を示す図である。図2において、楽曲の音階情報は、「小節数/拍数/ティック数」で示された時間と、音の強さを表すベロシティと、ノートナンバーとで表現される。ここで、上記時間は、各ノートナンバーが発音または消音となる時間を示す。ベロシティは0〜127の範囲の整数で表現され、ベロシティの値が大きいほど音量が大きい。なお、ベロシティの値が「0」であることは消音を示す。ノートナンバーの値は、ピアノの鍵盤中央のCの高さを示す値を「60」として設定される。また図2においては、デュレーションは時間およびベロシティによって表される。例えば時間が「000/0/000」のとき、ノートナンバーが「60」でベロシティは「90(発音)」となる。また、時間が「000/0/432」のとき、ノートナンバーが「60」でベロシティは「0(消音)」となる。したがって、「000/0/000」から「000/0/432」までの時間区間の音階情報は、ノートナンバーが「60」、ベロシティが「90」で、デュレーションが432ティックとなる。
なお、図2に示す楽曲の音階情報の一例では、時間は「小節数/拍数/ティック数」で示されたが、例えば「時間/分/秒/フレーム/サブフレーム」で示されてもよい。またベロシティは、0〜127の範囲の整数で表現したが、例えば、発音を表す「1」および消音を表す「0」の2値で表現されてもよい。
以上のように、図2に示す楽曲の音階情報には、音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報が含まれる。なお、楽曲の音階情報は、単純にノートナンバーに対してデュレーションを1対1で持つ方法で表現されてもよい。また楽曲の音階情報は、ノートナンバーおよびデュレーションの他に、ノートナンバーの連続的な変化を表すピッチベンドの情報をさらに含む方法で表現されてもよい。このときノートナンバーはピッチベンドの値に応じて変動する。
出現確率算出部12は、音階情報入力部11に入力された楽曲の音階情報に含まれる各音名の出現確率をそれぞれ算出する。図3は、各音名に関する出現確率の分布(出現確率分布)を概念的に示す図である。図3においては、C;i=0、C♯;i=1、〜、B;i=11のように、12種類の音名には0から11までの音名ナンバーiがそれぞれ付されている。なお、以下の説明では、音名ナンバーがiである音名のことを「音名i」と記載することがある。
テンプレート記憶部13は、24種類の調に対応する24種類のテンプレートを記憶する。24種類のテンプレートは、楽曲の異なるタイプをそれぞれ表したものとなる。またテンプレートは、それに対応する調の理想的な出現確率分布を示す。これらの各テンプレートは、予め作成されてテンプレート記憶部13に記憶される。図4は、24種類のテンプレートと各テンプレートについての荷重度の算出結果との一例を示す図である。図4においては、各テンプレートにより示される24種類の調には、メジャーの調をj=0〜11、マイナーの調をj=12〜23とした調ナンバーjが付されている。なお、以下の説明では、調ナンバーがjである調のことを「調j」と記載することがある。また、各テンプレートについての荷重度の算出結果については後述にて説明する。
荷重度算出部14は、出現確率算出部12で算出される楽曲の出現確率分布とテンプレート記憶部13に記憶される各テンプレートとに基づいて、各テンプレートについての荷重度をそれぞれ算出する(図4参照。)。荷重度算出部14は、24種類のテンプレートに1つずつ対応するように24個の荷重度を算出する。ここで、荷重度とは、楽曲の出現確率分布においてテンプレートの出現確率分布が占める割合(占有率)を示す。換言すれば、テンプレートの荷重度とは、24種類のテンプレートを用いて楽曲の出現確率分布を表す場合に、そのテンプレートの出現確率分布が寄与する割合を示す値である。例えば、荷重度の値が大きいテンプレートは、楽曲の出現確率分布において占める割合が大きいテンプレートである。したがって、荷重度の値が大きいテンプレートに対応する調は、当該楽曲において占める割合が大きい調である。
曲調情報検出部15は、荷重度算出部14で算出された24個の荷重度に基づいて楽曲の曲調情報を検出する。曲調情報とは、24個の荷重度を1つの組として示す情報(荷重度の組)または当該荷重度の組から算出される各種情報を示す。ここで各種情報とは、例えば、上述した調、調性占有率、調性およびスケールなどを示す情報である。曲調情報検出部15は、荷重度の組を曲調情報として検出する。そして、当該荷重度の組から算出される調、調性占有率、調性およびスケールなどを曲調情報として検出する。
次に、第1の実施形態に係る曲調検出装置1の処理の流れについて図5を用いて説明する。図5は、第1の実施形態に係る曲調検出装置1の処理の流れを表すフローチャートを示す図である。
音階情報入力部11は、曲調検出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける(ステップS1)。例えば、SMF(スタンダードMIDIファイル)などの、音階情報を示す音階データが入力される。なお、入力される音階データは、PCMデータ等の音声データを変換したものであってもよい。ここでは、図2に示したような音階情報が入力されるものとする。なお、本発明では、入力された楽曲を小節等の区間に区切る必要がないので、本発明において用いる音階情報には、小節の位置を示す情報が含まれている必要はない。本発明では、転調を含む楽曲を小節等の区間に区切ることなく、楽曲に含まれている調を正確に検出することができる。
ステップS1の次に、出現確率算出部12は、ステップS1で入力された楽曲の音階情報に含まれる各音名の出現確率をそれぞれ算出する(ステップS2)。ここで音名iの出現確率をP(i)とする。出現確率P(i)は、音階情報に含まれる音名iが持つデュレーションの総和を全ての音名(i=0〜11)が持つデュレーションの総和で除算することにより算出される。なお、各音名の出現確率の総和ΣP(i)は、以下の式(1)のように示される。
ΣP(i)=1 (i=0〜11)…(1)
上記ステップS2において示したように、本実施形態では、楽曲の各音名の出現確率分布は出現確率算出部12によって算出されるものとした。ここで、楽曲の各音名の出現確率分布が予め分かっている場合、すなわち、楽曲の各音名の出現確率分布を示すデータが得られている場合には、出現確率算出部12は、ステップS2において当該データを取得するようにしてもよい。この場合、ステップS2で出現確率分布を算出する処理を省略することができる。
ステップS2の次に、荷重度算出部14は、各テンプレートについての荷重度をそれぞれ算出する(ステップS3)。荷重度は、ステップS2で算出された各音名の出現確率(楽曲の実際の出現確率)と、テンプレート記憶部13に記憶された24種類のテンプレートにより示される出現確率とを用いて算出される。以下、荷重度を算出する方法を詳細に説明する。
まず、曲調情報を検出する対象となる楽曲の出現確率分布を、24種類の調(j=0〜23)に対応する24種類のテンプレートの出現確率分布を用いて表現することを考える。ここで、対象となる楽曲の出現確率分布において調jのテンプレートの出現確率分布が占める割合を示す荷重度をW(j)とする。そして、調jのテンプレートに含まれる音名iの出現確率をPt(j,i)とする。このとき、次の式(2)および式(3)の関係が成り立つ。
ΣW(j)=1 (j=0〜23)…(2)
ΣPt(j,i)=1 (i=0〜11)…(3)
ここで、各テンプレートを用いて(すなわち、W(j)およびPt(j,i)を用いて)、対象となる楽曲の音階情報に含まれる音名iの出現確率Pf(i)を表現した場合、当該出現確率Pf(i)は次の式(4)のように示される。
Pf(i)=Σ(W(j)*Pt(j,i)) (j=0〜23)…(4)
したがって、ステップS2で算出された楽曲の実際の出現確率P(i)とPf(i)とが全音名(i=0〜11)について一致するように各テンプレートの荷重度W(j)(j=0〜23)を算出する。つまり、式(2)〜(4)の関係を満たし、i=0〜11についてP(i)=Pf(i)となるようなW(j)を求めればよい。具体的には、ここでは、各音名の出現確率の誤差(P(i)−Pf(i))を2乗した和を最小化させることによって各テンプレートの荷重度W(j)(j=0〜23)を求める。より具体的には、音名iの出現確率の誤差をE(i)とし、その誤差E(i)を2乗した和を‘Eとすると、E(i)および‘Eはそれぞれ式(5)および式(6)のように示される。
E(i)=P(i)−Pf(i)…(5)
‘E=Σ(E(i))2 (i=0〜11)…(6)
この式(6)を用いて、‘Eが最小となる各テンプレートの荷重度W(j)(j=0〜23)を算出する。なお、各テンプレートの荷重度W(j)(j=0〜23)は、例えば進化戦略(Evolutionary Strategy)を用いて算出することができるが、W(j)を算出するアルゴリズムはどのようなものであってもよい。以上のように、ステップS3では、各テンプレートの荷重度W(j)(j=0〜23)が算出される。各テンプレートの荷重度W(j)(j=0〜23)は、例えば図4に示すような算出結果となる。
ステップS3の次に、曲調情報検出部15は、ステップS3で算出された各テンプレートの荷重度W(j)(j=0〜23)を1つの組として示す情報(荷重度の組)を楽曲の曲調情報として検出する(ステップS4)。また、本実施形態では、ステップS4において曲調情報検出部15は、調、調性占有率、調性およびスケールを楽曲の曲調情報としてさらに検出する。以下に、調、調性占有率、調性およびスケールの検出方法について説明する。
まず調については、曲調情報検出部15は、荷重度W(j)の値が最大となるテンプレートに対応する調ナンバーjの調を求め、当該調を最も優勢な調として検出する。次に調性占有率については、曲調情報検出部15は、楽曲内におけるメジャーの占有率およびマイナーの占有率を調性占有率として次の方法で検出する。メジャーの占有率をRmaj、マイナーの占有率をRminとすると、図4において調ナンバーj=0〜11がメジャーの調、j=12〜23がマイナーの調としているので、RmajおよびRminはそれぞれ以下の式で算出される。
Rmaj=ΣW(j) (j=0〜11)…(7)
Rmin=ΣW(j) (j=12〜23)…(8)
したがって、曲調情報検出部15は、式(7)および式(8)で算出したRmajとRminを調性占有率として検出する。
次に調性については、曲調情報検出部15は、メジャーまたはマイナーどちらが優勢であるかを調性として検出する。すなわち、曲調情報検出部15は、上記式(7)および式(8)で算出されたRmajの値とRminの値とを比較してRmajの値が大きければメジャー、Rminの値が大きければマイナーとして調性を検出する。
次にスケールの検出方法について図6を用いて説明する。図6は、同一スケールで形成される調の関係の一例を示す図である。図6において、24種類の調のうちそれぞれ2種類の調が同一スケールとなるので、スケールは計12種類存在する。また、各スケールについて、図6に示すようにスケールナンバーs(s=0〜11)が付される。例えば図6に示すように、同一スケールとなるC(j=0)およびAm(j=12)の2種類の調は、スケールナンバーsがs=0である。ここで、楽曲内における各スケールの占有率をスケール占有率Rs(s)(s=0〜11)とすると、Rs(s)は以下のようにそれぞれ算出される。
Rs(0)=W(0)+W(12)
Rs(1)=W(1)+W(13)
Rs(2)=W(2)+W(14)



Rs(11)=W(11)+W(23)
したがって、曲調情報検出部15は、スケール占有率Rs(s)の値が最大となるスケールナンバーsのスケールを求め、当該スケールを最も優勢なスケールとして検出する。
以上のように、本実施形態に係る曲調検出装置1は、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するのではなく、楽曲の出現確率分布において各調のテンプレートが占める割合(荷重度)を算出する。その結果、楽曲に含まれる複数の調を検出する楽曲が転調を含むような複数種類の調で構成される場合であっても、楽曲の曲調情報を正確に検出することが可能となる。
また、本実施形態に係る曲調検出装置1で検出された楽曲の曲調情報のうち荷重度の組によって、ユーザは、当該楽曲に含まれる複数の調の割合を把握することができる。すなわち、1つの調の荷重度の値が大きく、それ以外の調の荷重度の値が小さい場合には、ユーザは当該楽曲が単調の曲であることを把握できる。また、多数の調で荷重度の値が近似する場合には、ユーザは当該楽曲が多数の調で構成されている楽曲であることを把握できる。したがって、ユーザは実際に楽曲を聞かなくても当該楽曲のイメージを把握することができる。また、検出された調、調性占有率、調性およびスケールなどの曲調情報によっても、上記荷重度の組と同様、ユーザは実際に楽曲を聞かなくても当該楽曲のイメージを把握することができる。
また以上の説明では、テンプレート記憶部13には24種類の調についてそれぞれ1つずつのテンプレートしか記憶されていない。しかし、1種類の調について複数のテンプレートが記憶されてもよい。1種類の調について、例えばポップス、ジャズ、クラシックなどのジャンル毎にテンプレートを用意して、テンプレート記憶部13に記憶させる。そして、テンプレート記憶部13に記憶される全てのテンプレートについての荷重度を算出することで、曲調検出装置1は楽曲のジャンルに合わせた曲調情報を正確に検出することができる。また、各テンプレートの荷重度には、それぞれジャンルの情報が含まれるので、楽曲のジャンルも検出することが可能となる。
また、1種類の調について、例えばメロディおよびベースなどの特定のパート専用毎にテンプレートが用意され、テンプレート記憶部13に記憶されてもよい。そして、テンプレート記憶部13に記憶されるテンプレートのうち、入力される楽曲のパートに合わせたテンプレートについての荷重度を算出することで、曲調検出装置1は入力される楽曲のパートに合わせた曲調情報を正確に検出することができる。
また、テンプレートとして、24種類の調ではなくスケールまたはコードなどに対応する出現確率分布を用いてもよい。そして、当該各テンプレートについての荷重度を算出することで、スケールまたはコードに関する曲調情報を検出することができる。
また、音階情報入力部11で入力を受け付ける音階情報は、メロディやベースなどの演奏のパートを少なくとも1つ含むものであれば良く、例えば複数のパートで構成される音階情報であってもよい。また、音階情報を構成する楽曲の演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。ここで、一部の演奏時間分は、例えば前奏を除く楽曲の前半部分の演奏時間分としてもよい。当該演奏時間は、主要な調で構成されることが一般的に多いからである。その結果、曲調検出装置1は、より精度の高い曲調情報を検出することができる。また、曲調検出装置1の処理負担も軽減させることができる。
なお、本実施形態に係る曲調検出装置1は、一般的なコンピュータシステム100に曲調情報検出プログラムを実行させることによって実現されてもよい。図7は、曲調検出装置1がコンピュータシステム100によって実現される構成例を示すブロック図である。なお、図7において、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14および曲調情報検出部15は、図1に示される各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。
図7において、コンピュータシステム100は、演算処理部110、記憶部120およびディスクドライブ装置130を備える。演算処理部110は、CPUまたはメモリなどで構成され、曲調情報検出プログラムを実行させることによって、音階情報入力部11、出現確率算出部12、荷重度算出部14および曲調情報検出部15と同一の機能を実現する。また記憶部120は、ハードディスクなどの記録媒体で構成され、曲調情報検出プログラムを実行させることによって、テンプレート記憶部13と同一の機能を実現する。ディスクドライブ装置130は、コンピュータシステム100を曲調検出装置1として機能させるための曲調情報検出プログラムが記憶された記録媒体140から、当該曲調情報検出プログラムを読み出す。当該曲調情報検出プログラムが任意のコンピュータシステム100にインストールされることにより、当該コンピュータシステム100を上述した曲調検出装置として機能させることができる。なお、記録媒体140は、例えばフレキシブルディスクや光ディスクなどのディスクドライブ装置130によって読み取り可能な形式の記録媒体である。また、曲調情報検出プログラムは、予めコンピュータシステム100にインストールされていてもかまわない。
なお、以上の説明では、上記曲調情報検出プログラムは記録媒体140によって提供されるとしたが、インターネットなどの電気通信回線によって提供されてもよい。また、曲調情報検出における処理は、全部または一部をハードウェアによって処理される形態であってもよい。
(第2の実施形態)
次に、本発明の第2の実施形態に係る楽曲検索装置2について、図8および図9を用いて説明する。図8は、本発明の第2の実施形態に係る楽曲検索装置2を示すブロック図である。図8において、楽曲検索装置2は、楽曲入力部21、音階データ変換部22、出現確率算出部12、楽曲データ記憶部23、テンプレート記憶部13、荷重度算出部14、曲調情報検出部15、選曲ルール記憶部24、選曲情報入力部25および検索部26を備える。なお、図8において、出現確率算出部12、テンプレート記憶部13、荷重度算出部14および曲調情報検出部15は、第1の実施形態で説明した曲調検出装置1の各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。
図9は、第2の実施形態に係る楽曲検索装置2の処理の流れを表すフローチャートを示す図である。なお、図9において、ステップS1〜S4は、第1の実施形態で説明した曲調検出装置1の処理(図5参照。)のステップS1〜S4とそれぞれ同一の符号を付し、かつ同一の処理とし、説明を省略する。以下に、図9を用いて楽曲検索装置2の処理の流れについて説明する。
楽曲入力部21は、楽曲検索装置2の外部または内部から、楽曲データの入力が受け付けられたか否かを判定する(ステップS11)。ステップS11の判定の結果、楽曲データが入力されていないと判定された場合、ステップS15の処理が行われる。一方、ステップS11の判定の結果、楽曲データが入力されたと判定された場合、ステップS12の処理が行われる。すなわち、楽曲入力部21は、入力された楽曲データを楽曲データ記憶部23に記憶する(ステップS12)。
ここで楽曲データは、音声データであってもよいし、音階データであってもよい。音データとは、例えばPCM形式の音声データ、MP3およびAACなどの圧縮形式の音声データなどである。音階データとは、SMF(スタンダードMIDIファイル)などの音階情報を示す音階データなどである。なお、入力される楽曲データは、例えばメロディまたはベースなどの演奏のパートを少なくとも1つ含むものであればよく、例えば複数のパートで構成されるデータであってもよい。また、楽曲データの演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。
ステップS12の次に、音階データ変換部22は、ステップS12で記憶された楽曲データが音声データ(例えばPCM形式の音声データ)である場合には、当該音声データを音階情報を示す音階データに変換する(ステップS13)。音階データ変換部22は、例えば特開昭58−181090号公報に開示された方法で音声データを音階データに変換する。また、音階データ変換部22は、音声データがMP3およびAACなどの圧縮形式の音声データである場合には、一旦PCM形式の音声データに変換した後、音階データに変換する。なお、音階データに変換する方法は上記方法に限らず、他の方法を用いてもよい。また、ステップS12で記憶された楽曲データがSMFなどの音階データである場合には、上記ステップS13の処理は行わずにステップS1〜S4の処理が行われる。
ステップS13の次に、ステップS1〜S4(図5参照。)において、ステップS12で記憶された音階データまたはステップS13で変換された音階データに基づいて曲調情報が検出される。そして、曲調情報検出部15は、楽曲データ記憶部23に曲調情報を記憶する(ステップS14)。ここで楽曲データ記憶部23には、ステップS12で記憶された楽曲データと、ステップS4で検出された楽曲データの曲調情報とがそれぞれ関連づけられて記憶される。図10は、楽曲データ記憶部23に記憶されるデータの一例を示す図である。図10では、楽曲データ記憶部23には、楽曲データ以外に曲調情報として最も優勢な調(K)、調性(T)、最も優勢なスケール(S)およびメジャーの占有率(Rmaj)が記憶される。また、図10において、楽曲データのスケール(S)はスケールナンバーsで示される。また、楽曲データ記憶部23に記憶される楽曲データは、楽曲番号で管理されており、楽曲データとそれに関連づけられた曲調情報は、適宜削除または追加されることが可能である。
なお、ステップS14において楽曲データ記憶部23には、ステップS4において検出された荷重度の組、調、調性占有率、調性およびスケールなど曲調情報のうち少なくとも1つが記憶される。
ステップS14の次に、検索部26は、選曲情報入力部25から選曲情報が入力されたか否かを判定する(ステップS15)。ユーザは、選曲情報入力部25を用いて所望する楽曲の選曲情報を入力する。図11は、楽曲検索装置2がもつ入力画面の一例を示す図である。図11において、入力画面には、選曲情報リスト251と検索ボタン252とが表示される。そして、ユーザは、選曲情報入力部25を用いて選曲情報リスト251にある選曲情報の中から所望する選曲情報を選択した後、検索ボタン252を押すことによって選曲情報を入力する。
ステップS15の判定の結果、選曲情報が入力されていない場合、ステップS11の処理に戻る。一方、ステップS15の判定の結果、選曲情報が入力された場合、ステップS16の処理が行われる。
ステップS15の次に、検索部26は、入力された選曲情報に対応する検索条件を特定する(ステップS16)。ここで、入力された選曲情報に対応する検索条件を特定する方法としては、選曲ルール記憶部24に記憶される選曲ルールに基づいて特定する方法がある。図12は、選曲ルールの一例を示す図である。選曲ルール記憶部24には、楽曲の検索を行うための選曲ルールが記憶される。図12では、選曲ルールとして、選曲情報リスト251に表示された選曲情報と当該選曲情報に対応した検索条件とが予め設定される。すなわち図12において、例えば「明るい」という選曲情報に対して検索条件は調性がメジャーである楽曲データ、「やや楽しい」という選曲情報に対して検索条件はメジャーの占有率Rmajが0.6〜0.8である楽曲データなどと設定されている。
なお、選曲ルール記憶部24に記憶される選曲情報は、例えば「楽しい」「やや楽しい」「普通」「やや悲しい」「悲しい」を5段階に分類せずに「楽しい⇔悲しい」の度合いとしてもよい。このとき、選曲情報は、例えば「楽しい(1.0)⇔悲しい(0.0)」の度合いsxと設定される。また、検索条件は、例えばメジャー占有率Rmajが度合いsxと誤差0.1以内である楽曲データと設定される。そして、ユーザは選曲情報入力部25としてスライダーなどのバーを用いて選曲情報を入力する。
ステップS16の次に、検索部26は、ステップS12で楽曲データ記憶部23に記憶された楽曲データの中から、ステップS16で特定された条件に基づいて楽曲の検索を行い、その条件に合致する楽曲の曲名を表示する(ステップS17)。なお、ステップS17において、表示された楽曲の曲名を再生する処理をさらに行ってもよい。
なお、以上の説明では、ユーザは、選曲情報を入力することによって、検索に用いる検索条件を特定した。ここで、他の実施形態においては、ユーザは、検索条件を直接入力することによって特定してもよい。例えば、選曲情報入力部25においてユーザは、「調がC」や「メジャー」という条件またはこれらの条件を複数組み合わせた条件を入力する。このとき、検索部26は、楽曲データ記憶部23に記憶された曲調情報を用いて、ユーザが入力した検索条件に合致する楽曲の検索を行い、検索条件に合致する楽曲の曲名を表示する。その結果、ユーザは予め設定された選曲ルールによる検索条件ではなく、検索条件を自由に入力して楽曲の検索を行うことができる。
ステップS17の次に、ユーザが楽曲検索装置2の処理を終了するか否かを選択する(ステップS18)。当該処理を終了しない場合は、ステップS11に戻る。以上の処理を入力される楽曲データ毎に行う。
以上のように、本実施形態に係る楽曲検索装置2によって、ユーザは楽曲の曲調情報に基づいて楽曲を検索することが可能となる。
なお、第1および第2の実施形態で説明した楽曲処理装置(曲調検出装置1および楽曲検索装置2)は集積回路で構成されてもよい。例えば、第1の実施形態においては、出現確率算出部12、荷重度算出部14、および曲調情報検出部15が集積回路で構成されてもよい。このとき集積回路は、楽曲およびテンプレート記憶部13に記憶されているテンプレートを入力する入力端子と、曲調情報検出部15で検出した曲調情報を出力する出力端子とを備える。また、第2の実施形態においては、出現確率算出部12、荷重度算出部14、曲調情報検出部15、音階データ変換部22、および検索部26が集積回路で構成されてもよい。このとき集積回路は、楽曲、テンプレート記憶部13に記憶されているテンプレート、選曲ルール、選曲情報、楽曲データ記憶部23に記憶された楽曲データ、および楽曲データ記憶部23に記憶された曲調情報を入力する入力端子を備える。また、集積回路は、曲調情報検出部15で検出した曲調情報および検索部26で検索した結果を出力する出力端子とを備える。なお、データなどを記憶する構成部(例えばテンプレート記憶部13など)については、記憶部を備える集積回路であれば、当該記憶部に適宜記憶させ、集積回路の一部として構成するようにしてもよい。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
本発明に係る楽曲処理装置は、検出された曲調情報を用いて楽曲の検索を行う楽曲検索装置、ジュークボックスおよびオーディオプレーヤーなどの用途にも適用できる。
本発明の第1の実施形態に係る曲調検出装置1を示すブロック図 音階情報入力部11に入力される楽曲の音階情報の一例を示す図 各音名に関する出現確率の分布を概念的に示す図 24種類のテンプレートと当該各テンプレートについての荷重度の算出結果の一例を示す図 第1の実施形態に係る曲調検出装置1の処理の流れを表すフローチャートを示す図 同一スケールで形成される調の関係の一例を示す図 曲調検出装置1がコンピュータシステム100によって実現される構成例を示すブロック図 本発明の第2の実施形態に係る楽曲検索装置2を示すブロック図 第2の実施形態に係る楽曲検索装置2の処理の流れを表すフローチャートを示す図 楽曲データ記憶部23に記憶されるデータの一例を示す図 選曲情報入力部25の入力画面の一例を示す図 選曲ルールの一例を示す図
符号の説明
1 曲調検出装置
11 音階情報入力部
12 出現確率算出部
13 テンプレート記憶部
14 荷重度算出部
15 曲調情報検出部
100 コンピュータシステム
110 演算処理部
120 記憶部
130 ディスクドライブ装置
140 記録媒体
2 楽曲検索装置
21 楽曲入力部
22 音階データ変換部
23 楽曲データ記憶部
24 選曲ルール記憶部
25 選曲情報入力部
26 検索部

Claims (12)

  1. 所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置であって、
    前記所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得部と、
    楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、
    前記テンプレート記憶部に記憶されている複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出部と、
    前記荷重度算出部によって各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を前記曲調情報として検出する曲調情報検出部とを備える、楽曲処理装置。
  2. 前記テンプレート記憶部に記憶されているテンプレートは、楽曲の調を示し、楽曲の調毎に異なるテンプレートであって、
    前記曲調情報検出部は、前記荷重度の組に基づいて、前記所定の楽曲の調、調性、調性占有率、およびスケールのうち少なくとも1つを前記曲調情報としてさらに検出する、請求項1に記載の楽曲処理装置。
  3. 前記曲調情報検出部は、前記テンプレート記憶部に記憶されている各テンプレートのうち、前記荷重度算出部によって算出された荷重度が最大値となるテンプレートにより示される調を前記所定の楽曲の調として検出する、請求項2に記載の楽曲処理装置。
  4. 前記曲調情報検出部は、調性が同じである調を示す複数のテンプレートについて荷重度の総和を算出する処理を各調性について行い、算出された総和が大きい方の調性を前記所定の楽曲の調性として検出する、請求項2に記載の楽曲処理装置。
  5. 前記曲調情報検出部は、スケールが同じである調を示す複数のテンプレートについて荷重度の総和を算出する処理を各スケールについて行い、算出された総和が最も大きいスケールを前記所定の楽曲のスケールとして検出する、請求項2に記載の楽曲処理装置。
  6. 前記出現確率取得部が前記出現確率の分布を取得する対象となる複数の楽曲のデータを記憶する楽曲データ記憶部と、
    前記曲調情報検出部によって検出された荷重度の組および当該組から算出される情報の少なくとも一方の情報を、前記楽曲データ記憶部にデータが記憶されている楽曲のうちの当該情報に対応する楽曲に関連付けて曲調情報として前記楽曲データ記憶部に記憶させる曲調情報記憶部と、
    前記楽曲データ記憶部にデータが記憶されている楽曲を、前記曲調情報を用いて検索する検索部とをさらに備える、請求項1に記載の楽曲処理装置。
  7. ユーザによって入力されるべき選曲情報と前記曲調情報に関する条件とを関連付けた選曲ルールを記憶する選曲ルール記憶部をさらに備え、
    前記検索部は、ユーザによって選曲情報が入力された場合、前記楽曲データ記憶部にデータが記憶されている楽曲のうち、当該入力された選曲情報に関連付けられた条件を満たす楽曲を検索結果として出力する、請求項6に記載の楽曲処理装置。
  8. 所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置において用いられる方法であって、
    前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
    前記所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
    前記記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出ステップと、
    前記荷重度算出ステップにおいて各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を前記曲調情報として検出する曲調情報検出ステップとを含む、楽曲処理方法。
  9. 前記楽曲処理装置には、前記出現確率取得ステップにおいて前記出現確率の分布が取得される対象となる複数の楽曲のデータがさらに予め記憶されており、
    前記曲調情報検出ステップにおいて検出された荷重度の組および当該組から算出される情報の少なくとも一方の情報を、前記楽曲処理装置にデータが記憶されている楽曲のうちの当該情報に対応する楽曲に関連付けて曲調情報として前記楽曲処理装置に記憶させる曲調情報記憶ステップと、
    前記楽曲処理装置にデータが記憶されている楽曲を、前記曲調情報を用いて検索する検索ステップとをさらに含む、請求項8に記載の楽曲処理方法。
  10. 所定の楽曲について、楽曲の曲調を示す曲調情報を検出する楽曲処理装置のコンピュータに実行させるためのプログラムであって、
    前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
    前記所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
    前記記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出ステップと、
    前記荷重度算出ステップにおいて各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を前記曲調情報として検出する曲調情報検出ステップとを、前記コンピュータに実行させるプログラム。
  11. 請求項10に記載のプログラムを記録した、コンピュータに読み取り可能な記録媒体。
  12. 所定の楽曲について、楽曲の曲調を示す曲調情報を検出する集積回路であって、
    前記所定の楽曲の少なくとも一部について、音名毎の出現確率の分布を取得する出現確率取得部と、
    楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度を算出する荷重度算出部と、
    前記荷重度算出部によって各テンプレートについてそれぞれ算出された荷重度からなる荷重度の組を前記曲調情報として検出する曲調情報検出部とを備える、集積回路。
JP2006546679A 2004-12-10 2005-12-05 楽曲処理装置 Expired - Fee Related JP4698606B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006546679A JP4698606B2 (ja) 2004-12-10 2005-12-05 楽曲処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004359151 2004-12-10
JP2004359151 2004-12-10
PCT/JP2005/022303 WO2006062064A1 (ja) 2004-12-10 2005-12-05 楽曲処理装置
JP2006546679A JP4698606B2 (ja) 2004-12-10 2005-12-05 楽曲処理装置

Publications (2)

Publication Number Publication Date
JPWO2006062064A1 JPWO2006062064A1 (ja) 2008-06-12
JP4698606B2 true JP4698606B2 (ja) 2011-06-08

Family

ID=36577891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006546679A Expired - Fee Related JP4698606B2 (ja) 2004-12-10 2005-12-05 楽曲処理装置

Country Status (4)

Country Link
US (1) US7470853B2 (ja)
EP (1) EP1816639B1 (ja)
JP (1) JP4698606B2 (ja)
WO (1) WO2006062064A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100107095A1 (en) * 2008-10-24 2010-04-29 Microsoft Corporation Template-based calculator application
JP5182892B2 (ja) * 2009-09-24 2013-04-17 日本電信電話株式会社 音声検索方法,音声検索装置および音声検索プログラム
US20120234158A1 (en) * 2011-03-15 2012-09-20 Agency For Science, Technology And Research Auto-synchronous vocal harmonizer
EP2772904B1 (en) * 2013-02-27 2017-03-29 Yamaha Corporation Apparatus and method for detecting music chords and generation of accompaniment.

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5656000A (en) * 1979-09-27 1981-05-16 Philips Nv Method and device for producing characteristic values
JPH01219634A (ja) * 1988-02-29 1989-09-01 Nec Home Electron Ltd 自動採譜方法及び装置
JPH05108073A (ja) * 1991-10-16 1993-04-30 Casio Comput Co Ltd スケール判別装置
JPH10105169A (ja) * 1996-09-26 1998-04-24 Yamaha Corp ハーモニーデータ生成装置およびカラオケ装置
WO2003009277A2 (en) * 2001-07-20 2003-01-30 Gracenote, Inc. Automatic identification of sound recordings
JP2004233965A (ja) * 2002-10-24 2004-08-19 National Institute Of Advanced Industrial & Technology 音楽音響データ中のサビ区間を検出する方法及び装置並びに該方法を実行するためのプログラム
WO2006005533A2 (en) * 2004-07-09 2006-01-19 Sony Deutschland Gmbh Method for classifying music

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038658A (en) * 1988-02-29 1991-08-13 Nec Home Electronics Ltd. Method for automatically transcribing music and apparatus therefore
DE68907616T2 (de) 1988-02-29 1994-03-03 Nippon Denki Home Electronics Verfahren und Gerät zur Musiktranskribierung.
JP2715816B2 (ja) 1992-06-15 1998-02-18 ヤマハ株式会社 調検出装置および自動編曲装置
US5753843A (en) * 1995-02-06 1998-05-19 Microsoft Corporation System and process for composing musical sections
US6057502A (en) * 1999-03-30 2000-05-02 Yamaha Corporation Apparatus and method for recognizing musical chords
DE10109648C2 (de) * 2001-02-28 2003-01-30 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals
EP1577877B1 (en) 2002-10-24 2012-05-02 National Institute of Advanced Industrial Science and Technology Musical composition reproduction method and device, and method for detecting a representative motif section in musical composition data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5656000A (en) * 1979-09-27 1981-05-16 Philips Nv Method and device for producing characteristic values
JPH01219634A (ja) * 1988-02-29 1989-09-01 Nec Home Electron Ltd 自動採譜方法及び装置
JPH05108073A (ja) * 1991-10-16 1993-04-30 Casio Comput Co Ltd スケール判別装置
JPH10105169A (ja) * 1996-09-26 1998-04-24 Yamaha Corp ハーモニーデータ生成装置およびカラオケ装置
WO2003009277A2 (en) * 2001-07-20 2003-01-30 Gracenote, Inc. Automatic identification of sound recordings
JP2004233965A (ja) * 2002-10-24 2004-08-19 National Institute Of Advanced Industrial & Technology 音楽音響データ中のサビ区間を検出する方法及び装置並びに該方法を実行するためのプログラム
WO2006005533A2 (en) * 2004-07-09 2006-01-19 Sony Deutschland Gmbh Method for classifying music

Also Published As

Publication number Publication date
EP1816639B1 (en) 2013-09-25
JPWO2006062064A1 (ja) 2008-06-12
EP1816639A4 (en) 2012-08-29
US7470853B2 (en) 2008-12-30
US20080011148A1 (en) 2008-01-17
WO2006062064A1 (ja) 2006-06-15
EP1816639A1 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
JP4672613B2 (ja) テンポ検出装置及びテンポ検出用コンピュータプログラム
US9117432B2 (en) Apparatus and method for detecting chord
WO2007010637A1 (ja) テンポ検出装置、コード名検出装置及びプログラム
JP4916947B2 (ja) リズム検出装置及びリズム検出用コンピュータ・プログラム
US20100300262A1 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
JP5229998B2 (ja) コード名検出装置及びコード名検出用プログラム
JPWO2009104269A1 (ja) 楽曲判別装置、楽曲判別方法、楽曲判別プログラム及び記録媒体
JP5196550B2 (ja) コード検出装置およびコード検出プログラム
JP4698606B2 (ja) 楽曲処理装置
JP6288197B2 (ja) 評価装置及びプログラム
JP2007156187A (ja) 楽曲処理装置
JP6102076B2 (ja) 評価装置
JP4932614B2 (ja) コード名検出装置及びコード名検出用プログラム
JP7033365B2 (ja) 音楽処理システム、音楽処理プログラム、及び音楽処理方法
JP5153517B2 (ja) コード名検出装置及びコード名検出用コンピュータ・プログラム
JP4218066B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP6954780B2 (ja) カラオケ装置
JP6604307B2 (ja) コード検出装置、コード検出プログラムおよびコード検出方法
JP4218064B2 (ja) カラオケ装置およびカラオケ装置用プログラム
JP2623955B2 (ja) 電子楽器
JP5589767B2 (ja) 音声処理装置
JP4760348B2 (ja) 楽曲選択装置および楽曲選択用コンピュータプログラム
WO2020255214A1 (ja) 楽曲解析装置、プログラムおよび楽曲解析方法
KR100444930B1 (ko) 음떨림 및 음감오류에 기인하는 오인식을 줄이기 위한 미디노트 도출방법 및 그 장치
JP6315469B2 (ja) カラオケ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110301

R150 Certificate of patent or registration of utility model

Ref document number: 4698606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees