JP2007156187A - Music processing device - Google Patents

Music processing device Download PDF

Info

Publication number
JP2007156187A
JP2007156187A JP2005352562A JP2005352562A JP2007156187A JP 2007156187 A JP2007156187 A JP 2007156187A JP 2005352562 A JP2005352562 A JP 2005352562A JP 2005352562 A JP2005352562 A JP 2005352562A JP 2007156187 A JP2007156187 A JP 2007156187A
Authority
JP
Japan
Prior art keywords
music
information
type
appearance probability
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005352562A
Other languages
Japanese (ja)
Inventor
Hiroaki Yamane
裕明 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005352562A priority Critical patent/JP2007156187A/en
Publication of JP2007156187A publication Critical patent/JP2007156187A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To calculate the music information showing the types composing the music and the sections of those various types even when the music includes key changes. <P>SOLUTION: The tone scale information input section 11 accepts the input tone scale information of a music. The appearance probability calculator 12 calculates the appearance probability of the tone included in the tone scale information from the tone scale information input to the tone scale information input section 11. The weight calculator 14 calculates the weight of each template from the appearance probability distribution of the calculated music and on the templates different for the types of the music stored in the template memory 13. The music information calculator 15 calculates the music information showing the types composing the music and the sections of those types from the calculated weight. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、楽曲処理装置に関し、より特定的には、楽曲の音階情報から当該楽曲を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置および、算出した楽曲情報を用いて楽曲の検索を行う楽曲処理装置に関する。   The present invention relates to a music processing device, and more specifically, a music processing device that calculates music information representing each type constituting the music and a section in which each type exists from the scale information of the music, and a calculation The present invention relates to a music processing apparatus that searches for music using the music information that has been performed.

従来から、楽曲のタイプを検出する方法が知られている。楽曲のタイプとは、楽曲のイメージを決める要素(例えば調など)を示すものである。例えば楽曲の調を検出する方法としては、楽曲の音階に関する情報(以下、音階情報という)に基づいて当該音階情報に含まれる各音名の出現確率を算出し、各音名に関する当該出現確率の分布(出現確率分布と呼ぶ。後述する図3参照。)を用いて楽曲の調を検出する方法が知られている。この方法では、複数種類の調それぞれについて、予め作成された理想的な出現確率分布をテンプレートとしてそれぞれ用意しておく。そして、調を検出する対象となる楽曲の出現確率分布を算出し、当該楽曲についての出現確率分布と当該各テンプレートとを1つずつ個別に照合する。その結果、出現確率分布が当該楽曲と最も近似するテンプレートにより示される調を楽曲の調として決定する。   Conventionally, methods for detecting the type of music are known. The type of music indicates an element (for example, key) that determines the image of the music. For example, as a method for detecting the key of a music piece, the appearance probability of each pitch name included in the scale information is calculated based on information about the musical scale (hereinafter referred to as scale information), and the appearance probability of each pitch name is calculated. A method of detecting the key of a music using a distribution (referred to as an appearance probability distribution; see FIG. 3 described later) is known. In this method, an ideal appearance probability distribution created in advance is prepared as a template for each of a plurality of types of keys. And the appearance probability distribution of the music used as the object which detects a key is calculated, and the appearance probability distribution about the said music and each said template are collated one by one. As a result, the key indicated by the template whose appearance probability distribution is closest to the music is determined as the key of the music.

ここで、実際の楽曲には、転調を含むような複数種類の調で構成される楽曲がある。このような転調を含む楽曲の出現確率分布は、複数種類の調の出現確率分布が合成された分布となる結果、楽曲に含まれる各調の出現確率分布のいずれとも異なる分布となる場合がある。上記従来の方法では、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するので、楽曲の出現確率分布が複数の調の合成分布となる場合、合成分布に最も近似するテンプレートにより示される調が楽曲の調に決定される。つまり、この場合、楽曲に含まれる調のいずれとも異なる調が楽曲の調として決定されることになる。したがって、上記従来の方法では、転調を含むような複数種類の調で構成される楽曲については調を誤検出してしまう可能性がある。そして、上記従来の方法では、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するので、当該楽曲全体の調しか検出することができず、楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出することはできなかった。   Here, the actual music includes music composed of a plurality of types of keys including modulation. The appearance probability distribution of the music including such a modulation may be a distribution different from any of the appearance probability distributions of each key included in the music as a result of combining the appearance probability distributions of a plurality of types of keys. . In the above-described conventional method, the appearance probability distribution of the music and the appearance probability distribution of the template are collated on a one-to-one basis. Therefore, when the appearance probability distribution of the music is a composite distribution of a plurality of keys, the template that most closely approximates the composite distribution. The key indicated by is determined as the key of the music. That is, in this case, a key different from any of the keys included in the music is determined as the key of the music. Therefore, in the above conventional method, there is a possibility that a key is erroneously detected for music composed of a plurality of types of keys including a modulation. In the above-described conventional method, the appearance probability distribution of the music and the appearance probability distribution of the template are collated on a one-to-one basis, so that only the key of the entire music can be detected. It was not possible to calculate music information indicating the section where each key exists.

そこで従来において、入力される音階情報を所定の区間に区切り、各区間の調を検出する方法が提案されている(例えば、特許文献1参照。)。この方法では、例えば楽曲の1小節目から4小節目までを1つの区間、2小節目から5小節目までを次の区間というように、楽曲の音階情報を複数の区間に区切る。そして、区間毎にその区間の調が検出される。つまり、楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出している。さらに、検出された各区間の調の変化によって、転調する箇所が検出される。
特許第2715816号公報
Therefore, conventionally, a method has been proposed in which input scale information is divided into predetermined sections and the key of each section is detected (see, for example, Patent Document 1). In this method, for example, musical scale information of music is divided into a plurality of sections such that the first bar to the fourth bar of the music are one section, and the second bar to the fifth bar are the next section. Then, the key of the section is detected for each section. In other words, music information representing each key constituting the music and a section where each key exists is calculated. Furthermore, the part to be modulated is detected by the detected change in the tone of each section.
Japanese Patent No. 2715816

ここで、特許文献1に開示された方法では、調を検出する対象は入力された音階情報の全体ではなく、当該音階情報を短く区切った区間である。具体的には、特許文献1の方法では、転調を検出するためには、少なくとも数小節程度(例えば4小節程度)の単位に音階情報を区切らなければならない。しかしながら、音階情報を区間に区切ると、調を検出する対象に含まれる音の数が少なくなる。つまり、音階情報を区間に区切ることによって、調を検出する対象に含まれる情報数が少なくなるので、調を検出する精度が必然的に低下してしまうという問題があった。以上より、特許文献1の方法では、音階情報を区切らなければならないことが理由で、各区間の調を検出する精度が低下してしまい、楽曲の楽曲情報を正確に算出することはできなかった。   Here, in the method disclosed in Patent Document 1, the target whose key is to be detected is not the entire input scale information, but a section obtained by dividing the scale information into short sections. Specifically, in the method of Patent Document 1, in order to detect modulation, scale information must be divided into units of at least about several measures (for example, about four measures). However, if the scale information is divided into sections, the number of sounds included in the key detection target is reduced. That is, by dividing the scale information into sections, the number of pieces of information included in the key detection target is reduced, so that the accuracy of key detection is inevitably lowered. As described above, in the method of Patent Document 1, the accuracy of detecting the key of each section is lowered because the scale information must be divided, and the music information of the music cannot be accurately calculated. .

それ故、本発明は、楽曲が転調を含む場合であっても楽曲を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を正確に算出することが可能な楽曲処理装置を提供することを目的とする。   Therefore, the present invention provides a music processing apparatus capable of accurately calculating music information that represents each type constituting a music and a section in which each type exists even if the music includes modulation. The purpose is to provide.

第1の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置であって、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、テンプレート記憶部に記憶されている複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出部と、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出部とを備える。   1st invention is a music processing apparatus which calculates the music information showing each type which comprises the said music part, and the area where each said type exists about the music part which is at least a part of predetermined music, The appearance probability acquisition unit that acquires the distribution of the appearance probability for each musical name for the music part, and the template that is different for each type of music and that shows the distribution of the appearance probability for each musical name for each of the plurality of types A template storage unit, and for each of a plurality of templates stored in the template storage unit, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit The total length of the sections in which the load degree calculation unit for calculating the load degree for each and the types constituting the music part exist are occupied in the entire music part. As the ratio and the size of the type of load degree are matched respectively for each type that includes a music information calculating unit that calculates the music information.

第2の発明は、上記第1の発明において、楽曲情報算出部は、楽曲部分を構成する各タイプについて、当該各タイプが存在する区間の長さを、当該各タイプの荷重度の大きさとそれぞれ一致する長さとした仮楽曲情報を設定する設定部と、楽曲部分を構成するタイプと仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、楽曲部分の一部を当該楽曲部分内で入れ替える入替部と、入替部で入れ替えた内容を示す入替情報を記憶する入替情報記憶部と、入替情報記憶部に記憶された入替情報に基づいて、入替部で入れ替えた順番と逆の順番で仮楽曲情報の一部を入れ替える逆入替部とを含む。   In a second aspect based on the first aspect, the music information calculation unit, for each type constituting the music part, determines the length of the section in which each type exists, and the magnitude of the load degree of each type. A part of the music part so that the setting unit for setting the temporary music information having the matching length and the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information. Is replaced in the music part, a replacement information storage unit that stores replacement information indicating contents replaced in the replacement unit, and a replacement order in the replacement unit based on replacement information stored in the replacement information storage unit. And a reverse replacement unit that replaces part of the provisional music information in the reverse order.

第3の発明は、上記第2の発明において、入替部は、仮楽曲情報が表すタイプと楽曲部分を構成するタイプとが相違する度合いを当該仮楽曲情報が表す各区間においてそれぞれ算出し、当該相違する度合いが小さくなるように楽曲部分の一部を当該楽曲部分内で入れ替える処理を繰り返し、当該相違する度合いが所定値よりも小さくなるときに当該処理を終了し、入替情報記憶部は、入替部が楽曲部分の一部を入れ替える処理を行うたびに、入替情報を記憶することを特徴とする。   In a third aspect based on the second aspect, the replacement unit calculates the degree of difference between the type represented by the provisional music information and the type constituting the musical piece part in each section represented by the provisional music information, The process of replacing a part of the music part in the music part so as to reduce the degree of difference is repeated, and when the degree of difference becomes smaller than a predetermined value, the process ends, and the replacement information storage unit Each time the section performs a process of replacing a part of the music part, replacement information is stored.

第4の発明は、上記第1の発明において、出現確率取得部が出現確率の分布を取得する対象となる複数の楽曲のデータを記憶する楽曲データ記憶部と、楽曲情報算出部において算出された楽曲情報を、楽曲データ記憶部にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて楽曲データ記憶部に記憶させる楽曲情報記憶部と、楽曲データ記憶部にデータが記憶されている楽曲を、楽曲情報を用いて検索する検索部とをさらに備える。   According to a fourth aspect of the present invention, in the first aspect, the appearance probability acquisition unit is calculated by a music data storage unit that stores data of a plurality of pieces of music for which an appearance probability distribution is acquired, and a music information calculation unit. The music information is stored in the music data storage unit in association with the music corresponding to the music information among the music data stored in the music data storage unit, and the music data storage unit stores the data. And a search unit that searches the stored music using the music information.

第5の発明は、上記第4の発明において、ユーザが楽曲の一部を指定する入力を受け付ける指定一部入力部をさらに備え、検索部は、楽曲データ記憶部に記憶されている楽曲情報のうち、指定一部入力部において指定された一部の楽曲情報を用いて検索することを特徴とする。   According to a fifth aspect, in the fourth aspect, the apparatus further includes a designated part input unit that receives an input for designating a part of the song by the user, and the search unit stores the song information stored in the song data storage unit. Among these, a search is performed using a part of music information designated by the designated part input unit.

第6の発明は、上記第4の発明において、ユーザによって入力されるべき選曲情報と楽曲情報に関する条件とを関連付けた選曲ルールを記憶する選曲ルール記憶部をさらに備え、検索部は、ユーザによって選曲情報が入力された場合、楽曲データ記憶部にデータが記憶されている楽曲と関連付けられた楽曲情報のうち、当該入力された選曲情報に関連付けられた楽曲情報に関する条件を満たす楽曲情報を検出し、検出した楽曲情報に関連付けられた楽曲を検索結果として出力する。   A sixth invention further includes a music selection rule storage unit that stores a music selection rule that associates music selection information to be input by a user with a condition related to music information in the fourth invention, and the search unit selects the music selection by the user When the information is input, the music information associated with the music selection information associated with the inputted music selection information is detected among the music information associated with the music whose data is stored in the music data storage unit, The music associated with the detected music information is output as a search result.

第7の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置において用いられる方法であって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、楽曲処理装置に記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出ステップと、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出ステップとを含む。   7th invention is used in the music processing apparatus which calculates the music information showing each type which comprises the said music part, and the area where each said type exists about the music part which is at least a part of predetermined music. In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probabilities for each pitch name are stored in advance for each of the plurality of types. Appearance probability acquisition step of acquiring the appearance probability distribution for each, and for each of a plurality of templates stored in the music processing device, of the template occupying the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step There is a load degree calculation step for calculating the load degree for each type, and a type constituting the music part. As the total length of the interval and the magnitude of the ratio and the type of load level in the whole of the music piece portions match each for each type, and a music information calculation step of calculating the music information.

第8の発明は、上記第7の発明において、楽曲処理装置には、出現確率取得ステップにおいて出現確率の分布が取得される対象となる複数の楽曲のデータがさらに予め記憶されており、楽曲情報算出ステップにおいて算出された楽曲情報を、楽曲処理装置にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて楽曲処理装置に記憶させる楽曲情報記憶ステップと、楽曲処理装置にデータが記憶されている楽曲を、楽曲情報を用いて検索する検索ステップとをさらに含む。   In an eighth aspect based on the seventh aspect, the music processing apparatus further stores in advance data of a plurality of pieces of music from which the distribution of appearance probabilities is acquired in the appearance probability acquisition step. A music information storage step for storing the music information calculated in the calculation step in the music processing apparatus in association with the music corresponding to the music information among the music data stored in the music processing apparatus; And a search step of searching for music in which data is stored using music information.

第9の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置のコンピュータに実行させるためのプログラムであって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、楽曲処理装置に記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出ステップと、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出ステップとを、コンピュータに実行させるプログラムである。   According to a ninth aspect of the present invention, there is provided a computer of a music processing apparatus that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music. In the music processing apparatus, a template that is different for each type of music and indicates a distribution of appearance probabilities for each pitch name is stored in advance for each of a plurality of types. For the appearance probability acquisition step of acquiring the appearance probability distribution for each pitch name, and for each of the plurality of templates stored in the music processing device, the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step A load degree calculation step for calculating a load degree for each type, which is a load degree indicating a ratio of the template to be occupied, and a music part. A music information calculation step for calculating music information so that the total length of the section in which the type to be present occupies in the music part and the magnitude of the load degree of the type are the same for each type. A program to be executed by a computer.

第10の発明は、上記第9の発明における上記プログラムを記録した、コンピュータに読み取り可能な記録媒体である。   A tenth invention is a computer-readable recording medium on which the program according to the ninth invention is recorded.

第11の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する集積回路であって、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出部と、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出部とを備える。   An eleventh aspect of the invention is an integrated circuit that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music, Appearance probability acquisition unit that acquires distribution of appearance probabilities for each musical name for music parts, and acquisition of appearance probabilities for a plurality of templates that are different for each type of music and that show the distribution of appearance probabilities for each musical name The degree of load indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the part, and a load degree calculating part for calculating the load degree for each type, and the section in which the type constituting the music part exists The music information calculation is performed to calculate the music information so that the ratio of the total length of the music portion to the entire music portion and the magnitude of the load degree of the type are the same for each type. And a part.

上記第1の発明によれば、複数のテンプレートの中から最も一致するテンプレートを1つ選択するのではなく、各テンプレートの荷重度を算出する。すなわち、所定の楽曲(楽曲情報を算出する対象となる楽曲)の少なくとも一部である楽曲部分について、テンプレートに対応する楽曲のタイプを1つ決定するのではなく、「楽曲部分に占める各タイプの割合」を算出する。したがって、例えば楽曲部分が2つの調で構成される場合には、その2つの調のテンプレートの荷重度が大きく算出される。つまり、楽曲が転調を含む場合であっても楽曲を構成する各タイプを、荷重度を用いて正確に算出することが可能となる。そして、楽曲部分を構成する各タイプを正確に算出した荷重度を用いて、楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出することで、楽曲が転調を含む場合であっても当該楽曲の楽曲情報を正確に算出することが可能になる。また、楽曲情報を算出することで、ユーザに対して楽曲部分を構成する各タイプが存在する区間を提示することができ、ユーザは楽曲部分を構成する各タイプがどの区間に存在するかを正確に把握することができる。   According to the first aspect of the present invention, instead of selecting one template that most closely matches from a plurality of templates, the degree of load of each template is calculated. That is, instead of determining one type of music corresponding to the template for a music part that is at least a part of a predetermined music (music for which music information is to be calculated), "Percentage" is calculated. Therefore, for example, when the music part is composed of two tones, the degree of load of the templates of the two tones is calculated to be large. That is, even if the music includes modulation, each type constituting the music can be accurately calculated using the load degree. Then, using the degree of load obtained by accurately calculating each type constituting the music part, the music information is transposed by calculating music information representing each type constituting the music part and a section in which each type exists. Even if it contains, it becomes possible to calculate correctly the music information of the said music. In addition, by calculating the music information, it is possible to present to the user a section in which each type constituting the music part exists, and the user can accurately determine in which section each type constituting the music part exists. Can grasp.

上記第2の発明によれば、楽曲部分を構成するタイプと仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、楽曲部分の一部を当該楽曲部分内で入れ替え、その後、入れ替えた入替情報に基づいて、入れ替えた順番と逆の順番で仮楽曲情報の一部を入れ替えることで、楽曲部分の楽曲情報を正確に算出することができる。   According to the second aspect of the present invention, a part of the music part is included in the music part so that the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information. The music information of the music portion can be accurately calculated by exchanging a part of the provisional music information in the reverse order of the exchange order based on the exchange information after the exchange.

上記第3の発明によれば、入替情報記憶部に記憶される入替情報は、相違する度合いが小さくなるように入れ替えた入替情報であり、当該入替情報を用いることで、楽曲情報を効率よく算出することができる。   According to the third aspect, the replacement information stored in the replacement information storage unit is replacement information that is replaced so that the degree of difference is small, and the replacement information is used to efficiently calculate music information. can do.

上記第4の発明によれば、正確な楽曲情報を用いて楽曲の検索を行うことができ、精度の高い検索を実現することができる。   According to the fourth aspect, music can be searched using accurate music information, and high-precision search can be realized.

上記第5の発明によれば、指定された楽曲の一部についての検索を行うことができ、より柔軟な検索を実現することができる。   According to the fifth aspect, it is possible to perform a search for a part of the designated music piece and to realize a more flexible search.

上記第6の発明によれば、ユーザは、入力した選曲条件に関連する楽曲を容易に検索することができる。   According to the sixth aspect, the user can easily search for music related to the input music selection condition.

以下に、本発明の実施形態について図面を参照しながら説明する。なお、以下の説明において、「楽曲情報」とは、楽曲を構成する各タイプと当該各タイプが存在する区間とを表した情報である。具体的には、楽曲情報は楽曲内の区間の情報と当該区間のタイプとの組み合わせで表された情報である。「タイプ」とは、楽曲のイメージを決める要素であり、例えば調性、スケール、調などを示すものである。ここで、「調性」とはメジャーおよびマイナーの2種類を意味する。「スケール」とは、調号が同一となるメジャーおよびマイナーの12種類の組み合わせを意味する。「調」とは調性とスケールとで構成される24種類(C;Cメジャー、Am;Aマイナー、等)を意味する。また、本発明における楽曲処理装置の一例として、上記楽曲情報を算出する楽曲情報算出装置を第1の実施形態として説明する。また、本発明における楽曲処理装置の他の例として、上記楽曲情報を用いて楽曲を検索する楽曲検索装置2を第2の実施形態として説明する。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, “music information” is information representing each type constituting a music and a section in which each type exists. Specifically, the music information is information represented by a combination of information on a section in the music and the type of the section. The “type” is an element that determines the image of the music, and indicates, for example, tonality, scale, and tone. Here, “tonality” means two types of major and minor. “Scale” means 12 major and minor combinations with the same key signature. “Tone” means 24 types (C: C major, Am: A minor, etc.) composed of tonality and scale. As an example of a music processing apparatus according to the present invention, a music information calculation apparatus that calculates the music information will be described as a first embodiment. As another example of the music processing apparatus according to the present invention, a music search apparatus 2 that searches for music using the music information will be described as a second embodiment.

(第1の実施形態)
まず、本発明の第1の実施形態に係る楽曲情報算出装置1について、図1を用いて説明する。図1は、本発明の第1の実施形態に係る楽曲情報算出装置1を示すブロック図である。図1において、楽曲情報算出装置1は、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、および入替情報記憶部16を備える。
(First embodiment)
First, the music information calculation apparatus 1 according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a music information calculation apparatus 1 according to the first embodiment of the present invention. In FIG. 1, the music information calculation device 1 includes a scale information input unit 11, an appearance probability calculation unit 12, a template storage unit 13, a load degree calculation unit 14, a music information calculation unit 15, and a replacement information storage unit 16.

音階情報入力部11は、楽曲情報算出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける。音階情報入力部11に入力される楽曲の音階情報は、少なくとも音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報を含むデータとする。図2は、音階情報入力部11に入力される楽曲の音階情報の一例を示す図である。図2において、楽曲の音階情報は、「小節数/拍数/ティック数」で示された時間と、音の強さを表すベロシティと、ノートナンバーとで表現される。ここで、上記時間は、各ノートナンバーが発音または消音となる時間を示す。ベロシティは0〜127の範囲の整数で表現され、ベロシティの値が大きいほど音量が大きい。なお、ベロシティの値が「0」であることは消音を示す。ノートナンバーの値は、ピアノの鍵盤中央のCの高さを示す値を「60」として設定される。また図2においては、デュレーションは時間およびベロシティによって表される。例えば時間が「000/0/000」のとき、ノートナンバーが「60」でベロシティは「90(発音)」となる。また、時間が「000/0/432」のとき、ノートナンバーが「60」でベロシティは「0(消音)」となる。したがって、「000/0/000」から「000/0/432」までの時間区間の音階情報は、ノートナンバーが「60」、ベロシティが「90」で、デュレーションが432ティックとなる。   The scale information input unit 11 accepts input of musical scale information from outside or inside the music information calculation apparatus 1. The musical scale information input to the musical scale information input unit 11 is data including at least information on the pitch (note number) and the length (duration) of the sound. FIG. 2 is a diagram illustrating an example of musical scale information input to the musical scale information input unit 11. In FIG. 2, the musical scale information is expressed by the time indicated by “number of bars / number of beats / number of ticks”, velocity representing the intensity of sound, and note number. Here, the time indicates the time when each note number is sounded or muted. The velocity is expressed by an integer in the range of 0 to 127, and the volume increases as the velocity value increases. A velocity value of “0” indicates mute. The value of the note number is set with “60” being a value indicating the height of C at the center of the piano keyboard. In FIG. 2, the duration is represented by time and velocity. For example, when the time is “000/0/000”, the note number is “60” and the velocity is “90 (pronunciation)”. When the time is “000/0/432”, the note number is “60” and the velocity is “0 (silence)”. Therefore, the scale information in the time interval from “000/0/000” to “000/0/432” has a note number of “60”, a velocity of “90”, and a duration of 432 ticks.

なお、図2に示す楽曲の音階情報の一例では、時間は「小節数/拍数/ティック数」で示されたが、例えば「時間/分/秒/フレーム/サブフレーム」で示されてもよい。またベロシティは、0〜127の範囲の整数で表現したが、例えば、発音を表す「1」および消音を表す「0」の2値で表現されてもよい。   In the example of the musical scale information shown in FIG. 2, the time is indicated by “measure number / beat number / tick number”, but may be indicated by “hour / minute / second / frame / subframe”, for example. Good. The velocity is expressed by an integer in the range of 0 to 127. For example, the velocity may be expressed by a binary value of “1” indicating sound generation and “0” indicating mute.

以上のように、図2に示す楽曲の音階情報には、音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報が含まれる。なお、楽曲の音階情報は、単純にノートナンバーに対してデュレーションを1対1で持つ方法で表現されてもよい。また楽曲の音階情報は、ノートナンバーおよびデュレーションの他に、ノートナンバーの連続的な変化を表すピッチベンドの情報をさらに含む方法で表現されてもよい。このときノートナンバーはピッチベンドの値に応じて変動する。   As described above, the musical scale information shown in FIG. 2 includes information on the pitch (note number) and the length (duration) of the sound. Note that the musical scale information may simply be expressed by a method having a one-to-one duration with respect to a note number. In addition to the note number and duration, the musical scale information may be expressed by a method that further includes pitch bend information representing a continuous change in the note number. At this time, the note number varies according to the pitch bend value.

出現確率算出部12は、音階情報入力部11に入力された楽曲の音階情報に含まれる各音名の出現確率をそれぞれ算出する。図3は、各音名に関する出現確率の分布(出現確率分布)を概念的に示す図である。図3においては、C;i=0、C♯;i=1、〜、B;i=11のように、12種類の音名には0から11までの音名ナンバーiがそれぞれ付されている。なお、以下の説明では、音名ナンバーがiである音名のことを「音名i」と記載することがある。   The appearance probability calculation unit 12 calculates the appearance probability of each pitch name included in the musical scale information input to the musical scale information input unit 11. FIG. 3 is a diagram conceptually showing the distribution of appearance probabilities (appearance probability distribution) for each pitch name. In FIG. 3, the pitch name numbers 0 to 11 are assigned to the 12 types of pitch names, such as C; i = 0, C #; i = 1,..., B; Yes. In the following description, a pitch name having a pitch name number i may be referred to as “pitch name i”.

テンプレート記憶部13は、24種類の調に対応する24種類のテンプレートを記憶する。24種類のテンプレートは、楽曲の異なるタイプをそれぞれ表したものとなる。またテンプレートは、それに対応する調の理想的な出現確率分布を示す。これらの各テンプレートは、予め作成されてテンプレート記憶部13に記憶される。図4は、24種類のテンプレートと各テンプレートについての荷重度の算出結果との一例を示す図である。図4においては、各テンプレートにより示される24種類の調には、メジャーの調をj=0〜11、マイナーの調をj=12〜23とした調ナンバーjが付されている。なお、以下の説明では、調ナンバーがjである調のことを「調j」と記載することがある。また、各テンプレートについての荷重度の算出結果については後述にて説明する。   The template storage unit 13 stores 24 types of templates corresponding to 24 types of keys. The 24 types of templates represent different types of music. The template also shows an ideal appearance probability distribution of the corresponding key. Each of these templates is created in advance and stored in the template storage unit 13. FIG. 4 is a diagram illustrating an example of 24 types of templates and calculation results of the degree of load for each template. In FIG. 4, key numbers j are assigned to 24 types of keys indicated by each template, with the major key j = 0-11 and the minor key j = 12-23. In the following description, a key whose key number is j may be referred to as “key j”. The calculation result of the degree of load for each template will be described later.

荷重度算出部14は、出現確率算出部12で算出される楽曲の出現確率分布とテンプレート記憶部13に記憶される各テンプレートとに基づいて、各テンプレートについての荷重度をそれぞれ算出する(図4参照。)。荷重度算出部14は、24種類のテンプレートに1つずつ対応するように24個の荷重度を算出する。ここで、荷重度とは、楽曲の出現確率分布においてテンプレートの出現確率分布が占める割合(占有率)を示す。換言すれば、テンプレートの荷重度とは、24種類のテンプレートを用いて楽曲の出現確率分布を表す場合に、そのテンプレートの出現確率分布が寄与する割合を示す値である。例えば、荷重度の値が大きいテンプレートは、楽曲の出現確率分布において占める割合が大きいテンプレートである。したがって、荷重度の値が大きいテンプレートに対応する調は、当該楽曲において占める割合が大きい調である。   The load degree calculation unit 14 calculates the load degree for each template based on the appearance probability distribution of the music calculated by the appearance probability calculation unit 12 and each template stored in the template storage unit 13 (FIG. 4). reference.). The load degree calculation unit 14 calculates 24 load degrees so as to correspond to 24 types of templates one by one. Here, the degree of load indicates the ratio (occupancy) of the appearance probability distribution of the template in the appearance probability distribution of music. In other words, the degree of template load is a value indicating the contribution ratio of the appearance probability distribution of a template when the appearance probability distribution of the music is expressed using 24 types of templates. For example, a template having a large value of the degree of load is a template having a large proportion of the appearance probability distribution of music. Therefore, the key corresponding to the template with a large value of the degree of load is a key that occupies a large proportion of the music.

楽曲情報算出部15は、楽曲を構成する調が存在する区間の合計の長さが当該楽曲の全体に占める割合と、荷重度算出部14で算出された当該調のテンプレートが占める割合を示す荷重度の大きさとが各調についてそれぞれ一致するように、楽曲の楽曲情報を算出する。楽曲情報を算出する詳細な処理については後述する。入替情報記憶部16には、楽曲情報算出部15の処理において発生する区間の入替情報が記憶される。   The music information calculation unit 15 is a load indicating the ratio of the total length of the sections in which the key constituting the music exists to the entire music and the ratio of the key template calculated by the load degree calculation unit 14. The music information of the music is calculated so that the magnitude of the degree matches for each key. Detailed processing for calculating music information will be described later. In the replacement information storage unit 16, replacement information of sections generated in the process of the music information calculation unit 15 is stored.

次に、第1の実施形態に係る楽曲情報算出装置1の処理の流れについて図5を用いて説明する。図5は、第1の実施形態に係る楽曲情報算出装置1の処理の流れを表すフローチャートを示す図である。   Next, a processing flow of the music information calculation apparatus 1 according to the first embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating a process flow of the music information calculation apparatus 1 according to the first embodiment.

音階情報入力部11は、楽曲情報算出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける(ステップS1)。例えば、SMF(スタンダードMIDIファイル)などの、音階情報を示す音階データが入力される。なお、入力される音階データは、PCMデータ等の音声データを変換したものであってもよい。ここでは、図2に示したような音階情報が入力されるものとする。なお、本発明では、入力された楽曲を小節等の区間に区切る必要がないので、本発明において用いる音階情報には、小節の位置を示す情報が含まれている必要はない。本発明では、転調を含む楽曲を小節等の区間に区切ることなく、楽曲に含まれている調を正確に検出することができる。   The musical scale information input unit 11 receives input of musical scale information from outside or inside the music information calculation apparatus 1 (step S1). For example, scale data indicating scale information, such as SMF (standard MIDI file), is input. Note that the scale data to be input may be converted from voice data such as PCM data. Here, it is assumed that the scale information as shown in FIG. 2 is input. In the present invention, since it is not necessary to divide the input music into sections such as measures, the scale information used in the present invention does not need to include information indicating the position of the measure. In the present invention, the key included in the music can be accurately detected without dividing the music including the modulation into sections such as measures.

ステップS1の次に、出現確率算出部12は、ステップS1で入力された楽曲全体の音階情報に含まれる各音名の出現確率をそれぞれ算出する(ステップS2)。ここで音名iの出現確率をP(i)とする。出現確率P(i)は、音階情報に含まれる音名iが持つデュレーションの総和を全ての音名(i=0〜11)が持つデュレーションの総和で除算することにより算出される。なお、各音名の出現確率の総和ΣP(i)は、以下の式(1)のように示される。
ΣP(i)=1 (i=0〜11)…(1)
After step S1, the appearance probability calculation unit 12 calculates the appearance probability of each pitch name included in the scale information of the entire music input in step S1 (step S2). Here, let P (i) be the appearance probability of the pitch name i. The appearance probability P (i) is calculated by dividing the sum of durations of the pitch name i included in the scale information by the sum of durations of all the pitch names (i = 0 to 11). The total sum ΣP (i) of the appearance probabilities of each pitch name is expressed as in the following formula (1).
ΣP (i) = 1 (i = 0 to 11) (1)

上記ステップS2において示したように、本実施形態では、楽曲の各音名の出現確率分布は出現確率算出部12によって算出されるものとした。ここで、楽曲の各音名の出現確率分布が予め分かっている場合、すなわち、楽曲の各音名の出現確率分布を示すデータが得られている場合には、出現確率算出部12は、ステップS2において当該データを取得するようにしてもよい。この場合、ステップS2で出現確率分布を算出する処理を省略することができる。   As shown in step S <b> 2, in this embodiment, the appearance probability distribution of each pitch name of the music is calculated by the appearance probability calculation unit 12. Here, when the appearance probability distribution of each sound name of the music is known in advance, that is, when data indicating the appearance probability distribution of each sound name of the music is obtained, the appearance probability calculating unit 12 performs the step The data may be acquired in S2. In this case, the process of calculating the appearance probability distribution in step S2 can be omitted.

ステップS2の次に、荷重度算出部14は、各テンプレートについての荷重度をそれぞれ算出する(ステップS3)。荷重度は、ステップS2で算出された各音名の出現確率(楽曲の実際の出現確率)と、テンプレート記憶部13に記憶された24種類のテンプレートにより示される出現確率とを用いて算出される。以下、荷重度を算出する方法を詳細に説明する。   After step S2, the load degree calculation unit 14 calculates the load degree for each template (step S3). The degree of load is calculated using the appearance probability (actual appearance probability of music) calculated in step S2 and the appearance probabilities indicated by the 24 types of templates stored in the template storage unit 13. . Hereinafter, a method for calculating the degree of load will be described in detail.

まず、楽曲情報を算出する対象となる楽曲の出現確率分布を、24種類の調(j=0〜23)に対応する24種類のテンプレートの出現確率分布を用いて表現することを考える。ここで、対象となる楽曲の出現確率分布において調jのテンプレートの出現確率分布が占める割合を示す荷重度をW(j)とする。そして、調jのテンプレートに含まれる音名iの出現確率をPt(j,i)とする。このとき、次の式(2)および式(3)の関係が成り立つ。
ΣW(j)=1 (j=0〜23)…(2)
ΣPt(j,i)=1 (i=0〜11)…(3)
ここで、各テンプレートを用いて(すなわち、W(j)およびPt(j,i)を用いて)、対象となる楽曲の音階情報に含まれる音名iの出現確率Pf(i)を表現した場合、当該出現確率Pf(i)は次の式(4)のように示される。
Pf(i)=Σ(W(j)*Pt(j,i)) (j=0〜23)…(4)
したがって、ステップS2で算出された楽曲の実際の出現確率P(i)とPf(i)とが全音名(i=0〜11)について一致するように各テンプレートの荷重度W(j)(j=0〜23)を算出する。つまり、式(2)〜(4)の関係を満たし、i=0〜11についてP(i)=Pf(i)となるようなW(j)を求めればよい。具体的には、ここでは、各音名の出現確率の誤差(P(i)−Pf(i))を2乗した和を最小化させることによって各テンプレートの荷重度W(j)(j=0〜23)を求める。より具体的には、音名iの出現確率の誤差をE(i)とし、その誤差E(i)を2乗した和を‘Eとすると、E(i)および‘Eはそれぞれ式(5)および式(6)のように示される。
E(i)=P(i)−Pf(i)…(5)
‘E=Σ(E(i))2 (i=0〜11)…(6)
この式(6)を用いて、‘Eが最小となる各テンプレートの荷重度W(j)(j=0〜23)を算出する。なお、各テンプレートの荷重度W(j)(j=0〜23)は、例えば進化戦略(Evolutionary Strategy)を用いて算出することができるが、W(j)を算出するアルゴリズムはどのようなものであってもよい。以上のように、ステップS3では、各テンプレートの荷重度W(j)(j=0〜23)が算出される。各テンプレートの荷重度W(j)(j=0〜23)は、例えば図4に示すような算出結果となる。
First, let us consider expressing the appearance probability distribution of music for which music information is calculated using the appearance probability distributions of 24 types of templates corresponding to 24 types of keys (j = 0 to 23). Here, the load degree indicating the ratio of the appearance probability distribution of the key j template in the appearance probability distribution of the target music is defined as W (j). Then, the appearance probability of the pitch name i included in the template of key j is Pt (j, i). At this time, the following expressions (2) and (3) are satisfied.
ΣW (j) = 1 (j = 0-23) (2)
ΣPt (j, i) = 1 (i = 0 to 11) (3)
Here, using each template (that is, using W (j) and Pt (j, i)), the appearance probability Pf (i) of the pitch name i included in the scale information of the target music is expressed. In this case, the appearance probability Pf (i) is expressed by the following equation (4).
Pf (i) = Σ (W (j) * Pt (j, i)) (j = 0 to 23) (4)
Therefore, the load degree W (j) (j) of each template is set so that the actual appearance probabilities P (i) and Pf (i) calculated in step S2 are the same for all pitch names (i = 0 to 11). = 0 to 23). That is, W (j) that satisfies the relations of equations (2) to (4) and satisfies P (i) = Pf (i) for i = 0 to 11 may be obtained. Specifically, here, by minimizing the sum of squares of errors (P (i) −Pf (i)) of the appearance probabilities of the pitch names, the load degree W (j) (j = 0-23). More specifically, let E (i) be the error of the appearance probability of the pitch name i, and let E be the sum of the squares of the error E (i), then E (i) and 'E can be expressed by Equation (5), respectively. ) And equation (6).
E (i) = P (i) -Pf (i) (5)
'E = Σ (E (i)) 2 (i = 0 to 11) (6)
Using this equation (6), the degree of load W (j) (j = 0 to 23) of each template that minimizes 'E' is calculated. Note that the load degree W (j) (j = 0 to 23) of each template can be calculated by using, for example, an evolutionary strategy (Evolutionary Strategies). What algorithm is used to calculate W (j)? It may be. As described above, in step S3, the load degree W (j) (j = 0 to 23) of each template is calculated. The load degree W (j) (j = 0 to 23) of each template is a calculation result as shown in FIG. 4, for example.

ステップS3の次に、楽曲情報算出部15は、楽曲を構成する調が存在する区間の合計の長さが当該楽曲の全体に占める割合と、ステップS3で算出された当該調のテンプレートが占める割合を示す荷重度の大きさとが各調についてそれぞれ一致するように、楽曲の楽曲情報を算出する(ステップS4)。楽曲情報は、上述したように、楽曲内の区間の情報と当該区間の調との組み合わせで表された情報であり、例えば[区間の開始位置−区間の終了位置:その区間の調j]で表される情報である。例えば、算出対象となる楽曲全体を100%(1.0)として、前半60%(0.6)がEメジャー、後半の40%(0.4)がFメジャーであるとする。このとき、楽曲が開始する位置0%(0.0)を開始位置とし、楽曲が開始する位置0%から60%(0.6)の位置を終了位置とする前半区間がEメジャー(j=4)となる。また、当該60%の位置を開始位置とし、楽曲が終了する位置100%(1.0)を終了位置とする後半区間がFメジャー(j=5)となる。したがって、この楽曲の楽曲情報は([0.0−0.6:4]、[0.6−1.0:5])で表現される。   Next to step S3, the music information calculation unit 15 determines the ratio of the total length of the sections in which the key constituting the music is present to the entire music and the ratio of the key template calculated in step S3. The music information of the music is calculated so that the magnitude of the load degree indicating the same corresponds to each tone (step S4). As described above, the music information is information represented by a combination of the information of the section in the music and the key of the section. For example, [start position of the section−end position of the section: key j of the section] It is the information that is represented. For example, suppose that the entire music to be calculated is 100% (1.0), the first 60% (0.6) is E major, and the second 40% (0.4) is F major. At this time, the first half section where the start position is 0% (0.0) where the music starts and the end position is 0% to 60% (0.6) where the music starts is E major (j = 4). Further, the latter half section having the 60% position as the start position and the position where the music ends 100% (1.0) is the end position is F major (j = 5). Therefore, the music information of this music is expressed by ([0.0-0.6: 4], [0.6-1.0: 5]).

以下、図6を用いて、楽曲情報を算出する処理について詳細に説明する。図6は、楽曲情報を算出する処理の流れを示すフローチャートである。なお、楽曲情報を算出する処理を説明するための前提として、算出対象の楽曲が、楽曲の開始0%(0.0)の位置から20%(0.2)の位置までの区間がCm、当該20%の位置から50%(0.5)の位置までの区間がD、当該50%の位置から60%(0.6)の位置までの区間がCm、当該60%の位置から楽曲の終了100%(1.0)の位置までの区間がDである楽曲とする。つまり、図7の最上段に示すように、算出対象となる実際の楽曲が([0.0−0.2:15]、[0.2−0.5:2]、[0.5−0.6:15]、[0.6−1.0:2])である楽曲とする。ただし、Cmの調ナンバーがj=15とし、Dの調ナンバーがj=2とする。図7は、楽曲情報を算出する処理の一部における各楽曲のデータを模式的に示した図である。なおこの場合、ステップS3において算出される荷重度W(j)は、式(7)に示す値となる。
W(2)=0.7、W(15)=0.3…(7)
この荷重度の算出結果によれば、算出対象の楽曲を構成する調はDおよびCmの調のみからなることが分かる。また、Dの調となる各区間の合計の長さが楽曲全体のうちの70%に相当する長さとなることが分かる。また、Cmの調となる各区間の合計の長さが楽曲全体のうちの30%に相当する長さとなることが分かる。
Hereinafter, the process of calculating music information will be described in detail with reference to FIG. FIG. 6 is a flowchart showing a flow of processing for calculating music information. In addition, as a premise for explaining the process of calculating the music information, the music from the start 0% (0.0) position to the 20% (0.2) position of the music is Cm, The section from the 20% position to the 50% (0.5) position is D, the section from the 50% position to the 60% (0.6) position is Cm, and from the 60% position to the music It is assumed that a song whose section to the end 100% (1.0) is D is D. That is, as shown in the uppermost part of FIG. 7, the actual music to be calculated is ([0.0-0.2: 15], [0.2-0.5: 2], [0.5- 0.6: 15], [0.6-1.0: 2]). However, the key number of Cm is j = 15, and the key number of D is j = 2. FIG. 7 is a diagram schematically showing data of each piece of music in a part of the process for calculating the music information. In this case, the load degree W (j) calculated in step S3 is a value shown in Expression (7).
W (2) = 0.7, W (15) = 0.3 (7)
According to the calculation result of the degree of load, it can be seen that the key constituting the music to be calculated includes only the key of D and Cm. It can also be seen that the total length of each section in the D key is equivalent to 70% of the entire music. It can also be seen that the total length of each section in the Cm key is equivalent to 30% of the entire music.

楽曲情報算出部15は、このような式(7)に示す荷重度の算出結果に基づいて、図7の最下段に示すように、算出対象となる楽曲の楽曲情報を例えば([0.0−0.7:2]、[0.7−1.0:15])と仮定する(ステップS401)。以下、この仮定した楽曲情報を仮楽曲情報という。   On the basis of the load degree calculation result shown in Equation (7), the music information calculation unit 15 sets the music information of the music to be calculated, for example, ([0.0 -0.7: 2], [0.7-1.0: 15]) (step S401). Hereinafter, this assumed music information is referred to as provisional music information.

ステップS401の次に、出現確率算出部12は、音階情報入力部11に入力された算出対象の楽曲について、仮楽曲情報が表す区間(以下、仮区間という)毎に各音名の出現確率を算出する(ステップS402)。つまり、出現確率算出部12は、算出対象の楽曲について上記前半区間[0.0−0.7]の音階情報に含まれる音名iの出現確率Pa(i)と、上記後半区間[0.7−1.0]の音名iの出現確率Pb(i)とをそれぞれ算出する。   After step S401, the appearance probability calculation unit 12 calculates the appearance probability of each pitch name for each section (hereinafter referred to as a temporary section) represented by temporary music information for the music to be calculated input to the scale information input unit 11. Calculate (step S402). That is, the appearance probability calculation unit 12 includes the appearance probability Pa (i) of the pitch name i included in the scale information of the first half section [0.0-0.7] for the music to be calculated, and the second half section [0. 7-1.0] and the appearance probability Pb (i) of the pitch name i are respectively calculated.

ステップS402の次に、楽曲情報算出部15は、算出対象となる楽曲の各仮区間ついての各音名の出現確率(Pa(i)およびPb(i))と、仮楽曲情報が表す各仮区間の調(DおよびCm)のテンプレートに含まれる各音名の出現確率とを用いて、楽曲全体についての誤差関数を算出する(ステップS403)。ここで、算出対象の楽曲における前半区間の音名iの出現確率Pa(i)と、当該前半区間の調として仮定した調D(j=2)のテンプレートに含まれる音名iの出現確率Pt(2,i)との誤差をEa(i)とする。また、算出対象の楽曲における後半区間の音名iの出現確率Pb(i)と、当該後半区間の調として仮定した調Cm(j=15)のテンプレートに含まれる音名iの出現確率Pt(15,i)との誤差をEb(i)とする。また、Ea(i)の2乗した和を‘Eaとし、Eb(i)の2乗した和を‘Ebとする。このとき、Ea(i)、‘Ea、Eb(i)、および‘Ebはそれぞれ式(8)〜式(11)で表現される。
Ea(i)=Pa(i)−Pt(2、i)…(8)
‘Ea=Σ(Ea(i))2 (i=0〜11)…(9)
Eb(i)=Pb(i)−Pt(15、i)…(10)
‘Eb=Σ(Eb(i))2 (i=0〜11)…(11)
式(9)および式(11)より、楽曲全体についての誤差関数‘Ewは式(12)となる。
‘Ew=0.7*‘Ea+0.3*‘Eb…(12)
式(12)において、誤差関数‘Ewの値が0に限りなく近づくと、算出対象となる楽曲の各仮区間ついての各音名の出現確率と、仮楽曲情報が表す各仮区間の調のテンプレートに含まれる各音名の出現確率とが一致するようになる。つまり、誤差関数‘Ewの値が0に限りなく近づけば、算出対象となる楽曲の各仮区間の調が仮楽曲情報が表す各仮区間の調と一致する。このように、誤差関数は、算出対象となる楽曲の各仮区間の調と、仮楽曲情報が表す各仮区間の調とが相違する度合いを示す指標である。
After step S402, the music information calculation unit 15 generates the appearance probability (Pa (i) and Pb (i)) of each pitch name for each temporary section of the music to be calculated, and each temporary music information represented by the temporary music information. An error function for the entire music is calculated using the appearance probabilities of each pitch name included in the template of the section key (D and Cm) (step S403). Here, the appearance probability Pa (i) of the pitch name i in the first half section in the music to be calculated, and the appearance probability Pt of the pitch name i included in the template of the key D (j = 2) assumed as the key of the first half section. Let Ea (i) be the error from (2, i). In addition, the appearance probability Pb (i) of the pitch name i in the latter half section in the song to be calculated and the appearance probability Pt () of the pitch name i included in the template of the key Cm (j = 15) assumed as the key of the latter half section. 15, i) is Eb (i). Further, the sum of squared Ea (i) is set as 'Ea', and the sum of squared Eb (i) is set as 'Eb'. At this time, Ea (i), 'Ea, Eb (i), and' Eb are expressed by Expression (8) to Expression (11), respectively.
Ea (i) = Pa (i) −Pt (2, i) (8)
'Ea = Σ (Ea (i)) 2 (i = 0 to 11) (9)
Eb (i) = Pb (i) −Pt (15, i) (10)
'Eb = Σ (Eb (i)) 2 (i = 0 to 11) (11)
From equation (9) and equation (11), the error function 'Ew for the entire music is expressed by equation (12).
'Ew = 0.7 *' Ea + 0.3 * 'Eb (12)
In the equation (12), when the value of the error function 'Ew approaches as much as 0, the appearance probability of each pitch name for each temporary section of the music to be calculated and the key of each temporary section represented by the temporary music information The appearance probabilities of the pitch names included in the template coincide with each other. That is, when the value of the error function 'Ew approaches as much as possible, the key of each temporary section of the music to be calculated matches the key of each temporary section represented by the temporary music information. Thus, the error function is an index indicating the degree of difference between the key of each temporary section of the music to be calculated and the key of each temporary section represented by the temporary music information.

ステップS403の次に、楽曲情報算出部15は、ステップS403で算出した誤差関数の値が所定値よりも小さいか否か判断する(ステップS404)。なお、所定値には、算出対象となる楽曲の各仮区間の調と、仮楽曲情報が表す各仮区間の調とが一致するとして許容される値が設定される。ステップS404において誤差関数の値が所定値よりも小さい値であれば、算出対象となる楽曲の各仮区間が示す調と、仮楽曲情報が表す各仮区間の調とが一致するので、処理はステップS405に進む。ステップS405において、楽曲情報算出部15は、仮楽曲情報を算出対象の楽曲の楽曲情報として算出する。ステップS404において誤差関数の値が所定値以上大きい値であれば、処理はステップS406に進む。ステップS406において楽曲情報算出部15は、ステップS403で算出した誤差関数の値を初期値‘Ew(0)に設定する。   Following step S403, the music information calculation unit 15 determines whether or not the value of the error function calculated in step S403 is smaller than a predetermined value (step S404). The predetermined value is set to a value that is allowed as the key of each temporary section of the music to be calculated matches the key of each temporary section represented by the temporary music information. If the value of the error function is smaller than the predetermined value in step S404, the key indicated by each temporary section of the music to be calculated matches the key of each temporary section represented by the temporary music information. Proceed to step S405. In step S405, the music information calculation unit 15 calculates temporary music information as music information of the music to be calculated. If the value of the error function is larger than the predetermined value in step S404, the process proceeds to step S406. In step S406, the music information calculation unit 15 sets the error function value calculated in step S403 to an initial value 'Ew (0)'.

ステップS406の次に、楽曲情報算出部15は、算出対象となる楽曲において任意の区間を入れ替える(ステップS407)。つまり、楽曲情報算出部15は、算出対象となる楽曲の一部を当該楽曲内で入れ替える。ここでは、ランダムに選ばれた任意の区間を入れ替えるとする。具体的には、例えば区間の開始位置と区間の長さとがそれぞれランダムに選ばれた区間を入れ替えることが考えられる。図7の例では、入替(1)として、0.0から0.2までのDの区間と、0.7から0.9までのCmの区間を入れ替えている。入替(1)で入れ替えた後の楽曲は、入替(1)後に示される楽曲となる。ステップS407の次に、楽曲情報算出部15は、区間を入れ替えた楽曲について、仮区間毎に各音名の出現確率を算出する(ステップS408)。ステップS408の次に、楽曲情報算出部15は、区間を入れ替えた楽曲の各仮区間の各音名の出現確率と、仮楽曲情報が表す各仮区間の調のテンプレートに含まれる各音名の出現確率とを用いて、楽曲全体についての誤差関数を算出する(ステップS409)。誤差関数の算出方法については、ステップS403と同様の方法で算出する。   After step S406, the music information calculation unit 15 replaces an arbitrary section in the music to be calculated (step S407). That is, the music information calculation unit 15 replaces a part of the music to be calculated in the music. Here, it is assumed that an arbitrary section selected at random is replaced. Specifically, for example, it is conceivable to replace sections in which the start position of the section and the length of the section are selected at random. In the example of FIG. 7, as replacement (1), the D section from 0.0 to 0.2 and the Cm section from 0.7 to 0.9 are switched. The music after replacement (1) is the music shown after replacement (1). After step S407, the music information calculation unit 15 calculates the appearance probability of each pitch name for each temporary section for the music whose section has been replaced (step S408). After step S408, the music information calculation unit 15 sets the appearance probability of each pitch name in each temporary section of the music whose section has been replaced, and each pitch name included in the key template of each temporary section represented by the temporary music information. Using the appearance probability, an error function for the entire music is calculated (step S409). About the calculation method of an error function, it calculates with the method similar to step S403.

ステップS409の次に、楽曲情報算出部15は、ステップS409で算出した誤差関数の値が、初期値よりも小さいか否かを判断する(ステップS410)。図7の例で示した入替(1)後では、0.0から0.7までの前半区間ではDの全区間の長さとCmの区間の長さとの比がD:Cm=6:1となっている。また、0.7から1.0までの後半区間では、Cmの区間の長さとDの全区間の長さとの比がCm:D=2:1となっている。つまり、入替(1)後の楽曲は、入替前に比べて、仮楽曲情報([0.0−0.7:2]、[0.7−1.0:15])の楽曲により近づいている。このため、ステップS409で算出される誤差関数の値は、ステップS406で設定した初期値‘Ew(0)よりも小さくなることが分かる。つまり、入替(1)後の誤差関数を‘Ew(1)とすると、‘Ew(1)<‘Ew(0)となる。この場合、誤差関数の値が初期値よりも小さくなるので、処理はステップS412に進む。なお、誤差関数の値が初期値‘Ew(0)以上大きい場合には、楽曲情報算出部15はステップS407で入れ替えた区間を元に戻して(ステップS411)、ステップS407において再度別の区間を入れ替える。   After step S409, the music information calculation unit 15 determines whether or not the value of the error function calculated in step S409 is smaller than the initial value (step S410). After the replacement (1) shown in the example of FIG. 7, in the first half section from 0.0 to 0.7, the ratio of the length of all sections of D to the length of sections of Cm is D: Cm = 6: 1. It has become. In the latter half section from 0.7 to 1.0, the ratio of the length of the Cm section to the length of all the sections of D is Cm: D = 2: 1. That is, the music after the replacement (1) is closer to the music of the temporary music information ([0.0-0.7: 2], [0.7-1.0: 15]) than before the replacement. Yes. For this reason, it is understood that the value of the error function calculated in step S409 is smaller than the initial value 'Ew (0) set in step S406. That is, if the error function after the replacement (1) is ‘Ew (1)’, ‘Ew (1) <’ Ew (0). In this case, since the value of the error function is smaller than the initial value, the process proceeds to step S412. When the value of the error function is greater than the initial value 'Ew (0) or more, the music information calculation unit 15 restores the section replaced in step S407 (step S411), and again selects another section in step S407. Replace.

ステップS410の次に、ステップS409で算出した誤差関数の値と、入れ替えた区間の情報とを入替情報記憶部16に記憶する(ステップS412)。ここで、図8に入替情報記憶部16に記憶される情報の一例を示す。図8に示すように、入替情報記憶部16には、入替情報として、入れ替えした順番を示す入替番号n(nは自然数)、入れ替えした区間の情報、および入替後の誤差関数の値が記憶されている。図7の入替(1)では0.0から0.2までのDの区間と0.7から0.9までのCmの区間とを入れ替えるとした。したがって、ステップS412において入替情報記憶部16には、入替番号(1)に対して[0.0−0.2]と[0.7−0.9]の区間の情報と、誤差関数‘Ew(1)が記憶される。   Following step S410, the value of the error function calculated in step S409 and the information of the replaced section are stored in the replacement information storage unit 16 (step S412). Here, FIG. 8 shows an example of information stored in the replacement information storage unit 16. As shown in FIG. 8, the replacement information storage unit 16 stores, as replacement information, a replacement number n (n is a natural number) indicating the replacement order, information on the replaced section, and the value of the error function after replacement. ing. In the replacement (1) in FIG. 7, the section D from 0.0 to 0.2 and the section Cm from 0.7 to 0.9 are replaced. Therefore, in step S412, the replacement information storage unit 16 stores information on the sections [0.0−0.2] and [0.7−0.9] with respect to the replacement number (1) and the error function 'Ew. (1) is stored.

ステップS412の次に、楽曲情報算出部15は、記憶された誤差関数の値が所定値よりも小さいか否か判断する(ステップS413)。この所定値とは、ステップS404の所定値と同じ値である。ステップS413において誤差関数の値が所定値以上大きい値であれば、処理はステップS407に戻り、さらに区間を入れ替える。ここでは、図7に示す入替1後の誤差関数の値が所定値以上大きいとして、ステップS407に戻るとする。そして、図7に示すようにステップS407で2回目の区間の入れ替え(入替(2))として、0.5から0.6までのCmの区間と、0.9から1.0までのDの区間を入れ替えるとする。このとき、図7に示すように、入替(2)の入れ替え後を示す入替(2)後の楽曲は、仮楽曲情報の楽曲と一致していることが分かる。したがって、この場合、ステップS410では前回(入替1後の誤差関数の値‘Ew(1))よりも小さいと判断され、ステップS412において入替情報記憶部16に入替(2)に関する入替情報が記憶される。   After step S412, the music information calculation unit 15 determines whether or not the stored error function value is smaller than a predetermined value (step S413). This predetermined value is the same value as the predetermined value in step S404. If the value of the error function is larger than the predetermined value in step S413, the process returns to step S407, and the section is further switched. Here, it is assumed that the value of the error function after the replacement 1 shown in FIG. 7 is greater than a predetermined value and the process returns to step S407. Then, as shown in FIG. 7, in step S407, as the second section replacement (replacement (2)), the section of Cm from 0.5 to 0.6 and the section of D from 0.9 to 1.0 Suppose you want to swap sections. At this time, as shown in FIG. 7, it can be seen that the music after the replacement (2) indicating the replacement (2) is the same as the music in the provisional music information. Accordingly, in this case, in step S410, it is determined that the value is smaller than the previous time (error function value 'Ew (1) after replacement 1), and replacement information related to replacement (2) is stored in replacement information storage unit 16 in step S412. The

また、入替(2)後の誤差関数の値‘Ew(2)は0となり所定値よりも小さく、区間を入れ替えした楽曲の各区間が示す調と、仮楽曲情報が表す各仮区間の調とが一致するので、処理はステップS414に進む。このとき、入替(2)後の楽曲の楽曲情報は、仮楽曲情報と一致する。ステップS414において楽曲情報算出部15は、ステップS412で記憶された入替情報に基づいて、算出対象となる楽曲の楽曲情報を算出する。具体的には、図9に示すように、入替情報記憶部16に記憶された入替番号を逆順にたどって、仮楽曲情報、つまり入替(2)後の楽曲情報を入れ替える。図9は、ステップS414の処理を模式的に示した図である。図8では入替情報記憶部16には、入替番号(1)および(2)と、その番号に対応する入れ替え区間の情報が記憶されている。したがって、ステップS414では、図9に示すように、まず入替(2)後の楽曲情報について入替番号(2)の入れ替え区間の情報に基づいて、区間[0.5−0.6]と区間[0.9−1.0]とを入れ替える(図9の入替(2)後)。その後に、入替番号1の入れ替え区間の情報に基づいて、区間[0.0−0.2]と区間[0.7−0.9]とを入れ替える(図9の入替(1)後)。そして図9に示すように、入替1後の楽曲情報が算出対象となる実際の楽曲の楽曲情報と一致することがわかる。つまり、楽曲情報算出部15は、入替(1)後の楽曲情報を算出対象となる楽曲の楽曲情報として算出する。   Further, the error function value 'Ew (2) after replacement (2) is 0 and smaller than a predetermined value, and the key indicated by each section of the music whose section has been replaced and the key of each temporary section represented by the provisional music information Since they match, the process proceeds to step S414. At this time, the music information of the music after the replacement (2) matches the provisional music information. In step S414, the music information calculation unit 15 calculates the music information of the music to be calculated based on the replacement information stored in step S412. Specifically, as shown in FIG. 9, the replacement numbers stored in the replacement information storage unit 16 are traced in the reverse order, and the temporary music information, that is, the music information after the replacement (2) is replaced. FIG. 9 is a diagram schematically showing the process of step S414. In FIG. 8, the replacement information storage unit 16 stores replacement numbers (1) and (2) and information of replacement sections corresponding to the numbers. Therefore, in step S414, as shown in FIG. 9, first, for the music information after the replacement (2), based on the information of the replacement section of the replacement number (2), the section [0.5-0.6] and the section [ 0.9-1.0] (after replacement (2) in FIG. 9). Thereafter, based on the information of the replacement section with the replacement number 1, the section [0.0-0.2] and the section [0.7-0.9] are replaced (after replacement (1) in FIG. 9). As shown in FIG. 9, it can be seen that the music information after the replacement 1 matches the music information of the actual music to be calculated. That is, the music information calculation unit 15 calculates the music information after the replacement (1) as the music information of the music to be calculated.

このように、楽曲情報算出部15は、算出対象となる楽曲の区間を入れ替える処理を繰り返し行い、誤差関数を小さくしていく。つまり楽曲情報算出部15は、算出対象となる楽曲を仮楽曲情報の楽曲に近づける処理を行う。またこの処理において楽曲情報算出部15は、入れ替えた2つの区間を入替情報記憶部16に順番に記録しておく。そして楽曲情報算出部15は、誤差関数が所定値よりも小さくなったら、処理を行った算出対象となる楽曲の楽曲情報が仮楽曲情報であると確定する。その後、楽曲情報算出部15は、確定した楽曲情報に対してこれまで入れ替えてきた区間を逆の順番に入れ替えていく。最後まで入れ替えたところで、確定した楽曲情報が表す各区間の調が、算出対象となる実際の楽曲の各区間の調と一致し、楽曲情報算出部15は算出対象となる実際の楽曲の楽曲情報を算出することができる。   As described above, the music information calculation unit 15 repeatedly performs the process of exchanging the sections of the music to be calculated, thereby reducing the error function. That is, the music information calculation unit 15 performs a process of bringing the music to be calculated closer to the music of the temporary music information. In this process, the music information calculation unit 15 records the two replaced sections in order in the replacement information storage unit 16. When the error function becomes smaller than the predetermined value, the music information calculation unit 15 determines that the music information of the music to be calculated that has been processed is provisional music information. Thereafter, the music information calculation unit 15 replaces the sections that have been replaced so far with respect to the confirmed music information in the reverse order. When the key is replaced until the end, the key of each section represented by the confirmed music information matches the key of each section of the actual music to be calculated, and the music information calculation unit 15 sets the music information of the actual music to be calculated. Can be calculated.

なお、上述のステップS407からS413では、区間の入れ替え方法としてランダムに選ばれた任意の区間について入れ替えるとしたがこれに限定されない。例えば楽曲情報算出部15は、誤差関数‘Ewを適合度として遺伝的アルゴリズム等を利用して、入れ替える2つの区間を例えば「区間1」と「区間2」としたとき、[区間1の開始位置、区間2の開始位置、区間の長さ]を最適化する。つまり、楽曲情報算出部15は、N(自然数)回の入れ替えを連続して行うことを、[区間1の開始位置、区間2の開始位置、区間の長さ]をN組作ることで表現し、N回の入れ替えを行った結果の誤差関数‘Ew(N)が所定値より小さくなるように各パラメータを最適化し、その結果を用いて区間を入れ替える。楽曲情報算出部15は、このような入れ替え方法を採用してもよい。   In steps S407 to S413 described above, an arbitrary section selected at random as the section replacement method is replaced. However, the present invention is not limited to this. For example, the music information calculation unit 15 uses, for example, “section 1” and “section 2” as the two sections to be exchanged by using a genetic algorithm or the like with the error function 'Ew as the fitness, and [start position of section 1] , Start position of section 2, length of section]. That is, the music information calculation unit 15 expresses that N (natural number) replacement is performed continuously by creating N sets of [start position of section 1, start position of section 2, length of section]. , Each parameter is optimized so that the error function 'Ew (N) resulting from the N-time replacement is smaller than a predetermined value, and the result is used to replace the interval. The music information calculation unit 15 may employ such a replacement method.

また例えば、処理を行う算出対象となる楽曲について、ステップS401で仮定した仮楽曲情報で表される各仮区間のうち、異なる調の仮区間内からそれぞれ抽出した区間に対応する区間を入れ替えるようにしてもよい。図7の例でいえば、処理を行う楽曲について、仮楽曲情報の楽曲におけるDの仮区間[0.0−0.7]内にある一部の区間に対応する区間と、0.7から1.0までのCmの仮区間[0.7−1.0]内にある一部の区間に対応する区間とを入れ替える。これは、誤差関数が、処理を行う楽曲と仮楽曲情報の楽曲とを各仮区間で比較することによって算出されるためである。例えば、処理を行う楽曲について、Dの仮区間[0.0−0.7]内にある一部の区間に対応する区間(例えば[0.0−0.2]と[0.5−0.7])を入れ替えるとする。ここで、処理を行う楽曲の[0.0−0.7]の仮区間にDの調が多く含まれていれば、誤差関数の値は小さくなる。しかしながら、処理を行う楽曲の[0.0−0.7]の仮区間内で一部の区間を入れ替えても、処理を行う楽曲の[0.0−0.7]に含まれるDの調の割合は変化しない。つまり、処理を行う楽曲の[0.0−0.7]の仮区間内で一部の区間を入れ替えても、誤差関数の値は変わらない。したがって、処理を行う算出対象となる楽曲について、ステップS401で仮定した仮楽曲情報で表される各仮区間のうち、異なる調の仮区間内からそれぞれ抽出した一部の区間に対応する区間を入れ替えるようにすることで、効率良く誤差関数の値を小さくすることができる。   Further, for example, for the music to be calculated to be processed, among the temporary sections represented by the temporary music information assumed in step S401, the sections corresponding to the sections extracted from the temporary sections of different keys are replaced. May be. In the example of FIG. 7, with respect to the music to be processed, sections corresponding to some sections within the temporary section [0.0-0.7] of D in the music of the temporary music information; Sections corresponding to some sections in the temporary section [0.7-1.0] of Cm up to 1.0 are replaced. This is because the error function is calculated by comparing the music to be processed and the music of the temporary music information in each temporary section. For example, for music to be processed, sections (for example, [0.0-0.2] and [0.5-0] corresponding to some sections in the temporary section [0.0-0.7] of D). .7]) is replaced. Here, if there are many D keys in the [0.0-0.7] temporary section of the music to be processed, the value of the error function is small. However, even if a part of the [0.0-0.7] temporary section of the music to be processed is replaced, the D key included in [0.0-0.7] of the music to be processed is replaced. The proportion of s does not change. That is, even if a part of the [0.0-0.7] temporary section of the music to be processed is replaced, the value of the error function does not change. Therefore, for the music to be calculated to be processed, among the temporary sections represented by the temporary music information assumed in step S401, the sections corresponding to some sections respectively extracted from the temporary sections of different keys are replaced. By doing so, the value of the error function can be efficiently reduced.

また、上述では、楽曲情報を[区間の開始位置−区間の終了位置:その区間の調j]で表すとしたが、ユーザに対して楽曲情報を表示する場合には、図10に示すように、調毎に異なる模様のラベルを用いて表示してもよい。図10は、楽曲情報が調毎に異なる模様で表示されたラベルの例を示す図である。これにより、ユーザは楽曲の構造を容易に判断することができ、視認性が良くなる。   In the above description, the music information is represented by [section start position-section end position: key j of the section]. However, when music information is displayed to the user, as shown in FIG. The labels may be displayed using different labels for each key. FIG. 10 is a diagram illustrating an example of a label in which music information is displayed in a different pattern for each key. Thereby, the user can easily determine the structure of the music and the visibility is improved.

また、上述では、調に関する楽曲情報を算出するとしたが、当該調に関する楽曲情報を用いて、調性やスケールなどに関する楽曲情報をさらに算出してもよい。例えば、調性に関する楽曲情報を算出する場合には、上述した図4に示すように、24種類の調はメジャーの調(j=0〜11)かマイナーの調(j=12〜23)の2種類に種別されるので、当該種別に基づいて楽曲情報に含まれる調をそれぞれメジャーかマイナーかに種別すればよい。これにより、ユーザは、メジャーの調やマイナーの調が存在する区間を把握することができる。また、スケールに関する楽曲情報を算出する場合には、各区間の調をいずれかのスケールに種別すればよい。ここで、24種類の調とスケールとの関係は、例えば図11に示される関係となる。図11は、24種類の調とスケールとの関係の一例を示す図である。図11では、各スケールについて、スケールナンバーs(s=0〜11)が付されている。そして図11に示すように、24種類の調のうちそれぞれ2種類の調が同一スケールとなり、スケールは計12種類存在することが分かる。例えば、C(j=0)およびAm(j=12)の2種類の調は同一のスケールとなり、当該スケールナンバーsはs=0である。このように、図11に示すスケールと調との関係に基づいて、各区間の調をいずれかのスケール(s=0〜11)に種別することで、ユーザは、メジャーの調やマイナーの調が存在する区間を把握することができる。   In the above description, the music information related to the key is calculated. However, the music information related to the tonality and the scale may be further calculated using the music information related to the key. For example, in the case of calculating music information related to tonality, as shown in FIG. 4 described above, 24 kinds of tones are major tones (j = 0 to 11) or minor tones (j = 12 to 23). Since it is classified into two types, the key included in the music information may be classified as major or minor based on the type. Thereby, the user can grasp a section in which a major key or a minor key exists. In addition, when calculating music information related to a scale, the key of each section may be classified into one of the scales. Here, the relationship between the 24 keys and the scale is, for example, the relationship shown in FIG. FIG. 11 is a diagram illustrating an example of the relationship between 24 types of keys and scales. In FIG. 11, a scale number s (s = 0 to 11) is assigned to each scale. As shown in FIG. 11, it can be seen that two of the 24 tones have the same scale, and there are a total of 12 scales. For example, the two types of keys C (j = 0) and Am (j = 12) have the same scale, and the scale number s is s = 0. Thus, by classifying the key of each section into one of the scales (s = 0 to 11) based on the relationship between the scale and key shown in FIG. 11, the user can adjust the major key and the minor key. Can be grasped.

以上のように、本実施形態に係る楽曲情報算出装置1は、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するのではなく、楽曲の出現確率分布において各調のテンプレートが占める割合(荷重度)を算出する。その結果、楽曲に含まれる複数の調を検出する楽曲が転調を含むような複数種類の調で構成される場合であっても、楽曲の調を正確に検出することが可能となる。そして、本実施形態に係る楽曲情報算出装置1は、正確に検出した楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出することで、当該楽曲情報を正確に算出可能になることはもちろんのこと、ユーザに対して当該楽曲に含まれる複数の調やその他のタイプ(例えば調性など)が存在する区間を提示することができる。これにより、ユーザは楽曲に含まれる複数の調やその他のタイプ(例えば調性など)が存在する区間を正確に把握することができる。   As described above, the music information calculation apparatus 1 according to the present embodiment does not collate the music appearance probability distribution with the template appearance probability distribution on a one-to-one basis. The ratio (degree of load) occupied by is calculated. As a result, it is possible to accurately detect the key of the music even when the music for detecting a plurality of keys included in the music is composed of a plurality of types of keys including modulation. And the music information calculation apparatus 1 which concerns on this embodiment calculates the music information showing each key which comprises the music detected correctly, and the section in which each said key exists, and this music information is correctly calculated. Of course, it is possible to present a section in which a plurality of tones and other types (for example, tonality) included in the music exist, to the user. Thereby, the user can grasp | ascertain correctly the area where several tones and other types (for example, tonality etc.) contained in a music exist.

なお、上述では、テンプレート記憶部13には24種類の調についてそれぞれ1つずつのテンプレートしか記憶されていない。しかし、1種類の調について複数のテンプレートが記憶されてもよい。1種類の調について、例えばポップス、ジャズ、クラシックなどのジャンル毎にテンプレートを用意して、テンプレート記憶部13に記憶させる。そして、テンプレート記憶部13に記憶される全てのテンプレートについての荷重度を算出することで、楽曲情報算出装置1は楽曲のジャンルに合わせた楽曲情報を正確に算出することができる。また、各テンプレートの荷重度には、それぞれジャンルの情報が含まれるので、楽曲のジャンルも算出することが可能となる。   In the above description, the template storage unit 13 stores only one template for each of the 24 types of keys. However, a plurality of templates may be stored for one type of key. For one type of key, for example, a template is prepared for each genre such as pop, jazz, and classic, and is stored in the template storage unit 13. And the music information calculation apparatus 1 can calculate correctly the music information according to the genre of music by calculating the load degree about all the templates memorize | stored in the template memory | storage part 13. FIG. Further, since the load level of each template includes genre information, it is possible to calculate the genre of music.

また、1種類の調について、例えばメロディおよびベースなどの特定のパート専用毎にテンプレートが用意され、テンプレート記憶部13に記憶されてもよい。そして、テンプレート記憶部13に記憶されるテンプレートのうち、入力される楽曲のパートに合わせたテンプレートについての荷重度を算出することで、楽曲情報算出装置1は入力される楽曲のパートに合わせた楽曲情報を正確に算出することができる。   Further, for one type of key, a template may be prepared for each specific part, such as a melody and a bass, and stored in the template storage unit 13. And the music information calculation apparatus 1 calculates the load degree about the template matched with the part of the music input among the templates memorize | stored in the template memory | storage part 13, The music according to the part of the music input Information can be calculated accurately.

また、テンプレートとして、24種類の調ではなく調性、スケール、またはコードなどに対応する出現確率分布を用いてもよい。そして、当該各テンプレートについての荷重度を算出することで、調性、スケール、またはコードに関する楽曲情報を直接算出することができる。   Further, as a template, an appearance probability distribution corresponding to tonality, scale, or chord may be used instead of 24 types of tones. Then, by calculating the degree of load for each template, music information regarding tonality, scale, or chord can be directly calculated.

また、上述した音階情報入力部11で入力を受け付ける音階情報は、メロディやベースなどの演奏のパートを少なくとも1つ含むものであれば良く、例えば複数のパートで構成される音階情報であってもよい。また、音階情報を構成する楽曲の演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。ここで、一部の演奏時間分は、例えば前奏を除く楽曲の前半部分の演奏時間分としてもよい。当該演奏時間分は、主要な調で構成されることが一般的に多いからである。その結果、楽曲情報算出装置1は、より精度の高い楽曲情報を算出することができる。また、楽曲情報算出装置1の処理負担も軽減させることができる。   In addition, the scale information that receives input by the scale information input unit 11 described above may include at least one performance part such as a melody or bass, and may be scale information including a plurality of parts, for example. Good. Further, the performance time of the music constituting the scale information may be the entire performance time or a part of the performance time. Here, the part of the performance time may be, for example, the performance time of the first half of the music excluding the prelude. This is because the performance time is generally composed of major keys. As a result, the music information calculation apparatus 1 can calculate music information with higher accuracy. Moreover, the processing burden of the music information calculation apparatus 1 can be reduced.

なお、図12に示すように、本実施形態に係る曲調情報検出部17をさらに設け、荷重度算出部14で算出した荷重度や楽曲情報算出部15で算出した楽曲情報を用いて楽曲の曲調情報を検出してもよい。図12は、楽曲情報算出装置1に曲調情報検出部17をさらに設けた構成を示すブロック図である。ここで、「曲調情報」とは、各区間ではなく、検出対象となる楽曲全体の曲調を示す指標を意味する情報である。また曲調情報には、24個の荷重度を1つの組として示す情報(荷重度の組)または当該荷重度の組から算出される各種情報が含まれる。ここで各種情報とは、例えば、調、調性占有率、調性およびスケールなどを示す情報である。「調性占有率」とは楽曲内におけるメジャー(またはマイナー)の占有率を意味する。   As shown in FIG. 12, the music tone information detection unit 17 according to the present embodiment is further provided, and the music tone of the music is calculated using the load degree calculated by the load degree calculation unit 14 and the music information calculated by the music information calculation unit 15. Information may be detected. FIG. 12 is a block diagram showing a configuration in which the tune information detecting unit 17 is further provided in the tune information calculating apparatus 1. Here, the “musical tone information” is information indicating an index indicating the musical tone of the entire music to be detected, not each section. The tone information includes information indicating 24 load degrees as a set (a set of load degrees) or various information calculated from the set of load degrees. Here, the various information is information indicating, for example, tone, tonality occupancy, tone, scale, and the like. The “tonal occupancy rate” means the occupancy rate of major (or minor) in the music.

まず、曲調情報検出部17が荷重度算出部14で算出した荷重度を用いて曲調情報を検出する方法について説明する。曲調情報検出部17は、荷重度算出部14で算出された24個の荷重度に基づいて楽曲の曲調情報を検出する。具体的には、曲調情報検出部17は、24個の荷重度を1つの組として示す情報(荷重度の組)、当該荷重度の組から算出される調、調性占有率、調性およびスケールなどを曲調情報として検出する。以下に、調、調性占有率、調性およびスケールの検出方法について説明する。   First, a method for detecting music tone information using the load degree calculated by the load degree calculation unit 14 by the music tone information detection unit 17 will be described. The tune information detection unit 17 detects the tune information of the music based on the 24 load degrees calculated by the load degree calculation unit 14. Specifically, the music tone information detection unit 17 includes information (a set of load degrees) indicating 24 load degrees as a set, a tone calculated from the set of load degrees, a tonality occupancy rate, a tonality, and A scale or the like is detected as tune information. In the following, the tone, tonality occupancy, tonality, and scale detection methods will be described.

まず調については、曲調情報検出部17は、荷重度W(j)の値が最大となるテンプレートに対応する調ナンバーjの調を求め、当該調を最も優勢な調として検出する。次に調性占有率については、曲調情報検出部17は、楽曲内におけるメジャーの占有率およびマイナーの占有率を調性占有率として次の方法で検出する。メジャーの占有率をRmaj、マイナーの占有率をRminとすると、図4において調ナンバーj=0〜11がメジャーの調、j=12〜23がマイナーの調としているので、RmajおよびRminはそれぞれ以下の式で算出される。
Rmaj=ΣW(j) (j=0〜11)…(13)
Rmin=ΣW(j) (j=12〜23)…(14)
したがって、曲調情報検出部17は、式(13)および式(14)で算出したRmajとRminを調性占有率として検出する。
First, for the key, the music tone information detection unit 17 obtains the key of the key number j corresponding to the template having the maximum load degree W (j), and detects the key as the most dominant key. Next, for the tonal occupancy rate, the tune information detecting unit 17 detects the major occupancy rate and the minor occupancy rate in the music as the tonality occupancy rate by the following method. If the major occupancy rate is Rmaj and the minor occupancy rate is Rmin, the key numbers j = 0 to 11 in FIG. 4 are major and j = 12 to 23 are minor, so Rmaj and Rmin are as follows. It is calculated by the following formula.
Rmaj = ΣW (j) (j = 0 to 11) (13)
Rmin = ΣW (j) (j = 12 to 23) (14)
Therefore, the music tone information detection unit 17 detects Rmaj and Rmin calculated by the equations (13) and (14) as tonality occupancy rates.

次に調性については、曲調情報検出部17は、メジャーまたはマイナーの調性のうち優勢な方の調性を曲調情報として検出する。すなわち、曲調情報検出部17は、上記式(13)および式(14)で算出されたRmajの値とRminの値とを比較してRmajの値が大きければメジャーの調性を、Rminの値が大きければマイナーの調性を曲調情報として検出する。   Next, for the tonality, the tune information detecting unit 17 detects the dominance of the major or minor tonality as the tune information. That is, the music tone information detection unit 17 compares the value of Rmaj calculated by the above formulas (13) and (14) with the value of Rmin, and if the value of Rmaj is large, the music tone information detection unit 17 If is large, minor tonality is detected as music tone information.

次にスケールの検出方法について上述した図11を用いて説明する。図11において、24種類の調のうちそれぞれ2種類の調が同一スケールとなるので、スケールは計12種類存在する。また、各スケールについて、図11に示すようにスケールナンバーs(s=0〜11)が付される。ここで、楽曲内における各スケールの占有率をスケール占有率Rs(s)(s=0〜11)とすると、Rs(s)は以下のようにそれぞれ算出される。
Rs(0)=W(0)+W(12)
Rs(1)=W(1)+W(13)
Rs(2)=W(2)+W(14)



Rs(11)=W(11)+W(23)
したがって、曲調情報検出部17は、スケール占有率Rs(s)の値が最大となるスケールナンバーsのスケールを求め、当該スケールを最も優勢なスケールとして検出する。
Next, a scale detection method will be described with reference to FIG. In FIG. 11, two of the 24 tones have the same scale, so there are a total of 12 scales. Each scale is given a scale number s (s = 0 to 11) as shown in FIG. Here, assuming that the occupancy ratio of each scale in the music is the scale occupancy ratio Rs (s) (s = 0 to 11), Rs (s) is calculated as follows.
Rs (0) = W (0) + W (12)
Rs (1) = W (1) + W (13)
Rs (2) = W (2) + W (14)



Rs (11) = W (11) + W (23)
Therefore, the music tone information detection unit 17 obtains the scale of the scale number s that maximizes the value of the scale occupation ratio Rs (s), and detects the scale as the most dominant scale.

次に、曲調情報検出部17が楽曲情報算出部15で算出した楽曲情報を用いて曲調情報を検出する方法について説明する。楽曲情報算出部15で算出された楽曲情報は、図9の最下段に示されるように、楽曲を構成する各調と当該各調が存在する区間とを表した情報である。曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報から、同じ調を示す区間の長さをそれぞれ合計して区間の長さが最大となる調を求め、当該調を最も優勢な調として検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して区間の長さが長い方の調性を曲調情報として検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して、楽曲内におけてメジャーおよびマイナーの調性が占める割合を算出して調性占有率を検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図11に示す調とスケールとの関係に基づいて、同じスケールを示す区間の長さをそれぞれ合計して区間の長さが最大となるスケールを求め、当該スケールを最も優勢なスケールとして検出する。   Next, a method for detecting music tone information using the music information calculated by the music information calculating unit 15 by the music information detecting unit 17 will be described. The music information calculated by the music information calculation unit 15 is information representing each key constituting the music and a section in which each key exists, as shown in the bottom of FIG. The music tone information detection unit 17 sums up the lengths of the sections showing the same key from the music information calculated by the music information calculation unit 15 and obtains the key with the maximum length of the section. Detect as a key. The music tone information detection unit 17 uses the same tonality based on the relationship between the tone and the tone shown in FIG. 4 described above from the tone of each section represented in the song information calculated by the song information calculation unit 15. The tones having the longer section length are detected as music tone information. The music tone information detection unit 17 uses the same tonality based on the relationship between the tone and the tone shown in FIG. 4 described above from the tone of each section represented in the song information calculated by the song information calculation unit 15. The lengths of the sections indicating the tones are totaled, the ratio of the major and minor tones in the music is calculated, and the tonality occupancy is detected. Moreover, the music tone information detection part 17 shows the same scale based on the relationship between the key and scale shown in FIG. 11 mentioned above from the key of each area represented by the music information calculated by the music information calculation part 15. The lengths of the sections are obtained by summing up the lengths of the sections, and the scale is detected as the most dominant scale.

図12に示したように、曲調情報検出部17をさらに設けることによって、ユーザは実際に楽曲を聞かなくても当該楽曲全体のイメージを把握することができる。具体的には、曲調情報検出部17が検出する荷重度の組によって、ユーザは、当該楽曲全体に含まれる複数の調の割合を把握することができる。すなわち、1つの調の荷重度の値が大きく、それ以外の調の荷重度の値が小さい場合には、ユーザは当該楽曲全体が単調の曲であることを把握できる。また、多数の調で荷重度の値が近似する場合には、ユーザは当該楽曲全体が多数の調で構成されている楽曲であることを把握できる。また、検出された調、調性占有率、調性およびスケールなどの曲調情報によっても、ユーザは実際に楽曲を聞かなくても当該楽曲全体のイメージを把握することができる。   As shown in FIG. 12, by further providing the music tone information detection unit 17, the user can grasp the image of the entire music without actually listening to the music. Specifically, the user can grasp the ratio of a plurality of keys included in the entire music piece by the set of load degrees detected by the music tone information detection unit 17. That is, when the value of the load degree of one key is large and the value of the load degree of the other keys is small, the user can grasp that the entire music is a monotone music. Further, when the value of the load degree is approximated by a large number of keys, the user can grasp that the entire music is a music composed of a large number of keys. In addition, the user can grasp the image of the entire music without actually listening to the music based on the music tone information such as the detected key, tonality occupancy, tonality, and scale.

なお、本実施形態に係る楽曲情報算出装置1は、一般的なコンピュータシステム100に楽曲情報算出プログラムを実行させることによって実現されてもよい。図13は、楽曲情報算出装置1がコンピュータシステム100によって実現される構成例を示すブロック図である。なお、図13において、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、および入替情報記憶部16は、図1に示される各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。   Note that the music information calculation apparatus 1 according to the present embodiment may be realized by causing a general computer system 100 to execute a music information calculation program. FIG. 13 is a block diagram illustrating a configuration example in which the music information calculation apparatus 1 is realized by the computer system 100. In FIG. 13, the scale information input unit 11, the appearance probability calculation unit 12, the template storage unit 13, the load degree calculation unit 14, the music information calculation unit 15, and the replacement information storage unit 16 are configured as shown in FIG. 1. The same reference numerals are assigned to the parts and the functions are the same, and the description is omitted.

図13において、コンピュータシステム100は、演算処理部110、記憶部120およびディスクドライブ装置130を備える。演算処理部110は、CPUまたはメモリなどで構成され、楽曲情報算出プログラムを実行させることによって、音階情報入力部11、出現確率算出部12、荷重度算出部14、および楽曲情報算出部15と同一の機能を実現する。また記憶部120は、ハードディスクなどの記録媒体で構成され、楽曲情報算出プログラムを実行させることによって、テンプレート記憶部13および入替情報記憶部16と同一の機能を実現する。ディスクドライブ装置130は、コンピュータシステム100を楽曲情報算出装置1として機能させるための楽曲情報算出プログラムが記憶された記録媒体140から、当該楽曲情報算出プログラムを読み出す。当該楽曲情報算出プログラムが任意のコンピュータシステム100にインストールされることにより、当該コンピュータシステム100を上述した楽曲情報算出装置1として機能させることができる。なお、記録媒体140は、例えばフレキシブルディスクや光ディスクなどのディスクドライブ装置130によって読み取り可能な形式の記録媒体である。また、楽曲情報算出プログラムは、予めコンピュータシステム100にインストールされていてもかまわない。   In FIG. 13, the computer system 100 includes an arithmetic processing unit 110, a storage unit 120, and a disk drive device 130. The arithmetic processing unit 110 is configured by a CPU or a memory, and is the same as the scale information input unit 11, the appearance probability calculation unit 12, the load degree calculation unit 14, and the music information calculation unit 15 by executing a music information calculation program. Realize the function. The storage unit 120 is configured by a recording medium such as a hard disk, and realizes the same functions as the template storage unit 13 and the replacement information storage unit 16 by executing a music information calculation program. The disk drive device 130 reads the music information calculation program from the recording medium 140 in which the music information calculation program for causing the computer system 100 to function as the music information calculation device 1 is stored. When the music information calculation program is installed in any computer system 100, the computer system 100 can function as the music information calculation device 1 described above. The recording medium 140 is a recording medium in a format that can be read by the disk drive device 130 such as a flexible disk or an optical disk. Moreover, the music information calculation program may be installed in the computer system 100 in advance.

なお、以上の説明では、上記楽曲情報算出プログラムは記録媒体140によって提供されるとしたが、インターネットなどの電気通信回線によって提供されてもよい。また、楽曲情報算出における処理は、全部または一部をハードウェアによって処理される形態であってもよい。   In the above description, the music information calculation program is provided by the recording medium 140, but may be provided by an electric communication line such as the Internet. Further, the processing in the music information calculation may be a form in which all or a part is processed by hardware.

(第2の実施形態)
次に、本発明の第2の実施形態に係る楽曲検索装置2について、図14および図15を用いて説明する。図14は、本発明の第2の実施形態に係る楽曲検索装置2を示すブロック図である。図14において、楽曲検索装置2は、楽曲入力部21、音階データ変換部22、出現確率算出部12、楽曲データ記憶部23、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、入替情報記憶部16、曲調情報検出部17、選曲ルール記憶部24、選曲情報入力部25、および検索部26を備える。なお、図14において、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、入替情報記憶部16、および曲調情報検出部17は、第1の実施形態で説明した楽曲情報算出装置1の各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。
(Second Embodiment)
Next, a music search apparatus 2 according to the second embodiment of the present invention will be described with reference to FIGS. 14 and 15. FIG. 14 is a block diagram showing a music search device 2 according to the second embodiment of the present invention. 14, the music search device 2 includes a music input unit 21, a scale data conversion unit 22, an appearance probability calculation unit 12, a music data storage unit 23, a template storage unit 13, a load degree calculation unit 14, a music information calculation unit 15, A replacement information storage unit 16, a music tone information detection unit 17, a music selection rule storage unit 24, a music selection information input unit 25, and a search unit 26 are provided. In FIG. 14, the appearance probability calculation unit 12, the template storage unit 13, the load degree calculation unit 14, the music information calculation unit 15, the replacement information storage unit 16, and the music tone information detection unit 17 are described in the first embodiment. The same reference numerals are assigned to the components of the music information calculation apparatus 1 and the functions are the same, and the description thereof is omitted.

図15は、第2の実施形態に係る楽曲検索装置2の処理の流れを表すフローチャートを示す図である。なお、図15において、ステップS1〜S4は、第1の実施形態で説明した楽曲情報算出装置1の処理(図5参照。)のステップS1〜S4とそれぞれ同一の符号を付し、かつ同一の処理とし、説明を省略する。以下に、図15を用いて楽曲検索装置2の処理の流れについて説明する。   FIG. 15 is a diagram illustrating a flowchart showing the flow of processing of the music search device 2 according to the second embodiment. In FIG. 15, steps S <b> 1 to S <b> 4 are denoted by the same reference numerals as steps S <b> 1 to S <b> 4 of the process (see FIG. 5) of the music information calculation apparatus 1 described in the first embodiment, and are the same. The processing is omitted. Hereinafter, the processing flow of the music search apparatus 2 will be described with reference to FIG.

楽曲入力部21は、楽曲検索装置2の外部または内部から、楽曲データの入力が受け付けられたか否かを判定する(ステップS11)。ステップS11の判定の結果、楽曲データが入力されていないと判定された場合、ステップS16の処理が行われる。一方、ステップS11の判定の結果、楽曲データが入力されたと判定された場合、ステップS12の処理が行われる。すなわち、楽曲入力部21は、入力された楽曲データを楽曲データ記憶部23に記憶する(ステップS12)。   The music input unit 21 determines whether or not input of music data has been accepted from outside or inside the music search device 2 (step S11). As a result of the determination in step S11, if it is determined that the music data is not input, the process in step S16 is performed. On the other hand, if it is determined as a result of determination in step S11 that music data has been input, processing in step S12 is performed. That is, the music input unit 21 stores the input music data in the music data storage unit 23 (step S12).

ここで楽曲データは、音声データであってもよいし、音階データであってもよい。音階データとは、例えばPCM形式の音声データ、MP3およびAACなどの圧縮形式の音声データなどである。音階データとは、SMF(スタンダードMIDIファイル)などの音階情報を示す音階データなどである。なお、入力される楽曲データは、例えばメロディまたはベースなどの演奏のパートを少なくとも1つ含むものであればよく、例えば複数のパートで構成されるデータであってもよい。また、楽曲データの演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。   Here, the music data may be audio data or scale data. The scale data is, for example, audio data in PCM format, audio data in compression format such as MP3 and AAC, and the like. The scale data is scale data indicating scale information such as SMF (standard MIDI file). Note that the input music data only needs to include at least one performance part such as a melody or bass, and may be data composed of a plurality of parts, for example. The performance time of the music data may be the entire performance time or a part of the performance time.

ステップS12の次に、音階データ変換部22は、ステップS12で記憶された楽曲データが音声データ(例えばPCM形式の音声データ)である場合には、当該音声データを音階情報を示す音階データに変換する(ステップS13)。音階データ変換部22は、例えば特開昭58−181090号公報に開示された方法で音声データを音階データに変換する。また、音階データ変換部22は、音声データがMP3およびAACなどの圧縮形式の音声データである場合には、一旦PCM形式の音声データに変換した後、音階データに変換する。なお、音階データに変換する方法は上記方法に限らず、他の方法を用いてもよい。また、ステップS12で記憶された楽曲データがSMFなどの音階データである場合には、上記ステップS13の処理は行わずにステップS1〜S4の処理が行われる。   After step S12, when the music data stored in step S12 is voice data (for example, PCM format voice data), the scale data conversion unit 22 converts the voice data into scale data indicating scale information. (Step S13). The scale data conversion unit 22 converts voice data into scale data by a method disclosed in, for example, Japanese Patent Laid-Open No. 58-181090. In addition, when the audio data is compressed audio data such as MP3 and AAC, the scale data converter 22 converts the audio data into PCM audio data, and then converts it into musical scale data. Note that the method of converting to scale data is not limited to the above method, and other methods may be used. When the music data stored in step S12 is scale data such as SMF, the processes in steps S1 to S4 are performed without performing the process in step S13.

ステップS13の次に、ステップS1〜S4(図5参照。)において、ステップS12で記憶された音階データまたはステップS13で変換された音階データに基づいて楽曲情報が算出される。ステップS1〜S4の次に、曲調情報検出部17は、上述した第1の実施形態と同様の方法で楽曲全体の曲調情報を検出する(ステップS14)。そして、ステップS15において、楽曲データ記憶部23には、算出された楽曲情報および楽曲全体の曲調情報が記憶される。ここで楽曲データ記憶部23には、ステップS12で記憶された楽曲データと、図5に示すステップS4で算出された楽曲データの楽曲情報と、ステップS14で検出された楽曲全体の曲調情報とがそれぞれ関連づけられて記憶される。図16は、楽曲データ記憶部23に記憶されるデータの一例を示す図である。図16では、楽曲データ記憶部23には、楽曲データ以外に楽曲情報、楽曲全体の曲調情報として最も優勢な調(K)、調性(T)、最も優勢なスケール(S)、およびメジャーの占有率(Rmaj)が記憶される。また、図16において、楽曲データのスケール(S)はスケールナンバーsで示される。また、楽曲データ記憶部23に記憶される楽曲データは、楽曲番号で管理されており、楽曲データとそれに関連づけられた楽曲情報および楽曲全体の曲調情報は、適宜削除または追加されることが可能である。   Next to step S13, in steps S1 to S4 (see FIG. 5), music information is calculated based on the scale data stored in step S12 or the scale data converted in step S13. After steps S1 to S4, the music tone information detection unit 17 detects the music tone information of the entire music by the same method as in the first embodiment described above (step S14). In step S15, the music data storage unit 23 stores the calculated music information and the music tone information of the entire music. Here, the song data storage unit 23 stores the song data stored in step S12, the song information of the song data calculated in step S4 shown in FIG. 5, and the tone information of the entire song detected in step S14. Each is associated and stored. FIG. 16 is a diagram illustrating an example of data stored in the music data storage unit 23. In FIG. 16, in the music data storage unit 23, in addition to the music data, the music information, the key (K), the tonality (T), the most dominant scale (S), and the major scale as the music tone information of the entire music are recorded. The occupation rate (Rmaj) is stored. In FIG. 16, the scale (S) of the music data is indicated by a scale number s. The music data stored in the music data storage unit 23 is managed by the music number, and the music data, the music information associated with the music data, and the music tone information of the entire music can be deleted or added as appropriate. is there.

ステップS15の次に、検索部26は、選曲情報入力部25から選曲情報が入力されたか否かを判定する(ステップS16)。ユーザは、選曲情報入力部25を用いて所望する楽曲の選曲情報を入力する。図17は、楽曲検索装置2がもつ入力画面の一例を示す図である。図17において、入力画面には、選曲情報リスト251、指定区間入力部252、および検索ボタン253が表示される。そして、ユーザは、選曲情報入力部25を用いて選曲情報リスト251にある選曲情報の中から所望する選曲情報を選択する。また、ユーザは、選曲情報入力部25を用いて指定区間入力部252で選曲したい曲の区間を指定する。その後、ユーザは検索ボタン253を押すことによって選曲情報を決定する。   After step S15, the search unit 26 determines whether or not music selection information is input from the music selection information input unit 25 (step S16). The user inputs music selection information of a desired music using the music selection information input unit 25. FIG. 17 is a diagram illustrating an example of an input screen of the music search device 2. In FIG. 17, a music selection information list 251, a designated section input unit 252, and a search button 253 are displayed on the input screen. Then, the user uses the music selection information input unit 25 to select desired music selection information from the music selection information in the music selection information list 251. In addition, the user uses the music selection information input unit 25 to specify a section of a song to be selected by the specified section input unit 252. Thereafter, the user presses the search button 253 to determine music selection information.

ステップS16の判定の結果、選曲情報が入力されていない場合、ステップS11の処理に戻る。一方、ステップS16の判定の結果、選曲情報が入力された場合、ステップS17の処理が行われる。   As a result of the determination in step S16, if the music selection information is not input, the process returns to step S11. On the other hand, if the music selection information is input as a result of the determination in step S16, the process in step S17 is performed.

ステップS16の次に、検索部26は、入力された選曲情報に対応する検索条件を特定する(ステップS17)。ここで、入力された選曲情報に対応する検索条件を特定する方法としては、選曲ルール記憶部24に記憶される選曲ルールに基づいて特定する方法がある。図18は、選曲ルールの一例を示す図である。選曲ルール記憶部24には、楽曲の検索を行うための選曲ルールが記憶される。図18では、選曲ルールとして、選曲情報リスト251に表示された選曲情報と当該選曲情報に対応した検索条件とが予め設定される。すなわち図18において、例えば「明るい」という選曲情報に対して検索条件は曲調情報としての調性がメジャーである楽曲データ、「やや楽しい」という選曲情報に対して検索条件は曲調情報としてのメジャーの占有率Rmajが0.6〜0.8である楽曲データなどと設定されている。つまり、図18に示す検索条件の例では、検索条件として曲調情報に基づいた条件を採用している。   After step S16, the search unit 26 specifies a search condition corresponding to the input music selection information (step S17). Here, as a method of specifying the search condition corresponding to the input music selection information, there is a method of specifying based on the music selection rule stored in the music selection rule storage unit 24. FIG. 18 is a diagram illustrating an example of a music selection rule. The music selection rule storage unit 24 stores music selection rules for searching for music. In FIG. 18, the music selection information displayed in the music selection information list 251 and the search conditions corresponding to the music selection information are set in advance as the music selection rules. That is, in FIG. 18, for example, for music selection information “bright”, the search condition is music data whose tonality as music tone information is major, and for music selection information “somewhat fun”, the search condition is major as music tone information. It is set as music data having an occupation ratio Rmaj of 0.6 to 0.8. That is, in the example of the search condition shown in FIG. 18, a condition based on the music tone information is adopted as the search condition.

なお、選曲ルール記憶部24に記憶される選曲情報は、例えば「楽しい」「やや楽しい」「普通」「やや悲しい」「悲しい」を5段階に分類せずに「楽しい⇔悲しい」の度合いとしてもよい。このとき、選曲情報は、例えば「楽しい(1.0)⇔悲しい(0.0)」の度合いsxと設定される。また、検索条件は、例えばメジャー占有率Rmajが度合いsxと誤差0.1以内である楽曲データと設定される。そして、ユーザは選曲情報入力部25としてスライダーなどのバーを用いて選曲情報を入力する。   The music selection information stored in the music selection rule storage unit 24 may be, for example, the degree of “fun sadness” without classifying “fun”, “slightly fun”, “normal”, “slightly sad”, and “sad” into five levels. Good. At this time, the music selection information is set to a degree sx of “fun (1.0) sad” (0.0), for example. The search condition is set, for example, as music data having a major occupation ratio Rmaj within a degree sx and an error within 0.1. Then, the user inputs music selection information using a bar such as a slider as the music selection information input unit 25.

ステップS17の次に、検索部26は、ステップS12で楽曲データ記憶部23に記憶された楽曲データの中から、ステップS17で特定された検索条件に基づいて楽曲の検索を行い、その条件に合致する楽曲の曲名を表示する(ステップS18)。具体的には、検索部26は、まず楽曲データ記憶部23に記憶されている各楽曲の楽曲情報を参照し、ステップS16で入力された指定区間に対応する区間についてのステップS17で特定された検索条件が示す曲調情報を検出する。この指定区間内の楽曲情報から曲調情報を検出する方法は、第1の実施形態において曲調情報検出部17が楽曲情報算出部15で算出した楽曲情報を用いて曲調情報を検出する方法と同様の方法である。つまり、例えばステップS16において、ユーザが「明るい」を選択し、[0.0−0.3]の区間を指定したとする。このとき検索条件は図18に示すように、曲調情報としての調性[T==Maj]となる。したがって、検索部26は、楽曲データ記憶部23に記憶されている各楽曲の楽曲情報を参照し、指定区間[0.0−0.3]内の各楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して区間の長さが長い方の調性をそれぞれ検出する。このようにして、検索部26は、指定区間内において検索条件と合致する楽曲情報を検索する。つまり、上記の例で言えば、指定区間[0.0−0.3]内でメジャー[Maj]となる調性の区間がマイナー[Min]となる調性の区間よりも長い楽曲情報が検索条件と合致することとなる。ここで、楽曲データ記憶部23において楽曲情報と楽曲データとが関連づけて記憶されている。したがって、検索部26が検索条件と合致する楽曲情報を検索することで、検索条件と合致する楽曲が検索される。   Following step S17, the search unit 26 searches the music data stored in the music data storage unit 23 in step S12 based on the search condition specified in step S17, and matches the condition. The name of the song to be displayed is displayed (step S18). Specifically, the search unit 26 first refers to the song information of each song stored in the song data storage unit 23, and is specified in step S17 for the section corresponding to the specified section input in step S16. The music tone information indicated by the search condition is detected. The method for detecting the tone information from the song information in the designated section is the same as the method for detecting the tone information using the song information calculated by the song information calculating unit 15 by the tone information detecting unit 17 in the first embodiment. Is the method. That is, for example, in step S16, the user selects “bright” and designates a section of [0.0−0.3]. At this time, the search condition is tonality [T == Maj] as music tone information as shown in FIG. Therefore, the search unit 26 refers to the music information of each music stored in the music data storage unit 23, and adjusts each section represented by each music information in the specified section [0.0-0.3]. Thus, based on the relationship between the tone and tonality shown in FIG. 4 described above, the lengths of the sections showing the same tonality are summed up to detect the tonality with the longer section length. In this way, the search unit 26 searches for music information that matches the search condition within the specified section. In other words, in the above example, music information in which the tonality section that is major [Maj] in the specified section [0.0-0.3] is longer than the tonality section that is minor [Min] is retrieved. It will meet the conditions. Here, the music data storage unit 23 stores music information and music data in association with each other. Therefore, when the search unit 26 searches for music information that matches the search condition, the music that matches the search condition is searched.

また、ステップS18において、表示された楽曲の曲名を再生する処理をさらに行ってもよい。また、ステップS18において、検索条件に合致した指定区間に対応する区間のみを再生するようにしてもよい。 Further, in step S18, a process of reproducing the song title of the displayed song may be further performed. In step S18, only the section corresponding to the specified section that matches the search condition may be reproduced.

なお、上述のステップS16では、ユーザは、選曲情報リスト251にある選曲情報を選択し、指定区間入力部252で選曲したい曲の区間を指定するとしたが、例えば選曲情報リスト251にある選曲情報のみを選択して楽曲を検索してもよい。この場合、検索部26は、楽曲データ記憶部23に記憶された楽曲全体の曲調情報に基づいて、特定された検索条件と合致する楽曲を検索する。このとき、楽曲データ記憶部23に記憶された各楽曲の楽曲情報は検索部26の検索には用いられないが、このような場合でも楽曲情報を有効活用することができる。つまり、各楽曲の楽曲情報を利用して、ステップS18で検索された楽曲のうち、検索条件と合致した区間を区別して表示するようにする。例えば、選曲情報「明るい」が選択されたとき、検索条件は[T==Maj]となる。このとき、図16の楽曲番号1のようにRmaj=0.93の曲、つまり全体の7%は暗い感じの曲が検索されることもある。仮にこの曲の最初の7%がマイナー[Min]で、後半の93%がメジャー[Maj]であった場合、曲の頭から再生するとマイナー[Min]の暗い感じ部分が再生されてしまう。これにより、ユーザには選曲情報「明るい」に合致しないように聴こえてしまうこともある。そこで、楽曲情報を用いて選曲条件[T==Maj]に一致する区間を区別できるようにユーザに対して表示する。これにより、その楽曲中の「明るい」区間をユーザに把握させることができ、ユーザに対して選曲情報「明るい」に合致しないように聴こえてしまうという違和感を軽減させることができる。   In step S16 described above, the user selects the music selection information in the music selection information list 251 and designates the section of the music to be selected by the designated section input unit 252. For example, only the music selection information in the music selection information list 251 is selected. You may search for music by selecting. In this case, the search unit 26 searches for music that matches the specified search condition based on the tune information of the entire music stored in the music data storage unit 23. At this time, the music information of each music stored in the music data storage unit 23 is not used for the search of the search unit 26, but the music information can be effectively used even in such a case. In other words, using the music information of each music, the section that matches the search condition among the music searched in step S18 is distinguished and displayed. For example, when the music selection information “bright” is selected, the search condition is [T == Maj]. At this time, as shown by the music number 1 in FIG. 16, a music with Rmaj = 0.93, that is, a music with a dark feeling in 7% of the music may be searched. If the first 7% of the song is minor [Min] and the latter 93% is major [Maj], the darker part of the minor [Min] will be reproduced when the song is played from the beginning. As a result, the user may hear the music selection information “bright” so as not to match. Therefore, the music information is displayed to the user so that a section that matches the music selection condition [T == Maj] can be distinguished. As a result, the user can grasp the “bright” section in the music, and the user can be prevented from feeling uncomfortable that he / she hears the song selection information “bright”.

また、以上の説明では、ユーザは、選曲情報を入力することによって、検索に用いる検索条件を特定した。ここで、他の実施形態においては、ユーザは、検索条件を直接入力することによって特定してもよい。例えば、選曲情報入力部25においてユーザは、「調がC」や「メジャー」という条件や指定区間、またはこれらの条件を複数組み合わせた条件を入力する。このとき、検索部26は、楽曲データ記憶部23に記憶された楽曲情報および楽曲全体の曲調情報を用いて、ユーザが入力した検索条件に合致する楽曲の検索を行い、検索条件に合致する楽曲の曲名や検索条件に合致する区間を表示する。その結果、ユーザは予め設定された選曲ルールによる検索条件ではなく、検索条件を自由に入力して楽曲の検索を行うことができる。   Moreover, in the above description, the user specified the search condition used for a search by inputting music selection information. Here, in another embodiment, the user may specify the search condition by directly inputting it. For example, in the music selection information input unit 25, the user inputs a condition of “key C” or “major”, a specified section, or a condition that combines a plurality of these conditions. At this time, the search unit 26 searches for music that matches the search condition input by the user using the music information stored in the music data storage unit 23 and the music tone information of the entire music, and the music that matches the search condition. The section that matches the song name and search condition is displayed. As a result, the user can search for music by freely inputting search conditions instead of search conditions based on preset music selection rules.

ステップS18の次に、ユーザが楽曲検索装置2の処理を終了するか否かを選択する(ステップS19)。当該処理を終了しない場合は、ステップS11に戻る。以上の処理を入力される楽曲データ毎に行う。   After step S18, the user selects whether or not to end the process of the music search device 2 (step S19). If not, the process returns to step S11. The above processing is performed for each input music data.

以上のように、本実施形態に係る楽曲検索装置2によって、ユーザは楽曲の楽曲情報や楽曲全体の曲調情報に基づいて楽曲を検索し、検索条件に合致した楽曲や、その楽曲中において検索条件に合致した区間を見つけることが可能となる。   As described above, with the music search device 2 according to the present embodiment, the user searches for music based on the music information of the music or the music tone information of the entire music, and the search condition in the music that matches the search condition or in the music It is possible to find a section that matches

なお、上述のステップS15において楽曲データ記憶部23には、楽曲情報と、荷重度の組、調、調性占有率、調性およびスケールなどの楽曲全体の曲調情報とが記憶されるとしたが、全ての情報が記憶される必要はない。選曲情報や検索条件に合わせて必要な情報のみ記憶されればよい。   In the above-described step S15, the music data storage unit 23 stores the music information and the music tone information of the entire music such as the set of load degree, key, tonality occupancy, tonality and scale. , Not all information needs to be stored. Only necessary information may be stored in accordance with music selection information and search conditions.

なお、第1および第2の実施形態で説明した楽曲処理装置(楽曲情報算出装置1および楽曲検索装置2)は集積回路で構成されてもよい。例えば、第1の実施形態においては、出現確率算出部12、荷重度算出部14、および楽曲情報算出部15が集積回路で構成されてもよい。このとき集積回路は、楽曲、テンプレート記憶部13に記憶されているテンプレート、および入替情報記憶部16に記憶されている入替情報を入力する入力端子と、楽曲情報算出部15で算出した楽曲情報、および楽曲情報算出部15の算出処理において発生する区間の入替情報を出力する出力端子とを備える。また、第2の実施形態においては、出現確率算出部12、荷重度算出部14、楽曲情報算出部15、曲調情報検出部17、音階データ変換部22、および検索部26が集積回路で構成されてもよい。このとき集積回路は、楽曲、テンプレート記憶部13に記憶されているテンプレート、選曲ルール、選曲情報、楽曲データ記憶部23に記憶された楽曲データ、楽曲データ記憶部23に記憶された楽曲情報および曲調情報、および入替情報記憶部16に記憶されている入替情報を入力する入力端子を備える。また、集積回路は、楽曲情報算出部15で算出した楽曲情報、楽曲情報算出部15の算出処理において発生する区間の入替情報、曲調情報検出部17で検出された曲調情報、および検索部26で検索した結果を出力する出力端子とを備える。なお、データなどを記憶する構成部(例えばテンプレート記憶部13や入替情報記憶部16など)については、記憶部を備える集積回路であれば、当該記憶部に適宜記憶させ、集積回路の一部として構成するようにしてもよい。   Note that the music processing devices (the music information calculation device 1 and the music search device 2) described in the first and second embodiments may be configured by an integrated circuit. For example, in the first embodiment, the appearance probability calculation unit 12, the load degree calculation unit 14, and the music information calculation unit 15 may be configured by an integrated circuit. At this time, the integrated circuit includes a music piece, a template stored in the template storage unit 13, an input terminal for inputting replacement information stored in the replacement information storage unit 16, music information calculated by the music information calculation unit 15, And an output terminal that outputs section replacement information that occurs in the calculation process of the music information calculation unit 15. In the second embodiment, the appearance probability calculation unit 12, the load degree calculation unit 14, the music information calculation unit 15, the music tone information detection unit 17, the scale data conversion unit 22, and the search unit 26 are configured by an integrated circuit. May be. At this time, the integrated circuit receives the music, the template stored in the template storage unit 13, the music selection rule, the music selection information, the music data stored in the music data storage unit 23, the music information stored in the music data storage unit 23, and the music tone. An input terminal for inputting information and replacement information stored in the replacement information storage unit 16 is provided. Further, the integrated circuit uses the music information calculated by the music information calculation unit 15, the replacement information of the sections generated in the calculation process of the music information calculation unit 15, the music tone information detected by the music tone information detection unit 17, and the search unit 26. And an output terminal for outputting the retrieved result. In addition, about the component parts (for example, the template memory | storage part 13 and the replacement information memory | storage part 16 etc.) which memorize | store data etc., if it is an integrated circuit provided with a memory | storage part, it memorize | stores in the said memory | storage part suitably, You may make it comprise.

本発明に係る楽曲情報算出装置は、算出した楽曲情報を用いて楽曲の検索を行う楽曲検索装置、ジュークボックスおよびオーディオプレーヤーなどの用途にも適用できる。   The music information calculation apparatus according to the present invention can also be applied to uses such as a music search apparatus, a jukebox, and an audio player that search for music using the calculated music information.

本発明の第1の実施形態に係る楽曲情報算出装置1を示すブロック図The block diagram which shows the music information calculation apparatus 1 which concerns on the 1st Embodiment of this invention. 音階情報入力部11に入力される楽曲の音階情報の一例を示す図The figure which shows an example of the scale information of the music input into the scale information input part 11 各音名に関する出現確率の分布を概念的に示す図The figure which shows the distribution of the appearance probability concerning each pitch name conceptually 24種類のテンプレートと当該各テンプレートについての荷重度の算出結果の一例を示す図The figure which shows an example of the calculation result of the load degree about 24 types of templates and the said each template 第1の実施形態に係る楽曲情報算出装置1の処理の流れを表すフローチャートを示す図The figure which shows the flowchart showing the flow of a process of the music information calculation apparatus 1 which concerns on 1st Embodiment. 楽曲情報を算出する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which calculates music information 楽曲情報を算出する処理の一部における各楽曲のデータを模式的に示した図The figure which showed typically the data of each music in a part of processing which calculates music information 入替情報記憶部16に記憶される情報の一例を示す図The figure which shows an example of the information memorize | stored in the replacement information storage part 16 ステップS514の処理を模式的に示した図The figure which showed the process of step S514 typically. 楽曲情報が調毎に異なる模様で表示されたラベルの例を示す図The figure which shows the example of the label in which music information was displayed with the pattern which changes for every key 24種類の調とスケールとの関係の一例を示す図The figure which shows an example of the relationship between 24 types of keys and scales 楽曲情報算出装置1に曲調情報検出部17をさらに設けた構成を示すブロック図The block diagram which shows the structure which further provided the music tone information detection part 17 in the music information calculation apparatus 1. 楽曲情報算出装置1がコンピュータシステム100によって実現される構成例を示すブロック図FIG. 2 is a block diagram showing a configuration example in which the music information calculation apparatus 1 is realized by the computer system 100 本発明の第2の実施形態に係る楽曲検索装置2を示すブロック図The block diagram which shows the music search apparatus 2 which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係る楽曲検索装置2の処理の流れを表すフローチャートを示す図The figure which shows the flowchart showing the flow of a process of the music search apparatus 2 which concerns on 2nd Embodiment. 楽曲データ記憶部23に記憶されるデータの一例を示す図The figure which shows an example of the data memorize | stored in the music data storage part 23 選曲情報入力部25の入力画面の一例を示す図The figure which shows an example of the input screen of the music selection information input part 25 選曲ルールの一例を示す図Diagram showing an example of music selection rules

符号の説明Explanation of symbols

1 楽曲情報算出装置
11 音階情報入力部
12 出現確率算出部
13 テンプレート記憶部
14 荷重度算出部
15 楽曲情報算出部
16 入替情報記憶部
17 曲調情報検出部
100 コンピュータシステム
110 演算処理部
120 記憶部
130 ディスクドライブ装置
140 記録媒体
2 楽曲検索装置
21 楽曲入力部
22 音階データ変換部
23 楽曲データ記憶部
24 選曲ルール記憶部
25 選曲情報入力部
26 検索部

DESCRIPTION OF SYMBOLS 1 Music information calculation apparatus 11 Scale information input part 12 Appearance probability calculation part 13 Template storage part 14 Load degree calculation part 15 Music information calculation part 16 Replacement information storage part 17 Musical tone information detection part 100 Computer system 110 Arithmetic processing part 120 Storage part 130 Disc drive device 140 Recording medium 2 Music search device 21 Music input unit 22 Musical scale data conversion unit 23 Music data storage unit 24 Music selection rule storage unit 25 Music selection information input unit 26 Search unit

Claims (11)

所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置であって、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、
楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、
前記テンプレート記憶部に記憶されている複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出部と、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出部とを備える、楽曲処理装置。
A music processing device that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
For the music part, an appearance probability acquisition unit that acquires a distribution of appearance probabilities for each pitch name;
A template storage unit that stores templates for each of a plurality of types, each of which is a template that is different for each type of music and that indicates a distribution of appearance probabilities for each pitch name;
For each of the plurality of templates stored in the template storage unit, the load degree indicating the ratio of the template to the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit, and the load for each type A load degree calculation unit for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A music processing apparatus comprising: a music information calculation unit for performing
前記楽曲情報算出部は、
前記楽曲部分を構成する各タイプについて、当該各タイプが存在する区間の長さを、当該各タイプの前記荷重度の大きさとそれぞれ一致する長さとした仮楽曲情報を設定する設定部と、
前記楽曲部分を構成するタイプと前記仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、前記楽曲部分の一部を当該楽曲部分内で入れ替える入替部と、
前記入替部で入れ替えた内容を示す入替情報を記憶する入替情報記憶部と、
前記入替情報記憶部に記憶された入替情報に基づいて、前記入替部で入れ替えた順番と逆の順番で前記仮楽曲情報の一部を入れ替える逆入替部とを含む、請求項1に記載の楽曲処理装置。
The music information calculation unit
For each type constituting the music part, a setting unit that sets provisional music information in which the length of the section in which each type exists is set to a length that matches the magnitude of the load degree of each type,
A replacement unit for replacing a part of the music part in the music part so that the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information;
A replacement information storage unit for storing replacement information indicating the contents replaced by the replacement unit;
The music composition according to claim 1, further comprising: a reverse replacement section that replaces a part of the provisional music information in an order reverse to the order replaced by the replacement section based on the replacement information stored in the replacement information storage section. Processing equipment.
前記入替部は、前記仮楽曲情報が表すタイプと前記楽曲部分を構成するタイプとが相違する度合いを当該仮楽曲情報が表す各区間においてそれぞれ算出し、当該相違する度合いが小さくなるように前記楽曲部分の一部を当該楽曲部分内で入れ替える処理を繰り返し、当該相違する度合いが所定値よりも小さくなるときに当該処理を終了し、
前記入替情報記憶部は、前記入替部が前記楽曲部分の一部を入れ替える処理を行うたびに、前記入替情報を記憶することを特徴とする、請求項2に記載の楽曲処理装置。
The replacement unit calculates the degree of difference between the type represented by the provisional music information and the type constituting the music part in each section represented by the provisional music information, and reduces the degree of difference between the music pieces. Repeat the process of replacing a part of the part in the music part, and terminate the process when the difference is less than a predetermined value,
3. The music processing apparatus according to claim 2, wherein the replacement information storage unit stores the replacement information every time the replacement unit performs a process of replacing a part of the music part.
前記出現確率取得部が前記出現確率の分布を取得する対象となる複数の楽曲のデータを記憶する楽曲データ記憶部と、
前記楽曲情報算出部において算出された楽曲情報を、前記楽曲データ記憶部にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて前記楽曲データ記憶部に記憶させる楽曲情報記憶部と、
前記楽曲データ記憶部にデータが記憶されている楽曲を、前記楽曲情報を用いて検索する検索部とをさらに備える、請求項1に記載の楽曲処理装置。
A music data storage unit that stores data of a plurality of music pieces for which the appearance probability acquisition unit acquires the distribution of the appearance probabilities;
The music information storage which stores the music information calculated in the music information calculation unit in the music data storage unit in association with the music corresponding to the music information among the music data stored in the music data storage unit And
The music processing apparatus according to claim 1, further comprising: a search unit that searches for music stored in the music data storage unit using the music information.
ユーザが前記楽曲の一部を指定する入力を受け付ける指定一部入力部をさらに備え、
前記検索部は、前記楽曲データ記憶部に記憶されている楽曲情報のうち、前記指定一部入力部において指定された一部の楽曲情報を用いて検索することを特徴とする、請求項4に記載の楽曲処理装置。
A designation part input unit for accepting an input for a user to designate a part of the music;
5. The search unit according to claim 4, wherein the search unit searches for music information stored in the music data storage unit using a part of music information specified by the specified partial input unit. 6. The music processing apparatus described.
ユーザによって入力されるべき選曲情報と前記楽曲情報に関する条件とを関連付けた選曲ルールを記憶する選曲ルール記憶部をさらに備え、
前記検索部は、ユーザによって選曲情報が入力された場合、前記楽曲データ記憶部にデータが記憶されている楽曲と関連付けられた楽曲情報のうち、当該入力された選曲情報に関連付けられた前記楽曲情報に関する条件を満たす楽曲情報を検出し、検出した楽曲情報に関連付けられた前記楽曲を検索結果として出力する、請求項4に記載の楽曲処理装置。
A music selection rule storage unit that stores a music selection rule that associates the music selection information to be input by the user and the conditions related to the music information;
When the music selection information is input by the user, the search unit includes the music information associated with the input music selection information among the music information associated with the music whose data is stored in the music data storage unit. The music processing device according to claim 4, wherein music information satisfying the condition is detected, and the music associated with the detected music information is output as a search result.
所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置において用いられる方法であって、
前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
前記楽曲処理装置に記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出ステップと、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出ステップとを含む、楽曲処理方法。
A method used in a music processing apparatus that calculates music information that represents each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probability for each pitch name are stored in advance for a plurality of types, respectively.
Appearance probability acquisition step for acquiring the distribution of appearance probability for each pitch name for the music part;
For each of the plurality of templates stored in the music processing device, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step, and the load for each type A load degree calculating step for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A music processing method including a music information calculation step.
前記楽曲処理装置には、前記出現確率取得ステップにおいて前記出現確率の分布が取得される対象となる複数の楽曲のデータがさらに予め記憶されており、
前記楽曲情報算出ステップにおいて算出された楽曲情報を、前記楽曲処理装置にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて前記楽曲処理装置に記憶させる楽曲情報記憶ステップと、
前記楽曲処理装置にデータが記憶されている楽曲を、前記楽曲情報を用いて検索する検索ステップとをさらに含む、請求項7に記載の楽曲処理方法。
The music processing apparatus further stores in advance data of a plurality of music for which the distribution of the appearance probability is acquired in the appearance probability acquisition step,
A music information storing step for storing the music information calculated in the music information calculating step in the music processing apparatus in association with the music corresponding to the music information of the music data stored in the music processing apparatus; ,
The music processing method according to claim 7, further comprising: a search step of searching for music whose data is stored in the music processing apparatus using the music information.
所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置のコンピュータに実行させるためのプログラムであって、
前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
前記楽曲処理装置に記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出ステップと、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出ステップとを、前記コンピュータに実行させるプログラム。
A program for causing a computer of a music processing apparatus to calculate music information that represents each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music. There,
In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probability for each pitch name are stored in advance for a plurality of types, respectively.
Appearance probability acquisition step for acquiring the distribution of appearance probability for each pitch name for the music part;
For each of the plurality of templates stored in the music processing device, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step, and the load for each type A load degree calculating step for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A program that causes the computer to execute a music information calculation step.
請求項9に記載のプログラムを記録した、コンピュータに読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 9 is recorded. 所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する集積回路であって、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、
楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出部と、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出部とを備える、集積回路。
An integrated circuit that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
For the music part, an appearance probability acquisition unit that acquires a distribution of appearance probabilities for each pitch name;
For a plurality of templates that are different templates for each type of music and indicate the distribution of the appearance probability for each pitch name, the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit is A load degree calculation unit for calculating a load degree for each type,
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. An integrated circuit comprising a music information calculation unit that performs the operation.
JP2005352562A 2005-12-06 2005-12-06 Music processing device Pending JP2007156187A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005352562A JP2007156187A (en) 2005-12-06 2005-12-06 Music processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005352562A JP2007156187A (en) 2005-12-06 2005-12-06 Music processing device

Publications (1)

Publication Number Publication Date
JP2007156187A true JP2007156187A (en) 2007-06-21

Family

ID=38240624

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005352562A Pending JP2007156187A (en) 2005-12-06 2005-12-06 Music processing device

Country Status (1)

Country Link
JP (1) JP2007156187A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216769A (en) * 2008-03-07 2009-09-24 Yamaha Corp Sound processing apparatus and program
WO2010137074A1 (en) * 2009-05-28 2010-12-02 パイオニア株式会社 Key detection method, tone detection device, mixer device, and program
JP2013114191A (en) * 2011-11-30 2013-06-10 Brother Ind Ltd Parameter extraction device and voice synthesis system
JP2013210501A (en) * 2012-03-30 2013-10-10 Brother Ind Ltd Synthesis unit registration device, voice synthesis device, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009216769A (en) * 2008-03-07 2009-09-24 Yamaha Corp Sound processing apparatus and program
WO2010137074A1 (en) * 2009-05-28 2010-12-02 パイオニア株式会社 Key detection method, tone detection device, mixer device, and program
JP2013114191A (en) * 2011-11-30 2013-06-10 Brother Ind Ltd Parameter extraction device and voice synthesis system
JP2013210501A (en) * 2012-03-30 2013-10-10 Brother Ind Ltd Synthesis unit registration device, voice synthesis device, and program

Similar Documents

Publication Publication Date Title
JP4672613B2 (en) Tempo detection device and computer program for tempo detection
KR100658869B1 (en) Music generating device and operating method thereof
JP4199097B2 (en) Automatic music classification apparatus and method
CN112382257B (en) Audio processing method, device, equipment and medium
EP1791111A1 (en) Content creating device and content creating method
JP4916947B2 (en) Rhythm detection device and computer program for rhythm detection
US20100300262A1 (en) Music difficulty level calculating apparatus and music difficulty level calculating method
JP5229998B2 (en) Code name detection device and code name detection program
JPH11344979A (en) Melody generator and record medium
JP5196550B2 (en) Code detection apparatus and code detection program
JP2007156187A (en) Music processing device
JP4698606B2 (en) Music processing device
CN112420003B (en) Accompaniment generation method and device, electronic equipment and computer readable storage medium
JP6102076B2 (en) Evaluation device
JP2011118218A (en) Automatic arrangement system and automatic arrangement method
JP5504857B2 (en) Music generation apparatus and program
JP4932614B2 (en) Code name detection device and code name detection program
JP2007256619A (en) Evaluation device, control method and program
JP2002073064A (en) Voice processor, voice processing method and information recording medium
JPH05281970A (en) Automatic music arranging device and electronic musical instrument
JP6597553B2 (en) Harmony information generation apparatus, harmony information generation program, and harmony information generation method
JP4218066B2 (en) Karaoke device and program for karaoke device
JP3775039B2 (en) Melody generator and recording medium
JP4760348B2 (en) Music selection apparatus and computer program for music selection
TW202209300A (en) Music processing system, music processing program, and music processing method