JP2007156187A - Music processing device - Google Patents
Music processing device Download PDFInfo
- Publication number
- JP2007156187A JP2007156187A JP2005352562A JP2005352562A JP2007156187A JP 2007156187 A JP2007156187 A JP 2007156187A JP 2005352562 A JP2005352562 A JP 2005352562A JP 2005352562 A JP2005352562 A JP 2005352562A JP 2007156187 A JP2007156187 A JP 2007156187A
- Authority
- JP
- Japan
- Prior art keywords
- music
- information
- type
- appearance probability
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
本発明は、楽曲処理装置に関し、より特定的には、楽曲の音階情報から当該楽曲を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置および、算出した楽曲情報を用いて楽曲の検索を行う楽曲処理装置に関する。 The present invention relates to a music processing device, and more specifically, a music processing device that calculates music information representing each type constituting the music and a section in which each type exists from the scale information of the music, and a calculation The present invention relates to a music processing apparatus that searches for music using the music information that has been performed.
従来から、楽曲のタイプを検出する方法が知られている。楽曲のタイプとは、楽曲のイメージを決める要素(例えば調など)を示すものである。例えば楽曲の調を検出する方法としては、楽曲の音階に関する情報(以下、音階情報という)に基づいて当該音階情報に含まれる各音名の出現確率を算出し、各音名に関する当該出現確率の分布(出現確率分布と呼ぶ。後述する図3参照。)を用いて楽曲の調を検出する方法が知られている。この方法では、複数種類の調それぞれについて、予め作成された理想的な出現確率分布をテンプレートとしてそれぞれ用意しておく。そして、調を検出する対象となる楽曲の出現確率分布を算出し、当該楽曲についての出現確率分布と当該各テンプレートとを1つずつ個別に照合する。その結果、出現確率分布が当該楽曲と最も近似するテンプレートにより示される調を楽曲の調として決定する。 Conventionally, methods for detecting the type of music are known. The type of music indicates an element (for example, key) that determines the image of the music. For example, as a method for detecting the key of a music piece, the appearance probability of each pitch name included in the scale information is calculated based on information about the musical scale (hereinafter referred to as scale information), and the appearance probability of each pitch name is calculated. A method of detecting the key of a music using a distribution (referred to as an appearance probability distribution; see FIG. 3 described later) is known. In this method, an ideal appearance probability distribution created in advance is prepared as a template for each of a plurality of types of keys. And the appearance probability distribution of the music used as the object which detects a key is calculated, and the appearance probability distribution about the said music and each said template are collated one by one. As a result, the key indicated by the template whose appearance probability distribution is closest to the music is determined as the key of the music.
ここで、実際の楽曲には、転調を含むような複数種類の調で構成される楽曲がある。このような転調を含む楽曲の出現確率分布は、複数種類の調の出現確率分布が合成された分布となる結果、楽曲に含まれる各調の出現確率分布のいずれとも異なる分布となる場合がある。上記従来の方法では、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するので、楽曲の出現確率分布が複数の調の合成分布となる場合、合成分布に最も近似するテンプレートにより示される調が楽曲の調に決定される。つまり、この場合、楽曲に含まれる調のいずれとも異なる調が楽曲の調として決定されることになる。したがって、上記従来の方法では、転調を含むような複数種類の調で構成される楽曲については調を誤検出してしまう可能性がある。そして、上記従来の方法では、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するので、当該楽曲全体の調しか検出することができず、楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出することはできなかった。 Here, the actual music includes music composed of a plurality of types of keys including modulation. The appearance probability distribution of the music including such a modulation may be a distribution different from any of the appearance probability distributions of each key included in the music as a result of combining the appearance probability distributions of a plurality of types of keys. . In the above-described conventional method, the appearance probability distribution of the music and the appearance probability distribution of the template are collated on a one-to-one basis. Therefore, when the appearance probability distribution of the music is a composite distribution of a plurality of keys, the template that most closely approximates the composite distribution. The key indicated by is determined as the key of the music. That is, in this case, a key different from any of the keys included in the music is determined as the key of the music. Therefore, in the above conventional method, there is a possibility that a key is erroneously detected for music composed of a plurality of types of keys including a modulation. In the above-described conventional method, the appearance probability distribution of the music and the appearance probability distribution of the template are collated on a one-to-one basis, so that only the key of the entire music can be detected. It was not possible to calculate music information indicating the section where each key exists.
そこで従来において、入力される音階情報を所定の区間に区切り、各区間の調を検出する方法が提案されている(例えば、特許文献1参照。)。この方法では、例えば楽曲の1小節目から4小節目までを1つの区間、2小節目から5小節目までを次の区間というように、楽曲の音階情報を複数の区間に区切る。そして、区間毎にその区間の調が検出される。つまり、楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出している。さらに、検出された各区間の調の変化によって、転調する箇所が検出される。
ここで、特許文献1に開示された方法では、調を検出する対象は入力された音階情報の全体ではなく、当該音階情報を短く区切った区間である。具体的には、特許文献1の方法では、転調を検出するためには、少なくとも数小節程度(例えば4小節程度)の単位に音階情報を区切らなければならない。しかしながら、音階情報を区間に区切ると、調を検出する対象に含まれる音の数が少なくなる。つまり、音階情報を区間に区切ることによって、調を検出する対象に含まれる情報数が少なくなるので、調を検出する精度が必然的に低下してしまうという問題があった。以上より、特許文献1の方法では、音階情報を区切らなければならないことが理由で、各区間の調を検出する精度が低下してしまい、楽曲の楽曲情報を正確に算出することはできなかった。
Here, in the method disclosed in
それ故、本発明は、楽曲が転調を含む場合であっても楽曲を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を正確に算出することが可能な楽曲処理装置を提供することを目的とする。 Therefore, the present invention provides a music processing apparatus capable of accurately calculating music information that represents each type constituting a music and a section in which each type exists even if the music includes modulation. The purpose is to provide.
第1の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置であって、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、テンプレート記憶部に記憶されている複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出部と、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出部とを備える。 1st invention is a music processing apparatus which calculates the music information showing each type which comprises the said music part, and the area where each said type exists about the music part which is at least a part of predetermined music, The appearance probability acquisition unit that acquires the distribution of the appearance probability for each musical name for the music part, and the template that is different for each type of music and that shows the distribution of the appearance probability for each musical name for each of the plurality of types A template storage unit, and for each of a plurality of templates stored in the template storage unit, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit The total length of the sections in which the load degree calculation unit for calculating the load degree for each and the types constituting the music part exist are occupied in the entire music part. As the ratio and the size of the type of load degree are matched respectively for each type that includes a music information calculating unit that calculates the music information.
第2の発明は、上記第1の発明において、楽曲情報算出部は、楽曲部分を構成する各タイプについて、当該各タイプが存在する区間の長さを、当該各タイプの荷重度の大きさとそれぞれ一致する長さとした仮楽曲情報を設定する設定部と、楽曲部分を構成するタイプと仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、楽曲部分の一部を当該楽曲部分内で入れ替える入替部と、入替部で入れ替えた内容を示す入替情報を記憶する入替情報記憶部と、入替情報記憶部に記憶された入替情報に基づいて、入替部で入れ替えた順番と逆の順番で仮楽曲情報の一部を入れ替える逆入替部とを含む。 In a second aspect based on the first aspect, the music information calculation unit, for each type constituting the music part, determines the length of the section in which each type exists, and the magnitude of the load degree of each type. A part of the music part so that the setting unit for setting the temporary music information having the matching length and the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information. Is replaced in the music part, a replacement information storage unit that stores replacement information indicating contents replaced in the replacement unit, and a replacement order in the replacement unit based on replacement information stored in the replacement information storage unit. And a reverse replacement unit that replaces part of the provisional music information in the reverse order.
第3の発明は、上記第2の発明において、入替部は、仮楽曲情報が表すタイプと楽曲部分を構成するタイプとが相違する度合いを当該仮楽曲情報が表す各区間においてそれぞれ算出し、当該相違する度合いが小さくなるように楽曲部分の一部を当該楽曲部分内で入れ替える処理を繰り返し、当該相違する度合いが所定値よりも小さくなるときに当該処理を終了し、入替情報記憶部は、入替部が楽曲部分の一部を入れ替える処理を行うたびに、入替情報を記憶することを特徴とする。 In a third aspect based on the second aspect, the replacement unit calculates the degree of difference between the type represented by the provisional music information and the type constituting the musical piece part in each section represented by the provisional music information, The process of replacing a part of the music part in the music part so as to reduce the degree of difference is repeated, and when the degree of difference becomes smaller than a predetermined value, the process ends, and the replacement information storage unit Each time the section performs a process of replacing a part of the music part, replacement information is stored.
第4の発明は、上記第1の発明において、出現確率取得部が出現確率の分布を取得する対象となる複数の楽曲のデータを記憶する楽曲データ記憶部と、楽曲情報算出部において算出された楽曲情報を、楽曲データ記憶部にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて楽曲データ記憶部に記憶させる楽曲情報記憶部と、楽曲データ記憶部にデータが記憶されている楽曲を、楽曲情報を用いて検索する検索部とをさらに備える。 According to a fourth aspect of the present invention, in the first aspect, the appearance probability acquisition unit is calculated by a music data storage unit that stores data of a plurality of pieces of music for which an appearance probability distribution is acquired, and a music information calculation unit. The music information is stored in the music data storage unit in association with the music corresponding to the music information among the music data stored in the music data storage unit, and the music data storage unit stores the data. And a search unit that searches the stored music using the music information.
第5の発明は、上記第4の発明において、ユーザが楽曲の一部を指定する入力を受け付ける指定一部入力部をさらに備え、検索部は、楽曲データ記憶部に記憶されている楽曲情報のうち、指定一部入力部において指定された一部の楽曲情報を用いて検索することを特徴とする。 According to a fifth aspect, in the fourth aspect, the apparatus further includes a designated part input unit that receives an input for designating a part of the song by the user, and the search unit stores the song information stored in the song data storage unit. Among these, a search is performed using a part of music information designated by the designated part input unit.
第6の発明は、上記第4の発明において、ユーザによって入力されるべき選曲情報と楽曲情報に関する条件とを関連付けた選曲ルールを記憶する選曲ルール記憶部をさらに備え、検索部は、ユーザによって選曲情報が入力された場合、楽曲データ記憶部にデータが記憶されている楽曲と関連付けられた楽曲情報のうち、当該入力された選曲情報に関連付けられた楽曲情報に関する条件を満たす楽曲情報を検出し、検出した楽曲情報に関連付けられた楽曲を検索結果として出力する。 A sixth invention further includes a music selection rule storage unit that stores a music selection rule that associates music selection information to be input by a user with a condition related to music information in the fourth invention, and the search unit selects the music selection by the user When the information is input, the music information associated with the music selection information associated with the inputted music selection information is detected among the music information associated with the music whose data is stored in the music data storage unit, The music associated with the detected music information is output as a search result.
第7の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置において用いられる方法であって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、楽曲処理装置に記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出ステップと、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出ステップとを含む。 7th invention is used in the music processing apparatus which calculates the music information showing each type which comprises the said music part, and the area where each said type exists about the music part which is at least a part of predetermined music. In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probabilities for each pitch name are stored in advance for each of the plurality of types. Appearance probability acquisition step of acquiring the appearance probability distribution for each, and for each of a plurality of templates stored in the music processing device, of the template occupying the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step There is a load degree calculation step for calculating the load degree for each type, and a type constituting the music part. As the total length of the interval and the magnitude of the ratio and the type of load level in the whole of the music piece portions match each for each type, and a music information calculation step of calculating the music information.
第8の発明は、上記第7の発明において、楽曲処理装置には、出現確率取得ステップにおいて出現確率の分布が取得される対象となる複数の楽曲のデータがさらに予め記憶されており、楽曲情報算出ステップにおいて算出された楽曲情報を、楽曲処理装置にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて楽曲処理装置に記憶させる楽曲情報記憶ステップと、楽曲処理装置にデータが記憶されている楽曲を、楽曲情報を用いて検索する検索ステップとをさらに含む。 In an eighth aspect based on the seventh aspect, the music processing apparatus further stores in advance data of a plurality of pieces of music from which the distribution of appearance probabilities is acquired in the appearance probability acquisition step. A music information storage step for storing the music information calculated in the calculation step in the music processing apparatus in association with the music corresponding to the music information among the music data stored in the music processing apparatus; And a search step of searching for music in which data is stored using music information.
第9の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する楽曲処理装置のコンピュータに実行させるためのプログラムであって、楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、楽曲処理装置に記憶されている複数の各テンプレートについて、出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出ステップと、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出ステップとを、コンピュータに実行させるプログラムである。 According to a ninth aspect of the present invention, there is provided a computer of a music processing apparatus that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music. In the music processing apparatus, a template that is different for each type of music and indicates a distribution of appearance probabilities for each pitch name is stored in advance for each of a plurality of types. For the appearance probability acquisition step of acquiring the appearance probability distribution for each pitch name, and for each of the plurality of templates stored in the music processing device, the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step A load degree calculation step for calculating a load degree for each type, which is a load degree indicating a ratio of the template to be occupied, and a music part. A music information calculation step for calculating music information so that the total length of the section in which the type to be present occupies in the music part and the magnitude of the load degree of the type are the same for each type. A program to be executed by a computer.
第10の発明は、上記第9の発明における上記プログラムを記録した、コンピュータに読み取り可能な記録媒体である。 A tenth invention is a computer-readable recording medium on which the program according to the ninth invention is recorded.
第11の発明は、所定の楽曲の少なくとも一部である楽曲部分について、当該楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出する集積回路であって、楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であってタイプ毎の荷重度を算出する荷重度算出部と、楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの荷重度の大きさとが各タイプについてそれぞれ一致するように、楽曲情報を算出する楽曲情報算出部とを備える。 An eleventh aspect of the invention is an integrated circuit that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music, Appearance probability acquisition unit that acquires distribution of appearance probabilities for each musical name for music parts, and acquisition of appearance probabilities for a plurality of templates that are different for each type of music and that show the distribution of appearance probabilities for each musical name The degree of load indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the part, and a load degree calculating part for calculating the load degree for each type, and the section in which the type constituting the music part exists The music information calculation is performed to calculate the music information so that the ratio of the total length of the music portion to the entire music portion and the magnitude of the load degree of the type are the same for each type. And a part.
上記第1の発明によれば、複数のテンプレートの中から最も一致するテンプレートを1つ選択するのではなく、各テンプレートの荷重度を算出する。すなわち、所定の楽曲(楽曲情報を算出する対象となる楽曲)の少なくとも一部である楽曲部分について、テンプレートに対応する楽曲のタイプを1つ決定するのではなく、「楽曲部分に占める各タイプの割合」を算出する。したがって、例えば楽曲部分が2つの調で構成される場合には、その2つの調のテンプレートの荷重度が大きく算出される。つまり、楽曲が転調を含む場合であっても楽曲を構成する各タイプを、荷重度を用いて正確に算出することが可能となる。そして、楽曲部分を構成する各タイプを正確に算出した荷重度を用いて、楽曲部分を構成する各タイプと当該各タイプが存在する区間とを表した楽曲情報を算出することで、楽曲が転調を含む場合であっても当該楽曲の楽曲情報を正確に算出することが可能になる。また、楽曲情報を算出することで、ユーザに対して楽曲部分を構成する各タイプが存在する区間を提示することができ、ユーザは楽曲部分を構成する各タイプがどの区間に存在するかを正確に把握することができる。 According to the first aspect of the present invention, instead of selecting one template that most closely matches from a plurality of templates, the degree of load of each template is calculated. That is, instead of determining one type of music corresponding to the template for a music part that is at least a part of a predetermined music (music for which music information is to be calculated), "Percentage" is calculated. Therefore, for example, when the music part is composed of two tones, the degree of load of the templates of the two tones is calculated to be large. That is, even if the music includes modulation, each type constituting the music can be accurately calculated using the load degree. Then, using the degree of load obtained by accurately calculating each type constituting the music part, the music information is transposed by calculating music information representing each type constituting the music part and a section in which each type exists. Even if it contains, it becomes possible to calculate correctly the music information of the said music. In addition, by calculating the music information, it is possible to present to the user a section in which each type constituting the music part exists, and the user can accurately determine in which section each type constituting the music part exists. Can grasp.
上記第2の発明によれば、楽曲部分を構成するタイプと仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、楽曲部分の一部を当該楽曲部分内で入れ替え、その後、入れ替えた入替情報に基づいて、入れ替えた順番と逆の順番で仮楽曲情報の一部を入れ替えることで、楽曲部分の楽曲情報を正確に算出することができる。 According to the second aspect of the present invention, a part of the music part is included in the music part so that the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information. The music information of the music portion can be accurately calculated by exchanging a part of the provisional music information in the reverse order of the exchange order based on the exchange information after the exchange.
上記第3の発明によれば、入替情報記憶部に記憶される入替情報は、相違する度合いが小さくなるように入れ替えた入替情報であり、当該入替情報を用いることで、楽曲情報を効率よく算出することができる。 According to the third aspect, the replacement information stored in the replacement information storage unit is replacement information that is replaced so that the degree of difference is small, and the replacement information is used to efficiently calculate music information. can do.
上記第4の発明によれば、正確な楽曲情報を用いて楽曲の検索を行うことができ、精度の高い検索を実現することができる。 According to the fourth aspect, music can be searched using accurate music information, and high-precision search can be realized.
上記第5の発明によれば、指定された楽曲の一部についての検索を行うことができ、より柔軟な検索を実現することができる。 According to the fifth aspect, it is possible to perform a search for a part of the designated music piece and to realize a more flexible search.
上記第6の発明によれば、ユーザは、入力した選曲条件に関連する楽曲を容易に検索することができる。 According to the sixth aspect, the user can easily search for music related to the input music selection condition.
以下に、本発明の実施形態について図面を参照しながら説明する。なお、以下の説明において、「楽曲情報」とは、楽曲を構成する各タイプと当該各タイプが存在する区間とを表した情報である。具体的には、楽曲情報は楽曲内の区間の情報と当該区間のタイプとの組み合わせで表された情報である。「タイプ」とは、楽曲のイメージを決める要素であり、例えば調性、スケール、調などを示すものである。ここで、「調性」とはメジャーおよびマイナーの2種類を意味する。「スケール」とは、調号が同一となるメジャーおよびマイナーの12種類の組み合わせを意味する。「調」とは調性とスケールとで構成される24種類(C;Cメジャー、Am;Aマイナー、等)を意味する。また、本発明における楽曲処理装置の一例として、上記楽曲情報を算出する楽曲情報算出装置を第1の実施形態として説明する。また、本発明における楽曲処理装置の他の例として、上記楽曲情報を用いて楽曲を検索する楽曲検索装置2を第2の実施形態として説明する。
Embodiments of the present invention will be described below with reference to the drawings. In the following description, “music information” is information representing each type constituting a music and a section in which each type exists. Specifically, the music information is information represented by a combination of information on a section in the music and the type of the section. The “type” is an element that determines the image of the music, and indicates, for example, tonality, scale, and tone. Here, “tonality” means two types of major and minor. “Scale” means 12 major and minor combinations with the same key signature. “Tone” means 24 types (C: C major, Am: A minor, etc.) composed of tonality and scale. As an example of a music processing apparatus according to the present invention, a music information calculation apparatus that calculates the music information will be described as a first embodiment. As another example of the music processing apparatus according to the present invention, a
(第1の実施形態)
まず、本発明の第1の実施形態に係る楽曲情報算出装置1について、図1を用いて説明する。図1は、本発明の第1の実施形態に係る楽曲情報算出装置1を示すブロック図である。図1において、楽曲情報算出装置1は、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、および入替情報記憶部16を備える。
(First embodiment)
First, the music
音階情報入力部11は、楽曲情報算出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける。音階情報入力部11に入力される楽曲の音階情報は、少なくとも音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報を含むデータとする。図2は、音階情報入力部11に入力される楽曲の音階情報の一例を示す図である。図2において、楽曲の音階情報は、「小節数/拍数/ティック数」で示された時間と、音の強さを表すベロシティと、ノートナンバーとで表現される。ここで、上記時間は、各ノートナンバーが発音または消音となる時間を示す。ベロシティは0〜127の範囲の整数で表現され、ベロシティの値が大きいほど音量が大きい。なお、ベロシティの値が「0」であることは消音を示す。ノートナンバーの値は、ピアノの鍵盤中央のCの高さを示す値を「60」として設定される。また図2においては、デュレーションは時間およびベロシティによって表される。例えば時間が「000/0/000」のとき、ノートナンバーが「60」でベロシティは「90(発音)」となる。また、時間が「000/0/432」のとき、ノートナンバーが「60」でベロシティは「0(消音)」となる。したがって、「000/0/000」から「000/0/432」までの時間区間の音階情報は、ノートナンバーが「60」、ベロシティが「90」で、デュレーションが432ティックとなる。
The scale
なお、図2に示す楽曲の音階情報の一例では、時間は「小節数/拍数/ティック数」で示されたが、例えば「時間/分/秒/フレーム/サブフレーム」で示されてもよい。またベロシティは、0〜127の範囲の整数で表現したが、例えば、発音を表す「1」および消音を表す「0」の2値で表現されてもよい。 In the example of the musical scale information shown in FIG. 2, the time is indicated by “measure number / beat number / tick number”, but may be indicated by “hour / minute / second / frame / subframe”, for example. Good. The velocity is expressed by an integer in the range of 0 to 127. For example, the velocity may be expressed by a binary value of “1” indicating sound generation and “0” indicating mute.
以上のように、図2に示す楽曲の音階情報には、音の高さ(ノートナンバー)および音の長さ(デュレーション)の情報が含まれる。なお、楽曲の音階情報は、単純にノートナンバーに対してデュレーションを1対1で持つ方法で表現されてもよい。また楽曲の音階情報は、ノートナンバーおよびデュレーションの他に、ノートナンバーの連続的な変化を表すピッチベンドの情報をさらに含む方法で表現されてもよい。このときノートナンバーはピッチベンドの値に応じて変動する。 As described above, the musical scale information shown in FIG. 2 includes information on the pitch (note number) and the length (duration) of the sound. Note that the musical scale information may simply be expressed by a method having a one-to-one duration with respect to a note number. In addition to the note number and duration, the musical scale information may be expressed by a method that further includes pitch bend information representing a continuous change in the note number. At this time, the note number varies according to the pitch bend value.
出現確率算出部12は、音階情報入力部11に入力された楽曲の音階情報に含まれる各音名の出現確率をそれぞれ算出する。図3は、各音名に関する出現確率の分布(出現確率分布)を概念的に示す図である。図3においては、C;i=0、C♯;i=1、〜、B;i=11のように、12種類の音名には0から11までの音名ナンバーiがそれぞれ付されている。なお、以下の説明では、音名ナンバーがiである音名のことを「音名i」と記載することがある。
The appearance
テンプレート記憶部13は、24種類の調に対応する24種類のテンプレートを記憶する。24種類のテンプレートは、楽曲の異なるタイプをそれぞれ表したものとなる。またテンプレートは、それに対応する調の理想的な出現確率分布を示す。これらの各テンプレートは、予め作成されてテンプレート記憶部13に記憶される。図4は、24種類のテンプレートと各テンプレートについての荷重度の算出結果との一例を示す図である。図4においては、各テンプレートにより示される24種類の調には、メジャーの調をj=0〜11、マイナーの調をj=12〜23とした調ナンバーjが付されている。なお、以下の説明では、調ナンバーがjである調のことを「調j」と記載することがある。また、各テンプレートについての荷重度の算出結果については後述にて説明する。
The
荷重度算出部14は、出現確率算出部12で算出される楽曲の出現確率分布とテンプレート記憶部13に記憶される各テンプレートとに基づいて、各テンプレートについての荷重度をそれぞれ算出する(図4参照。)。荷重度算出部14は、24種類のテンプレートに1つずつ対応するように24個の荷重度を算出する。ここで、荷重度とは、楽曲の出現確率分布においてテンプレートの出現確率分布が占める割合(占有率)を示す。換言すれば、テンプレートの荷重度とは、24種類のテンプレートを用いて楽曲の出現確率分布を表す場合に、そのテンプレートの出現確率分布が寄与する割合を示す値である。例えば、荷重度の値が大きいテンプレートは、楽曲の出現確率分布において占める割合が大きいテンプレートである。したがって、荷重度の値が大きいテンプレートに対応する調は、当該楽曲において占める割合が大きい調である。
The load
楽曲情報算出部15は、楽曲を構成する調が存在する区間の合計の長さが当該楽曲の全体に占める割合と、荷重度算出部14で算出された当該調のテンプレートが占める割合を示す荷重度の大きさとが各調についてそれぞれ一致するように、楽曲の楽曲情報を算出する。楽曲情報を算出する詳細な処理については後述する。入替情報記憶部16には、楽曲情報算出部15の処理において発生する区間の入替情報が記憶される。
The music
次に、第1の実施形態に係る楽曲情報算出装置1の処理の流れについて図5を用いて説明する。図5は、第1の実施形態に係る楽曲情報算出装置1の処理の流れを表すフローチャートを示す図である。
Next, a processing flow of the music
音階情報入力部11は、楽曲情報算出装置1の外部または内部から、楽曲の音階情報の入力を受け付ける(ステップS1)。例えば、SMF(スタンダードMIDIファイル)などの、音階情報を示す音階データが入力される。なお、入力される音階データは、PCMデータ等の音声データを変換したものであってもよい。ここでは、図2に示したような音階情報が入力されるものとする。なお、本発明では、入力された楽曲を小節等の区間に区切る必要がないので、本発明において用いる音階情報には、小節の位置を示す情報が含まれている必要はない。本発明では、転調を含む楽曲を小節等の区間に区切ることなく、楽曲に含まれている調を正確に検出することができる。
The musical scale
ステップS1の次に、出現確率算出部12は、ステップS1で入力された楽曲全体の音階情報に含まれる各音名の出現確率をそれぞれ算出する(ステップS2)。ここで音名iの出現確率をP(i)とする。出現確率P(i)は、音階情報に含まれる音名iが持つデュレーションの総和を全ての音名(i=0〜11)が持つデュレーションの総和で除算することにより算出される。なお、各音名の出現確率の総和ΣP(i)は、以下の式(1)のように示される。
ΣP(i)=1 (i=0〜11)…(1)
After step S1, the appearance
ΣP (i) = 1 (i = 0 to 11) (1)
上記ステップS2において示したように、本実施形態では、楽曲の各音名の出現確率分布は出現確率算出部12によって算出されるものとした。ここで、楽曲の各音名の出現確率分布が予め分かっている場合、すなわち、楽曲の各音名の出現確率分布を示すデータが得られている場合には、出現確率算出部12は、ステップS2において当該データを取得するようにしてもよい。この場合、ステップS2で出現確率分布を算出する処理を省略することができる。
As shown in step S <b> 2, in this embodiment, the appearance probability distribution of each pitch name of the music is calculated by the appearance
ステップS2の次に、荷重度算出部14は、各テンプレートについての荷重度をそれぞれ算出する(ステップS3)。荷重度は、ステップS2で算出された各音名の出現確率(楽曲の実際の出現確率)と、テンプレート記憶部13に記憶された24種類のテンプレートにより示される出現確率とを用いて算出される。以下、荷重度を算出する方法を詳細に説明する。
After step S2, the load
まず、楽曲情報を算出する対象となる楽曲の出現確率分布を、24種類の調(j=0〜23)に対応する24種類のテンプレートの出現確率分布を用いて表現することを考える。ここで、対象となる楽曲の出現確率分布において調jのテンプレートの出現確率分布が占める割合を示す荷重度をW(j)とする。そして、調jのテンプレートに含まれる音名iの出現確率をPt(j,i)とする。このとき、次の式(2)および式(3)の関係が成り立つ。
ΣW(j)=1 (j=0〜23)…(2)
ΣPt(j,i)=1 (i=0〜11)…(3)
ここで、各テンプレートを用いて(すなわち、W(j)およびPt(j,i)を用いて)、対象となる楽曲の音階情報に含まれる音名iの出現確率Pf(i)を表現した場合、当該出現確率Pf(i)は次の式(4)のように示される。
Pf(i)=Σ(W(j)*Pt(j,i)) (j=0〜23)…(4)
したがって、ステップS2で算出された楽曲の実際の出現確率P(i)とPf(i)とが全音名(i=0〜11)について一致するように各テンプレートの荷重度W(j)(j=0〜23)を算出する。つまり、式(2)〜(4)の関係を満たし、i=0〜11についてP(i)=Pf(i)となるようなW(j)を求めればよい。具体的には、ここでは、各音名の出現確率の誤差(P(i)−Pf(i))を2乗した和を最小化させることによって各テンプレートの荷重度W(j)(j=0〜23)を求める。より具体的には、音名iの出現確率の誤差をE(i)とし、その誤差E(i)を2乗した和を‘Eとすると、E(i)および‘Eはそれぞれ式(5)および式(6)のように示される。
E(i)=P(i)−Pf(i)…(5)
‘E=Σ(E(i))2 (i=0〜11)…(6)
この式(6)を用いて、‘Eが最小となる各テンプレートの荷重度W(j)(j=0〜23)を算出する。なお、各テンプレートの荷重度W(j)(j=0〜23)は、例えば進化戦略(Evolutionary Strategy)を用いて算出することができるが、W(j)を算出するアルゴリズムはどのようなものであってもよい。以上のように、ステップS3では、各テンプレートの荷重度W(j)(j=0〜23)が算出される。各テンプレートの荷重度W(j)(j=0〜23)は、例えば図4に示すような算出結果となる。
First, let us consider expressing the appearance probability distribution of music for which music information is calculated using the appearance probability distributions of 24 types of templates corresponding to 24 types of keys (j = 0 to 23). Here, the load degree indicating the ratio of the appearance probability distribution of the key j template in the appearance probability distribution of the target music is defined as W (j). Then, the appearance probability of the pitch name i included in the template of key j is Pt (j, i). At this time, the following expressions (2) and (3) are satisfied.
ΣW (j) = 1 (j = 0-23) (2)
ΣPt (j, i) = 1 (i = 0 to 11) (3)
Here, using each template (that is, using W (j) and Pt (j, i)), the appearance probability Pf (i) of the pitch name i included in the scale information of the target music is expressed. In this case, the appearance probability Pf (i) is expressed by the following equation (4).
Pf (i) = Σ (W (j) * Pt (j, i)) (j = 0 to 23) (4)
Therefore, the load degree W (j) (j) of each template is set so that the actual appearance probabilities P (i) and Pf (i) calculated in step S2 are the same for all pitch names (i = 0 to 11). = 0 to 23). That is, W (j) that satisfies the relations of equations (2) to (4) and satisfies P (i) = Pf (i) for i = 0 to 11 may be obtained. Specifically, here, by minimizing the sum of squares of errors (P (i) −Pf (i)) of the appearance probabilities of the pitch names, the load degree W (j) (j = 0-23). More specifically, let E (i) be the error of the appearance probability of the pitch name i, and let E be the sum of the squares of the error E (i), then E (i) and 'E can be expressed by Equation (5), respectively. ) And equation (6).
E (i) = P (i) -Pf (i) (5)
'E = Σ (E (i)) 2 (i = 0 to 11) (6)
Using this equation (6), the degree of load W (j) (j = 0 to 23) of each template that minimizes 'E' is calculated. Note that the load degree W (j) (j = 0 to 23) of each template can be calculated by using, for example, an evolutionary strategy (Evolutionary Strategies). What algorithm is used to calculate W (j)? It may be. As described above, in step S3, the load degree W (j) (j = 0 to 23) of each template is calculated. The load degree W (j) (j = 0 to 23) of each template is a calculation result as shown in FIG. 4, for example.
ステップS3の次に、楽曲情報算出部15は、楽曲を構成する調が存在する区間の合計の長さが当該楽曲の全体に占める割合と、ステップS3で算出された当該調のテンプレートが占める割合を示す荷重度の大きさとが各調についてそれぞれ一致するように、楽曲の楽曲情報を算出する(ステップS4)。楽曲情報は、上述したように、楽曲内の区間の情報と当該区間の調との組み合わせで表された情報であり、例えば[区間の開始位置−区間の終了位置:その区間の調j]で表される情報である。例えば、算出対象となる楽曲全体を100%(1.0)として、前半60%(0.6)がEメジャー、後半の40%(0.4)がFメジャーであるとする。このとき、楽曲が開始する位置0%(0.0)を開始位置とし、楽曲が開始する位置0%から60%(0.6)の位置を終了位置とする前半区間がEメジャー(j=4)となる。また、当該60%の位置を開始位置とし、楽曲が終了する位置100%(1.0)を終了位置とする後半区間がFメジャー(j=5)となる。したがって、この楽曲の楽曲情報は([0.0−0.6:4]、[0.6−1.0:5])で表現される。
Next to step S3, the music
以下、図6を用いて、楽曲情報を算出する処理について詳細に説明する。図6は、楽曲情報を算出する処理の流れを示すフローチャートである。なお、楽曲情報を算出する処理を説明するための前提として、算出対象の楽曲が、楽曲の開始0%(0.0)の位置から20%(0.2)の位置までの区間がCm、当該20%の位置から50%(0.5)の位置までの区間がD、当該50%の位置から60%(0.6)の位置までの区間がCm、当該60%の位置から楽曲の終了100%(1.0)の位置までの区間がDである楽曲とする。つまり、図7の最上段に示すように、算出対象となる実際の楽曲が([0.0−0.2:15]、[0.2−0.5:2]、[0.5−0.6:15]、[0.6−1.0:2])である楽曲とする。ただし、Cmの調ナンバーがj=15とし、Dの調ナンバーがj=2とする。図7は、楽曲情報を算出する処理の一部における各楽曲のデータを模式的に示した図である。なおこの場合、ステップS3において算出される荷重度W(j)は、式(7)に示す値となる。
W(2)=0.7、W(15)=0.3…(7)
この荷重度の算出結果によれば、算出対象の楽曲を構成する調はDおよびCmの調のみからなることが分かる。また、Dの調となる各区間の合計の長さが楽曲全体のうちの70%に相当する長さとなることが分かる。また、Cmの調となる各区間の合計の長さが楽曲全体のうちの30%に相当する長さとなることが分かる。
Hereinafter, the process of calculating music information will be described in detail with reference to FIG. FIG. 6 is a flowchart showing a flow of processing for calculating music information. In addition, as a premise for explaining the process of calculating the music information, the music from the
W (2) = 0.7, W (15) = 0.3 (7)
According to the calculation result of the degree of load, it can be seen that the key constituting the music to be calculated includes only the key of D and Cm. It can also be seen that the total length of each section in the D key is equivalent to 70% of the entire music. It can also be seen that the total length of each section in the Cm key is equivalent to 30% of the entire music.
楽曲情報算出部15は、このような式(7)に示す荷重度の算出結果に基づいて、図7の最下段に示すように、算出対象となる楽曲の楽曲情報を例えば([0.0−0.7:2]、[0.7−1.0:15])と仮定する(ステップS401)。以下、この仮定した楽曲情報を仮楽曲情報という。
On the basis of the load degree calculation result shown in Equation (7), the music
ステップS401の次に、出現確率算出部12は、音階情報入力部11に入力された算出対象の楽曲について、仮楽曲情報が表す区間(以下、仮区間という)毎に各音名の出現確率を算出する(ステップS402)。つまり、出現確率算出部12は、算出対象の楽曲について上記前半区間[0.0−0.7]の音階情報に含まれる音名iの出現確率Pa(i)と、上記後半区間[0.7−1.0]の音名iの出現確率Pb(i)とをそれぞれ算出する。
After step S401, the appearance
ステップS402の次に、楽曲情報算出部15は、算出対象となる楽曲の各仮区間ついての各音名の出現確率(Pa(i)およびPb(i))と、仮楽曲情報が表す各仮区間の調(DおよびCm)のテンプレートに含まれる各音名の出現確率とを用いて、楽曲全体についての誤差関数を算出する(ステップS403)。ここで、算出対象の楽曲における前半区間の音名iの出現確率Pa(i)と、当該前半区間の調として仮定した調D(j=2)のテンプレートに含まれる音名iの出現確率Pt(2,i)との誤差をEa(i)とする。また、算出対象の楽曲における後半区間の音名iの出現確率Pb(i)と、当該後半区間の調として仮定した調Cm(j=15)のテンプレートに含まれる音名iの出現確率Pt(15,i)との誤差をEb(i)とする。また、Ea(i)の2乗した和を‘Eaとし、Eb(i)の2乗した和を‘Ebとする。このとき、Ea(i)、‘Ea、Eb(i)、および‘Ebはそれぞれ式(8)〜式(11)で表現される。
Ea(i)=Pa(i)−Pt(2、i)…(8)
‘Ea=Σ(Ea(i))2 (i=0〜11)…(9)
Eb(i)=Pb(i)−Pt(15、i)…(10)
‘Eb=Σ(Eb(i))2 (i=0〜11)…(11)
式(9)および式(11)より、楽曲全体についての誤差関数‘Ewは式(12)となる。
‘Ew=0.7*‘Ea+0.3*‘Eb…(12)
式(12)において、誤差関数‘Ewの値が0に限りなく近づくと、算出対象となる楽曲の各仮区間ついての各音名の出現確率と、仮楽曲情報が表す各仮区間の調のテンプレートに含まれる各音名の出現確率とが一致するようになる。つまり、誤差関数‘Ewの値が0に限りなく近づけば、算出対象となる楽曲の各仮区間の調が仮楽曲情報が表す各仮区間の調と一致する。このように、誤差関数は、算出対象となる楽曲の各仮区間の調と、仮楽曲情報が表す各仮区間の調とが相違する度合いを示す指標である。
After step S402, the music
Ea (i) = Pa (i) −Pt (2, i) (8)
'Ea = Σ (Ea (i)) 2 (i = 0 to 11) (9)
Eb (i) = Pb (i) −Pt (15, i) (10)
'Eb = Σ (Eb (i)) 2 (i = 0 to 11) (11)
From equation (9) and equation (11), the error function 'Ew for the entire music is expressed by equation (12).
'Ew = 0.7 *' Ea + 0.3 * 'Eb (12)
In the equation (12), when the value of the error function 'Ew approaches as much as 0, the appearance probability of each pitch name for each temporary section of the music to be calculated and the key of each temporary section represented by the temporary music information The appearance probabilities of the pitch names included in the template coincide with each other. That is, when the value of the error function 'Ew approaches as much as possible, the key of each temporary section of the music to be calculated matches the key of each temporary section represented by the temporary music information. Thus, the error function is an index indicating the degree of difference between the key of each temporary section of the music to be calculated and the key of each temporary section represented by the temporary music information.
ステップS403の次に、楽曲情報算出部15は、ステップS403で算出した誤差関数の値が所定値よりも小さいか否か判断する(ステップS404)。なお、所定値には、算出対象となる楽曲の各仮区間の調と、仮楽曲情報が表す各仮区間の調とが一致するとして許容される値が設定される。ステップS404において誤差関数の値が所定値よりも小さい値であれば、算出対象となる楽曲の各仮区間が示す調と、仮楽曲情報が表す各仮区間の調とが一致するので、処理はステップS405に進む。ステップS405において、楽曲情報算出部15は、仮楽曲情報を算出対象の楽曲の楽曲情報として算出する。ステップS404において誤差関数の値が所定値以上大きい値であれば、処理はステップS406に進む。ステップS406において楽曲情報算出部15は、ステップS403で算出した誤差関数の値を初期値‘Ew(0)に設定する。
Following step S403, the music
ステップS406の次に、楽曲情報算出部15は、算出対象となる楽曲において任意の区間を入れ替える(ステップS407)。つまり、楽曲情報算出部15は、算出対象となる楽曲の一部を当該楽曲内で入れ替える。ここでは、ランダムに選ばれた任意の区間を入れ替えるとする。具体的には、例えば区間の開始位置と区間の長さとがそれぞれランダムに選ばれた区間を入れ替えることが考えられる。図7の例では、入替(1)として、0.0から0.2までのDの区間と、0.7から0.9までのCmの区間を入れ替えている。入替(1)で入れ替えた後の楽曲は、入替(1)後に示される楽曲となる。ステップS407の次に、楽曲情報算出部15は、区間を入れ替えた楽曲について、仮区間毎に各音名の出現確率を算出する(ステップS408)。ステップS408の次に、楽曲情報算出部15は、区間を入れ替えた楽曲の各仮区間の各音名の出現確率と、仮楽曲情報が表す各仮区間の調のテンプレートに含まれる各音名の出現確率とを用いて、楽曲全体についての誤差関数を算出する(ステップS409)。誤差関数の算出方法については、ステップS403と同様の方法で算出する。
After step S406, the music
ステップS409の次に、楽曲情報算出部15は、ステップS409で算出した誤差関数の値が、初期値よりも小さいか否かを判断する(ステップS410)。図7の例で示した入替(1)後では、0.0から0.7までの前半区間ではDの全区間の長さとCmの区間の長さとの比がD:Cm=6:1となっている。また、0.7から1.0までの後半区間では、Cmの区間の長さとDの全区間の長さとの比がCm:D=2:1となっている。つまり、入替(1)後の楽曲は、入替前に比べて、仮楽曲情報([0.0−0.7:2]、[0.7−1.0:15])の楽曲により近づいている。このため、ステップS409で算出される誤差関数の値は、ステップS406で設定した初期値‘Ew(0)よりも小さくなることが分かる。つまり、入替(1)後の誤差関数を‘Ew(1)とすると、‘Ew(1)<‘Ew(0)となる。この場合、誤差関数の値が初期値よりも小さくなるので、処理はステップS412に進む。なお、誤差関数の値が初期値‘Ew(0)以上大きい場合には、楽曲情報算出部15はステップS407で入れ替えた区間を元に戻して(ステップS411)、ステップS407において再度別の区間を入れ替える。
After step S409, the music
ステップS410の次に、ステップS409で算出した誤差関数の値と、入れ替えた区間の情報とを入替情報記憶部16に記憶する(ステップS412)。ここで、図8に入替情報記憶部16に記憶される情報の一例を示す。図8に示すように、入替情報記憶部16には、入替情報として、入れ替えした順番を示す入替番号n(nは自然数)、入れ替えした区間の情報、および入替後の誤差関数の値が記憶されている。図7の入替(1)では0.0から0.2までのDの区間と0.7から0.9までのCmの区間とを入れ替えるとした。したがって、ステップS412において入替情報記憶部16には、入替番号(1)に対して[0.0−0.2]と[0.7−0.9]の区間の情報と、誤差関数‘Ew(1)が記憶される。
Following step S410, the value of the error function calculated in step S409 and the information of the replaced section are stored in the replacement information storage unit 16 (step S412). Here, FIG. 8 shows an example of information stored in the replacement
ステップS412の次に、楽曲情報算出部15は、記憶された誤差関数の値が所定値よりも小さいか否か判断する(ステップS413)。この所定値とは、ステップS404の所定値と同じ値である。ステップS413において誤差関数の値が所定値以上大きい値であれば、処理はステップS407に戻り、さらに区間を入れ替える。ここでは、図7に示す入替1後の誤差関数の値が所定値以上大きいとして、ステップS407に戻るとする。そして、図7に示すようにステップS407で2回目の区間の入れ替え(入替(2))として、0.5から0.6までのCmの区間と、0.9から1.0までのDの区間を入れ替えるとする。このとき、図7に示すように、入替(2)の入れ替え後を示す入替(2)後の楽曲は、仮楽曲情報の楽曲と一致していることが分かる。したがって、この場合、ステップS410では前回(入替1後の誤差関数の値‘Ew(1))よりも小さいと判断され、ステップS412において入替情報記憶部16に入替(2)に関する入替情報が記憶される。
After step S412, the music
また、入替(2)後の誤差関数の値‘Ew(2)は0となり所定値よりも小さく、区間を入れ替えした楽曲の各区間が示す調と、仮楽曲情報が表す各仮区間の調とが一致するので、処理はステップS414に進む。このとき、入替(2)後の楽曲の楽曲情報は、仮楽曲情報と一致する。ステップS414において楽曲情報算出部15は、ステップS412で記憶された入替情報に基づいて、算出対象となる楽曲の楽曲情報を算出する。具体的には、図9に示すように、入替情報記憶部16に記憶された入替番号を逆順にたどって、仮楽曲情報、つまり入替(2)後の楽曲情報を入れ替える。図9は、ステップS414の処理を模式的に示した図である。図8では入替情報記憶部16には、入替番号(1)および(2)と、その番号に対応する入れ替え区間の情報が記憶されている。したがって、ステップS414では、図9に示すように、まず入替(2)後の楽曲情報について入替番号(2)の入れ替え区間の情報に基づいて、区間[0.5−0.6]と区間[0.9−1.0]とを入れ替える(図9の入替(2)後)。その後に、入替番号1の入れ替え区間の情報に基づいて、区間[0.0−0.2]と区間[0.7−0.9]とを入れ替える(図9の入替(1)後)。そして図9に示すように、入替1後の楽曲情報が算出対象となる実際の楽曲の楽曲情報と一致することがわかる。つまり、楽曲情報算出部15は、入替(1)後の楽曲情報を算出対象となる楽曲の楽曲情報として算出する。
Further, the error function value 'Ew (2) after replacement (2) is 0 and smaller than a predetermined value, and the key indicated by each section of the music whose section has been replaced and the key of each temporary section represented by the provisional music information Since they match, the process proceeds to step S414. At this time, the music information of the music after the replacement (2) matches the provisional music information. In step S414, the music
このように、楽曲情報算出部15は、算出対象となる楽曲の区間を入れ替える処理を繰り返し行い、誤差関数を小さくしていく。つまり楽曲情報算出部15は、算出対象となる楽曲を仮楽曲情報の楽曲に近づける処理を行う。またこの処理において楽曲情報算出部15は、入れ替えた2つの区間を入替情報記憶部16に順番に記録しておく。そして楽曲情報算出部15は、誤差関数が所定値よりも小さくなったら、処理を行った算出対象となる楽曲の楽曲情報が仮楽曲情報であると確定する。その後、楽曲情報算出部15は、確定した楽曲情報に対してこれまで入れ替えてきた区間を逆の順番に入れ替えていく。最後まで入れ替えたところで、確定した楽曲情報が表す各区間の調が、算出対象となる実際の楽曲の各区間の調と一致し、楽曲情報算出部15は算出対象となる実際の楽曲の楽曲情報を算出することができる。
As described above, the music
なお、上述のステップS407からS413では、区間の入れ替え方法としてランダムに選ばれた任意の区間について入れ替えるとしたがこれに限定されない。例えば楽曲情報算出部15は、誤差関数‘Ewを適合度として遺伝的アルゴリズム等を利用して、入れ替える2つの区間を例えば「区間1」と「区間2」としたとき、[区間1の開始位置、区間2の開始位置、区間の長さ]を最適化する。つまり、楽曲情報算出部15は、N(自然数)回の入れ替えを連続して行うことを、[区間1の開始位置、区間2の開始位置、区間の長さ]をN組作ることで表現し、N回の入れ替えを行った結果の誤差関数‘Ew(N)が所定値より小さくなるように各パラメータを最適化し、その結果を用いて区間を入れ替える。楽曲情報算出部15は、このような入れ替え方法を採用してもよい。
In steps S407 to S413 described above, an arbitrary section selected at random as the section replacement method is replaced. However, the present invention is not limited to this. For example, the music
また例えば、処理を行う算出対象となる楽曲について、ステップS401で仮定した仮楽曲情報で表される各仮区間のうち、異なる調の仮区間内からそれぞれ抽出した区間に対応する区間を入れ替えるようにしてもよい。図7の例でいえば、処理を行う楽曲について、仮楽曲情報の楽曲におけるDの仮区間[0.0−0.7]内にある一部の区間に対応する区間と、0.7から1.0までのCmの仮区間[0.7−1.0]内にある一部の区間に対応する区間とを入れ替える。これは、誤差関数が、処理を行う楽曲と仮楽曲情報の楽曲とを各仮区間で比較することによって算出されるためである。例えば、処理を行う楽曲について、Dの仮区間[0.0−0.7]内にある一部の区間に対応する区間(例えば[0.0−0.2]と[0.5−0.7])を入れ替えるとする。ここで、処理を行う楽曲の[0.0−0.7]の仮区間にDの調が多く含まれていれば、誤差関数の値は小さくなる。しかしながら、処理を行う楽曲の[0.0−0.7]の仮区間内で一部の区間を入れ替えても、処理を行う楽曲の[0.0−0.7]に含まれるDの調の割合は変化しない。つまり、処理を行う楽曲の[0.0−0.7]の仮区間内で一部の区間を入れ替えても、誤差関数の値は変わらない。したがって、処理を行う算出対象となる楽曲について、ステップS401で仮定した仮楽曲情報で表される各仮区間のうち、異なる調の仮区間内からそれぞれ抽出した一部の区間に対応する区間を入れ替えるようにすることで、効率良く誤差関数の値を小さくすることができる。 Further, for example, for the music to be calculated to be processed, among the temporary sections represented by the temporary music information assumed in step S401, the sections corresponding to the sections extracted from the temporary sections of different keys are replaced. May be. In the example of FIG. 7, with respect to the music to be processed, sections corresponding to some sections within the temporary section [0.0-0.7] of D in the music of the temporary music information; Sections corresponding to some sections in the temporary section [0.7-1.0] of Cm up to 1.0 are replaced. This is because the error function is calculated by comparing the music to be processed and the music of the temporary music information in each temporary section. For example, for music to be processed, sections (for example, [0.0-0.2] and [0.5-0] corresponding to some sections in the temporary section [0.0-0.7] of D). .7]) is replaced. Here, if there are many D keys in the [0.0-0.7] temporary section of the music to be processed, the value of the error function is small. However, even if a part of the [0.0-0.7] temporary section of the music to be processed is replaced, the D key included in [0.0-0.7] of the music to be processed is replaced. The proportion of s does not change. That is, even if a part of the [0.0-0.7] temporary section of the music to be processed is replaced, the value of the error function does not change. Therefore, for the music to be calculated to be processed, among the temporary sections represented by the temporary music information assumed in step S401, the sections corresponding to some sections respectively extracted from the temporary sections of different keys are replaced. By doing so, the value of the error function can be efficiently reduced.
また、上述では、楽曲情報を[区間の開始位置−区間の終了位置:その区間の調j]で表すとしたが、ユーザに対して楽曲情報を表示する場合には、図10に示すように、調毎に異なる模様のラベルを用いて表示してもよい。図10は、楽曲情報が調毎に異なる模様で表示されたラベルの例を示す図である。これにより、ユーザは楽曲の構造を容易に判断することができ、視認性が良くなる。 In the above description, the music information is represented by [section start position-section end position: key j of the section]. However, when music information is displayed to the user, as shown in FIG. The labels may be displayed using different labels for each key. FIG. 10 is a diagram illustrating an example of a label in which music information is displayed in a different pattern for each key. Thereby, the user can easily determine the structure of the music and the visibility is improved.
また、上述では、調に関する楽曲情報を算出するとしたが、当該調に関する楽曲情報を用いて、調性やスケールなどに関する楽曲情報をさらに算出してもよい。例えば、調性に関する楽曲情報を算出する場合には、上述した図4に示すように、24種類の調はメジャーの調(j=0〜11)かマイナーの調(j=12〜23)の2種類に種別されるので、当該種別に基づいて楽曲情報に含まれる調をそれぞれメジャーかマイナーかに種別すればよい。これにより、ユーザは、メジャーの調やマイナーの調が存在する区間を把握することができる。また、スケールに関する楽曲情報を算出する場合には、各区間の調をいずれかのスケールに種別すればよい。ここで、24種類の調とスケールとの関係は、例えば図11に示される関係となる。図11は、24種類の調とスケールとの関係の一例を示す図である。図11では、各スケールについて、スケールナンバーs(s=0〜11)が付されている。そして図11に示すように、24種類の調のうちそれぞれ2種類の調が同一スケールとなり、スケールは計12種類存在することが分かる。例えば、C(j=0)およびAm(j=12)の2種類の調は同一のスケールとなり、当該スケールナンバーsはs=0である。このように、図11に示すスケールと調との関係に基づいて、各区間の調をいずれかのスケール(s=0〜11)に種別することで、ユーザは、メジャーの調やマイナーの調が存在する区間を把握することができる。 In the above description, the music information related to the key is calculated. However, the music information related to the tonality and the scale may be further calculated using the music information related to the key. For example, in the case of calculating music information related to tonality, as shown in FIG. 4 described above, 24 kinds of tones are major tones (j = 0 to 11) or minor tones (j = 12 to 23). Since it is classified into two types, the key included in the music information may be classified as major or minor based on the type. Thereby, the user can grasp a section in which a major key or a minor key exists. In addition, when calculating music information related to a scale, the key of each section may be classified into one of the scales. Here, the relationship between the 24 keys and the scale is, for example, the relationship shown in FIG. FIG. 11 is a diagram illustrating an example of the relationship between 24 types of keys and scales. In FIG. 11, a scale number s (s = 0 to 11) is assigned to each scale. As shown in FIG. 11, it can be seen that two of the 24 tones have the same scale, and there are a total of 12 scales. For example, the two types of keys C (j = 0) and Am (j = 12) have the same scale, and the scale number s is s = 0. Thus, by classifying the key of each section into one of the scales (s = 0 to 11) based on the relationship between the scale and key shown in FIG. 11, the user can adjust the major key and the minor key. Can be grasped.
以上のように、本実施形態に係る楽曲情報算出装置1は、楽曲の出現確率分布とテンプレートの出現確率分布とを1対1で照合するのではなく、楽曲の出現確率分布において各調のテンプレートが占める割合(荷重度)を算出する。その結果、楽曲に含まれる複数の調を検出する楽曲が転調を含むような複数種類の調で構成される場合であっても、楽曲の調を正確に検出することが可能となる。そして、本実施形態に係る楽曲情報算出装置1は、正確に検出した楽曲を構成する各調と当該各調が存在する区間とを表した楽曲情報を算出することで、当該楽曲情報を正確に算出可能になることはもちろんのこと、ユーザに対して当該楽曲に含まれる複数の調やその他のタイプ(例えば調性など)が存在する区間を提示することができる。これにより、ユーザは楽曲に含まれる複数の調やその他のタイプ(例えば調性など)が存在する区間を正確に把握することができる。
As described above, the music
なお、上述では、テンプレート記憶部13には24種類の調についてそれぞれ1つずつのテンプレートしか記憶されていない。しかし、1種類の調について複数のテンプレートが記憶されてもよい。1種類の調について、例えばポップス、ジャズ、クラシックなどのジャンル毎にテンプレートを用意して、テンプレート記憶部13に記憶させる。そして、テンプレート記憶部13に記憶される全てのテンプレートについての荷重度を算出することで、楽曲情報算出装置1は楽曲のジャンルに合わせた楽曲情報を正確に算出することができる。また、各テンプレートの荷重度には、それぞれジャンルの情報が含まれるので、楽曲のジャンルも算出することが可能となる。
In the above description, the
また、1種類の調について、例えばメロディおよびベースなどの特定のパート専用毎にテンプレートが用意され、テンプレート記憶部13に記憶されてもよい。そして、テンプレート記憶部13に記憶されるテンプレートのうち、入力される楽曲のパートに合わせたテンプレートについての荷重度を算出することで、楽曲情報算出装置1は入力される楽曲のパートに合わせた楽曲情報を正確に算出することができる。
Further, for one type of key, a template may be prepared for each specific part, such as a melody and a bass, and stored in the
また、テンプレートとして、24種類の調ではなく調性、スケール、またはコードなどに対応する出現確率分布を用いてもよい。そして、当該各テンプレートについての荷重度を算出することで、調性、スケール、またはコードに関する楽曲情報を直接算出することができる。 Further, as a template, an appearance probability distribution corresponding to tonality, scale, or chord may be used instead of 24 types of tones. Then, by calculating the degree of load for each template, music information regarding tonality, scale, or chord can be directly calculated.
また、上述した音階情報入力部11で入力を受け付ける音階情報は、メロディやベースなどの演奏のパートを少なくとも1つ含むものであれば良く、例えば複数のパートで構成される音階情報であってもよい。また、音階情報を構成する楽曲の演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。ここで、一部の演奏時間分は、例えば前奏を除く楽曲の前半部分の演奏時間分としてもよい。当該演奏時間分は、主要な調で構成されることが一般的に多いからである。その結果、楽曲情報算出装置1は、より精度の高い楽曲情報を算出することができる。また、楽曲情報算出装置1の処理負担も軽減させることができる。
In addition, the scale information that receives input by the scale
なお、図12に示すように、本実施形態に係る曲調情報検出部17をさらに設け、荷重度算出部14で算出した荷重度や楽曲情報算出部15で算出した楽曲情報を用いて楽曲の曲調情報を検出してもよい。図12は、楽曲情報算出装置1に曲調情報検出部17をさらに設けた構成を示すブロック図である。ここで、「曲調情報」とは、各区間ではなく、検出対象となる楽曲全体の曲調を示す指標を意味する情報である。また曲調情報には、24個の荷重度を1つの組として示す情報(荷重度の組)または当該荷重度の組から算出される各種情報が含まれる。ここで各種情報とは、例えば、調、調性占有率、調性およびスケールなどを示す情報である。「調性占有率」とは楽曲内におけるメジャー(またはマイナー)の占有率を意味する。
As shown in FIG. 12, the music tone
まず、曲調情報検出部17が荷重度算出部14で算出した荷重度を用いて曲調情報を検出する方法について説明する。曲調情報検出部17は、荷重度算出部14で算出された24個の荷重度に基づいて楽曲の曲調情報を検出する。具体的には、曲調情報検出部17は、24個の荷重度を1つの組として示す情報(荷重度の組)、当該荷重度の組から算出される調、調性占有率、調性およびスケールなどを曲調情報として検出する。以下に、調、調性占有率、調性およびスケールの検出方法について説明する。
First, a method for detecting music tone information using the load degree calculated by the load
まず調については、曲調情報検出部17は、荷重度W(j)の値が最大となるテンプレートに対応する調ナンバーjの調を求め、当該調を最も優勢な調として検出する。次に調性占有率については、曲調情報検出部17は、楽曲内におけるメジャーの占有率およびマイナーの占有率を調性占有率として次の方法で検出する。メジャーの占有率をRmaj、マイナーの占有率をRminとすると、図4において調ナンバーj=0〜11がメジャーの調、j=12〜23がマイナーの調としているので、RmajおよびRminはそれぞれ以下の式で算出される。
Rmaj=ΣW(j) (j=0〜11)…(13)
Rmin=ΣW(j) (j=12〜23)…(14)
したがって、曲調情報検出部17は、式(13)および式(14)で算出したRmajとRminを調性占有率として検出する。
First, for the key, the music tone
Rmaj = ΣW (j) (j = 0 to 11) (13)
Rmin = ΣW (j) (j = 12 to 23) (14)
Therefore, the music tone
次に調性については、曲調情報検出部17は、メジャーまたはマイナーの調性のうち優勢な方の調性を曲調情報として検出する。すなわち、曲調情報検出部17は、上記式(13)および式(14)で算出されたRmajの値とRminの値とを比較してRmajの値が大きければメジャーの調性を、Rminの値が大きければマイナーの調性を曲調情報として検出する。
Next, for the tonality, the tune
次にスケールの検出方法について上述した図11を用いて説明する。図11において、24種類の調のうちそれぞれ2種類の調が同一スケールとなるので、スケールは計12種類存在する。また、各スケールについて、図11に示すようにスケールナンバーs(s=0〜11)が付される。ここで、楽曲内における各スケールの占有率をスケール占有率Rs(s)(s=0〜11)とすると、Rs(s)は以下のようにそれぞれ算出される。
Rs(0)=W(0)+W(12)
Rs(1)=W(1)+W(13)
Rs(2)=W(2)+W(14)
・
・
・
Rs(11)=W(11)+W(23)
したがって、曲調情報検出部17は、スケール占有率Rs(s)の値が最大となるスケールナンバーsのスケールを求め、当該スケールを最も優勢なスケールとして検出する。
Next, a scale detection method will be described with reference to FIG. In FIG. 11, two of the 24 tones have the same scale, so there are a total of 12 scales. Each scale is given a scale number s (s = 0 to 11) as shown in FIG. Here, assuming that the occupancy ratio of each scale in the music is the scale occupancy ratio Rs (s) (s = 0 to 11), Rs (s) is calculated as follows.
Rs (0) = W (0) + W (12)
Rs (1) = W (1) + W (13)
Rs (2) = W (2) + W (14)
・
・
・
Rs (11) = W (11) + W (23)
Therefore, the music tone
次に、曲調情報検出部17が楽曲情報算出部15で算出した楽曲情報を用いて曲調情報を検出する方法について説明する。楽曲情報算出部15で算出された楽曲情報は、図9の最下段に示されるように、楽曲を構成する各調と当該各調が存在する区間とを表した情報である。曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報から、同じ調を示す区間の長さをそれぞれ合計して区間の長さが最大となる調を求め、当該調を最も優勢な調として検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して区間の長さが長い方の調性を曲調情報として検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して、楽曲内におけてメジャーおよびマイナーの調性が占める割合を算出して調性占有率を検出する。また、曲調情報検出部17は、楽曲情報算出部15で算出された楽曲情報に表される各区間の調から、上述した図11に示す調とスケールとの関係に基づいて、同じスケールを示す区間の長さをそれぞれ合計して区間の長さが最大となるスケールを求め、当該スケールを最も優勢なスケールとして検出する。
Next, a method for detecting music tone information using the music information calculated by the music
図12に示したように、曲調情報検出部17をさらに設けることによって、ユーザは実際に楽曲を聞かなくても当該楽曲全体のイメージを把握することができる。具体的には、曲調情報検出部17が検出する荷重度の組によって、ユーザは、当該楽曲全体に含まれる複数の調の割合を把握することができる。すなわち、1つの調の荷重度の値が大きく、それ以外の調の荷重度の値が小さい場合には、ユーザは当該楽曲全体が単調の曲であることを把握できる。また、多数の調で荷重度の値が近似する場合には、ユーザは当該楽曲全体が多数の調で構成されている楽曲であることを把握できる。また、検出された調、調性占有率、調性およびスケールなどの曲調情報によっても、ユーザは実際に楽曲を聞かなくても当該楽曲全体のイメージを把握することができる。
As shown in FIG. 12, by further providing the music tone
なお、本実施形態に係る楽曲情報算出装置1は、一般的なコンピュータシステム100に楽曲情報算出プログラムを実行させることによって実現されてもよい。図13は、楽曲情報算出装置1がコンピュータシステム100によって実現される構成例を示すブロック図である。なお、図13において、音階情報入力部11、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、および入替情報記憶部16は、図1に示される各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。
Note that the music
図13において、コンピュータシステム100は、演算処理部110、記憶部120およびディスクドライブ装置130を備える。演算処理部110は、CPUまたはメモリなどで構成され、楽曲情報算出プログラムを実行させることによって、音階情報入力部11、出現確率算出部12、荷重度算出部14、および楽曲情報算出部15と同一の機能を実現する。また記憶部120は、ハードディスクなどの記録媒体で構成され、楽曲情報算出プログラムを実行させることによって、テンプレート記憶部13および入替情報記憶部16と同一の機能を実現する。ディスクドライブ装置130は、コンピュータシステム100を楽曲情報算出装置1として機能させるための楽曲情報算出プログラムが記憶された記録媒体140から、当該楽曲情報算出プログラムを読み出す。当該楽曲情報算出プログラムが任意のコンピュータシステム100にインストールされることにより、当該コンピュータシステム100を上述した楽曲情報算出装置1として機能させることができる。なお、記録媒体140は、例えばフレキシブルディスクや光ディスクなどのディスクドライブ装置130によって読み取り可能な形式の記録媒体である。また、楽曲情報算出プログラムは、予めコンピュータシステム100にインストールされていてもかまわない。
In FIG. 13, the
なお、以上の説明では、上記楽曲情報算出プログラムは記録媒体140によって提供されるとしたが、インターネットなどの電気通信回線によって提供されてもよい。また、楽曲情報算出における処理は、全部または一部をハードウェアによって処理される形態であってもよい。
In the above description, the music information calculation program is provided by the
(第2の実施形態)
次に、本発明の第2の実施形態に係る楽曲検索装置2について、図14および図15を用いて説明する。図14は、本発明の第2の実施形態に係る楽曲検索装置2を示すブロック図である。図14において、楽曲検索装置2は、楽曲入力部21、音階データ変換部22、出現確率算出部12、楽曲データ記憶部23、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、入替情報記憶部16、曲調情報検出部17、選曲ルール記憶部24、選曲情報入力部25、および検索部26を備える。なお、図14において、出現確率算出部12、テンプレート記憶部13、荷重度算出部14、楽曲情報算出部15、入替情報記憶部16、および曲調情報検出部17は、第1の実施形態で説明した楽曲情報算出装置1の各構成部とそれぞれ同一の符号を付し、かつ同一の機能とし、説明を省略する。
(Second Embodiment)
Next, a
図15は、第2の実施形態に係る楽曲検索装置2の処理の流れを表すフローチャートを示す図である。なお、図15において、ステップS1〜S4は、第1の実施形態で説明した楽曲情報算出装置1の処理(図5参照。)のステップS1〜S4とそれぞれ同一の符号を付し、かつ同一の処理とし、説明を省略する。以下に、図15を用いて楽曲検索装置2の処理の流れについて説明する。
FIG. 15 is a diagram illustrating a flowchart showing the flow of processing of the
楽曲入力部21は、楽曲検索装置2の外部または内部から、楽曲データの入力が受け付けられたか否かを判定する(ステップS11)。ステップS11の判定の結果、楽曲データが入力されていないと判定された場合、ステップS16の処理が行われる。一方、ステップS11の判定の結果、楽曲データが入力されたと判定された場合、ステップS12の処理が行われる。すなわち、楽曲入力部21は、入力された楽曲データを楽曲データ記憶部23に記憶する(ステップS12)。
The
ここで楽曲データは、音声データであってもよいし、音階データであってもよい。音階データとは、例えばPCM形式の音声データ、MP3およびAACなどの圧縮形式の音声データなどである。音階データとは、SMF(スタンダードMIDIファイル)などの音階情報を示す音階データなどである。なお、入力される楽曲データは、例えばメロディまたはベースなどの演奏のパートを少なくとも1つ含むものであればよく、例えば複数のパートで構成されるデータであってもよい。また、楽曲データの演奏時間は、全演奏時間分であってもよいし、一部の演奏時間分であってもよい。 Here, the music data may be audio data or scale data. The scale data is, for example, audio data in PCM format, audio data in compression format such as MP3 and AAC, and the like. The scale data is scale data indicating scale information such as SMF (standard MIDI file). Note that the input music data only needs to include at least one performance part such as a melody or bass, and may be data composed of a plurality of parts, for example. The performance time of the music data may be the entire performance time or a part of the performance time.
ステップS12の次に、音階データ変換部22は、ステップS12で記憶された楽曲データが音声データ(例えばPCM形式の音声データ)である場合には、当該音声データを音階情報を示す音階データに変換する(ステップS13)。音階データ変換部22は、例えば特開昭58−181090号公報に開示された方法で音声データを音階データに変換する。また、音階データ変換部22は、音声データがMP3およびAACなどの圧縮形式の音声データである場合には、一旦PCM形式の音声データに変換した後、音階データに変換する。なお、音階データに変換する方法は上記方法に限らず、他の方法を用いてもよい。また、ステップS12で記憶された楽曲データがSMFなどの音階データである場合には、上記ステップS13の処理は行わずにステップS1〜S4の処理が行われる。
After step S12, when the music data stored in step S12 is voice data (for example, PCM format voice data), the scale
ステップS13の次に、ステップS1〜S4(図5参照。)において、ステップS12で記憶された音階データまたはステップS13で変換された音階データに基づいて楽曲情報が算出される。ステップS1〜S4の次に、曲調情報検出部17は、上述した第1の実施形態と同様の方法で楽曲全体の曲調情報を検出する(ステップS14)。そして、ステップS15において、楽曲データ記憶部23には、算出された楽曲情報および楽曲全体の曲調情報が記憶される。ここで楽曲データ記憶部23には、ステップS12で記憶された楽曲データと、図5に示すステップS4で算出された楽曲データの楽曲情報と、ステップS14で検出された楽曲全体の曲調情報とがそれぞれ関連づけられて記憶される。図16は、楽曲データ記憶部23に記憶されるデータの一例を示す図である。図16では、楽曲データ記憶部23には、楽曲データ以外に楽曲情報、楽曲全体の曲調情報として最も優勢な調(K)、調性(T)、最も優勢なスケール(S)、およびメジャーの占有率(Rmaj)が記憶される。また、図16において、楽曲データのスケール(S)はスケールナンバーsで示される。また、楽曲データ記憶部23に記憶される楽曲データは、楽曲番号で管理されており、楽曲データとそれに関連づけられた楽曲情報および楽曲全体の曲調情報は、適宜削除または追加されることが可能である。
Next to step S13, in steps S1 to S4 (see FIG. 5), music information is calculated based on the scale data stored in step S12 or the scale data converted in step S13. After steps S1 to S4, the music tone
ステップS15の次に、検索部26は、選曲情報入力部25から選曲情報が入力されたか否かを判定する(ステップS16)。ユーザは、選曲情報入力部25を用いて所望する楽曲の選曲情報を入力する。図17は、楽曲検索装置2がもつ入力画面の一例を示す図である。図17において、入力画面には、選曲情報リスト251、指定区間入力部252、および検索ボタン253が表示される。そして、ユーザは、選曲情報入力部25を用いて選曲情報リスト251にある選曲情報の中から所望する選曲情報を選択する。また、ユーザは、選曲情報入力部25を用いて指定区間入力部252で選曲したい曲の区間を指定する。その後、ユーザは検索ボタン253を押すことによって選曲情報を決定する。
After step S15, the
ステップS16の判定の結果、選曲情報が入力されていない場合、ステップS11の処理に戻る。一方、ステップS16の判定の結果、選曲情報が入力された場合、ステップS17の処理が行われる。 As a result of the determination in step S16, if the music selection information is not input, the process returns to step S11. On the other hand, if the music selection information is input as a result of the determination in step S16, the process in step S17 is performed.
ステップS16の次に、検索部26は、入力された選曲情報に対応する検索条件を特定する(ステップS17)。ここで、入力された選曲情報に対応する検索条件を特定する方法としては、選曲ルール記憶部24に記憶される選曲ルールに基づいて特定する方法がある。図18は、選曲ルールの一例を示す図である。選曲ルール記憶部24には、楽曲の検索を行うための選曲ルールが記憶される。図18では、選曲ルールとして、選曲情報リスト251に表示された選曲情報と当該選曲情報に対応した検索条件とが予め設定される。すなわち図18において、例えば「明るい」という選曲情報に対して検索条件は曲調情報としての調性がメジャーである楽曲データ、「やや楽しい」という選曲情報に対して検索条件は曲調情報としてのメジャーの占有率Rmajが0.6〜0.8である楽曲データなどと設定されている。つまり、図18に示す検索条件の例では、検索条件として曲調情報に基づいた条件を採用している。
After step S16, the
なお、選曲ルール記憶部24に記憶される選曲情報は、例えば「楽しい」「やや楽しい」「普通」「やや悲しい」「悲しい」を5段階に分類せずに「楽しい⇔悲しい」の度合いとしてもよい。このとき、選曲情報は、例えば「楽しい(1.0)⇔悲しい(0.0)」の度合いsxと設定される。また、検索条件は、例えばメジャー占有率Rmajが度合いsxと誤差0.1以内である楽曲データと設定される。そして、ユーザは選曲情報入力部25としてスライダーなどのバーを用いて選曲情報を入力する。
The music selection information stored in the music selection
ステップS17の次に、検索部26は、ステップS12で楽曲データ記憶部23に記憶された楽曲データの中から、ステップS17で特定された検索条件に基づいて楽曲の検索を行い、その条件に合致する楽曲の曲名を表示する(ステップS18)。具体的には、検索部26は、まず楽曲データ記憶部23に記憶されている各楽曲の楽曲情報を参照し、ステップS16で入力された指定区間に対応する区間についてのステップS17で特定された検索条件が示す曲調情報を検出する。この指定区間内の楽曲情報から曲調情報を検出する方法は、第1の実施形態において曲調情報検出部17が楽曲情報算出部15で算出した楽曲情報を用いて曲調情報を検出する方法と同様の方法である。つまり、例えばステップS16において、ユーザが「明るい」を選択し、[0.0−0.3]の区間を指定したとする。このとき検索条件は図18に示すように、曲調情報としての調性[T==Maj]となる。したがって、検索部26は、楽曲データ記憶部23に記憶されている各楽曲の楽曲情報を参照し、指定区間[0.0−0.3]内の各楽曲情報に表される各区間の調から、上述した図4に示す調と調性との関係に基づいて、同じ調性を示す区間の長さをそれぞれ合計して区間の長さが長い方の調性をそれぞれ検出する。このようにして、検索部26は、指定区間内において検索条件と合致する楽曲情報を検索する。つまり、上記の例で言えば、指定区間[0.0−0.3]内でメジャー[Maj]となる調性の区間がマイナー[Min]となる調性の区間よりも長い楽曲情報が検索条件と合致することとなる。ここで、楽曲データ記憶部23において楽曲情報と楽曲データとが関連づけて記憶されている。したがって、検索部26が検索条件と合致する楽曲情報を検索することで、検索条件と合致する楽曲が検索される。
Following step S17, the
また、ステップS18において、表示された楽曲の曲名を再生する処理をさらに行ってもよい。また、ステップS18において、検索条件に合致した指定区間に対応する区間のみを再生するようにしてもよい。 Further, in step S18, a process of reproducing the song title of the displayed song may be further performed. In step S18, only the section corresponding to the specified section that matches the search condition may be reproduced.
なお、上述のステップS16では、ユーザは、選曲情報リスト251にある選曲情報を選択し、指定区間入力部252で選曲したい曲の区間を指定するとしたが、例えば選曲情報リスト251にある選曲情報のみを選択して楽曲を検索してもよい。この場合、検索部26は、楽曲データ記憶部23に記憶された楽曲全体の曲調情報に基づいて、特定された検索条件と合致する楽曲を検索する。このとき、楽曲データ記憶部23に記憶された各楽曲の楽曲情報は検索部26の検索には用いられないが、このような場合でも楽曲情報を有効活用することができる。つまり、各楽曲の楽曲情報を利用して、ステップS18で検索された楽曲のうち、検索条件と合致した区間を区別して表示するようにする。例えば、選曲情報「明るい」が選択されたとき、検索条件は[T==Maj]となる。このとき、図16の楽曲番号1のようにRmaj=0.93の曲、つまり全体の7%は暗い感じの曲が検索されることもある。仮にこの曲の最初の7%がマイナー[Min]で、後半の93%がメジャー[Maj]であった場合、曲の頭から再生するとマイナー[Min]の暗い感じ部分が再生されてしまう。これにより、ユーザには選曲情報「明るい」に合致しないように聴こえてしまうこともある。そこで、楽曲情報を用いて選曲条件[T==Maj]に一致する区間を区別できるようにユーザに対して表示する。これにより、その楽曲中の「明るい」区間をユーザに把握させることができ、ユーザに対して選曲情報「明るい」に合致しないように聴こえてしまうという違和感を軽減させることができる。
In step S16 described above, the user selects the music selection information in the music
また、以上の説明では、ユーザは、選曲情報を入力することによって、検索に用いる検索条件を特定した。ここで、他の実施形態においては、ユーザは、検索条件を直接入力することによって特定してもよい。例えば、選曲情報入力部25においてユーザは、「調がC」や「メジャー」という条件や指定区間、またはこれらの条件を複数組み合わせた条件を入力する。このとき、検索部26は、楽曲データ記憶部23に記憶された楽曲情報および楽曲全体の曲調情報を用いて、ユーザが入力した検索条件に合致する楽曲の検索を行い、検索条件に合致する楽曲の曲名や検索条件に合致する区間を表示する。その結果、ユーザは予め設定された選曲ルールによる検索条件ではなく、検索条件を自由に入力して楽曲の検索を行うことができる。
Moreover, in the above description, the user specified the search condition used for a search by inputting music selection information. Here, in another embodiment, the user may specify the search condition by directly inputting it. For example, in the music selection
ステップS18の次に、ユーザが楽曲検索装置2の処理を終了するか否かを選択する(ステップS19)。当該処理を終了しない場合は、ステップS11に戻る。以上の処理を入力される楽曲データ毎に行う。 After step S18, the user selects whether or not to end the process of the music search device 2 (step S19). If not, the process returns to step S11. The above processing is performed for each input music data.
以上のように、本実施形態に係る楽曲検索装置2によって、ユーザは楽曲の楽曲情報や楽曲全体の曲調情報に基づいて楽曲を検索し、検索条件に合致した楽曲や、その楽曲中において検索条件に合致した区間を見つけることが可能となる。
As described above, with the
なお、上述のステップS15において楽曲データ記憶部23には、楽曲情報と、荷重度の組、調、調性占有率、調性およびスケールなどの楽曲全体の曲調情報とが記憶されるとしたが、全ての情報が記憶される必要はない。選曲情報や検索条件に合わせて必要な情報のみ記憶されればよい。
In the above-described step S15, the music
なお、第1および第2の実施形態で説明した楽曲処理装置(楽曲情報算出装置1および楽曲検索装置2)は集積回路で構成されてもよい。例えば、第1の実施形態においては、出現確率算出部12、荷重度算出部14、および楽曲情報算出部15が集積回路で構成されてもよい。このとき集積回路は、楽曲、テンプレート記憶部13に記憶されているテンプレート、および入替情報記憶部16に記憶されている入替情報を入力する入力端子と、楽曲情報算出部15で算出した楽曲情報、および楽曲情報算出部15の算出処理において発生する区間の入替情報を出力する出力端子とを備える。また、第2の実施形態においては、出現確率算出部12、荷重度算出部14、楽曲情報算出部15、曲調情報検出部17、音階データ変換部22、および検索部26が集積回路で構成されてもよい。このとき集積回路は、楽曲、テンプレート記憶部13に記憶されているテンプレート、選曲ルール、選曲情報、楽曲データ記憶部23に記憶された楽曲データ、楽曲データ記憶部23に記憶された楽曲情報および曲調情報、および入替情報記憶部16に記憶されている入替情報を入力する入力端子を備える。また、集積回路は、楽曲情報算出部15で算出した楽曲情報、楽曲情報算出部15の算出処理において発生する区間の入替情報、曲調情報検出部17で検出された曲調情報、および検索部26で検索した結果を出力する出力端子とを備える。なお、データなどを記憶する構成部(例えばテンプレート記憶部13や入替情報記憶部16など)については、記憶部を備える集積回路であれば、当該記憶部に適宜記憶させ、集積回路の一部として構成するようにしてもよい。
Note that the music processing devices (the music
本発明に係る楽曲情報算出装置は、算出した楽曲情報を用いて楽曲の検索を行う楽曲検索装置、ジュークボックスおよびオーディオプレーヤーなどの用途にも適用できる。 The music information calculation apparatus according to the present invention can also be applied to uses such as a music search apparatus, a jukebox, and an audio player that search for music using the calculated music information.
1 楽曲情報算出装置
11 音階情報入力部
12 出現確率算出部
13 テンプレート記憶部
14 荷重度算出部
15 楽曲情報算出部
16 入替情報記憶部
17 曲調情報検出部
100 コンピュータシステム
110 演算処理部
120 記憶部
130 ディスクドライブ装置
140 記録媒体
2 楽曲検索装置
21 楽曲入力部
22 音階データ変換部
23 楽曲データ記憶部
24 選曲ルール記憶部
25 選曲情報入力部
26 検索部
DESCRIPTION OF
Claims (11)
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、
楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートを複数のタイプについてそれぞれ記憶するテンプレート記憶部と、
前記テンプレート記憶部に記憶されている複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出部と、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出部とを備える、楽曲処理装置。 A music processing device that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
For the music part, an appearance probability acquisition unit that acquires a distribution of appearance probabilities for each pitch name;
A template storage unit that stores templates for each of a plurality of types, each of which is a template that is different for each type of music and that indicates a distribution of appearance probabilities for each pitch name;
For each of the plurality of templates stored in the template storage unit, the load degree indicating the ratio of the template to the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit, and the load for each type A load degree calculation unit for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A music processing apparatus comprising: a music information calculation unit for performing
前記楽曲部分を構成する各タイプについて、当該各タイプが存在する区間の長さを、当該各タイプの前記荷重度の大きさとそれぞれ一致する長さとした仮楽曲情報を設定する設定部と、
前記楽曲部分を構成するタイプと前記仮楽曲情報が表すタイプとが当該仮楽曲情報が表す各区間においてそれぞれ一致するように、前記楽曲部分の一部を当該楽曲部分内で入れ替える入替部と、
前記入替部で入れ替えた内容を示す入替情報を記憶する入替情報記憶部と、
前記入替情報記憶部に記憶された入替情報に基づいて、前記入替部で入れ替えた順番と逆の順番で前記仮楽曲情報の一部を入れ替える逆入替部とを含む、請求項1に記載の楽曲処理装置。 The music information calculation unit
For each type constituting the music part, a setting unit that sets provisional music information in which the length of the section in which each type exists is set to a length that matches the magnitude of the load degree of each type,
A replacement unit for replacing a part of the music part in the music part so that the type constituting the music part and the type represented by the temporary music information match in each section represented by the temporary music information;
A replacement information storage unit for storing replacement information indicating the contents replaced by the replacement unit;
The music composition according to claim 1, further comprising: a reverse replacement section that replaces a part of the provisional music information in an order reverse to the order replaced by the replacement section based on the replacement information stored in the replacement information storage section. Processing equipment.
前記入替情報記憶部は、前記入替部が前記楽曲部分の一部を入れ替える処理を行うたびに、前記入替情報を記憶することを特徴とする、請求項2に記載の楽曲処理装置。 The replacement unit calculates the degree of difference between the type represented by the provisional music information and the type constituting the music part in each section represented by the provisional music information, and reduces the degree of difference between the music pieces. Repeat the process of replacing a part of the part in the music part, and terminate the process when the difference is less than a predetermined value,
3. The music processing apparatus according to claim 2, wherein the replacement information storage unit stores the replacement information every time the replacement unit performs a process of replacing a part of the music part.
前記楽曲情報算出部において算出された楽曲情報を、前記楽曲データ記憶部にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて前記楽曲データ記憶部に記憶させる楽曲情報記憶部と、
前記楽曲データ記憶部にデータが記憶されている楽曲を、前記楽曲情報を用いて検索する検索部とをさらに備える、請求項1に記載の楽曲処理装置。 A music data storage unit that stores data of a plurality of music pieces for which the appearance probability acquisition unit acquires the distribution of the appearance probabilities;
The music information storage which stores the music information calculated in the music information calculation unit in the music data storage unit in association with the music corresponding to the music information among the music data stored in the music data storage unit And
The music processing apparatus according to claim 1, further comprising: a search unit that searches for music stored in the music data storage unit using the music information.
前記検索部は、前記楽曲データ記憶部に記憶されている楽曲情報のうち、前記指定一部入力部において指定された一部の楽曲情報を用いて検索することを特徴とする、請求項4に記載の楽曲処理装置。 A designation part input unit for accepting an input for a user to designate a part of the music;
5. The search unit according to claim 4, wherein the search unit searches for music information stored in the music data storage unit using a part of music information specified by the specified partial input unit. 6. The music processing apparatus described.
前記検索部は、ユーザによって選曲情報が入力された場合、前記楽曲データ記憶部にデータが記憶されている楽曲と関連付けられた楽曲情報のうち、当該入力された選曲情報に関連付けられた前記楽曲情報に関する条件を満たす楽曲情報を検出し、検出した楽曲情報に関連付けられた前記楽曲を検索結果として出力する、請求項4に記載の楽曲処理装置。 A music selection rule storage unit that stores a music selection rule that associates the music selection information to be input by the user and the conditions related to the music information;
When the music selection information is input by the user, the search unit includes the music information associated with the input music selection information among the music information associated with the music whose data is stored in the music data storage unit. The music processing device according to claim 4, wherein music information satisfying the condition is detected, and the music associated with the detected music information is output as a search result.
前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
前記楽曲処理装置に記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出ステップと、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出ステップとを含む、楽曲処理方法。 A method used in a music processing apparatus that calculates music information that represents each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probability for each pitch name are stored in advance for a plurality of types, respectively.
Appearance probability acquisition step for acquiring the distribution of appearance probability for each pitch name for the music part;
For each of the plurality of templates stored in the music processing device, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step, and the load for each type A load degree calculating step for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A music processing method including a music information calculation step.
前記楽曲情報算出ステップにおいて算出された楽曲情報を、前記楽曲処理装置にデータが記憶されている楽曲のうちの当該楽曲情報に対応する楽曲に関連付けて前記楽曲処理装置に記憶させる楽曲情報記憶ステップと、
前記楽曲処理装置にデータが記憶されている楽曲を、前記楽曲情報を用いて検索する検索ステップとをさらに含む、請求項7に記載の楽曲処理方法。 The music processing apparatus further stores in advance data of a plurality of music for which the distribution of the appearance probability is acquired in the appearance probability acquisition step,
A music information storing step for storing the music information calculated in the music information calculating step in the music processing apparatus in association with the music corresponding to the music information of the music data stored in the music processing apparatus; ,
The music processing method according to claim 7, further comprising: a search step of searching for music whose data is stored in the music processing apparatus using the music information.
前記楽曲処理装置には、楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示すテンプレートが複数のタイプについてそれぞれ予め記憶されており、
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得ステップと、
前記楽曲処理装置に記憶されている複数の各テンプレートについて、前記出現確率取得ステップにおいて取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出ステップと、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出ステップとを、前記コンピュータに実行させるプログラム。 A program for causing a computer of a music processing apparatus to calculate music information that represents each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music. There,
In the music processing apparatus, templates that are different for each type of music and that indicate the distribution of appearance probability for each pitch name are stored in advance for a plurality of types, respectively.
Appearance probability acquisition step for acquiring the distribution of appearance probability for each pitch name for the music part;
For each of the plurality of templates stored in the music processing device, the load degree indicating the ratio of the template in the distribution of the appearance probability of each pitch name acquired in the appearance probability acquisition step, and the load for each type A load degree calculating step for calculating the degree;
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. A program that causes the computer to execute a music information calculation step.
前記楽曲部分について、音名毎の出現確率の分布を取得する出現確率取得部と、
楽曲のタイプ毎に異なるテンプレートであって音名毎の出現確率の分布を示す複数の各テンプレートについて、前記出現確率取得部によって取得された各音名の出現確率の分布に占めるそのテンプレートの割合を示す荷重度であって前記タイプ毎の荷重度を算出する荷重度算出部と、
前記楽曲部分を構成するタイプが存在する区間の合計の長さが当該楽曲部分の全体に占める割合と当該タイプの前記荷重度の大きさとが各タイプについてそれぞれ一致するように、前記楽曲情報を算出する楽曲情報算出部とを備える、集積回路。 An integrated circuit that calculates music information representing each type constituting the music part and a section in which each type exists for a music part that is at least a part of the predetermined music,
For the music part, an appearance probability acquisition unit that acquires a distribution of appearance probabilities for each pitch name;
For a plurality of templates that are different templates for each type of music and indicate the distribution of the appearance probability for each pitch name, the ratio of the template in the distribution of the appearance probability of each pitch name acquired by the appearance probability acquisition unit is A load degree calculation unit for calculating a load degree for each type,
The music information is calculated so that the ratio of the total length of the sections in which the types constituting the music part exist to the whole music part and the magnitude of the load degree of the type are the same for each type. An integrated circuit comprising a music information calculation unit that performs the operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352562A JP2007156187A (en) | 2005-12-06 | 2005-12-06 | Music processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005352562A JP2007156187A (en) | 2005-12-06 | 2005-12-06 | Music processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007156187A true JP2007156187A (en) | 2007-06-21 |
Family
ID=38240624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005352562A Pending JP2007156187A (en) | 2005-12-06 | 2005-12-06 | Music processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007156187A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009216769A (en) * | 2008-03-07 | 2009-09-24 | Yamaha Corp | Sound processing apparatus and program |
WO2010137074A1 (en) * | 2009-05-28 | 2010-12-02 | パイオニア株式会社 | Key detection method, tone detection device, mixer device, and program |
JP2013114191A (en) * | 2011-11-30 | 2013-06-10 | Brother Ind Ltd | Parameter extraction device and voice synthesis system |
JP2013210501A (en) * | 2012-03-30 | 2013-10-10 | Brother Ind Ltd | Synthesis unit registration device, voice synthesis device, and program |
-
2005
- 2005-12-06 JP JP2005352562A patent/JP2007156187A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009216769A (en) * | 2008-03-07 | 2009-09-24 | Yamaha Corp | Sound processing apparatus and program |
WO2010137074A1 (en) * | 2009-05-28 | 2010-12-02 | パイオニア株式会社 | Key detection method, tone detection device, mixer device, and program |
JP2013114191A (en) * | 2011-11-30 | 2013-06-10 | Brother Ind Ltd | Parameter extraction device and voice synthesis system |
JP2013210501A (en) * | 2012-03-30 | 2013-10-10 | Brother Ind Ltd | Synthesis unit registration device, voice synthesis device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4672613B2 (en) | Tempo detection device and computer program for tempo detection | |
KR100658869B1 (en) | Music generating device and operating method thereof | |
JP4199097B2 (en) | Automatic music classification apparatus and method | |
CN112382257B (en) | Audio processing method, device, equipment and medium | |
EP1791111A1 (en) | Content creating device and content creating method | |
JP4916947B2 (en) | Rhythm detection device and computer program for rhythm detection | |
US20100300262A1 (en) | Music difficulty level calculating apparatus and music difficulty level calculating method | |
JP5229998B2 (en) | Code name detection device and code name detection program | |
JPH11344979A (en) | Melody generator and record medium | |
JP5196550B2 (en) | Code detection apparatus and code detection program | |
JP2007156187A (en) | Music processing device | |
JP4698606B2 (en) | Music processing device | |
CN112420003B (en) | Accompaniment generation method and device, electronic equipment and computer readable storage medium | |
JP6102076B2 (en) | Evaluation device | |
JP2011118218A (en) | Automatic arrangement system and automatic arrangement method | |
JP5504857B2 (en) | Music generation apparatus and program | |
JP4932614B2 (en) | Code name detection device and code name detection program | |
JP2007256619A (en) | Evaluation device, control method and program | |
JP2002073064A (en) | Voice processor, voice processing method and information recording medium | |
JPH05281970A (en) | Automatic music arranging device and electronic musical instrument | |
JP6597553B2 (en) | Harmony information generation apparatus, harmony information generation program, and harmony information generation method | |
JP4218066B2 (en) | Karaoke device and program for karaoke device | |
JP3775039B2 (en) | Melody generator and recording medium | |
JP4760348B2 (en) | Music selection apparatus and computer program for music selection | |
TW202209300A (en) | Music processing system, music processing program, and music processing method |