JP4971023B2 - Music generation method, music generation device, music generation system - Google Patents
Music generation method, music generation device, music generation system Download PDFInfo
- Publication number
- JP4971023B2 JP4971023B2 JP2007118147A JP2007118147A JP4971023B2 JP 4971023 B2 JP4971023 B2 JP 4971023B2 JP 2007118147 A JP2007118147 A JP 2007118147A JP 2007118147 A JP2007118147 A JP 2007118147A JP 4971023 B2 JP4971023 B2 JP 4971023B2
- Authority
- JP
- Japan
- Prior art keywords
- phrase
- music
- chord
- trigger information
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
本発明は、電話番号,名前,スケジュールなどの各種のデータや情報に対して、固有の音楽を生成する音楽生成技術の改良に関するものである。 The present invention relates to an improvement in music generation technology for generating unique music for various data and information such as telephone numbers, names, and schedules.
音楽を生成する背景技術としては、下記特許文献1に記載の「表現生成方法,表現生成装置,表現生成システム」があり、例えば、電話番号に基づいて楽曲が自動生成される。この背景技術によれば、図15(A)に示すような音楽のフレーズのテーブルTAが用意される。このフレーズテーブルTAは、電話番号の各桁(図示の例は10桁)に該当する0〜9までの数字に対して、それぞれ一つの音楽フレーズ「1−0」〜「10−9」が割り当てられている。例えば、電話番号の3桁目の数字が「5」である場合、対応する音楽フレーズは「3−5」という具合である。音楽フレーズは、一般的には機能和声の原則に従って作曲される。これにより、音楽フレーズがどのような並び方をしたとしても、聞き手は違和感のないまとまりのある楽曲として聞くことができる。
As a background art for generating music, there is an “expression generation method, expression generation device, expression generation system” described in
楽曲生成の具体的な例が、図15(B)に示されている。電話番号が、「03−5447−5166」の場合である。すなわち、前記フレーズテーブルTAを利用して、電話番号「03−5447−5166」の桁と数字の交点に対応する素材データを抽出し、それを並べると、その表現は[1−0]−[2−3]−[3−5]−[4−4]−[5−4]−[6−7]−[7−5]−[8−1]−[9−6]−[10−6]となる。このように、前記特許文献1の発明によれば、電話番号に対応した音楽のフレーズを組み合わせることにより、楽曲を生成することができる。
上述した背景技術では、情報による音楽生成に際して、和声法に則った和音とメロディの一覧表(フレーズテーブル)を用意することで、一般のユーザが十分に受容できる音楽の完成度を補償している。しかしながら、機能和声の原則に従った音楽フレーズを、予め多数作曲する必要があるという不都合がある。上述した電話番号では10桁の数字の組み合わせであるが、英語の氏名・名称の場合であれば、アルファベット・記号の組み合わせ分のフレーズが必要となり、日本語の氏名・名称の場合であれば、漢字・ひらがな・カタカナの組み合わせとなり膨大な数のフレーズを用意しなければならない。 In the background art described above, when music is generated by information, a list of chords and melodies (phrase tables) in accordance with the harmony method is prepared to compensate for the degree of completion of music that a general user can sufficiently accept. Yes. However, there is an inconvenience that it is necessary to compose a large number of music phrases in accordance with the principle of functional harmony. The above phone number is a combination of 10-digit numbers, but if it is an English name / name, a phrase corresponding to an alphabet / symbol combination is required. If it is a Japanese name / name, It is a combination of kanji, hiragana and katakana, and a huge number of phrases must be prepared.
また、音楽には、音そのものがユーザに直感的あるいは経験的に想起させるイメージがあり、慣用的に用いられることも多い。例えば、コントラバスによるゆっくりとしたフレーズは、象が歩く描写に使われることがあっても、小鳥が飛び回る様を描くために使われることは殆どない。逆に、ピッコロによる早く細かいフレーズが、蝶や小鳥をイメージさせることはあっても、象の行進を想起させることはまずない。 Also, music has an image that the sound itself reminds the user intuitively or empirically and is often used idiomatically. For example, a slow phrase by a contrabass is rarely used to depict a bird flying around, even if it is used to depict an elephant walking. On the other hand, a quick and detailed phrase by Piccolo may remind you of an elephant march, even though it may remind you of butterflies and small birds.
本発明は、以上の点に着目したもので、その目的は、音楽生成の対象となるトリガー情報の並び方にかかわらず、該トリガー情報に対応して用意された音楽表現のフレーズを利用して、音楽的に遜色のない和音進行の音楽を生成することである。他の目的は、個々のトリガー情報に予め音楽的特徴を割り当てることによって、生成された音楽を聴くことにより、一連のトリガー情報の具体的な情報内容を把握することである。 The present invention focuses on the above points, and its purpose is to use a phrase of music expression prepared corresponding to the trigger information regardless of how the trigger information is to be arranged for music generation. It is to generate music with a chord progression that is musically comparable. Another object is to grasp specific information contents of a series of trigger information by listening to generated music by assigning musical features to individual trigger information in advance.
前記目的を達成するため、本発明の音楽生成方法は、音楽表現のフレーズデータを集積したフレーズデータベースを利用して、音楽生成の対象となる一連のトリガー情報に対応した固有の音楽を生成する音楽生成方法であって、和音機能に基づいて進行ルールが設定された和音進行パターンが用意されるとともに、前記音楽表現のフレーズデータは、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報と直接又は間接的に対応付けられており、前記トリガー情報を取得するステップ,取得したトリガー情報に対応する音楽表現のフレーズのうちから、前記トリガー情報に従って配列したときに前記和音進行パターンに一致するような和音機能を備えた音楽表現のフレーズを、前記フレーズデータベースから選択するステップ,前記選択された音楽表現のフレーズを合成して音楽を生成するステップ,を含むことを特徴とする。 In order to achieve the above object, a music generation method according to the present invention uses a phrase database in which phrase data of music expressions are accumulated to generate music that generates unique music corresponding to a series of trigger information to be generated. A chord progression pattern in which a progression rule is set based on a chord function is prepared, and the phrase data of the musical expression is assigned a chord function that the chord to which the phrase belongs is assigned in a specific key. And the chord is associated with the trigger information directly or indirectly, and when the chord is arranged according to the trigger information from the step of acquiring the trigger information, the phrases of the music expression corresponding to the acquired trigger information A phrase of a music expression having a chord function that matches the progression pattern is stored in the phrase data. Selecting from over scan, characterized in that it comprises the step of generating a music by combining the phrases of the selected musical expression.
他の発明の音楽生成方法は、音楽表現のフレーズデータを集積したフレーズデータベースを利用して、音楽生成の対象となる一連のトリガー情報に対応した固有の音楽を生成する音楽生成方法であって、和音機能に基づいて進行ルールが設定された和音進行パターンが用意されるとともに、前記音楽表現のフレーズデータは、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報と直接又は間接的に対応付けられており、前記トリガー情報を取得するステップ,取得したトリガー情報に対応する音楽表現のフレーズを、前記フレーズデータベースから選択するステップ,選択された音楽表現のフレーズを前記トリガー情報に従って配列したときに、これら音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するか否かを判断するステップ,前記和音進行パターンに一致しないと判断された和音進行がある場合には、少なくとも該当する音楽表現のフレーズ間に、前記和音進行パターンに一致させるための和音機能を備えた音楽フレーズを前記フレーズデータベースから選択して挿入するステップ,前記選択及び挿入された音楽フレーズを合成して、前記和音進行パターンに一致する音楽を生成するステップ,を含むことを特徴とする。 A music generation method of another invention is a music generation method for generating unique music corresponding to a series of trigger information that is a target of music generation, using a phrase database in which phrase data of music expressions are accumulated. A chord progression pattern in which a progression rule is set based on the chord function is prepared, and the phrase data of the musical expression is assigned a chord function indicated by a chord to which the phrase belongs in a specific key, and the trigger information A step of acquiring the trigger information, a step of selecting a phrase of music expression corresponding to the acquired trigger information from the phrase database, and a trigger of the phrase of the selected music expression When arranged according to information, the progression of chords between phrases of these musical expressions is A step of determining whether or not the chord progression pattern matches, and if there is a chord progression that is judged not to match the chord progression pattern, the chord progression pattern is matched at least between phrases of the corresponding music expression Selecting and inserting a music phrase having a chord function from the phrase database, and synthesizing the selected and inserted music phrases to generate music that matches the chord progression pattern. It is characterized by.
主要な形態の一つは、前記音楽表現のフレーズデータに、前記和音機能以外の音楽的特徴が付加されており、個々のトリガー情報に対して前記音楽的特徴を割り当てることによって、該トリガー情報に対応する音楽的特徴を備えた音楽表現のフレーズが、前記フレーズデータベースから選択されることを特徴とする。他の形態は、前記和音機能以外の音楽的特徴が、前記フレーズが属する和音の種類(ないし質感),和音名,前記フレーズの構成音の音名及びオクターヴを区別する識別子,前記フレーズ内の音程の巾,前記フレーズ内の音数,リズム,の少なくともいずれかを含むことを特徴とする。 One of the main forms is that musical features other than the chord function are added to the phrase data of the musical expression, and by assigning the musical features to individual trigger information, the trigger information is assigned to the trigger information. A phrase of a musical expression having a corresponding musical characteristic is selected from the phrase database. In another form, the musical features other than the chord function include the type (or texture) of the chord to which the phrase belongs, the chord name, the pitch name and octave identifier of the constituent sounds of the phrase, the pitch in the phrase , The number of sounds in the phrase, and / or rhythm.
本発明の音楽生成装置は、音楽生成の対象となる一連のトリガー情報に対応した固有の音楽を生成する音楽生成装置であって、和音機能に基づいて進行ルールが設定された和音進行パターン,音楽表現のフレーズデータを集積したものであって、前記音楽表現のフレーズデータに、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報との直接又は間接的な対応関係が付加されたフレーズデータベース,前記トリガー情報を取得するトリガー情報取得手段,取得したトリガー情報に対応する音楽表現のフレーズのうちから、前記トリガー情報に従って配列したときに前記和音進行パターンに一致するような和音機能を備えた音楽表現のフレーズを、前記フレーズデータベースから選択するフレーズ選択手段,選択された音楽表現のフレーズを合成して音楽を生成する音楽生成手段,を備えたことを特徴とする。 The music generation device of the present invention is a music generation device that generates unique music corresponding to a series of trigger information that is a target of music generation, and a chord progression pattern and music in which a progression rule is set based on a chord function. Phrase data of expressions is accumulated, and the chord function indicated by the chord to which the phrase belongs in a specific key is assigned to the phrase data of the music expression, and directly or indirectly correspondence with the trigger information Is added to the chord progression pattern when arranged according to the trigger information from the phrase database to which the trigger information is acquired, the phrase of the musical expression corresponding to the acquired trigger information, A phrase for selecting a phrase of music expression with a chord function from the phrase database -Option means, characterized by comprising a music generation means for generating a music by combining a phrase selected musical expression.
他の発明の音楽生成装置は、音楽生成の対象となる一連のトリガー情報に対応した固有の音楽を生成する音楽生成装置であって、和音機能に基づいて進行ルールが設定された和音進行パターン,音楽表現のフレーズデータを集積したものであって、前記音楽表現のフレーズデータに、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報との直接又は間接的な対応関係が付加されたフレーズデータベース,前記トリガー情報を取得するトリガー情報取得手段,取得したトリガー情報に対応する音楽表現のフレーズを、前記フレーズデータベースから選択するフレーズ選択手段,選択された音楽表現のフレーズを前記トリガー情報に従って配列したときに、これら音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するか否かを判断する進行判断手段,前記和音進行パターンに一致しないと判断された和音進行がある場合には、少なくとも該当する音楽表現のフレーズ間に、前記和音進行パターンに一致させるための和音機能を有する音楽フレーズを前記フレーズデータベースから選択して挿入するフレーズ挿入手段,前記選択及び挿入された音楽フレーズを合成して、前記和音進行パターンに一致する音楽を生成する音楽生成手段,を備えたことを特徴とする。 A music generation device according to another invention is a music generation device that generates unique music corresponding to a series of trigger information that is a target of music generation, and a chord progression pattern in which a progression rule is set based on a chord function, Phrase data of music expression is accumulated, and the chord function indicated by the chord to which the phrase belongs in a specific key is assigned to the phrase data of the music expression, and directly or indirectly corresponding to the trigger information A phrase database to which a relationship is added, trigger information acquisition means for acquiring the trigger information, phrase selection means for selecting a phrase of music expression corresponding to the acquired trigger information from the phrase database, and a phrase of the selected music expression When arranged according to the trigger information, the chord progression between these musical expressions Progress determination means for determining whether or not the chord progression pattern matches, and when there is a chord progression that is determined not to match the chord progression pattern, at least the chord progression pattern between the phrases of the corresponding music expression A phrase insertion means for selecting and inserting a music phrase having a chord function for matching with the phrase database, music for generating music that matches the chord progression pattern by synthesizing the selected and inserted music phrases Generation means.
主要な形態の一つは、前記音楽表現のフレーズデータに、前記和音機能以外の音楽的特徴が付加されており、個々のトリガー情報に対して前記音楽的特徴を対応付けた割り当てテーブル,を備えるとともに、前記フレーズ選択手段は、前記トリガー情報に対応する音楽的特徴を備えた音楽表現のフレーズを、前記フレーズデータベースから選択することを特徴とする。他の形態は、前記和音機能以外の音楽的特徴が、前記フレーズが属する和音の種類(ないし質感),和音名,前記フレーズの構成音の音名及びオクターヴを区別する識別子,前記フレーズ内の音程の巾,前記フレーズ内の音数,リズムの少なくともいずれかを含むことを特徴とする。 One of the main forms includes an assignment table in which musical features other than the chord function are added to the musical expression phrase data, and the musical features are associated with individual trigger information. At the same time, the phrase selecting means selects a phrase of musical expression having a musical characteristic corresponding to the trigger information from the phrase database. In another form, the musical features other than the chord function include the type (or texture) of the chord to which the phrase belongs, the chord name, the pitch name and octave identifier of the constituent sounds of the phrase, the pitch in the phrase Including at least one of the width of the sound, the number of sounds in the phrase, and the rhythm.
更に他の形態は、前記フレーズ選択手段は、後続のフレーズの候補が複数ある場合に、前記音楽的特徴に基づいて設定された所定の選択基準に基づいて、後続のフレーズを選択することを特徴とする。更に他の形態は、前記選択基準は、後続のフレーズの複数の候補中に、最初の音が異なるフレーズが含まれる場合には、前の音楽フレーズの最後の音との音程差が最も小さくなるような音を最初の音として含むフレーズを、後続フレーズに指定することを特徴とする。あるいは、前記選択基準は、複数の後続フレーズ候補の最初の音が全て同じである場合には、前記フレーズ内の音程の巾や音数に基づくフレーズの動的又は静的な特性を基準として後続フレーズを指定することを特徴とする。 According to still another aspect, the phrase selecting means selects a subsequent phrase based on a predetermined selection criterion set based on the musical feature when there are a plurality of candidates for the subsequent phrase. And In another embodiment, the selection criterion is such that, when a phrase having a different initial sound is included in a plurality of candidates for subsequent phrases, a pitch difference from the last sound of the previous music phrase is minimized. A phrase including such a sound as the first sound is designated as a subsequent phrase. Alternatively, when the initial sounds of a plurality of succeeding phrase candidates are all the same, the selection criterion is followed based on the dynamic or static characteristics of the phrase based on the pitch or number of notes in the phrase. It is characterized by specifying a phrase.
更に他の形態は、特定の調において特定の和音機能に割り当てられた和音の構成音を、他の調における同じ機能を示す和音の構成音に書き換えるための転調情報を、複数の機能及び調に対応させて示した転調情報テーブル,該転調情報テーブルに基づいて、前記音楽表現のフレーズデータを、該フレーズに割り当てられた和音機能とともに、任意の調に対応させて書き換えるフレーズ書換手段,を備えたことを特徴とする。 In another embodiment, transposition information for rewriting a constituent sound of a chord assigned to a specific chord function in a specific key into a constituent sound of a chord indicating the same function in another key is divided into a plurality of functions and keys. Corresponding modulation information table, and phrase rewriting means for rewriting the musical expression phrase data in accordance with an arbitrary key together with the chord function assigned to the phrase based on the modulation information table It is characterized by that.
本発明の音楽生成システムは、請求項5〜12のいずれかに記載の音楽生成装置をサーバもしくは端末として含み、生成した音楽のデータを、ネットワークを通じてユーザに提供することを特徴とする。本発明の前記及び他の目的,特徴,利点は、以下の詳細な説明及び添付図面から明瞭になろう。
A music generation system according to the present invention includes the music generation device according to any one of
本発明は、和音機能に基づいて進行ルールが設定された和音進行パターンを用意し、音楽生成の対象となる一連のトリガー情報を取得したときに、個々のトリガー情報に対応する音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するように、前記音楽表現のフレーズをフレーズデータベースから抽出して音楽を合成する,あるいは、前記和音進行パターンに一致しないフレーズ間に、修正用のフレーズを挿入して音楽を合成することとした。このため、用意された音楽表現のフレーズを利用して、音楽的に見て遜色のない和音進行の音楽を生成することができる。また、個々の音楽表現のフレーズが有する音楽的特徴を、前記個々のトリガー情報に予め対応させることによって、生成された音楽を聴くことにより、トリガー情報の具体的な内容を認識できるという効果が得られる。 The present invention prepares a chord progression pattern in which a progression rule is set based on the chord function, and when a series of trigger information to be generated for music is acquired, between phrases of musical expressions corresponding to individual trigger information The phrase of the music expression is extracted from the phrase database to synthesize music so that the chord progression of the chord matches the chord progression pattern, or a correction phrase is inserted between phrases that do not match the chord progression pattern. It was decided to insert and synthesize music. For this reason, it is possible to generate chord progression music that is not inferior in terms of music by using the prepared musical expression phrases. In addition, by associating the musical features of each musical expression phrase with the individual trigger information in advance, it is possible to recognize the specific contents of the trigger information by listening to the generated music. It is done.
以下、本発明を実施するための最良の形態を、実施例に基づいて詳細に説明する。 Hereinafter, the best mode for carrying out the present invention will be described in detail based on examples.
<概要>・・・最初に、図1及び図2を参照しながら、本発明の実施例1の概要を説明する。一般的に、心地良いと感じられる音楽を生成するためには、適切な和音進行が欠かせない。近代の音楽には、すでに確立した和声法が存在し、多くの音楽はそれに基づいている。音楽生成の対象となる外部情報(以下「トリガー情報」),例えば、数字の「1」「2」「3」「4」に対して、それぞれ和音の種類(質感=根音と構成音の関係)を対応させたときに、トリガー情報の並び方によっては不適切な和音進行になる場合がある。本発明では、そのような不都合を回避する方法として、和音の持つ機能に基づいて和音進行のルールを利用することとしている。 <Overview> First, an overview of the first embodiment of the present invention will be described with reference to FIGS. 1 and 2. In general, proper chord progression is indispensable for generating music that feels comfortable. Modern music has already established harmony methods, and many music are based on it. For external information (hereinafter referred to as “trigger information”) that is the object of music generation, for example, the numbers “1”, “2”, “3”, and “4”, the types of chords (the relationship between the material = the root and the constituent sounds) ), The chord progression may be inappropriate depending on how the trigger information is arranged. In the present invention, as a method for avoiding such inconvenience, a chord progression rule is used based on the function of the chord.
和音にはそれぞれ、トニック,サブドミナント,サブドミナントマイナー,ドミナントなどの機能がある。また、トニックに属する和音は、どの機能に属する和音に進行しても不自然ではなく、ドミナントはトニック以外の和音に進行すると不自然に聞こえるというように、機能による特徴がある。一方で、例えば、「Gmajor」という和音(ソシレ)は、キーC(ハ長調)においてはドミナント機能をもち、キーG(ト長調)においては、トニック機能を持つというように相対的な存在でもある。本実施例では、以上のような確立した音楽理論に基づいて、音楽の自動生成に際して用いる和音進行のコントロール方法を説明する。 Each chord has functions such as tonic, subdominant, subdominant minor, and dominant. In addition, a chord belonging to a tonic is not unnatural even if it proceeds to a chord belonging to any function, and a dominant characteristic is that it sounds unnatural when proceeding to a chord other than a tonic. On the other hand, for example, the chord “Gmajor” has a dominant function in the key C (C major) and has a tonic function in the key G (G major). In the present embodiment, a chord progression control method used for automatic music generation will be described based on the established music theory as described above.
図1には、本実施例の和音進行をコントロールするための各種条件が示されている。まず、上述したように、和音の機能は、キー(調)によって変化するため、調を決める。図1(A)に示すように、本実施例では、キーをC(ハ長調)に設定している。次に、使用する和音の機能を、図1(B)に示すように、トニック,サブドミナント,サブドミナントマイナー,ドミナントの4種類とする。次に、図1(C)に示すように、トリガー情報「1」「2」「3」「4」に対応して使用する和音の種類(質感)として、それぞれ、□メージャー(□M),□マイナー(□m),□マイナーセブンス(□m7),□セブンス(□7)を割り当てる。なお、上記表記の□は、根音の音名を代数的に表記したものである。一般的に、「メージャー」は明るい,「マイナー」は暗い,「マイナーセブンス」は静的,「セブンス」は動的といった質感を有している。 FIG. 1 shows various conditions for controlling the chord progression of this embodiment. First, as described above, since the chord function changes depending on the key (key), the key is determined. As shown in FIG. 1A, in this embodiment, the key is set to C (C major). Next, as shown in FIG. 1B, there are four types of chord functions to be used: tonic, subdominant, subdominant minor, and dominant. Next, as shown in FIG. 1 (C), the types of chords (textures) used corresponding to the trigger information “1” “2” “3” “4” are respectively □ major (□ M), □ Minor (□ m), □ Minor 7th (□ m7), □ Seventh (□ 7) are assigned. Note that □ in the above notation is an algebraic representation of the root note name. In general, “major” is bright, “minor” is dark, “minor seventh” is static, and “seventh” is dynamic.
そして、前記4種類の和音機能に対して、キーCで主に使用される和音(図1(D)参照)の中から、種類(質感)が重ならないように4つの和音を決める。本実施例では、図1(E)のように、トニック機能に和音CM,サブドミナント機能に和音Dm,サブドミナントマイナー機能に和音Fm7,ドミナント機能に和音G7が割り当てられている。なお、前記図1(D)において、音符の下に示されている和音名は、上段が三和音の場合,中段が四和音(七の和音)の場合,下段が変化記号を伴う四和音の代表的な例の場合の和音名である。これらの和音CM,Dm,Fm7,G7には、それぞれに音楽表現のフレーズが適当数割り当てられている。なお、前記フレーズは、本実施例では後述するように小節単位としたが、もちろん一小節より大きくしてもよいし、小さくしてもよい。フレーズとは、別現すれば、音楽表現の最小単位であるとみることができる。「ド」や「レ」などの個々の音のみでは、思想や感情を表現することは難しいが、それらが複数個集まったときに、音楽表現の最小単位(最小要素ないしセル)を構成し、更にそれらを組み合わせることで思想や感情の表現としての音楽となると考えることができる。 For the four chord functions, four chords are determined from the chords mainly used by the key C (see FIG. 1D) so that the types (textures) do not overlap. In this embodiment, as shown in FIG. 1E, a chord CM is assigned to the tonic function, a chord Dm is assigned to the subdominant function, a chord Fm7 is assigned to the subdominant minor function, and a chord G7 is assigned to the dominant function. In FIG. 1 (D), the chord names shown below the notes are the three chords in the upper row, the four chords (seven chords) in the middle row, and the four chords with change symbols in the lower row. This is the chord name for a typical example. Each of these chords CM, Dm, Fm7, G7 is assigned an appropriate number of phrases of music expression. In the present embodiment, the phrase is a measure unit as will be described later, but it may be larger or smaller than one measure. In other words, a phrase can be regarded as a minimum unit of musical expression. It is difficult to express thoughts and feelings with only individual sounds such as “do” and “le”, but when they are gathered together, they constitute the smallest unit of music expression (minimum element or cell), Furthermore, by combining them, it can be considered that it becomes music as an expression of thought and emotion.
次に、前記和音が属する機能に対して、例えば、図2(A-1)に示すように、和音進行のルールを設定する。図示の例では、トニック(T)機能からは、サブドミナント(SD)機能,サブドミナントマイナー(SDM)機能,ドミンナント(D)機能のいずれにも進行が可能であり、SD機能からは、T機能,SDM機能,D機能のいずれにも進行が可能となっている。また、SDM機能からは、T機能またはD機能のいずれかへの進行が可能となっており、D機能からはT機能のみへの進行が可能となっている。このとき、トリガー情報の並び方が、「1」→「4」→「2」→「3」であるとすると、トリガー情報「1」に割り当てられた和音の種類□M(図1(C)参照)に対応する和音は、図1(E)を参照すると和音CMとなりT機能を有している。同様に、トリガー情報「4」「2」「3」に割り当てられた和音の種類は、それぞれ、□7,□m,□m7であり、それらに対応する和音は、D機能を有するG7,SD機能を有するDm,SDM機能を有するFm7となる。このとき、これらの和音の機能の進行を、図2(A-1)に示す和音進行パターンと照らし合わせると、図2(A-2)に示すように、和音G7からDmへの進行が許容されないことが分かる。 Next, for the function to which the chord belongs, for example, a chord progression rule is set as shown in FIG. In the illustrated example, the tonic (T) function can proceed to any of a subdominant (SD) function, a subdominant minor (SDM) function, and a dominant (D) function. , SDM function and D function can be progressed. Further, the SDM function can proceed to either the T function or the D function, and the D function can proceed to only the T function. At this time, if the arrangement of the trigger information is “1” → “4” → “2” → “3”, the type of chord □ M assigned to the trigger information “1” (see FIG. 1C) ) Is a chord CM with reference to FIG. 1E and has a T function. Similarly, the chord types assigned to the trigger information “4”, “2”, and “3” are □ 7, □ m, and □ m7, respectively, and the corresponding chords are G7, SD having the D function. Dm having a function and Fm7 having an SDM function. At this time, if the progression of these chord functions is compared with the chord progression pattern shown in FIG. 2 (A-1), the progression from chord G7 to Dm is allowed as shown in FIG. 2 (A-2). I understand that it is not done.
このように、図1(E)に示す4つの和音だけでは、トリガー情報のあらゆる組み合わせ(並び方)に対応した和音進行に際して不都合が生じる場合があるので、本実施例では、和音の種類(質感)が重複しないように、キーCで用いられる和音のうち、新たに4つの和音Am,Em7,C7,FMを選び、図2(B-1)に示すように、各機能に追加している。すると、トリガー情報「2」に割り当てられた種類□mに該当する和音の候補が、T機能に属する和音Amと、SD機能に属する和音Dmの2つに増える。ここで、前記図2(A-2)に示すように、トリガー情報「4」(D機能)からは、SD機能の和音Dmには進行が許容されていないが、図2(B-2)に示すように、T機能に属する和音Amには進行が許容されている。また、和音Amからは、トリガー情報「3」に対応する和音Fm7(SDM機能)への進行も可能となっている。このように、4種類の質感をもつ和音のセットを2組用意することで、トリガー情報がどのような順番(組み合わせ)になった場合でも、心地良い和音進行を得ることができる。 As described above, since only the four chords shown in FIG. 1 (E) may cause inconvenience in the progression of chords corresponding to all combinations (arrangements) of trigger information, in this embodiment, the type of chord (texture) In order to avoid duplication, four new chords Am, Em7, C7, FM are selected from the chords used in the key C and added to each function as shown in FIG. Then, the number of chord candidates corresponding to the type □ m assigned to the trigger information “2” increases to two: a chord Am belonging to the T function and a chord Dm belonging to the SD function. Here, as shown in FIG. 2 (A-2), from the trigger information “4” (D function), the chord Dm of the SD function is not allowed to proceed, but FIG. 2 (B-2) As shown, the chord Am belonging to the T function is allowed to proceed. Further, the chord Am can be advanced to the chord Fm7 (SDM function) corresponding to the trigger information “3”. Thus, by preparing two sets of chords having four kinds of textures, it is possible to obtain a comfortable chord progression regardless of the order (combination) of trigger information.
<具体例>・・・次に、図3〜図6を参照して、同一機能かつ同一和音グループに属する複数の音楽フレーズの中から、音楽をスムーズに進行させるために最適なフレーズを選択する方法の具体例を説明する。メロディが、あるフレーズから次のフレーズに進行しようとするとき、一般的に最も重要になるのは、前のフレーズの最後の音と、次のフレーズの最初の音の音程関係である。その際、上述した和音進行パターンに一致して和音の進行が適切であれば、同じ音から同じ音へ、あるいは、順次進行する(音階における隣の音に進む)ことで、違和感を排除することができる。それに対し、跳躍進行(3度以上の巾で進行すること、あるいは、音階音以外の音へ進行すること)では、フレーズ同士の繋がりが不自然になる場合がある。 <Specific Example> Next, with reference to FIG. 3 to FIG. 6, an optimal phrase is selected from among a plurality of music phrases belonging to the same function and the same chord group in order to smoothly advance the music. A specific example of the method will be described. When a melody tries to progress from one phrase to the next, the most important thing is generally the pitch relationship between the last note of the previous phrase and the first note of the next phrase. At that time, if the chord progression is appropriate in accordance with the chord progression pattern described above, the sense of discomfort is eliminated by proceeding from the same sound to the same sound or proceeding sequentially (advancing to the adjacent sound in the scale). Can do. On the other hand, in jumping progress (advancing at a width of 3 degrees or more, or advancing to a sound other than the scale sound), the connection between phrases may become unnatural.
図3(A)には、同一機能,同一和音グループに属するフレーズの割り当て例が示されている。図示の例では、グループGSD(サブドミンナント機能)には、和音Dmと和音FMが属しており、和音Dmには、音楽表現のフレーズ1〜3が割り当てられている。同様に、和音FMには、フレーズ1A〜3Aが割り当てられている。一方、グループGT(トニック機能)には、和音CM,Am,Em7,C7が属しており、前記和音CMには、フレーズ4〜6が割り当てられている。また、他の和音についても、それぞれ図示しない音楽フレーズが適当数割り当てられている。なお、前記グループGSD,GTに属する和音は、前記図2(B-1)に示す例と同じである。
FIG. 3 (A) shows an example of assignment of phrases belonging to the same function and the same chord group. In the illustrated example, a chord Dm and a chord FM belong to the group GSD (subdominant function), and
ここで、ハ長調(キーC)におけるサブドミナント機能のDm和音グループに属するフレーズ1〜3から、トニック機能のCM和音グループに属するフレーズ4〜6に進行する場合を例にして、フレーズ選択方法の具体例を説明する。まず、各フレーズが属する和音名(図3(B)参照)と、フレーズを構成する最初と最後の音の音名(図3(C)参照)からなるプロパティを、各フレーズのデータに事前に付加しておく。なお、前記音名は、オクターヴを区別する数字付きである。図4には、フレーズ1〜6の五線譜と、それらのプロパティが示されている。ここでフレーズ1を見ると、プロパティP1として、「Dm_D4_A3」が付加されている。前記Dmは和音名、D4はフレーズの最初の音「レ」を示す音名、A3はフレーズの最後の音「ラ」を示す音名である。他のフレーズ2〜6についても、同様のプロパティP2〜P6が付加されている。
Here, an example of the phrase selection method is as follows, from
ここで、フレーズ1からフレーズ4〜6に進行する場合について、フレーズ1の最後の音「A3」と、フレーズ4〜6のそれぞれ最初の音の関係を比較検討する。フレーズ4の最初の音は「C4」であり、フレーズ1との繋がりは「A3」→「C4」となり、3度上行する跳躍進行である。同様に、フレーズ5へ進行する場合は、「A3」→「G3」となり、2度下行する順次進行,フレーズ6へ進行する場合は、「A3」→「E3」となり、4度下行する跳躍進行である。従って、図5(A)に示すように、フレーズ1からは、フレーズに5に進むのが最も自然であり、続いてフレーズ4,フレーズ6の順であることが分かる。実際の聴感上でも、フレーズ5への繋がりはごく自然で歌唱もしやすく、フレーズ4ではやや不自然,フレーズ6では不自然(人によっては歌唱困難)となる。
Here, in the case of proceeding from
同様に、図5(B)に示すように、フレーズ2からは順次進行となるフレーズ4への進行が自然であると判断できる。また、図5(C)に示すように、フレーズ3からフレーズ4に進む場合は、5度上行する跳躍進行で不自然、フレーズ5に進む場合は、「F3」→「G3」となり、長2度の順次進行であるため違和感がなく自然な進行となる。しかしながら、フレーズ6へ進行する場合は「F3」→「E3」で短2度(半音の関係)のより近い音程であり、フレーズ5へ進行する場合よりも、更に自然な進行となる。これは、プロパティの音名からも判断することができる。図6には、フレーズ1〜3から、それぞれに最適な進行となるフレーズ4〜6がまとめて示されている。なお、後続のフレーズとして、同じ音から始まる候補が複数ある場合には、例えば、フレーズ内における音程の巾や音数などをプロパティに付加することで、ダイナミックなフレーズからダイナミックなフレーズへ、ダイナミックなフレーズから静かなフレーズへなど、新たな選択基準を追加していくことができる。
Similarly, as shown in FIG. 5 (B), it can be determined that the progression from
<システム構成>・・・次に、図7を参照しながら、本実施例のシステム構成を説明する。図7には、本実施例のシステム全体が示されている。同図において、音楽生成サーバ100は、インターネット200を介して多数のクライアント300に接続されている。なお、プロバイダは省略している。クライアント300としては、PC(パーソナルコンピュータ),携帯電話,携帯情報端末など、各種のものがある。これらのうち、音楽生成サーバ100は、公知の一般的なシステム装置構成となっており、フレーズデータベース102,トリガー情報割り当てテーブル103,和音進行パターン104,転調情報テーブル105,トリガー情報取得プログラム108,フレーズ抽出プログラム110,フレーズ合成プログラム112,和音進行判定プログラム114,フレーズ挿入プログラム116,フレーズ書換プログラム118のほか、前記各プログラムを実行するための処理装置106を備えている。なお、図示しないが、表示装置,プリンタ,記憶装置,通信装置なども備えている。
<System Configuration> Next, the system configuration of the present embodiment will be described with reference to FIG. FIG. 7 shows the entire system of this embodiment. In the figure, the
前記フレーズデータベース102は、音楽表現のフレーズデータを集積したものであって、例えば、前記図4に示すような音楽表現のフレーズが、それらの属する和音名,フレーズの最初と最後の音の音名などを含むプロパティとともに多数集積されている。これらフレーズデータは、それらを構成する和音が属する機能や和音名ごとに分類するなど、任意の形態で記憶されている。次に、トリガー情報割り当てテーブル103は、個々のトリガー情報に対応する和音の種類(質感)を示したもので、一例が前記図1(C)に示されている。なお、本実施例では、トリガー情報に和音の種類を予め割り当てるようにしたが、トリガー情報に対してフレーズを直接対応付ける場合には、トリガー情報割り当てテーブル103は省略することができる。また、このようなトリガー情報割り当てテーブル103は、音楽生成サーバ100側に事前に用意しておくようにしてもよいし、ユーザが指定して生成するようにしてもよい。
The
次に、和音進行パターン104は、音楽の生成に使用する和音の進行を示したもので、前記図2(A-1)及び(B-1)に一例を示すように、各和音機能から進行可能な和音機能が示されており、各和音機能には種類が重複しないように適当数の和音が割り当てられている。該和音進行パターン104には、図3(A)に示すように、各和音に属するフレーズ名までを含むようにしてもよい。なお、転調情報テーブル105については後述する。処理装置106は、CPU,RAM,ROMなどによって構成されており、各種のプログラムを実行する。
Next, the
前記プログラムのうち、トリガー情報取得プログラム108は、音楽生成の対象となるトリガー情報を取得するためのプログラムである。例えば、クライアント300からインターネット200を通じて要求があったときに、音楽生成のための条件を入力する画面をクライアント300に送信して表示したり、あるいは、音楽生成サーバ100の図示しない表示装置に前記条件の入力画面を表示したりして、入力されたトリガー情報を取得する。
Among the programs, the trigger information acquisition program 108 is a program for acquiring trigger information that is a target of music generation. For example, when a request is made from the
フレーズ抽出プログラム110は、前記トリガー情報に対応するフレーズを、前記フレーズデータベース102から検索して抽出するプログラムである。該フレーズ抽出プログラム110は、後続のフレーズの候補が複数ある場合には、所定の選択基準に従って後続のフレーズを選択することとなっている。前記選択基準は、音楽表現のフレーズに付加されたプロパティ(音楽的特徴)に基づいて設定されている。具体的には、例えば、後続フレーズの複数候補中に、最初の音が異なるフレーズが含まれる場合には、前の音楽フレーズの最後の音との音程差が最も小さくなるような音を最初の音として含むフレーズを後続のフレーズに指定するという具合である。また、後続フレーズの複数候補の最初の音が全て同じである場合には、フレーズ内における音程の巾や音数などのプロパティに基づいて、ダイナミックなフレーズからダイナミックなフレーズへ、あるいは、ダイナミックなフレーズから静的なフレーズへ移るように、フレーズの特性に基づいて後続のフレーズを選択するようにしてもよい。このような選択基準は、あらかじめフレーズ抽出プログラム110に組み込むようにしてもよいし、クライアント300が任意に設定するようにしてもよい。
The
フレーズ合成プログラム112は、前記抽出されたフレーズを合成し、音楽を生成するプログラムである。このほか、必要に応じて、生成した音楽をクライアント300側へ楽譜の形態で提供したり、生成した音楽を演奏したりするようなプログラムを設けるようにしてもよい。和音進行判定プログラム114,フレーズ挿入プログラム116,フレーズ書換プログラム118については後述する。
The
<動作>・・・次に、本実施例の動作を説明する。音楽生成サーバ100では、処理装置106によって、トリガー情報取得プログラム108が実行され、トリガー情報を入力するための画面が、音楽生成サーバ100側又はクライアント300側に表示される。表示された入力画面に従って、所望する音楽のキー(調)やトリガー情報が入力されると、音楽生成サーバ100では処理装置106によってフレーズ抽出プログラム110が実行される。フレーズ抽出プログラム110は、トリガー情報割り当てテーブル103と和音進行パターン104を参照し、一連の数字,例えば「1423」に含まれる個々のトリガー情報「1」「4」「2」「3」に対応し、かつ、前記和音進行パターン104に一致するような音楽フレーズを、フレーズデータベース102から抽出する。なお、このときフレーズの候補が複数あるときには、フレーズ抽出プログラム110は、音楽フレーズのプロパティを参照し、上述した選択基準に一致するフレーズを選択する。なお、選択の基準としては、上述したように、例えば、前のフレーズの最後の音と、後のフレーズの最初の音の音程差が最も小さくなるようなものを選択するようにしてもよいし、他の選択基準に従って選択するようにしてもよい。
<Operation>... Next, the operation of this embodiment will be described. In the
トリガー情報に対応したフレーズが選択されると、音楽生成サーバ100では、処理装置106によってフレーズ合成プログラム112が実行され、選択されたフレーズが一連の音楽として合成される。なお、フレーズの合成は、音楽生成サーバ100やクライアント300側で再生可能なファイル,例えばMIDIデータやWAVファイルとして合成するようにしてもよいし、複数のWAVやMIDIのファイルを所定の順序で連続して再生するようなプログラムであってもよい。
When a phrase corresponding to the trigger information is selected, in the
このように、実施例1によれば、次のような効果がある。
(1)和音機能に基づいて進行ルールが設定された和音進行パターン104を用意し、一連のトリガー情報を取得したときに、個々のトリガー情報に対応するとともに、前記和音進行パターン104に一致するような音楽表現のフレーズを、前記フレーズデータベース102から抽出して音楽を合成することとした。このため、用意された音楽表現のフレーズを利用して、音楽的に遜色のない和音進行の音楽を生成することができる。
(2)音楽表現のフレーズデータに、フレーズが有する音楽的特徴を含むプロパティを付加するとともに、個々のトリガー情報に音楽的特徴を対応させたトリガー情報割り当てテーブル103を用意することとしたので、生成された音楽を聴くことにより、一連のトリガー情報の内容を把握することができる。また、トリガー情報の種類が多い場合であっても、トリガー情報と音楽フレーズを一対一で用意することなく、限られた数の音楽フレーズで違和感のない和音進行の音楽を生成することができる。
(3)4種類の質感をもつ和音のセットを2組用意することで、トリガー情報がどのような順番(組み合わせ)になった場合でも、心地良い和音進行を得ることができる。
(4)フレーズ抽出プログラム110は、後続フレーズの候補が複数ある場合には、音楽フレーズのプロパティに基づいて設定された選択基準に従って後続のフレーズを選択することとしたので、後続フレーズの候補が複数ある場合であっても、円滑にフレーズ選択を行うことができる。
Thus, according to the first embodiment, there are the following effects.
(1) A
(2) A property including the musical characteristics of the phrase is added to the phrase data of the music expression, and the trigger information allocation table 103 in which the musical characteristics are associated with each trigger information is prepared. By listening to the music, the contents of a series of trigger information can be grasped. Further, even when there are many types of trigger information, it is possible to generate a chord progression music without a sense of incongruity with a limited number of music phrases without preparing trigger information and music phrases one-on-one.
(3) By preparing two sets of chords having four kinds of textures, it is possible to obtain a comfortable chord progression regardless of the order (combination) of trigger information.
(4) When there are a plurality of subsequent phrase candidates, the
次に、図7及び図8を参照しながら、本発明の実施例2を説明する。なお、上述した実施例1と同一ないし対応する構成要素には同一の符号を用いることとする(以下の実施例についても同様)。上述した実施例1は、個々のトリガー情報に予め音楽的特徴を割り当てることによって、該音楽的特徴を有する和音に属する音楽フレーズのうちから、和音進行パターンに一致するフレーズを選択することとしたが、本実施例は、和音進行パターンに一致した音楽を他の手法によって生成する例を示す。本実施例の音楽生成システムでは、図7に示す音楽生成サーバ100が、和音進行判定プログラム114,フレーズ挿入プログラム116を備えている。また、本実施例では、フレーズデータベース102に集積された音楽フレーズPh1,・・・は、図8(B)に示すように、対応するトリガー情報,楽譜とともに、該フレーズのプロパティとして、特定のキーにおける和音機能を示すパラメータ,例えば、「_t」「_sd」「_sdm」「_d」が付加されている。すなわち、本実施例では、個々のトリガー情報に対して、一対一でフレーズが割り当てられている。
Next,
また、和音進行パターン104は、図8(A)に示すように、和音機能のみで設定されており、各機能には和音は割り当てられていない。和音進行判定プログラム114は、トリガー情報に対応する音楽フレーズが、前記フレーズ抽出プログラム110によりフレーズデータベース102から選択されると、該音楽フレーズのプロパティを参照して、前記和音進行パターン104に一致した和音機能を有しているか否かを判定するものである。また、フレーズ挿入プログラム116は、前記和音進行判定プログラム114により、和音進行パターン104に一致しない和音進行があると判断された場合には、該当する音楽フレーズ間に、修正用の音楽フレーズを挿入して、和音進行パターン104に一致した和音進行に修正するものである。前記挿入用の音楽フレーズも、前記フレーズデータベース102に用意されている。
Further, as shown in FIG. 8A, the
図8(C)及び(D)には、修正用フレーズの挿入例が示されている。図8(C)に示す例では、トリガー情報によって選ばれたフレーズが、Ph1,Ph4,Ph2,Ph3の場合、ドミナント機能を有するフレーズPh4から、サブドミナント機能を有するフレーズPh2への和音進行は、前記和音進行パターン104で許可されていない。この場合、前記フレーズ挿入プログラム116は、トニック機能を有する挿入フレーズSPh1をフレーズデータベース102から抽出し、フレーズPh4及びPh2の間に挿入する。あるいは、図8(D)に示すように、進行が許可されていないフレーズ間のみならず、トリガー情報に対応して選ばれた全てのフレーズ間に、所望の機能に属する挿入フレーズSPh1,SPh2,SPh3,・・・を挿入することによって、前記和音進行パターン104に従った音楽フレーズを合成するようにしてもよい。
FIGS. 8C and 8D show examples of inserting correction phrases. In the example shown in FIG. 8C, when the phrases selected by the trigger information are Ph1, Ph4, Ph2, and Ph3, the chord progression from the phrase Ph4 having the dominant function to the phrase Ph2 having the subdominant function is: The
なお、前記挿入フレーズSPh1〜SPh3は、トリガー情報に対応したフレーズとは別に用意するようにしてもよいし、前記トリガー情報に対応するフレーズの中から、挿入に適した機能を有するフレーズを抽出して代用するようにしてもよい。このように、本実施例によれば、トリガー情報に対応して選ばれたフレーズが、前記和音進行パターン104に一致しない場合には、少なくとも該当するフレーズ間に、前記和音進行パターン104に一致させるための和音機能を有する修正用のフレーズを挿入することとしたので、所定のルールに従った和音進行の音楽を生成することができる。また、音楽表現のフレーズデータのプロパティに、特定のキーにおける和音機能を示すパラメータを付加したので、無作為に集められた音楽フレーズ群に対しても、所望する和音進行ルールを適用することが可能となる。
The insertion phrases SPh1 to SPh3 may be prepared separately from the phrase corresponding to the trigger information, or a phrase having a function suitable for insertion is extracted from the phrases corresponding to the trigger information. May be used instead. As described above, according to the present embodiment, when the phrase selected corresponding to the trigger information does not match the
次に、図9を参照しながら本発明の実施例3について説明する。上述した実施例1は、音楽生成の対象となる個々のトリガー情報に対して、一つの音楽的特徴(和音の種類=質感)を割り当てることとしたが、本実施例は、2種の音楽的特徴をトリガー情報に割り当てた例である。図9(A)は、トリガー情報と音楽的特徴の対応関係を示すトリガー情報割り当てテーブル103Aを示す図,図9(B)はトリガー情報の配列例を示す図,図9(C)はトリガー情報に対応して生成される音楽の一例である。
Next,
本実施例では、トリガー情報として視覚情報を利用している。図9(A)に示すように、楕円形について3種類のトリガー情報TA1〜TA3が色によって分けられており、各色について、明るい和音(□M),暗い和音(□m),中間的な和音(□sus4)といった和音の種類(質感)が割り当てられている。四角形のトリガー情報TB1〜TB3,三角形のトリガー情報TC1〜TC3,星形のトリガー情報TD1〜TD3についても同様に、それぞれ3種類の和音の種類が割り当てられている。更に、トリガー情報の形についても音楽的特徴のリズムが割り当てられており、図示の例では、楕円形から星形に向かうにつれて、リズムが「粗い」から「細かい」に変化している。そして、前記実施例1と同様に、音楽生成に利用する和音機能に対して、種類が重ならないように必要数の和音が割り当てられる。あるいは、前記実施例2のように、一つのトリガー情報(例えば、トリガーTA1)に対して一つの音楽フレーズを割り当てるようにしてもよい。いずれの場合でも、上述した実施例1又は2に示すように、和音の機能に基づいた和音進行パターン(図示せず)が用意されており、該和音進行パターンに一致した和音進行となるように音楽フレーズが合成される。 In this embodiment, visual information is used as trigger information. As shown in FIG. 9A, three types of trigger information TA1 to TA3 are divided by color for an ellipse, and for each color, a bright chord (□ M), a dark chord (□ m), and an intermediate chord A chord type (texture) such as (□ sus4) is assigned. Similarly, three types of chords are assigned to the square trigger information TB1 to TB3, the triangle trigger information TC1 to TC3, and the star trigger information TD1 to TD3. Furthermore, the rhythm of the musical feature is also assigned to the shape of the trigger information. In the example shown in the figure, the rhythm changes from “coarse” to “fine” as it goes from an ellipse to a star. As in the first embodiment, a necessary number of chords are assigned to chord functions used for music generation so that the types do not overlap. Or you may make it allocate one music phrase with respect to one trigger information (for example, trigger TA1) like the said Example 2. FIG. In any case, as shown in the first or second embodiment, a chord progression pattern (not shown) based on the chord function is prepared, so that the chord progression matches the chord progression pattern. Music phrases are synthesized.
図9(B)に示すように、トリガー情報の配列が、TD2→TA1→TC3→TB2→TA3の順であるとすると、図9(C)に示すように、和音の種類とリズムが組み合わされた音楽が生成される。前記図9(C)における音符表記は、リズム譜である。なお、前記トリガー情報に対応させて音楽フレーズを合成する場合には、前記実施例1のように、複数のフレーズの候補の中から和音進行パターンに一致するフレーズを選択するようにしてもよいし、必要に応じて、前記実施例2のように、許容されない和音進行が発生する部分に、和音進行パターンを満たすような修正用のフレーズを挿入するようにしてもよい。このように、本実施例によれば、視覚的なトリガー情報に対しても、一定の和音進行に沿った音楽を生成することができる。また、トリガー情報に対して、和音の種類に加えてリズムを対応させることとしたので、生成される音楽が単調になるのを防止することができる。 As shown in FIG. 9B, if the trigger information is arranged in the order of TD2, TA1, TC3, TB2, and TA3, the chord type and rhythm are combined as shown in FIG. 9C. Music is generated. The note notation in FIG. 9C is a rhythm score. When synthesizing a music phrase corresponding to the trigger information, a phrase that matches the chord progression pattern may be selected from a plurality of phrase candidates as in the first embodiment. If necessary, a correction phrase that satisfies the chord progression pattern may be inserted in a portion where unacceptable chord progression occurs as in the second embodiment. Thus, according to the present embodiment, it is possible to generate music along a certain chord progression even for visual trigger information. Further, since the trigger information is associated with the rhythm in addition to the chord type, the generated music can be prevented from becoming monotonous.
次に、図7及び図10を参照しながら、本発明の実施例4を説明する。上述した実施例1では、音楽表現のフレーズデータは、特定の調について用意されているものとしたが、本実施例は、前記フレーズデータの和音機能などのプロパティを書き換えることによって、転調に対応可能とした例である。図10(A)はキーや和音の関係を示す図,図10(B)は転調情報テーブルの一例を示す図,(C)は転調を利用したフレーズ書き換えの一例を示す説明図である。上述したように、ある特定の和音がどの和音機能に属するかは、選択されたキー(調)により異なる。それは、極めて単純に、調が半音上がると、同じ機能を有する和音の構成音も全て半音上がるという法則に基づいている。この関係を模式的に示したものが、図10(A)であって、12種の音名で構成される1周が1オクターブであり、隣同士は半音違いの関係を表している。
Next,
この法則を利用して、例えば、図10(B)に示すような転調情報テーブル105を、音楽生成サーバ100に用意する。図示の例では、転調情報テーブル105には、特定の調において特定の和音機能に割り当てられた和音の構成音を、他の調における同じ機能を示す和音の構成音に書き換えるための転調情報が、4つの機能及び12の調に対応して一覧表示されている。一例を挙げると、和音CMは、キー:Cにおいてはトニック機能に割り当てられている。一方、調がキー:Cから半調上がって、キー:C#(=D♭)になったとすると、当該キーにおけるトニック機能を示す和音としては、C#M(=D♭M)がある。この和音は、キー:Cにおける同機能の和音CMの構成音を全て半音ずらした音により構成されている。なお、図10(B)に示した和音は代表的な例である。
Using this rule, for example, a modulation information table 105 as shown in FIG. 10B is prepared in the
また、本実施例の音楽生成サーバ100には、前記転調情報テーブル105に基づいて、音楽表現のフレーズを書き換えるためのフレーズ書換プログラム118が用意されている。一例として、図10(C)に示すように、「キー:Cにおけるトニック機能」を示すプロパティPcが付加された音楽表現のフレーズPhXが用意されており、クライアント300などによって他のキー(図示の例では、5度上のキー:G)が指定された場合について説明する。このとき、前記フレーズ書換プログラム118は、前記転調情報テーブル105を参照して、前記プロパティPcを「キー:Gにおけるトニック機能」を示すプロパティPgに書き換えるとともに楽譜データを書き換える。このように、本実施例によれば、指定(ないし選択)された調に応じて、フレーズに付加した和音機能に関するプロパティを自動的に書き換えることにより、一つの素材を効率的に使用することができる。また、音の素材が、例えば、MIDIデータなどの場合には、メロディを自動的に転調させることで、フレーズデータベース102をより簡単に充実させることができる。
In addition, the
なお、本発明は、上述した実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることができる。例えば、以下のものも含まれる。
(1)前記実施例では、1小節を1フレーズとしたが、これは小節がリズムの周期であり、音楽的な表現のまとまりとして把握しやすいためであって、それに限定されるわけではなく、適宜長短の設定をしてよい。
(2)前記実施例1及び2では、和音機能が4つの比較的単純な例を示したが、それ以下もしくはそれ以上の和音機能を用いた和音進行についても適用可能である。
In addition, this invention is not limited to the Example mentioned above, A various change can be added in the range which does not deviate from the summary of this invention. For example, the following are also included.
(1) In the above embodiment, one measure is one phrase, but this is because the measure is a rhythm cycle and is easy to grasp as a group of musical expressions, and is not limited to this. Long and short settings may be made as appropriate.
(2) In the first and second embodiments, a relatively simple example with four chord functions has been shown. However, the present invention can also be applied to the progression of chords using chord functions of less or more.
(3)前記実施例では、一定数のトリガー情報を用いて所定の長さの音楽を生成することとしたが、本発明では、音楽の長さを予め決める必要はなく、延々と連続する情報に対して音楽を生成し続けることができる。例えば、図11(A)に示すように、DNAの塩基配列に基づいて、ほぼ永遠に続く音楽を生成することも可能である。
(4)前記実施例1で示した和音の機能に対する和音の割り当ても一例であり、図11(B)に示すように、適宜和音の数を増やすことによって、一層豊かで変化に富む音楽を生成するようにしてもよい。
(5)前記実施例では、一般的な和音進行のルールを適用した例であるが、図11(C)に示す和音進行パターンのように、ユーザ独自の和音進行ルールを設定することも可能である。
(3) In the above embodiment, music of a predetermined length is generated using a fixed number of trigger information. However, in the present invention, it is not necessary to predetermine the length of music, and information that continues continuously Can continue to generate music. For example, as shown in FIG. 11A, it is also possible to generate music that lasts almost forever based on the DNA base sequence.
(4) The assignment of chords to the chord functions shown in the first embodiment is also an example, and as shown in FIG. 11 (B), by increasing the number of chords as appropriate, richer and more varied music is generated. You may make it do.
(5) In the above embodiment, a general chord progression rule is applied, but it is also possible to set a user's own chord progression rule as in the chord progression pattern shown in FIG. is there.
(6)前記実施例で示したトリガー情報の取得方法も一例であり、図12(A)に示すように、ゲーム機310に表示されたトリガー情報をユーザがタッチパネルなどを利用して任意の順序で選択したり、ユーザが描いた形を自動認識したりすることによって、トリガー情報を取得するようにしてもよい。あるいは、図12(B)に示すように、携帯電話320のカメラ322などを利用して、任意の対象物(物体,人物の顔,地図など)を視覚的なトリガー情報として取得するようにしてもよい。更に、図12(C)に示すように、加速度毎に設定された複数の和音進行パターンからなる和音進行パターンセット340を用意するとともに、ビデオカメラ330を利用して物体の動作を撮影し、物体の加速度に応じて、参照する和音進行パターンを切り替えるようにしてもよい。
(6) The trigger information acquisition method shown in the above embodiment is also an example. As shown in FIG. 12 (A), the trigger information displayed on the
(7)前記実施例3では、図形の形と色に対して音楽的特徴を割り当てることとしたが、これも一例であり、トリガー情報としては、各種のものが適用可能である。例えば、図13に示す例では、携帯電話350に電話を掛けてきた相手の携帯電話360,370,380と、前記携帯電話350との距離に応じて、着信メロディのリズムが変化する例である。図示の例によれば、距離が100m以内であれば、細かく忙しないリズム,距離が1000m(1km)〜100mの間であれば、普通のリズム,距離が10km以上であれば、ゆったりとしたリズムという具合である。携帯電話350と、携帯電話360,370,380間の距離は、GPS390を利用して得ることができる。
(7) In the third embodiment, musical features are assigned to shapes and colors of graphics, but this is also an example, and various types of trigger information can be applied. For example, the example shown in FIG. 13 is an example in which the rhythm of the incoming melody changes depending on the distance between the
あるいは、図14に示すように、加工物の加工精度を知らせる手段として本発明を利用するようにしてもよい。例えば、加工物の表面が粗い場合には、協和度が低い和音□dim7,□m7(-5),□m+7を割り当てるとともに、細かいリズムを適用し、加工物の表面がほぼ平坦な場合には、協和度が高い和音□M,□mを割り当てるとともに、ゆったりとしたリズムを適用するという具合である。このように加工面の平滑度を、和音の協和度とリズムに当てはめることにより、加工精度を音楽で知ることができるため、加工物から目を離さずに作業を行うことができる。また、アラームと異なり、徐々に音楽が変化していくため加工状況の把握が容易になる。以上のような個々のトリガー情報に対する音楽的特徴の割り当ては、音楽生成サーバ100側で予め設定しておくようにしてもよいし、ユーザが独自に設定するようにしてもよい。
Or as shown in FIG. 14, you may make it utilize this invention as a means to notify the processing precision of a workpiece. For example, if the surface of the workpiece is rough, assign chords □ dim7, □ m7 (-5), □ m + 7 with a low degree of consonance, apply a fine rhythm, and the surface of the workpiece is almost flat For example, chords □ M and □ m having a high degree of harmony are assigned and a relaxed rhythm is applied. By applying the smoothness of the processed surface to the harmony and rhythm of the chord in this way, the processing accuracy can be known by music, so that the work can be performed without keeping an eye on the workpiece. Also, unlike the alarm, the music changes gradually, making it easier to grasp the processing status. The assignment of musical features to individual trigger information as described above may be set in advance on the
(9)本発明は、色々な形をした「音楽積み木」などのエンタテインメントはもとより、視覚障害者のためのインフォメーションシステム,画像認識技術とリンクさせた特定画像に対する自動音楽生成システムなど、多方面への適用が可能である。また、感情を数値化することにより、感情に応じて音楽を生成するようにしてもよい。なお、前記感情に加え、感性情報,生体情報,環境情報など、数値化できる情報全般に対しても本発明は適用可能であり、更に、これらの情報をトリガーとした音楽をリアルタイム生成するようにしてもよい。 (9) The present invention is widely used not only for entertainment such as “music building blocks” in various forms, but also for information systems for visually impaired persons, automatic music generation systems for specific images linked with image recognition technology, etc. Can be applied. Also, music may be generated according to the emotion by digitizing the emotion. In addition to the emotions described above, the present invention can be applied to general information that can be quantified, such as sensitivity information, biological information, and environmental information, and music generated using these information as a trigger is generated in real time. May be.
本発明によれば、和音機能に基づいて進行ルールが設定された和音進行パターンを用意し、一連のトリガー情報を取得したときに、個々のトリガー情報に対応する音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するように、前記音楽表現のフレーズをフレーズデータベースから抽出して音楽を合成する,あるいは、前記和音進行パターンに一致しないフレーズ間に、修正用のフレーズを挿入して音楽を合成することとした。このため、トリガー情報に対応する独自の音楽を生成する用途に適用できる。特に、音楽表現のフレーズが有する音楽的特徴を、前記個々のトリガー情報に予め対応させることにより、生成した音楽からトリガー情報の具体的な情報内容を把握する用途に好適である。 According to the present invention, when a chord progression pattern in which a progression rule is set based on the chord function is prepared and a series of trigger information is acquired, the chord progression between phrases of the music expression corresponding to each trigger information is The music expression phrase is extracted from the phrase database so as to match the chord progression pattern, and the music is synthesized, or the correction phrase is inserted between the phrases that do not match the chord progression pattern. It was decided to synthesize. For this reason, it is applicable to the use which produces | generates the original music corresponding to trigger information. In particular, it is suitable for the purpose of grasping the specific information content of the trigger information from the generated music by associating the musical characteristics of the phrase of music expression with the individual trigger information in advance.
100:音楽生成サーバ
102:フレーズデータベース
103,103A:トリガー情報割り当てテーブル
104:和音進行パターン
105:転調情報テーブル
106:処理装置
108:トリガー情報取得プログラム
110:フレーズ抽出プログラム
112:フレーズ合成プログラム
114:和音進行判定プログラム
116:フレーズ挿入プログラム
118:フレーズ書換プログラム
200:インターネット
300:クライアント
310:ゲーム機
320:携帯電話
322:カメラ
330:ビデオカメラ
340:和音進行パターンセット
350,360,370,380:携帯電話
390:GPS
GSD,GT:グループ
P1〜P6,Pc,Pg:プロパティ
Ph1〜Ph4,PhX:フレーズ
SPh1〜SPh3:挿入フレーズ
TA1〜TA3,TB1〜TB3,TC1〜TC3,TD1〜TD3:トリガー情報
100: Music generation server 102:
GSD, GT: Groups P1-P6, Pc, Pg: Properties Ph1-Ph4, PhX: Phrases SPh1-SPh3: Inserted phrases TA1-TA3, TB1-TB3, TC1-TC3, TD1-TD3: Trigger information
Claims (13)
和音機能に基づいて進行ルールが設定された和音進行パターンが用意されるとともに、
前記音楽表現のフレーズデータは、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報と直接又は間接的に対応付けられており、
前記トリガー情報を取得するステップ,
取得したトリガー情報に対応する音楽表現のフレーズのうちから、前記トリガー情報に従って配列したときに前記和音進行パターンに一致するような和音機能を備えた音楽表現のフレーズを、前記フレーズデータベースから選択するステップ,
前記選択された音楽表現のフレーズを合成して音楽を生成するステップ,
を含むことを特徴とする音楽生成方法。 A music generation method for generating unique music corresponding to a series of trigger information to be generated by using a phrase database in which phrase data of music expressions are accumulated,
A chord progression pattern with a progression rule set based on the chord function is prepared,
The phrase data of the music expression is assigned a chord function indicated in a specific key by the chord to which the phrase belongs, and is directly or indirectly associated with the trigger information,
Obtaining the trigger information;
A step of selecting, from the phrase database, a phrase of music expression having a chord function that matches the chord progression pattern when arranged according to the trigger information, from phrases of music expression corresponding to the acquired trigger information. ,
Synthesizing phrases of the selected musical expression to generate music;
A method of generating music, comprising:
和音機能に基づいて進行ルールが設定された和音進行パターンが用意されるとともに、
前記音楽表現のフレーズデータは、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報と直接又は間接的に対応付けられており、
前記トリガー情報を取得するステップ,
取得したトリガー情報に対応する音楽表現のフレーズを、前記フレーズデータベースから選択するステップ,
選択された音楽表現のフレーズを前記トリガー情報に従って配列したときに、これら音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するか否かを判断するステップ,
前記和音進行パターンに一致しないと判断された和音進行がある場合には、少なくとも該当する音楽表現のフレーズ間に、前記和音進行パターンに一致させるための和音機能を備えた音楽フレーズを前記フレーズデータベースから選択して挿入するステップ,
前記選択及び挿入された音楽フレーズを合成して、前記和音進行パターンに一致する音楽を生成するステップ,
を含むことを特徴とする音楽生成方法。 A music generation method for generating unique music corresponding to a series of trigger information to be generated by using a phrase database in which phrase data of music expressions are accumulated,
A chord progression pattern with a progression rule set based on the chord function is prepared,
The phrase data of the music expression is assigned a chord function indicated in a specific key by the chord to which the phrase belongs, and is directly or indirectly associated with the trigger information,
Obtaining the trigger information;
Selecting a phrase of music expression corresponding to the acquired trigger information from the phrase database;
Determining whether or not the chord progression between the phrases of the music expression matches the chord progression pattern when the phrases of the selected music expression are arranged according to the trigger information;
If there is a chord progression that is determined not to match the chord progression pattern, a music phrase having a chord function for matching the chord progression pattern is at least between phrases of the corresponding music expression from the phrase database. Step to select and insert,
Synthesizing the selected and inserted music phrases to generate music that matches the chord progression pattern;
A method of generating music, comprising:
個々のトリガー情報に対して前記音楽的特徴を割り当てることによって、該トリガー情報に対応する音楽的特徴を備えた音楽表現のフレーズが、前記フレーズデータベースから選択されることを特徴とする請求項1又は2記載の音楽生成方法。 Musical features other than the chord function are added to the phrase data of the music expression,
The musical expression phrase having a musical feature corresponding to the trigger information is selected from the phrase database by assigning the musical feature to individual trigger information. 2. The music generation method according to 2.
和音機能に基づいて進行ルールが設定された和音進行パターン,
音楽表現のフレーズデータを集積したものであって、前記音楽表現のフレーズデータに、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報との直接又は間接的な対応関係が付加されたフレーズデータベース,
前記トリガー情報を取得するトリガー情報取得手段,
取得したトリガー情報に対応する音楽表現のフレーズのうちから、前記トリガー情報に従って配列したときに前記和音進行パターンに一致するような和音機能を備えた音楽表現のフレーズを、前記フレーズデータベースから選択するフレーズ選択手段,
選択された音楽表現のフレーズを合成して音楽を生成する音楽生成手段,
を備えたことを特徴とする音楽生成装置。 A music generation device that generates unique music corresponding to a series of trigger information to be generated,
Chord progression pattern with progression rules set based on the chord function,
Phrase data of music expression is accumulated, and the chord function indicated by the chord to which the phrase belongs in a specific key is assigned to the phrase data of the music expression, and directly or indirectly corresponding to the trigger information Phrase database with relations added,
Trigger information acquisition means for acquiring the trigger information;
Phrase for selecting from the phrase database a phrase of music expression having a chord function that matches the chord progression pattern when arranged according to the trigger information, from phrases of music expression corresponding to the acquired trigger information Selection means,
Music generation means for generating music by synthesizing phrases of selected music expressions;
A music generation apparatus comprising:
和音機能に基づいて進行ルールが設定された和音進行パターン,
音楽表現のフレーズデータを集積したものであって、前記音楽表現のフレーズデータに、フレーズが属する和音が特定の調において示す和音機能が割り当てられ、かつ、前記トリガー情報との直接又は間接的な対応関係が付加されたフレーズデータベース,
前記トリガー情報を取得するトリガー情報取得手段,
取得したトリガー情報に対応する音楽表現のフレーズを、前記フレーズデータベースから選択するフレーズ選択手段,
選択された音楽表現のフレーズを前記トリガー情報に従って配列したときに、これら音楽表現のフレーズ間の和音進行が、前記和音進行パターンに一致するか否かを判断する進行判断手段,
前記和音進行パターンに一致しないと判断された和音進行がある場合には、少なくとも該当する音楽表現のフレーズ間に、前記和音進行パターンに一致させるための和音機能を有する音楽フレーズを前記フレーズデータベースから選択して挿入するフレーズ挿入手段,
前記選択及び挿入された音楽フレーズを合成して、前記和音進行パターンに一致する音楽を生成する音楽生成手段,
を備えたことを特徴とする音楽生成装置。 A music generation device that generates unique music corresponding to a series of trigger information to be generated,
Chord progression pattern with progression rules set based on the chord function,
Phrase data of music expression is accumulated, and the chord function indicated by the chord to which the phrase belongs in a specific key is assigned to the phrase data of the music expression, and directly or indirectly corresponding to the trigger information Phrase database with relations added,
Trigger information acquisition means for acquiring the trigger information;
Phrase selection means for selecting a phrase of music expression corresponding to the acquired trigger information from the phrase database,
A progress judging means for judging whether or not the chord progression between the phrases of the music expression matches the chord progression pattern when the phrases of the selected music expression are arranged according to the trigger information;
When there is a chord progression determined not to match the chord progression pattern, a music phrase having a chord function for matching the chord progression pattern is selected from the phrase database at least between phrases of the corresponding music expression Phrase insertion means to insert,
Music generating means for synthesizing the selected and inserted music phrases to generate music that matches the chord progression pattern;
A music generation apparatus comprising:
個々のトリガー情報に対して前記音楽的特徴を対応付けた割り当てテーブル,
を備えるとともに、
前記フレーズ選択手段は、前記トリガー情報に対応する音楽的特徴を備えた音楽表現のフレーズを、前記フレーズデータベースから選択することを特徴とする請求項5又は6記載の音楽生成装置。 Musical features other than the chord function are added to the phrase data of the music expression,
An allocation table in which the musical features are associated with individual trigger information;
With
The music generating device according to claim 5 or 6, wherein the phrase selecting means selects a phrase of a music expression having a musical feature corresponding to the trigger information from the phrase database.
後続のフレーズの候補が複数ある場合に、前記音楽的特徴に基づいて設定された所定の選択基準に基づいて、後続のフレーズを選択することを特徴とする請求項8記載の音楽生成装置。 The phrase selecting means is:
9. The music generation apparatus according to claim 8, wherein when there are a plurality of subsequent phrase candidates, the subsequent phrase is selected based on a predetermined selection criterion set based on the musical feature.
後続のフレーズの複数の候補中に、最初の音が異なるフレーズが含まれる場合には、前の音楽フレーズの最後の音との音程差が最も小さくなるような音を最初の音として含むフレーズを、後続フレーズに指定することを特徴とする請求項9記載の音楽生成装置。 The selection criteria are:
If a phrase with a different initial sound is included in a plurality of candidates for the subsequent phrase, a phrase including the sound with the smallest pitch difference from the last sound of the previous music phrase as the first sound is selected. The music generation device according to claim 9, wherein the music generation device is designated as a subsequent phrase.
複数の後続フレーズ候補の最初の音が全て同じである場合には、前記フレーズ内の音程の巾や音数に基づくフレーズの動的又は静的な特性を基準として後続フレーズを指定することを特徴とする請求項9記載の音楽生成装置。 The selection criteria are:
When the initial sounds of a plurality of subsequent phrase candidates are all the same, the subsequent phrase is designated based on the dynamic or static characteristics of the phrase based on the pitch or number of pitches in the phrase. The music generation device according to claim 9.
該転調情報テーブルに基づいて、前記音楽表現のフレーズデータを、該フレーズに割り当てられた和音機能とともに、任意の調に対応させて書き換えるフレーズ書換手段,
を備えたことを特徴とする請求項5〜11のいずれかに記載の音楽生成装置。 Transposition that shows the modulation information for rewriting a chord component assigned to a specific chord function in a specific key to a chord component that shows the same function in another key, corresponding to multiple functions and tones Information table,
Phrase rewriting means for rewriting the phrase data of the music expression in accordance with an arbitrary key together with the chord function assigned to the phrase based on the modulation information table;
The music generation device according to claim 5, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007118147A JP4971023B2 (en) | 2007-04-27 | 2007-04-27 | Music generation method, music generation device, music generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007118147A JP4971023B2 (en) | 2007-04-27 | 2007-04-27 | Music generation method, music generation device, music generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008275808A JP2008275808A (en) | 2008-11-13 |
JP4971023B2 true JP4971023B2 (en) | 2012-07-11 |
Family
ID=40053854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007118147A Active JP4971023B2 (en) | 2007-04-27 | 2007-04-27 | Music generation method, music generation device, music generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4971023B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11646007B1 (en) * | 2021-03-31 | 2023-05-09 | DAACI Limited | Generative composition with texture groups |
US11978426B2 (en) | 2021-03-31 | 2024-05-07 | DAACI Limited | System and methods for automatically generating a musical composition having audibly correct form |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5574474B2 (en) * | 2008-09-09 | 2014-08-20 | 株式会社河合楽器製作所 | Electronic musical instrument having ad-lib performance function and program for ad-lib performance function |
JP5899832B2 (en) * | 2011-11-10 | 2016-04-06 | ヤマハ株式会社 | Music generation apparatus and music generation method |
JP5899833B2 (en) * | 2011-11-10 | 2016-04-06 | ヤマハ株式会社 | Music generation apparatus and music generation method |
CN111477200B (en) * | 2020-04-03 | 2023-08-25 | 深圳市人工智能与机器人研究院 | Music score file generation method, device, computer equipment and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4174950B2 (en) * | 2000-04-11 | 2008-11-05 | 松下電器産業株式会社 | Music editing method and recording medium recording the method |
JP2001350472A (en) * | 2000-06-05 | 2001-12-21 | Anekkusu Joho Kenkyusho:Kk | Method and system for automatic composition, and storage medium therefor |
WO2003081572A1 (en) * | 2002-03-25 | 2003-10-02 | Yoshihiko Sano | Representation generation method, representation generation device, and representation generation system |
JP2006178104A (en) * | 2004-12-21 | 2006-07-06 | Yoshihiko Sano | Method, apparatus and system for musical piece generation |
-
2007
- 2007-04-27 JP JP2007118147A patent/JP4971023B2/en active Active
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11646007B1 (en) * | 2021-03-31 | 2023-05-09 | DAACI Limited | Generative composition with texture groups |
US20230146658A1 (en) * | 2021-03-31 | 2023-05-11 | DAACI Limited | Generative composition with texture groups |
US11842710B2 (en) | 2021-03-31 | 2023-12-12 | DAACI Limited | Generative composition using form atom heuristics |
US11887568B2 (en) | 2021-03-31 | 2024-01-30 | DAACI Limited | Generative composition with defined form atom heuristics |
US11978426B2 (en) | 2021-03-31 | 2024-05-07 | DAACI Limited | System and methods for automatically generating a musical composition having audibly correct form |
Also Published As
Publication number | Publication date |
---|---|
JP2008275808A (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rings | Tonality and transformation | |
US8872011B2 (en) | Visual, tactile and motion-sensation system for representing music for an audience | |
JP4971023B2 (en) | Music generation method, music generation device, music generation system | |
US6395970B2 (en) | Automatic music composing apparatus that composes melody reflecting motif | |
US8101844B2 (en) | Automatic analysis and performance of music | |
CN113539216A (en) | Melody creation navigation method and device, equipment, medium and product thereof | |
JP2011164162A (en) | Support device for giving expression to performance | |
JP2007219139A (en) | Melody generation system | |
Collins | A funny thing happened on the way to the formula: Algorithmic composition for musical theater | |
JP2006178104A (en) | Method, apparatus and system for musical piece generation | |
JP2002278548A (en) | Lyric writing and composing system and program | |
WO2015159475A1 (en) | Information processing device and information processing method | |
KR102490769B1 (en) | Method and device for evaluating ballet movements based on ai using musical elements | |
JP2008209535A (en) | System and method for generating music information | |
Lai | A theory of pitch organization in the early music of Chou Wen-chung | |
Zhang et al. | Pop music singing in education with modern innovative technologies: how the chinese language shapes the creation of popular singing | |
Vargas et al. | Artificial musical pattern generation with genetic algorithms | |
CN113096624A (en) | Method, device, equipment and storage medium for automatically creating symphony music | |
Clark | Harmony, associativity, and metaphor in the film scores of Alexandre Desplat | |
JP4174028B2 (en) | Music image output system and music image output method | |
CN113140202A (en) | Information processing method, information processing device, electronic equipment and storage medium | |
KR20060118094A (en) | The service system for compsition and the method therefor | |
WO2019003350A1 (en) | Singing sound generation device, method and program | |
JP2004061666A (en) | Information signal converting system | |
KR20170025634A (en) | Method for creating music over the internet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100419 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120313 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |