JP2013101288A - Musical piece generation device - Google Patents

Musical piece generation device Download PDF

Info

Publication number
JP2013101288A
JP2013101288A JP2011246118A JP2011246118A JP2013101288A JP 2013101288 A JP2013101288 A JP 2013101288A JP 2011246118 A JP2011246118 A JP 2011246118A JP 2011246118 A JP2011246118 A JP 2011246118A JP 2013101288 A JP2013101288 A JP 2013101288A
Authority
JP
Japan
Prior art keywords
melody
data
unit
section
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011246118A
Other languages
Japanese (ja)
Other versions
JP5899832B2 (en
JP2013101288A5 (en
Inventor
Miki Ito
美希 伊藤
Yasuyuki Umeyama
康之 梅山
Seiichi Hashimoto
誠一 橋本
Tadashi Nagata
資司 永田
Takashi Morio
崇 守尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011246118A priority Critical patent/JP5899832B2/en
Publication of JP2013101288A publication Critical patent/JP2013101288A/en
Publication of JP2013101288A5 publication Critical patent/JP2013101288A5/ja
Application granted granted Critical
Publication of JP5899832B2 publication Critical patent/JP5899832B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a musical piece in which a character string such as lyrics properly corresponds to each unit section of the musical piece.SOLUTION: A musical piece generation device 100A generates a musical piece in which each of a plurality of unit sections is applied with a melody. A storage device 24 stores a plurality of pieces of melody data DM designating different melodies. An information acquisition part 32 acquires a designated character string DL composed of a plurality of characters. A musical piece generation part 34 distributes a plurality of character groups obtained by dividing the designated character string DL to each unit section, and calculates a melody evaluation value in accordance with the number of characters of each character group corresponding to each of the plurality of unit sections and the number of notes of the melody designated by the melody data DM for each melody data DM. The musical piece generation part 34 selects any of the plurality of melody data DM in accordance with the melody evaluation value of each melody data DM in each of the plurality of unit sections.

Description

本発明は、楽曲を生成する技術に関する。   The present invention relates to a technique for generating music.

楽曲を自動的に生成する技術(自動作曲技術)が従来から提案されている。例えば非特許文献1には、歌詞の韻律に応じて音高が変動するように選定された音符列と、複数種のリズムパターンから音符数に応じて選定されたリズムパターンとで規定される楽曲を生成する技術が開示されている。   A technique for automatically generating music (automatic music technique) has been proposed. For example, Non-Patent Document 1 discloses a musical composition defined by a note sequence selected so that the pitch varies according to the prosody of lyrics and a rhythm pattern selected from a plurality of types of rhythm patterns according to the number of notes. Techniques for generating are disclosed.

深山ほか6名,“Orpheus:歌詞の韻律に基づいた自動作曲システム”,情報処理学会研究報告[音楽情報科学],2008(78),p.179-184,2008年7月30日Fukayama et al., “Orpheus: Automatic Music System Based on Prosody of Lyrics”, Information Processing Society of Japan [Music Information Science], 2008 (78), p.179-184, July 30, 2008

しかし、非特許文献1の技術では、歌詞の韻律に応じた音符列が生成されるに過ぎず、楽曲内で音楽的な纏まりがある各単位区間(例えば2小節の区間)と歌詞との関係は何ら加味されない。したがって、例えば歌詞の1個の文節が楽曲の2個の単位区間に跨る可能性があり、歌詞の配列が不自然で聴取し難い楽曲が生成される可能性がある。以上の事情を考慮して、本発明は、歌詞等の文字列が楽曲の各単位区間に適切に対応する楽曲を生成することを目的とする。   However, in the technique of Non-Patent Document 1, only a note sequence corresponding to the prosody of the lyrics is generated, and the relationship between each unit section (for example, a two-measure section) having a musical group in the music and the lyrics. Is not added at all. Therefore, for example, one phrase of the lyrics may straddle two unit sections of the music, and there is a possibility that a music that is unnatural and difficult to listen to is generated. In view of the above circumstances, an object of the present invention is to generate a song in which a character string such as lyrics appropriately corresponds to each unit section of the song.

以上の課題を解決するために本発明が採用する手段を説明する。なお、本発明の理解を容易にするために、以下の説明では、本発明の各要素と後述の各実施形態の要素との対応を括弧書で付記するが、本発明の範囲を実施形態の例示に限定する趣旨ではない。   Means employed by the present invention to solve the above problems will be described. In order to facilitate understanding of the present invention, in the following description, the correspondence between each element of the present invention and the element of each of the embodiments described later is indicated in parentheses, but the scope of the present invention is not limited to the embodiment. It is not intended to limit the example.

本発明の楽曲生成装置は、複数の単位区間の各々について旋律が付与された楽曲を生成する装置であって、相異なる旋律を指定する複数の旋律データを記憶する記憶手段(例えば記憶装置24)と、複数の文字で構成される指定文字列を取得する文字列取得手段(例えば情報取得部32)と、指定文字列を区分した複数の文字群を各単位区間に分配する文字割当手段(例えば楽曲生成部34/文字割当処理S11)と、複数の単位区間の各々について、当該単位区間に対応する各文字群の文字数と旋律データが指定する旋律の音符数とに応じた旋律評価値(例えば旋律評価値EB)を旋律データ毎に算定する文字列評価手段(例えば楽曲生成部34/文字列評価処理S14)と、複数の単位区間の各々について、当該単位区間における各旋律データの旋律評価値に応じて複数の旋律データの何れかを選択する旋律選択手段(例えば楽曲生成部34/旋律選択処理S15)とを具備する。以上の構成においては、指定文字列を区分した複数の文字群が各単位区間に分配される。したがって、歌詞の韻律に応じて音符列を生成する非特許文献1の技術と比較して、指定文字列の各文字群と各単位区間の旋律とが自然に対応した楽曲を生成することが可能である。なお、本発明における「旋律」は、複数の音の時系列(音の並び)を意味する。   The music generation device of the present invention is a device that generates a music with melody assigned to each of a plurality of unit sections, and stores a plurality of melody data that specify different melody (for example, a storage device 24). A character string acquisition unit (for example, the information acquisition unit 32) for acquiring a designated character string composed of a plurality of characters, and a character allocation unit (for example, for distributing a plurality of character groups obtained by dividing the designated character string to each unit section A melody evaluation value (for example, a melody evaluation value (for example, the character allocation process S11) and the number of characters of each character group corresponding to the unit section and the number of melody notes specified by the melody data for each of the plurality of unit sections. Character string evaluation means (for example, music generation unit 34 / character string evaluation process S14) for calculating the melody evaluation value EB) for each melody data, and each melody data in the unit section for each of the plurality of unit sections. ; And a melody selecting means for selecting one of a plurality of melody data (e.g. music generating unit 34 / melody selecting process S15) in accordance with the melody evaluation value. In the above configuration, a plurality of character groups obtained by dividing the designated character string are distributed to each unit section. Therefore, it is possible to generate a musical piece in which each character group of the designated character string and the melody of each unit section naturally correspond to each other as compared with the technique of Non-Patent Document 1 that generates a note string according to the prosody of the lyrics. It is. Note that “melody” in the present invention means a time series (sequence of sounds) of a plurality of sounds.

本発明の好適な態様において、複数の旋律データの各々は、当該旋律データが指定する旋律を複数の旋律区間に区分する境界点を指定する区間データ(例えば区間データDM2)を含み、文字列評価手段は、複数の単位区間の各々について、当該単位区間に対応する各文字群と旋律データの各旋律区間(例えば旋律区間B)とを対応させ、旋律区間毎の文字数に応じた旋律評価値を旋律データ毎に算定する(例えば後述の第2調整処理SC12や第3調整処理SC13)。以上の態様においては、各旋律区間に対応する文字数に応じた旋律指標値が旋律データ毎に算定されるから、例えば各旋律区間に対応する文字数が多過ぎる楽曲が生成される可能性を低減することが可能である。   In a preferred embodiment of the present invention, each of the plurality of melody data includes section data (for example, section data DM2) that specifies boundary points that divide the melody specified by the melody data into a plurality of melody sections, and character string evaluation For each of the plurality of unit sections, the means associates each character group corresponding to the unit section with each melody section (for example, melody section B) of the melody data, and calculates a melody evaluation value according to the number of characters in each melody section. Calculation is performed for each melody data (for example, a second adjustment process SC12 and a third adjustment process SC13 described later). In the above aspect, since the melody index value corresponding to the number of characters corresponding to each melody section is calculated for each melody data, for example, the possibility of generating a song having too many characters corresponding to each melody section is reduced. It is possible.

例えば、文字列評価手段は、複数の単位区間の各々について、当該単位区間に対応する各文字群と旋律データの各旋律区間とを対応させ、各旋律区間内の音符数と当該旋律区間に対応する文字数との相違が大きいほど旋律評価値が小さい数値となるように、各旋律データの旋律評価値を算定する(例えば後述の第2調整処理SC12)。以上の態様では、各旋律区間内の音符数と当該旋律区間に対応する文字数との相違が大きいほど旋律評価値は小さい数値(すなわち旋律選択手段により選択される可能性が低い数値)となるから、各旋律区間内で文字数と音符数とが極端に相違する楽曲が生成される可能性を低減できる。   For example, for each of a plurality of unit sections, the character string evaluation means associates each character group corresponding to the unit section with each melody section of the melody data, and corresponds to the number of notes in each melody section and the melody section. The melody evaluation value of each melody data is calculated so that the melody evaluation value becomes a smaller numerical value as the difference from the number of characters is larger (for example, a second adjustment process SC12 described later). In the above aspect, the greater the difference between the number of notes in each melody section and the number of characters corresponding to the melody section, the smaller the melody evaluation value (that is, the lower the possibility of selection by the melody selection means). Thus, the possibility that a song having extremely different numbers of characters and notes in each melody section is generated can be reduced.

また、文字列評価手段は、複数の単位区間の各々について、当該単位区間に対応する各文字群と旋律データの各旋律区間とを対応させ、各旋律区間に対応する文字数が、当該旋律区間の時間長に応じた許容値を上回る場合に旋律評価値が小さい数値となるように、各旋律データの旋律評価値を算定する(例えば後述の第3調整処理SC13)。許容値は、例えば旋律区間の時間長が短いほど小さい数値に設定される。以上の態様では、各旋律区間の文字数が許容値を上回る場合に旋律評価値が小さい数値に設定されるから、各旋律区間内の文字数が多過ぎる楽曲(すなわち非常に高速に各文字を発声する必要がある不自然な楽曲)が生成される可能性を低減できる。   Further, the character string evaluation means associates each character group corresponding to the unit section with each melody section of the melody data for each of the plurality of unit sections, and the number of characters corresponding to each melody section corresponds to the melody section. The melody evaluation value of each melody data is calculated so that the melody evaluation value becomes a small value when the allowable value according to the time length is exceeded (for example, a third adjustment process SC13 described later). For example, the allowable value is set to a smaller numerical value as the time length of the melody section is shorter. In the above embodiment, when the number of characters in each melody section exceeds the allowable value, the melody evaluation value is set to a small numerical value, so that the number of characters in each melody section is too large (that is, each character is uttered very quickly) The possibility that an unnatural music that needs to be generated) can be reduced.

本発明の好適な態様において、文字列評価手段は、複数の単位区間の各々について、当該単位区間に対応する文字群の個数と旋律データが指定する旋律の旋律区間の個数との相違が大きいほど旋律評価値が小さい数値となるように、各旋律データの旋律評価値を算定する(例えば後述の第1調整処理SC11)。以上の態様では、単位区間に対応する文字群の個数と旋律区間の個数との相違が大きいほど旋律評価値が小さい数値に設定されるから、単位区間内で文字群の個数と旋律区間の個数とが極端に相違する楽曲が生成される可能性を低減できる。   In a preferred aspect of the present invention, for each of the plurality of unit sections, the character string evaluation means increases the difference between the number of character groups corresponding to the unit section and the number of melody sections specified by the melody data. The melody evaluation value of each melody data is calculated so that the melody evaluation value becomes a small numerical value (for example, first adjustment process SC11 described later). In the above embodiment, the larger the difference between the number of character groups corresponding to a unit section and the number of melody sections, the smaller the melody evaluation value is set, so the number of character groups and the number of melody sections in the unit section. It is possible to reduce the possibility of generating music that is extremely different from.

本発明の好適な態様において、文字列評価手段は、複数の単位区間の各々について、当該単位区間に対応する文字数が旋律データの旋律の音符数を上回る場合に旋律評価値が小さい数値となるように、各旋律データの旋律評価値を算定する(例えば後述の第4調整処理SC14)。以上の態様では、各単位区間に対応する文字数が音符数を上回る場合に旋律評価値が小さい数値に設定されるから、音符数が各単位区間の文字数を大幅に下回る旋律データが選択される可能性を低減することが可能である。したがって、例えば、旋律データが指定する各音符を分割して音符と文字とを対応させる構成では、音符の分割の頻度が低減され、旋律データの特徴を維持した楽曲を生成できるという利点がある。   In a preferred aspect of the present invention, the character string evaluation means has a small melody evaluation value for each of the plurality of unit sections when the number of characters corresponding to the unit section exceeds the number of melody notes in the melody data. Then, a melody evaluation value of each melody data is calculated (for example, a fourth adjustment process SC14 described later). In the above embodiment, when the number of characters corresponding to each unit section exceeds the number of notes, the melodic evaluation value is set to a small value, so that melodic data whose number of notes is significantly smaller than the number of characters in each unit section can be selected. Can be reduced. Therefore, for example, in the configuration in which each note specified by the melody data is divided so that the note and the character correspond to each other, there is an advantage that the frequency of the division of the note is reduced and a music having the characteristics of the melody data can be generated.

本発明の好適な態様に係る楽曲生成装置は、楽曲のコード進行を指定するコード進行データを取得するコード取得手段(例えば情報取得部32)と、複数の単位区間の各々について、コード進行データが指定する当該単位区間でのコード進行と旋律データが指定する旋律との関係に応じた旋律評価値(例えば旋律評価値EA)を旋律データ毎に算定する旋律評価手段(例えば楽曲生成部34/旋律評価処理S13)とを具備し、文字列評価手段は、旋律評価手段が算定した各旋律データの旋律評価値を調整する。以上の態様では、コード進行データが指定する各単位区間でのコード進行と旋律データが指定する旋律との関係に応じた旋律評価値が旋律データ毎に算定されたうえで文字列評価手段により調整される。したがって、楽曲の音符列が歌詞の韻律により制約される非特許文献1の構成と比較して、コード進行データが指定するコード進行に応じた多様な楽曲を生成できるという利点がある。   The music generation device according to a preferred aspect of the present invention includes a chord acquisition unit (for example, an information acquisition unit 32) that acquires chord progression data that specifies chord progression of a song, and chord progression data for each of a plurality of unit sections. Melody evaluation means (for example, music generation unit 34 / melody) for calculating for each melody data a melody evaluation value (for example, melody evaluation value EA) corresponding to the relationship between the chord progression in the specified unit section and the melody specified by the melody data. The character string evaluation means adjusts the melody evaluation value of each melody data calculated by the melody evaluation means. In the above mode, the melody evaluation value corresponding to the relationship between the chord progression in each unit section specified by the chord progression data and the melody specified by the melody data is calculated for each melody data and adjusted by the character string evaluation means. Is done. Therefore, as compared with the configuration of Non-Patent Document 1 in which the musical note string is restricted by the prosody of the lyrics, there is an advantage that various musical pieces corresponding to the chord progression specified by the chord progression data can be generated.

本発明の好適な態様に係る楽曲生成装置は、旋律選択手段が各単位区間について選択した旋律データが指定する旋律の音符数を調整し、調整後の旋律の各音符と当該単位区間内の各文字とを対応させる旋律調整手段(例えば楽曲生成部34/旋律調整処理S16)を具備する。以上の態様では、音符と文字とが対応するように旋律データの音符数が調整されるから、音符と文字とが明確に対応する自然な楽曲を生成することが可能である。   The music generation device according to a preferred aspect of the present invention adjusts the number of melody notes specified by the melody data selected by the melody selection means for each unit section, and each melody note after adjustment and each of the notes in the unit section. It includes melody adjustment means (for example, music generation unit 34 / melody adjustment processing S16) for associating characters. In the above aspect, since the number of notes in the melody data is adjusted so that the notes and characters correspond to each other, it is possible to generate a natural musical piece in which the notes and characters clearly correspond.

本発明の好適な態様において、旋律調整手段は、旋律選択手段が各単位区間について選択した旋律データの旋律の音符数が、当該単位区間に対応する文字数を下回る場合に、複数の音符のうち継続長が最長である1個の音符を分割する処理を、音符数が当該単位区間の文字数に合致するまで反復する(例えばステップSD12)。以上の態様では、継続長が長い音符を分割することで音符数が文字数と同数に調整されるから、例えば継続長とは無関係に選択された音符を分割する構成と比較して、旋律データの特徴を維持した自然な楽曲を生成できるという利点がある。   In a preferred aspect of the present invention, the melody adjustment means continues when the number of melody notes in the melody data selected by the melody selection means for each unit section is less than the number of characters corresponding to the unit section. The process of dividing one note having the longest length is repeated until the number of notes matches the number of characters in the unit section (for example, step SD12). In the above aspect, the number of notes is adjusted to be the same as the number of characters by dividing a note having a long duration, so that, for example, the melody data is compared with a configuration in which a selected note is divided regardless of the duration. There is an advantage that it is possible to generate natural music that maintains its characteristics.

本発明の好適な態様において、旋律調整手段は、旋律選択手段が各単位区間について選択した旋律データの旋律の音符数が、当該単位区間に対応する文字数を上回る場合に、旋律の複数の音符のうち当該単位区間に対応する文字数と同数の音符を選択し、非選択の音符に長音記号を対応させる(例えばステップSD14およびステップSD15)。以上の態様では、旋律の複数の音符のうち単位区間に対応する文字数と同数の音符が選択され、非選択の音符には長音記号が付与される。したがって、旋律データの特徴を維持した自然な楽曲を生成できるという利点がある。   In a preferred aspect of the present invention, the melody adjusting means includes a plurality of melodic notes when the number of melody notes in the melody data selected by the melody selection means for each unit section exceeds the number of characters corresponding to the unit section. Among them, the same number of notes as the number of characters corresponding to the unit section are selected, and a long sound symbol is made to correspond to a non-selected note (for example, step SD14 and step SD15). In the above aspect, the same number of notes as the number of characters corresponding to the unit section are selected from the plurality of notes of the melody, and a long sound symbol is given to the non-selected notes. Therefore, there is an advantage that a natural music that maintains the characteristics of the melody data can be generated.

複数の音符のうち単位区間に対応する文字数と同数の音符を旋律調整手段がが選択する方法は任意であるが、例えば、楽曲のコード進行を指定するコード進行データを取得するコード取得手段(情報取得部32)と、各旋律データが指定する旋律の複数の音符の各々について、コード進行データが指定するコードと当該音符の音高との関係に応じた第1評価値と、当該音符の継続長に応じた第2評価値とから音符評価値を算定する旋律評価手段(例えば楽曲生成部34/旋律評価処理S13)とを具備する構成では、旋律選択手段が各単位区間について選択した旋律データの旋律の複数の音符から、音符評価値の順番で、当該単位区間に対応する文字数と同数の音符を選択することが可能である。以上の態様では、旋律データが指定する複数の音符のうち音楽的に重要な音符が選択されるから、旋律データの音楽的な特徴を維持した自然な楽曲を生成できるという効果は格別に顕著である。   Although the method by which the melody adjustment means selects the same number of notes as the number of characters corresponding to the unit section among the plurality of notes is arbitrary, for example, chord acquisition means (information) for acquiring chord progression data specifying the chord progression of the music The acquisition unit 32), a first evaluation value corresponding to the relationship between the chord specified by the chord progression data and the pitch of the note, and the continuation of the note for each of a plurality of notes of the melody specified by each melody data In a configuration including melody evaluation means (for example, music generation unit 34 / melody evaluation processing S13) for calculating a note evaluation value from the second evaluation value corresponding to the length, the melody data selected by the melody selection means for each unit section It is possible to select the same number of notes as the number of characters corresponding to the unit section in the order of the note evaluation values from a plurality of notes of the melody. In the above aspect, musically important notes are selected from a plurality of notes specified by the melody data, so that the effect of generating a natural musical piece maintaining the musical characteristics of the melody data is particularly remarkable. is there.

本発明の好適な態様に係る楽曲生成装置は、旋律調整手段による調整後の旋律データが指定する旋律を指定文字列で発音した音声の音声信号を生成する音声合成手段(例えば音声合成部44)と、旋律調整手段による調整後の旋律データが指定する旋律の演奏音の楽音信号を生成する楽音生成手段(例えば楽音生成部42)と、音声合成手段が生成した音声信号と音響生成手段が生成した楽音信号とを混合する混合手段(例えば混合部46)とを具備する。   The music generating apparatus according to a preferred aspect of the present invention is a voice synthesizing unit (for example, a voice synthesizing unit 44) that generates a voice signal of a voice in which the melody specified by the melody data adjusted by the melody adjusting unit is pronounced by a designated character string. And a tone generation unit (for example, a tone generation unit 42) that generates a tone signal of the performance sound of the melody specified by the tune data adjusted by the melody adjustment unit, and a voice signal and a sound generation unit generated by the speech synthesis unit Mixing means (for example, a mixing unit 46) for mixing the musical tone signals.

以上の各態様に係る楽曲生成装置は、専用のDSP(Digital Signal Processor)などのハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)などの汎用の演算処理装置とプログラムとの協働によっても実現される。本発明に係るプログラムは、複数の単位区間の各々について旋律が付与された楽曲を生成するために、相異なる旋律を指定する複数の旋律データを記憶する記憶手段を具備するコンピュータに、複数の文字で構成される指定文字列を取得する文字列取得処理と、指定文字列を区分した複数の文字群を各単位区間に分配する文字割当処理(例えば文字割当処理S11)と、複数の単位区間の各々について、当該単位区間に対応する各文字群の文字数と旋律データが指定する旋律の音符数とに応じた旋律評価値を旋律データ毎に算定する文字列評価処理(例えば文字列評価処理S14)と、複数の単位区間の各々について、当該単位区間における各旋律データの旋律評価値に応じて複数の旋律データの何れかを選択する旋律選択処理(例えば旋律選択処理S15)とを実行させる。以上のプログラムによれば、本発明に係る楽曲生成装置と同様の作用および効果が実現される。なお、本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされるほか、通信網を介した配信の形態で提供されてコンピュータにインストールされる。   The music generating device according to each of the above aspects is realized by hardware (electronic circuit) such as a dedicated DSP (Digital Signal Processor), or a general-purpose arithmetic processing device such as a CPU (Central Processing Unit) and a program. It is also realized through collaboration. The program according to the present invention includes a plurality of characters stored in a computer having storage means for storing a plurality of melody data for designating different melody in order to generate a melody with melody assigned to each of a plurality of unit sections. A character string acquisition process for acquiring a specified character string composed of: a character allocation process for distributing a plurality of character groups into which a specified character string is divided (for example, a character allocation process S11); For each, a character string evaluation process (for example, a character string evaluation process S14) for calculating for each melodic data a melodic evaluation value corresponding to the number of characters in each character group corresponding to the unit section and the number of melodic notes specified by the melodic data And, for each of the plurality of unit sections, a melody selection process (for example, a melody selection process) that selects any one of the plurality of melody data according to the melody evaluation value of each melody data in the unit section. S15) is executed. According to the above program, the same operation and effect as the music generating device according to the present invention are realized. Note that the program of the present invention is provided in a form stored in a computer-readable recording medium and installed in the computer, or is provided in a form distributed via a communication network and installed in the computer.

本発明の第1実施形態に係る楽曲生成装置のブロック図である。It is a block diagram of the music production | generation apparatus which concerns on 1st Embodiment of this invention. 旋律データの内容および旋律評価値の算定の説明図である。It is explanatory drawing of the calculation of the content of a melody data, and a melody evaluation value. 楽曲を構成する各単位区間と指定文字列を構成する各文字群との説明図である。It is explanatory drawing of each unit area which comprises a music, and each character group which comprises a designated character string. コード進行データの模式図である。It is a schematic diagram of chord progression data. 楽曲生成処理のフローチャートである。It is a flowchart of a music production | generation process. 文字割当処理のフローチャートである。It is a flowchart of a character allocation process. 旋律評価処理のフローチャートである。It is a flowchart of a melody evaluation process. 文字列評価処理のフローチャートである。It is a flowchart of a character string evaluation process. 旋律調整処理のフローチャートである。It is a flowchart of a melody adjustment process. 第2実施形態におけるコード進行データの単位データの模式図である。It is a schematic diagram of the unit data of chord progression data in the second embodiment. 第3実施形態における指定文字列の模式図である。It is a schematic diagram of the designated character string in 3rd Embodiment. 第6実施形態における指定文字列の模式図である。It is a schematic diagram of the designated character string in 6th Embodiment. 第6実施形態に係る楽曲生成装置のブロック図である。It is a block diagram of the music production | generation apparatus which concerns on 6th Embodiment.

<第1実施形態>
図1は、本発明の第1実施形態に係る楽曲生成装置100Aのブロック図である。楽曲生成装置100Aは、楽曲を生成してその楽曲の演奏音の音響信号Vを出力する信号処理装置(自動作曲装置)である。以下の説明では、歌唱音が旋律を担当する歌唱曲を生成する場合を例示する。
<First Embodiment>
FIG. 1 is a block diagram of a music generation device 100A according to the first embodiment of the present invention. The music generation device 100A is a signal processing device (automatic music device) that generates a music and outputs an acoustic signal V of the performance sound of the music. In the following description, a case where the song sound generates a song for which the melody is in charge is illustrated.

楽曲生成装置100Aには入力装置12と放音装置14とが接続される。入力装置12は、利用者からの指示を受付ける機器(例えばマウスやキーボード)である。放音装置14(例えばスピーカやヘッドホン)は、楽曲生成装置100Aから供給される音響信号Vに応じた音波を放射する。なお、音響信号Vをデジタルからアナログに変換するD/A変換器等の図示は便宜的に省略されている。   An input device 12 and a sound emitting device 14 are connected to the music generating device 100A. The input device 12 is a device (for example, a mouse or a keyboard) that receives an instruction from a user. The sound emitting device 14 (for example, a speaker or a headphone) emits a sound wave corresponding to the acoustic signal V supplied from the music generating device 100A. In addition, illustration of the D / A converter etc. which convert the acoustic signal V from digital to analog is abbreviate | omitted for convenience.

第1実施形態の楽曲生成装置100Aは、演算処理装置22と記憶装置24とを具備するコンピュータシステムで実現される。演算処理装置22は、記憶装置24に記憶されたプログラムPGMを実行することで、楽曲を生成するための複数の機能(情報取得部32,楽曲生成部34,楽音生成部42,音声合成部44,混合部46)を実現する。なお、演算処理装置22の各機能を複数の集積回路に分散した構成や、専用の電子回路(DSP)が一部の機能を分担する構成も採用され得る。   The music generation device 100 </ b> A of the first embodiment is realized by a computer system that includes an arithmetic processing device 22 and a storage device 24. The arithmetic processing device 22 executes a program PGM stored in the storage device 24 to thereby generate a plurality of functions (information acquisition unit 32, music generation unit 34, musical sound generation unit 42, voice synthesis unit 44). , The mixing unit 46) is realized. A configuration in which each function of the arithmetic processing unit 22 is distributed over a plurality of integrated circuits, or a configuration in which a dedicated electronic circuit (DSP) shares a part of the functions may be employed.

記憶装置24は、演算処理装置22が記憶するプログラムPGMや演算処理装置22が使用する各種のデータを記憶する。半導体記録媒体や磁気記録媒体等の公知の記録媒体が記憶装置24として任意に採用され得る。記憶装置24を複数の記録媒体で構成することも可能である。図1に示すように、記憶装置24は、複数の旋律データDMを記憶する。複数の旋律データDMの各々は、楽曲生成の素材として使用される旋律(以下「素材旋律」という)を指定するデータであり、図1に示すように、音符列データDM1と区間データDM2とを含んで構成される。   The storage device 24 stores a program PGM stored in the arithmetic processing device 22 and various data used by the arithmetic processing device 22. A known recording medium such as a semiconductor recording medium or a magnetic recording medium can be arbitrarily employed as the storage device 24. It is also possible to configure the storage device 24 with a plurality of recording media. As shown in FIG. 1, the storage device 24 stores a plurality of melody data DM. Each of the plurality of melody data DM is data for specifying a melody (hereinafter referred to as “material melody”) used as a material for generating music. As shown in FIG. 1, note string data DM1 and section data DM2 are included. Consists of including.

音符列データDM1は、図2に示すように、素材旋律を構成する複数の音符の時系列を指定する。具体的には、音符列データDM1は、素材旋律の複数の音符の各々について音高と発音期間(発音時点および継続長)とを指定する。既存の楽曲から抽出された所定長の旋律を素材旋律として各音符列データDM1が生成される。第1実施形態では、4/4拍子の楽曲の2小節分(8分音符の16個分)を素材旋律とした場合を例示する。音符列データDM1は、例えばMIDI(Musical Instrument Digital Interface)規格に準拠した形式で記述され得る。具体的には、素材旋律の各音符の音高(ノートナンバ)を指定して発音や消音を指定するイベントデータと各イベントデータの処理間隔(音符の継続長や間隔)を指定するタイミングデータとを配列した時系列データが音符列データDM1として好適である。   As shown in FIG. 2, the note string data DM1 designates a time series of a plurality of notes constituting a material melody. Specifically, the note string data DM1 designates a pitch and a pronunciation period (sound generation time and duration) for each of a plurality of notes of the material melody. Each note string data DM1 is generated using a melody of a predetermined length extracted from an existing musical piece as a material melody. The first embodiment exemplifies a case where a material melody is composed of two measures (16 eighth notes) of a 4/4 time tune. The note string data DM1 can be described in a format conforming to, for example, the MIDI (Musical Instrument Digital Interface) standard. Specifically, event data that specifies the pitch (note number) of each note in the material melody and specifies sounding and muting, timing data that specifies the processing interval of each event data (note duration and interval), Is suitable as the note string data DM1.

第1実施形態の楽曲生成装置100Aは、図3に示すように、複数(K個)の単位区間Uで構成される楽曲を生成する。1個の単位区間Uは、例えば楽曲の所定個の小節に相当する区間である。以下の説明では、1個の単位区間Uが、素材旋律と同様に、4/4拍子の楽曲の2小節分(8分音符16個分)に相当する場合を想定する。K個の単位区間Uの各々について複数の旋律データDMの何れかが順次に選択され、旋律データDM(音符列データDM1)に応じて単位区間U毎の旋律を選定した楽曲が生成される。   The music generation device 100A of the first embodiment generates music composed of a plurality (K) of unit sections U as shown in FIG. One unit section U is a section corresponding to, for example, a predetermined number of measures of a music piece. In the following description, it is assumed that one unit section U corresponds to two bars (16 eighth notes) of a 4/4 time tune, similarly to the material melody. One of the plurality of melody data DM is sequentially selected for each of the K unit intervals U, and a musical piece in which the melody for each unit interval U is selected according to the melody data DM (note string data DM1) is generated.

区間データDM2は、図2に示すように、音符列データDM1が指定する素材旋律を時間軸上で複数の区間(以下「旋律区間」という)Bに区分するためのデータであり、時間軸上での各旋律区間Bの境界点を指定する。例えば素材旋律内で音楽的な纏まりがある区間を単位として各旋律区間Bが画定される。区間データDM2は、例えば旋律データDMの制作者(楽曲生成装置100Aの提供者)が素材旋律を聴取したうえで音楽的な印象を考慮して任意に設定する。   As shown in FIG. 2, the section data DM2 is data for dividing the material melody specified by the note string data DM1 into a plurality of sections (hereinafter referred to as “melody section”) B on the time axis. The boundary point of each melody section B is designated. For example, each melody section B is demarcated with a section having a musical grouping in the material melody as a unit. The section data DM2 is arbitrarily set in consideration of a musical impression after the producer of the melody data DM (provider of the music generation device 100A) listens to the material melody.

以上に説明した各旋律データDMは、例えばSMF(Standard MIDI File)形式の音楽ファイルとして記述され得る。具体的には、音符列データDM1と区間データDM2とは別個のトラック(チャネル)として記述される。区間データDM2は、例えば境界点を意味するイベントデータと各イベントデータの時点(境界点の時点)を指定するタイミングデータとを配列したMIDI形式のデータとして記述される。   Each melody data DM described above can be described as a music file in SMF (Standard MIDI File) format, for example. Specifically, the note string data DM1 and the section data DM2 are described as separate tracks (channels). The section data DM2 is described as, for example, data in MIDI format in which event data meaning boundary points and timing data specifying the time points of each event data (time points of boundary points) are arranged.

図1の情報取得部32は、楽曲生成に適用される情報を取得する。第1実施形態の情報取得部32は、コード進行データDCと指定文字列DLと変数データDXとを入力装置12に対する利用者からの指示に応じて生成する。図1に示すように、情報取得部32が生成した情報(DC,DL,DX)は記憶装置24に格納される。なお、可搬型または据置型の記録媒体から情報取得部32が情報(DC,DL,DX)を取得する構成や、通信網を介して他の通信端末から情報取得部32が情報を取得する構成も採用され得る。   The information acquisition unit 32 in FIG. 1 acquires information applied to music generation. The information acquisition unit 32 of the first embodiment generates the chord progression data DC, the designated character string DL, and the variable data DX in accordance with an instruction from the user to the input device 12. As shown in FIG. 1, information (DC, DL, DX) generated by the information acquisition unit 32 is stored in the storage device 24. A configuration in which the information acquisition unit 32 acquires information (DC, DL, DX) from a portable or stationary recording medium, or a configuration in which the information acquisition unit 32 acquires information from another communication terminal via a communication network. Can also be employed.

コード進行データDCは、楽曲のコード進行を指定する。具体的には、コード進行データDCは、図4に示すように、楽曲内の各拍点(例えば8分音符毎)に対応する単位データDUを時系列に配列した構造である。具体的には、各単位データDUは、小節番号と拍点番号とコードとを指定する。例えば、図4において「1-1:C」と表記された単位データDUは、楽曲の1小節目の第1拍目(最初の8分音符)のコードとして「C」を指定し、「1-5:F」と表記された単位データDUは、楽曲の1小節目の第5拍目のコードとして「F」を指定する。コードの指定を含まない単位データDU(例えば図4の「1-2:」と表記された単位データDU)は、直前に指定されたコードが維持されることを意味する。   The chord progression data DC designates the chord progression of the music. Specifically, the chord progression data DC has a structure in which unit data DU corresponding to each beat point (for example, every eighth note) in the music is arranged in time series as shown in FIG. Specifically, each unit data DU designates a bar number, a beat number, and a code. For example, the unit data DU written as “1-1: C” in FIG. 4 designates “C” as the chord of the first beat (first eighth note) of the first measure of the music, and “1” The unit data DU written as “−5: F” designates “F” as the code of the fifth beat of the first measure of the music. Unit data DU that does not include a code designation (for example, unit data DU represented as “1-2:” in FIG. 4) means that the code designated immediately before is maintained.

コード進行データDCは、例えばテキスト形式の文書ファイルとして記述される。すなわち、図4に例示される通り、単位データDUの内容を1行毎に利用者が入力装置12から順次に文字入力し、情報取得部32は、利用者が作成した文書ファイルをコード進行データDCとして記憶装置24に格納する。利用者は、コード進行データDC内の単位データDUの総数を任意に設定し得る。楽曲を構成する単位区間Uの総数K(楽曲の時間長)は、コード進行データDC内の単位データDUの総数に応じて可変に設定される。第1実施形態では、1個の単位データDUが8分音符に対応するとともに1個の単位区間Uが4/4拍子の2小節分(8分音符の16個分)に相当するから、例えばコード進行データDCが64個の単位データDUを含む場合には、4個の単位区間U(8分音符の64個に相当する8小節分)で構成される楽曲が生成される。   The chord progression data DC is described as a text file, for example. That is, as illustrated in FIG. 4, the user sequentially inputs the contents of the unit data DU for each line from the input device 12, and the information acquisition unit 32 converts the document file created by the user into the code progression data. It is stored in the storage device 24 as DC. The user can arbitrarily set the total number of unit data DU in the chord progression data DC. The total number K of unit sections U constituting the music (the time length of the music) is variably set according to the total number of unit data DU in the chord progression data DC. In the first embodiment, one unit data DU corresponds to an eighth note, and one unit section U corresponds to two bars of 4/4 time (16 eighth notes). When the chord progression data DC includes 64 unit data DU, a song composed of 4 unit sections U (8 bars corresponding to 64 eighth notes) is generated.

指定文字列DLは、楽曲の歌詞の文字列である。情報取得部32は、入力装置12に対する利用者からの指示(文字入力)に応じて指定文字列DLを可変に設定する。変数データDXは、楽曲生成に適用される変数を指定する。情報取得部32は、入力装置12に対する利用者からの指示に応じて各変数の数値を可変に設定する。変数データDXが指定する変数の具体例については後述する。以上の説明から理解されるように、演算処理装置22が実現する情報取得部32は、コード進行データDCを取得する要素(コード取得手段),指定文字列DLを取得する要素(文字列取得手段),および変数データDXを取得する要素として機能する。   The designated character string DL is a character string of the lyrics of the music. The information acquisition unit 32 variably sets the designated character string DL in accordance with an instruction (character input) from the user to the input device 12. Variable data DX designates a variable applied to music generation. The information acquisition unit 32 variably sets the numerical value of each variable according to an instruction from the user to the input device 12. Specific examples of variables designated by the variable data DX will be described later. As can be understood from the above description, the information acquisition unit 32 realized by the arithmetic processing device 22 includes an element for acquiring the chord progression data DC (code acquisition means) and an element for acquiring the designated character string DL (character string acquisition means). ), And functions as an element for obtaining the variable data DX.

図1の楽曲生成部34は、各旋律データDMとコード進行データDCと指定文字列DLと変数データDXとを利用して楽曲データQを生成する。楽曲データQは、楽曲の旋律を指定するデータであり、図3に示すように、各単位区間Uに対応する旋律データQUの時系列で構成される。図5は、楽曲生成部34が楽曲データQを生成する処理(以下「楽曲生成処理」という)のフローチャートである。コード進行データDCと指定文字列DLと変数データDXとが記憶装置24に記憶された状態で、入力装置12に対する操作により利用者が楽曲生成の開始を指示した場合に図5の楽曲生成処理が開始される。   1 generates music data Q by using each melody data DM, chord progression data DC, designated character string DL, and variable data DX. The music data Q is data for specifying the melody of the music, and is composed of time series of melody data QU corresponding to each unit section U as shown in FIG. FIG. 5 is a flowchart of a process in which the music generation unit 34 generates the music data Q (hereinafter referred to as “music generation process”). When the chord progression data DC, the designated character string DL, and the variable data DX are stored in the storage device 24 and the user instructs the start of music generation by operating the input device 12, the music generation processing of FIG. Be started.

楽曲生成処理を開始すると、楽曲生成部34は、記憶装置24に記憶された指定文字列DLとK個の単位区間Uの各々とを相互に対応させる文字割当処理S11を実行する。図6は、文字割当処理S11のフローチャートである。文字割当処理S11を開始すると、楽曲生成部34は、指定文字列DLを平仮名に変換したうえで(SA11)、図3に示すように指定文字列DLを複数の文字群Gに区分する(SA12)。第1実施形態では、指定文字列DLを文節毎に文字群Gに区分する。したがって、文字群G毎に文字数は相違する。指定文字列DLの文節の特定には、形態素解析等の公知の自然言語処理が任意に利用され得る。なお、指定文字列DLが平仮名で入力された場合にはステップSA11の処理は省略される。   When the music generation process is started, the music generation unit 34 executes a character allocation process S11 for associating the designated character string DL stored in the storage device 24 with each of the K unit intervals U. FIG. 6 is a flowchart of the character assignment process S11. When the character assignment process S11 is started, the music generation unit 34 converts the designated character string DL into hiragana (SA11), and then divides the designated character string DL into a plurality of character groups G as shown in FIG. 3 (SA12). ). In the first embodiment, the designated character string DL is divided into character groups G for each phrase. Therefore, the number of characters differs for each character group G. Known natural language processing such as morphological analysis can be arbitrarily used to specify the phrase of the designated character string DL. If the designated character string DL is input as a hiragana character, the process of step SA11 is omitted.

楽曲生成部34は、図3に示すように、指定文字列DLを区分した複数の文字群GをK個の単位区間Uに分配する(SA13)。具体的には、指定文字列DLの複数の文字群Gの時系列が、相異なる単位区間Uに対応するK個の集合に区分される。例えば、各単位区間Uに分配される文字群Gの個数がK個の単位区間Uについて可能な限り均等化される(単位区間U毎の文字群Gの個数の差異が最小化される)ように複数の文字群Gが時系列の順番で各単位区間Uに区分される。以上に説明したように、演算処理装置22が文字割当処理S11を実行することで、指定文字列DLの複数の文字群Gを各単位区間Uに分配する要素(文字割当手段)が実現される。   As shown in FIG. 3, the music generation unit 34 distributes a plurality of character groups G into which the designated character string DL is divided into K unit sections U (SA13). Specifically, the time series of the plurality of character groups G of the designated character string DL is divided into K sets corresponding to different unit sections U. For example, the number of character groups G distributed to each unit section U is made as uniform as possible for the K unit sections U (the difference in the number of character groups G for each unit section U is minimized). A plurality of character groups G are divided into unit sections U in chronological order. As described above, when the arithmetic processing unit 22 executes the character allocation process S11, an element (character allocation unit) that distributes the plurality of character groups G of the designated character string DL to each unit section U is realized. .

文字割当処理S11が終了すると、楽曲生成部34は、K個の単位区間Uから1個の単位区間U(以下「対象単位区間U」という)を選択する(S12)。楽曲生成処理の開始直後のステップS12では第1番目の単位区間Uが対象単位区間Uとして選択される。楽曲生成部34は、対象単位区間Uについて旋律データQUを生成する旋律生成処理(S13〜S16)を実行し、K個の単位区間Uの各々について旋律生成処理が完了したか否かを判定する(S17)。旋律データQUを生成していない単位区間Uが存在する場合(S17:NO)、楽曲生成部34は、現在の対象単位区間Uの直後の単位区間Uを新たな対象単位区間Uとして選択したうえで(S12)、更新後の対象単位区間Uについて旋律生成処理(S13〜S16)を実行する。すなわち、K個の単位区間Uの各々について旋律生成処理(S13〜S16)が順次に反復されることで楽曲の各単位区間Uの旋律データQUが生成される。なお、第1実施形態ではK個の単位区間Uを先頭から末尾に向かう順番で順次に選択するが、K個の単位区間Uを末尾から先頭に向かう順番で順次に選択することも可能である。   When the character assignment process S11 ends, the music generation unit 34 selects one unit section U (hereinafter referred to as “target unit section U”) from the K unit sections U (S12). In step S12 immediately after the start of the music generation process, the first unit section U is selected as the target unit section U. The music generation unit 34 executes a melody generation process (S13 to S16) for generating melody data QU for the target unit section U, and determines whether or not the melody generation process has been completed for each of the K unit sections U. (S17). When there is a unit section U for which melody data QU has not been generated (S17: NO), the music generation unit 34 selects a unit section U immediately after the current target unit section U as a new target unit section U. (S12), the melody generation process (S13 to S16) is executed for the updated target unit section U. That is, the melody generation process (S13 to S16) is sequentially repeated for each of the K unit intervals U, so that the melody data QU of each unit interval U of the music is generated. In the first embodiment, the K unit intervals U are sequentially selected in the order from the beginning to the end. However, the K unit intervals U may be sequentially selected in the order from the end to the beginning. .

旋律生成処理(S13〜S16)は、旋律評価処理S13と文字列評価処理S14と旋律選択処理S15と旋律調整処理S16とを含んで構成される。旋律評価処理S13は、対象単位区間Uについてコード進行データDCが指定するコード進行と旋律データDMが指定する旋律との関係(音楽的な相関度)に応じた旋律評価値EAを記憶装置24内の複数の旋律データDMの各々について算定する処理である。文字列評価処理S14は、文字割当処理S11で対象単位区間Uに分配した各文字群Gと旋律データDMが指定する旋律との関係に応じた旋律評価値EBを記憶装置24内の複数の旋律データDMの各々について算定する処理である。第1実施形態では、旋律評価処理S13で算定された旋律評価値EAを文字列評価処理S14により調整することで旋律評価値EBを算定する。   The melody generation process (S13 to S16) includes a melody evaluation process S13, a character string evaluation process S14, a melody selection process S15, and a melody adjustment process S16. The melody evaluation processing S13 stores a melody evaluation value EA corresponding to the relationship (musical correlation) between the chord progression designated by the chord progression data DC and the melody designated by the melody data DM for the target unit section U in the storage device 24. Is a process for calculating each of the plurality of melody data DM. In the character string evaluation process S14, a melody evaluation value EB corresponding to the relationship between each character group G distributed to the target unit section U in the character assignment process S11 and the melody specified by the melody data DM is stored in a plurality of melodies in the storage device 24. This is a process for calculating each of the data DM. In the first embodiment, the melody evaluation value EB is calculated by adjusting the melody evaluation value EA calculated in the melody evaluation processing S13 by the character string evaluation processing S14.

旋律選択処理S15は、旋律データDM毎に算定された旋律評価値EBに応じて記憶装置24内の複数の旋律データDMから1個の旋律データDMを選択する処理である。具体的には、複数の旋律データDMのうち旋律評価値EBが最大となる旋律データDMが選択される。旋律調整処理S16は、旋律選択処理S15で選択した1個の旋律データDMを調整することで対象単位区間Uの旋律データQUを生成する処理である。以上に概説した旋律生成処理(S13〜S16)がK個の単位区間Uの各々について順次に実行される。各処理(S13〜S16)の具体的な内容を以下に説明する。   The melody selection process S15 is a process of selecting one melody data DM from a plurality of melody data DM in the storage device 24 in accordance with the melody evaluation value EB calculated for each melody data DM. Specifically, melodic data DM having the maximum melodic evaluation value EB is selected from among a plurality of melodic data DM. The melody adjustment process S16 is a process for generating the melody data QU of the target unit section U by adjusting one melody data DM selected in the melody selection process S15. The melody generation process (S13 to S16) outlined above is sequentially executed for each of the K unit intervals U. Specific contents of each processing (S13 to S16) will be described below.

<旋律評価処理S13>
図7は、旋律評価処理S13のフローチャートである。旋律評価処理S13を開始すると、楽曲生成部34は、記憶装置24に記憶された複数の旋律データDMのうち1個の旋律データDM(以下「対象旋律データDM」という)を選択する(SB11)。そして、楽曲生成部34は、対象旋律データDMの音符列データDM1が指定する素材旋律の複数の音符の各々について音符評価値eを算定する(SB12)。
<Melody evaluation process S13>
FIG. 7 is a flowchart of the melody evaluation process S13. When the melody evaluation process S13 is started, the music generation unit 34 selects one melody data DM (hereinafter referred to as “target melody data DM”) among the plurality of melody data DM stored in the storage device 24 (SB11). . Then, the music generation unit 34 calculates a note evaluation value e for each of the plurality of notes of the material melody specified by the note string data DM1 of the target melody data DM (SB12).

音符評価値eは、図2に示すように、第1評価値e1と第2評価値e2とに応じて算定される。第1実施形態の楽曲生成部34は、第1評価値e1と第2評価値e2との乗算値を音符評価値eとして算定する。1個の音符の第1評価値e1は、その音符の発音時点についてコード進行データDCが指定するコードZCとその音符の音高ZPとの関係に応じた数値に設定される。   The note evaluation value e is calculated in accordance with the first evaluation value e1 and the second evaluation value e2, as shown in FIG. The music generation unit 34 of the first embodiment calculates a multiplication value of the first evaluation value e1 and the second evaluation value e2 as a note evaluation value e. The first evaluation value e1 of one note is set to a numerical value corresponding to the relationship between the chord ZC designated by the chord progression data DC and the pitch ZP of the note at the time of the note's pronunciation.

具体的には、第1評価値e1は、音符の音高ZPがコードZCの構成音に該当する場合には数値a1に設定され、音高ZPがコードZCの根音のペンタトニックの構成音(コードZCの構成音を除く)に該当する場合には数値a2に設定され、音高ZPがコードZCの構成音およびペンタトニックの構成音の何れにも該当しない幹音である場合には数値a3に設定される。音符の音高ZPが何れにも該当しない場合、第1評価値e1はゼロに設定される。   Specifically, the first evaluation value e1 is set to the numerical value a1 when the pitch ZP of the note corresponds to the constituent sound of the chord ZC, and the pentatonic constituent sound (the pitch ZP is the root note of the chord ZC) ( (Except for the constituent sound of the chord ZC), the numerical value a2 is set. When the pitch ZP is a stem sound that does not correspond to either the constituent sound of the chord ZC or the constituent sound of the pentatonic, the numerical value a3 is set. Is set. If the note pitch ZP does not correspond to any of the notes, the first evaluation value e1 is set to zero.

数値a1から数値a3の各々は、変数データDXにて指定される正数である。情報取得部32は、入力装置12に対する利用者からの指示に応じて数値a1から数値a3の各々を個別に設定する。図2では、コードの構成音に対応する数値a1を「5」に設定し、ペンタトニックの構成音に対応する数値a2を「3」に設定し、他の幹音に対応する数値a3を「1」に設定した場合が想定されている。したがって、コード進行データDCが指定するコードZCが「F」である区間に着目すると、図2に示すように、音高ZPが「F(ファ)」(コードの構成音)に設定された音符の第1評価値e1は「5(a1)」に設定され、音高ZPが「D(レ)」(ペンタトニックの構成音)に設定された音符の第1評価値e1は「3(a2)」に設定され、音高ZPが「E(ミ)」(何れにも該当しない幹音)に設定された音符の第1評価値e1は「1(a3)」に設定される。   Each of the numerical values a1 to a3 is a positive number designated by the variable data DX. The information acquisition unit 32 individually sets each of the numerical values a1 to a3 in accordance with an instruction from the user to the input device 12. In FIG. 2, the numerical value a1 corresponding to the constituent sound of the chord is set to “5”, the numerical value a2 corresponding to the constituent sound of the pentatonic is set to “3”, and the numerical value a3 corresponding to other stem sounds is set to “1”. ”Is assumed. Accordingly, when attention is paid to the section in which the chord ZC designated by the chord progression data DC is “F”, as shown in FIG. 2, the musical note whose pitch ZP is set to “F (fa)” (the constituent sound of the chord). The first evaluation value e1 of the note is set to “5 (a1)”, and the first evaluation value e1 of the note having the pitch ZP set to “D (re)” (a pentatonic constituent sound) is “3 (a2)”. And the first evaluation value e1 of the note whose pitch ZP is set to “E (mi)” (stem tone not corresponding to any of them) is set to “1 (a3)”.

他方、第2評価値e2は、各音符の継続長に応じた数値(例えば各音符の発音区間内のtick数)に設定される。具体的には、図2から理解されるように、音符の継続長が長いほど第2評価値e2は大きい数値に設定される。以上に説明した第1評価値e1と第2評価値e2との乗算値が、対象旋律データDMで指定される複数の音符の各々について音符評価値eとして算定される。   On the other hand, the second evaluation value e2 is set to a numerical value (for example, the number of ticks in the sounding interval of each note) corresponding to the duration of each note. Specifically, as can be understood from FIG. 2, the second evaluation value e2 is set to a larger value as the duration of the note is longer. The multiplication value of the first evaluation value e1 and the second evaluation value e2 described above is calculated as the note evaluation value e for each of the plurality of notes specified by the target melody data DM.

楽曲生成部34は、対象旋律データDMが指定する各音符の音符評価値eから対象旋律データDMの旋律評価値EAを算定する(SB13,SB14)。具体的には、楽曲生成部34は、対象旋律データDMが指定する全部の音符にわたる音符評価値eの合計値Taを算定し(SB13)、対象旋律データDMが全部の音符の継続長の合計値(第2評価値e2の合計値)Tbにより音符評価値eの合計値Taを除算することで旋律評価値EA(EA=Ta/Tb)を算定する(SB14)。合計値Tbによる除算は、素材旋律毎の合計値Tbの相違を補償した数値に正規化するための演算である。   The music generation unit 34 calculates the melody evaluation value EA of the target melody data DM from the note evaluation value e of each note designated by the target melody data DM (SB13, SB14). Specifically, the music generation unit 34 calculates the total value Ta of the note evaluation values e over all the notes specified by the target melody data DM (SB13), and the target melody data DM is the total of the durations of all the notes. The melody evaluation value EA (EA = Ta / Tb) is calculated by dividing the total value Ta of the note evaluation value e by the value (total value of the second evaluation value e2) Tb (SB14). The division by the total value Tb is an operation for normalizing to a numerical value that compensates for the difference in the total value Tb for each material melody.

以上の説明から理解されるように、数値a1と数値a2とを数値a3と比較して大きい数値に設定した場合を想定すると、コード進行データDCが指定するコードの構成音やペンタトニックの構成音の継続長が長い素材旋律ほど旋律評価値EAが大きい数値(すなわち旋律選択処理S15で選択され易い数値)になるという傾向がある。すなわち、旋律評価値EAは、コード進行データDCが指定するコードと素材旋律の各音符とが音楽的に相関(調和)する度合の指標として利用可能である。   As can be understood from the above description, assuming that the numerical value a1 and the numerical value a2 are set to a large numerical value compared to the numerical value a3, the chord component sound and the pentatonic component sound specified by the chord progression data DC There is a tendency that the melody evaluation value EA becomes a larger numerical value (that is, a numerical value easy to be selected in the melody selection process S15) as the material melody has a longer duration. In other words, the melody evaluation value EA can be used as an index of the degree to which the chord specified by the chord progression data DC and each note of the material melody are musically correlated (harmonized).

以上の手順で対象旋律データDMの旋律評価値EAを算定すると、楽曲生成部34は、記憶装置24に記憶された全部の旋律データDMについて旋律評価値EAの算定が完了したか否かを判定する(SB15)。旋律評価値EAの未算定の旋律データDMが存在する場合(SB15:NO)、楽曲生成部34は、旋律評価値EAを算定していない旋律データDMを新たな対象旋律データDMとして選択し(SB11)、更新後の対象旋律データDMについて旋律評価値EAを算定する(SB12〜SB14)。他方、全部の旋律データDMについて旋律評価値EAの算定が完了した段階(SB15:YES)で旋律評価処理S13は終了する。以上の説明から理解されるように、演算処理装置22が旋律評価処理S13を実行することで、旋律データDM毎(素材旋律毎)に旋律評価値EAを算定する要素(旋律評価手段)が実現される。   When the melody evaluation value EA of the target melody data DM is calculated in the above procedure, the music generation unit 34 determines whether or not the calculation of the melody evaluation value EA has been completed for all the melody data DM stored in the storage device 24. (SB15). When there is uncalculated melody data DM of the melody evaluation value EA (SB15: NO), the music generation unit 34 selects the melody data DM for which the melody evaluation value EA has not been calculated as new target melody data DM ( SB11), the melodic evaluation value EA is calculated for the updated target melody data DM (SB12 to SB14). On the other hand, the melody evaluation process S13 ends when the calculation of the melody evaluation value EA is completed for all the melody data DM (SB15: YES). As understood from the above description, the arithmetic processing unit 22 executes the melody evaluation process S13, thereby realizing an element (melody evaluation means) for calculating the melody evaluation value EA for each melody data DM (for each material melody). Is done.

<文字列評価処理S14>
図8は、文字列評価処理S14のフローチャートである。文字列評価処理S14を開始すると、楽曲生成部34は、記憶装置24に記憶された複数の旋律データDMから1個の対象旋律データDMを選択する(SC10)。楽曲生成部34は、旋律評価処理S13で対象旋律データDMについて算定した旋律評価値EAを、以下に詳述する第1調整処理SC11から第4調整処理SC14までの各処理により順次に調整することで旋律評価値EBを算定する。
<Character string evaluation process S14>
FIG. 8 is a flowchart of the character string evaluation process S14. When the character string evaluation process S14 is started, the music generation unit 34 selects one target melody data DM from the plurality of melody data DM stored in the storage device 24 (SC10). The music generation unit 34 sequentially adjusts the melody evaluation value EA calculated for the target melody data DM in the melody evaluation process S13 by each process from the first adjustment process SC11 to the fourth adjustment process SC14 described in detail below. Calculate the melodic evaluation value EB.

第1調整処理SC11は、文字割当処理S11で対象単位区間Uに分配した文字群Gの個数NAと対象旋律データDMの区間データDM2に応じて素材旋律を区分した旋律区間Bの個数MAとの差分(絶対値)ΔAに応じて対象旋律データDMの旋律評価値EAを調整する処理である。具体的には、差分ΔAが大きいほど旋律評価値EAは小さい数値に調整される。例えば、旋律評価値EAは、所定の数値b1のΔA乗を現段階の旋律評価値EAに乗算した数値に更新される(EA=EA×b1ΔA)。数値b1は1以下の正数である。以上の説明から理解されるように、文字群Gの個数NAと旋律区間Bの個数MAとの差分ΔAが大きい素材旋律の旋律データDMほど旋律選択処理S15で選択され難くなるという傾向がある。すなわち、文字群Gの個数NAと旋律区間Bの個数MAとが極端に相違する楽曲(例えば過度に多数の文字群Gが1個の旋律区間Bに対応する楽曲や、過度に多数の旋律区間Bが1個の文字群Gに対応する楽曲)が生成される可能性は低減される。 In the first adjustment process SC11, the number NA of the character group G distributed to the target unit section U in the character assignment process S11 and the number MA of the melody section B obtained by dividing the material melody according to the section data DM2 of the target melody data DM. This is a process for adjusting the melody evaluation value EA of the target melody data DM in accordance with the difference (absolute value) ΔA. Specifically, the melody evaluation value EA is adjusted to a smaller numerical value as the difference ΔA is larger. For example, the melody evaluation value EA is updated to a value obtained by multiplying a predetermined numerical value b1 to the power of ΔA by the current melody evaluation value EA (EA = EA × b1 ΔA ). The numerical value b1 is a positive number of 1 or less. As can be understood from the above description, the melody data DM of the material melody having a large difference ΔA between the number NA of the character group G and the number MA of the melody section B tends to be difficult to select in the melody selection process S15. That is, a song in which the number NA of character groups G and the number MA of melody intervals B are extremely different (for example, a song in which an excessively large number of character groups G correspond to one melody interval B, or an excessively large number of melody intervals) The possibility that a music piece corresponding to one character group G) is generated is reduced.

第2調整処理SC12は、対象単位区間Uに割当てた各文字群Gと対象旋律データDMが指定する素材旋律の各旋律区間Bとを対応させ、各旋律区間Bにおける文字群Gの文字の個数NBとその旋律区間B内の音符の個数MBとの差分(絶対値)ΔBに応じて旋律評価値EAを調整する処理である。具体的には、楽曲生成部34は、第1に、対象旋律データDMが指定する素材旋律の各旋律区間Bと対象単位区間Uに割当てた各文字群Gとを時系列の順番で相互に対応させる全通りの組合せについて差分ΔBを算定する。差分ΔBは、旋律区間Bにおける文字群Gの文字の個数NBと音符の個数MBとの差異を素材旋律の全部の旋律区間Bについて加算した数値である。楽曲生成部34は、第2に、各旋律区間Bと各文字群Gとの対応を差分ΔBが最小となる関係に確定し、第3に、確定後の関係における差分ΔBが大きいほど旋律評価値EAを小さい数値に調整する。例えば、旋律評価値EAは、所定の数値b2のΔB乗を第1調整処理SC11の実行後の旋律評価値EAに乗算した数値に更新される(EA=EA×b2ΔB)。数値b2は1以下の正数である。以上の説明から理解されるように、各旋律区間B内で文字の個数NBと音符の個数MBとの差分ΔBが大きい素材旋律の旋律データDMほど旋律選択処理S15で選択され難くなるという傾向がある。すなわち、各旋律区間B内で文字の個数NBと音符の個数MBとが極端に相違する楽曲(例えば過度に多数の文字が1個の旋律区間Bに対応する楽曲や、過度に多数の音符が1個の文字群Gに対応する楽曲)が生成される可能性は低減される。 The second adjustment process SC12 associates each character group G assigned to the target unit section U with each melody section B of the material melody specified by the target melody data DM, and the number of characters in the character group G in each melody section B. This is a process for adjusting the melody evaluation value EA according to the difference (absolute value) ΔB between NB and the number of notes MB in the melody section B. Specifically, first, the music generation unit 34 mutually sets each melody section B of the material melody specified by the target melody data DM and each character group G assigned to the target unit section U in time series order. The difference ΔB is calculated for all combinations to be matched. The difference ΔB is a numerical value obtained by adding the difference between the number of characters NB and the number of notes MB of the character group G in the melody section B for all the melody sections B of the material melody. Secondly, the music generation unit 34 determines the correspondence between each melody section B and each character group G so that the difference ΔB is minimized, and thirdly, the larger the difference ΔB in the relationship after the determination, the higher the melody evaluation. Adjust the value EA to a smaller number. For example, the melody evaluation value EA is updated to a value obtained by multiplying a predetermined numerical value b2 to the power of ΔB by the melody evaluation value EA after execution of the first adjustment process SC11 (EA = EA × b2 ΔB ). The numerical value b2 is a positive number of 1 or less. As understood from the above description, the melody data DM of the material melody having a large difference ΔB between the number of characters NB and the number of notes MB in each melody section B tends to be difficult to select in the melody selection process S15. is there. That is, in each melody section B, the number of characters NB and the number of notes MB are extremely different (for example, a song in which an excessively large number of characters correspond to a single melody interval B, or an excessively large number of notes. The possibility that a music piece corresponding to one character group G) is generated is reduced.

第3調整処理SC13は、各旋律区間Bに対応する文字の個数NBが所定の許容値THを上回る場合に旋律評価値EAを低下させる処理である。許容値THは、各旋律区間Bに包含され得る16分音符の個数(したがって旋律区間Bの時間長に応じた可変値)に設定される。各旋律区間Bの時間長は相違し得るから、許容値THも旋律区間B毎に個別に算定される。楽曲生成部34は、1個の旋律区間Bについて許容値THと文字の個数NBとの差分ΔCを算定し(ΔC=TH−ZC)、差分ΔCが正数である場合(すなわち1個の文字について16分音符よりも長い時間長を旋律区間B内に確保できる場合)には旋律評価値EAを維持する一方、差分ΔCが負数である場合(1個の文字について16分音符の時間長を旋律区間B内に確保できない場合)には旋律評価値EAを減少させる。具体的には、旋律評価値EAは、所定の数値b3のΔC(負数)乗を第2調整処理SC12の実行後の旋律評価値EAに乗算した数値に更新される(EA=EA×b3ΔC)。数値b3は1以上の正数である。以上の処理が素材旋律内の旋律区間B毎に反復される。以上の説明から理解されるように、各旋律区間B内の文字の個数NAが許容値THを上回る素材旋律の旋律データDMほど旋律選択処理S15で選択され難くなるという傾向がある。すなわち、各文字の発声速度が過度に速い楽曲(例えば16分音符を上回る速度で各文字が発声される楽曲)が生成される可能性は低減される。 The third adjustment process SC13 is a process for reducing the melodic evaluation value EA when the number of characters NB corresponding to each melodic section B exceeds a predetermined allowable value TH. The allowable value TH is set to the number of sixteenth notes that can be included in each melody section B (therefore, a variable value corresponding to the time length of the melody section B). Since the time length of each melody section B can be different, the allowable value TH is also calculated for each melody section B individually. The music generation unit 34 calculates the difference ΔC between the allowable value TH and the number of characters NB for one melody section B (ΔC = TH−ZC), and when the difference ΔC is a positive number (that is, one character) Melody evaluation value EA is maintained when a time length longer than a sixteenth note is secured in melody section B), while a difference ΔC is a negative number (a sixteenth note time length for one character) When the melody section B cannot be secured), the melody evaluation value EA is decreased. Specifically, the melody evaluation value EA is updated to a value obtained by multiplying the melody evaluation value EA after execution of the second adjustment process SC12 by the power of ΔC (negative number) of a predetermined numerical value b3 (EA = EA × b3 ΔC). ). The numerical value b3 is a positive number of 1 or more. The above process is repeated for each melody section B in the material melody. As understood from the above description, the melody data DM of the material melody in which the number NA of characters in each melody section B exceeds the allowable value TH tends to be difficult to select in the melody selection process S15. That is, the possibility that a song with an excessively fast utterance speed of each character (for example, a song with each character uttered at a speed exceeding the 16th note) is reduced.

第4調整処理SC14は、対象単位区間Uに対応する文字の個数(対象単位区間Uに分配した各文字群Gの文字数の合計値)NDが対象旋律データDMの素材旋律を構成する音符の個数(素材旋律の各旋律区間Bの音符数の合計値)MDを上回る場合に旋律評価値EAを低下させる処理である。具体的には、楽曲生成部34は、対象単位区間U内の文字の個数NDが素材旋律の音符の個数MD以下である場合には旋律評価値EAを維持し、対象単位区間U内の文字の個数NDが素材旋律の音符の個数MDを上回る場合には、第3調整処理SC13の実行後の旋律評価値EAに所定の数値b4を乗算する(EA=EA×b4)。数値b4は1以下の正数である。以上の説明から理解されるように、対象単位区間Uに対応する文字の個数NDが音符の個数MDを上回る素材旋律の旋律データDMは旋律選択処理S15にて選択され難くなるという傾向がある。すなわち、単位区間U内の文字の個数が音符の個数に対して過度に多い楽曲が生成される可能性は低減される。   In the fourth adjustment process SC14, the number of characters corresponding to the target unit section U (the total number of characters of each character group G distributed to the target unit section U) ND is the number of notes constituting the material melody of the target melody data DM. (Total value of the number of notes in each melody section B of the material melody) This is a process for reducing the melody evaluation value EA when it exceeds MD. Specifically, the music generation unit 34 maintains the melody evaluation value EA when the number of characters ND in the target unit section U is equal to or less than the number MD of material melody notes, and the characters in the target unit section U are maintained. If the number ND exceeds the number MD of material melody notes MD, the melody evaluation value EA after execution of the third adjustment process SC13 is multiplied by a predetermined numerical value b4 (EA = EA × b4). The numerical value b4 is a positive number of 1 or less. As understood from the above description, the melody data DM of the material melody in which the number of characters ND corresponding to the target unit section U exceeds the number of notes MD tends to be difficult to select in the melody selection process S15. That is, the possibility that the number of characters in the unit section U is excessively larger than the number of notes is reduced.

文字列評価処理S14に適用される数値b1から数値b4の各々は、第1実施形態の数値a1から数値a3と同様に、変数データDXが指定する変数であり、利用者からの指示に応じて可変に設定される。   Each of the numerical value b1 to the numerical value b4 applied to the character string evaluation process S14 is a variable designated by the variable data DX in the same manner as the numerical value a1 to the numerical value a3 in the first embodiment, and according to an instruction from the user. Set to variable.

以上に説明した処理(SC11〜SC14)を対象旋律データDMの旋律評価値EAに対して順次に実行することで対象旋律データDMの旋律評価値EBを算定すると、楽曲生成部34は、記憶装置24に記憶された全部の旋律データDMについて旋律評価値EBの算定が完了したか否かを判定する(SC15)。旋律評価値EBを算定していない旋律データDMが存在する場合(SC15:NO)、楽曲生成部34は、旋律評価値EBを算定していない旋律データDMを新たな対象旋律データDMとして選択し(SC10)、更新後の対象旋律データDMについて旋律評価値EBを算定する(SC11〜SC14)。他方、全部の旋律データDMについて旋律評価値EBの算定が完了した段階(SC15:YES)で文字列評価処理S14は終了する。以上の説明から理解されるように、演算処理装置22が文字列評価処理S14を実行することで、各単位区間Uに対応する文字数または文字群Gの個数と旋律データDMが指定する素材旋律の音符数または旋律区間Bの個数とに応じた旋律評価値EBを旋律データDM毎に算定する要素(文字列評価手段)が実現される。なお、第1調整処理SC11から第4調整処理SC14の順序は適宜に変更される。   When the melody evaluation value EB of the target melody data DM is calculated by sequentially executing the processes (SC11 to SC14) described above on the melody evaluation value EA of the target melody data DM, the music generation unit 34 stores the storage device 34. It is determined whether or not the calculation of the melody evaluation value EB has been completed for all the melody data DM stored in 24 (SC15). When there is melody data DM for which the melody evaluation value EB has not been calculated (SC15: NO), the music generation unit 34 selects the melody data DM for which the melody evaluation value EB has not been calculated as new target melody data DM. (SC10) A melody evaluation value EB is calculated for the updated target melody data DM (SC11 to SC14). On the other hand, the character string evaluation process S14 ends when the calculation of the melody evaluation value EB is completed for all the melody data DM (SC15: YES). As can be understood from the above description, the arithmetic processing unit 22 executes the character string evaluation process S14, whereby the number of characters or the number of character groups G corresponding to each unit section U and the melody data DM specify the material melody. An element (character string evaluation means) for calculating a melody evaluation value EB corresponding to the number of notes or the number of melody sections B for each melody data DM is realized. Note that the order of the first adjustment process SC11 to the fourth adjustment process SC14 is changed as appropriate.

<旋律選択処理S15>
楽曲生成部34は、文字列評価処理S14で旋律データDM毎に算定した旋律評価値EBが最大となる1個の旋律データDM(以下「選択旋律データDM」という)を記憶装置24内の複数の旋律データDMから選択する(S15)。すなわち、演算処理装置22が旋律選択処理S15を実行することで、旋律評価値EBに応じて旋律データDMを選択する要素(旋律選択手段)が実現される。なお、楽曲生成部34が各旋律データDMの旋律評価値EBに応じて選択旋律データDMを選択する方法は適宜に変更される。例えば、旋律評価値EBが所定の閾値を上回る複数の旋律データDMから楽曲生成部34がランダムに1個の選択旋律データDMを選択する方法や、旋律評価値EBの降順で上位に位置する所定個の旋律データDMから楽曲生成部34がランダムに1個の選択旋律データDMを選択する方法も採用され得る。以上の方法によれば、楽曲の生成のたびに別個の楽曲を生成することが可能である。
<Melody selection process S15>
The music generation unit 34 stores a plurality of pieces of melody data DM (hereinafter referred to as “selected melody data DM”) having the maximum melody evaluation value EB calculated for each melody data DM in the character string evaluation process S 14 in the storage device 24. Is selected from the melody data DM (S15). That is, when the arithmetic processing unit 22 executes the melody selection process S15, an element (melody selection means) for selecting the melody data DM according to the melody evaluation value EB is realized. Note that the method in which the music generation unit 34 selects the selected melody data DM in accordance with the melody evaluation value EB of each melody data DM is appropriately changed. For example, a method in which the music generation unit 34 randomly selects one selected melody data DM from a plurality of melody data DM in which the melody evaluation value EB exceeds a predetermined threshold, or a predetermined position that is higher in the descending order of the melody evaluation value EB. A method in which the music generation unit 34 randomly selects one piece of selected melody data DM from one piece of melody data DM may be employed. According to the above method, it is possible to generate a separate musical piece every time a musical piece is generated.

<旋律調整処理S16>
楽曲生成部34は、旋律選択処理S15で選択した選択旋律データDMが指定する音符の個数を、対象単位区間U内で文字と音符とが1対1に対応するように調整することで対象単位区間Uの旋律データQUを生成する(S16)。図9は、旋律調整処理S16のフローチャートである。
<Melody adjustment processing S16>
The music generation unit 34 adjusts the number of notes specified by the selected melody data DM selected in the melody selection process S15 so that characters and notes correspond one-to-one in the target unit section U. The melody data QU for the section U is generated (S16). FIG. 9 is a flowchart of the melody adjustment process S16.

旋律調整処理S16を開始すると、楽曲生成部34は、対象単位区間Uに分配された文字の個数NDが、選択旋律データDMが指定する音符の個数MDを上回るか否かを判定する(SD11)。文字の個数NDが音符の個数MDを上回る場合(SD11:YES)、楽曲生成部34は、音符の個数MDを文字の個数NDまで増加させる(SD12)。具体的には、楽曲生成部34は、選択旋律データDMが指定する複数の音符のうち継続長が最長である1個の音符を2個の音符に分割する処理を、音符の個数MDが文字の個数NDに到達するまで順次に反復する。1個の音符は、例えば拍点に対応する時点で分割される。ステップSD12の処理後の選択旋律データDMが対象単位区間Uの旋律データQUとして確定する。   When the melody adjustment process S16 is started, the music generation unit 34 determines whether or not the number of characters ND distributed to the target unit section U exceeds the number of notes MD specified by the selected melody data DM (SD11). . When the number of characters ND exceeds the number of notes MD (SD11: YES), the music generation unit 34 increases the number of notes MD to the number of characters ND (SD12). Specifically, the music generation unit 34 performs a process of dividing one note having the longest duration among a plurality of notes designated by the selected melody data DM into two notes, and the number of notes MD is a character. Iteratively repeats until the number ND is reached. One note is divided at a time corresponding to a beat point, for example. The selected melody data DM after the processing of step SD12 is determined as the melody data QU of the target unit section U.

他方、ステップSD11の判定結果が否定である場合(SD11:NO)、楽曲生成部34は、文字の個数NDが音符の個数MDを下回るか否かを判定する(SD13)。文字の個数NDが音符の個数MDを下回る場合(SD13:YES)、楽曲生成部34は、選択旋律データDMが指定するMD個の音符から文字と同数のND個の音符を選択する(SD14)。ND個の音符の選択には、旋律評価処理S13(SB12)で音符毎に算定した音符評価値eが利用される。具体的には、楽曲生成部34は、選択旋律データDMが指定するMD個の音符のうち音符評価値eの降順(大→小)で上位に位置するND個の音符を選択する。ただし、旋律区間B内の先頭の音符(すなわち音楽的に重要な音符)は、音符評価値eに関わらず優先的に選択される。また、楽曲生成部34は、選択旋律データDMが指定するMD個の音符のうちステップSD14で選択されない音符を処理する(SD15)。例えば、楽曲生成部34は、非選択の音符を削除するとともに直前の音符を削除分だけ時間軸方向に伸長する。ただし、非選択の音符と直前の音符との音高差が閾値(例えば4半音程度)を下回る場合には、直前の音符の文字の継続を意味する長音記号(ー)を非選択の音符に対応させる。直前の音符に音高が近い音符に限定して長音記号を付加するのは、直前の音符から大幅に音高が変化する音符についても文字を直前の音符から継続させると、楽曲が不自然な印象と知覚されるからである。ステップSD15の処理後の選択旋律データDMが対象単位区間Uの旋律データQUとして確定する。   On the other hand, if the determination result in step SD11 is negative (SD11: NO), the music generation unit 34 determines whether the number of characters ND is less than the number of notes MD (SD13). When the number of characters ND is less than the number of notes MD (SD13: YES), the music generation unit 34 selects ND notes of the same number as the characters from the MD notes designated by the selected melody data DM (SD14). . For the selection of ND notes, the note evaluation value e calculated for each note in the melody evaluation process S13 (SB12) is used. Specifically, the music generation unit 34 selects ND notes positioned higher in the descending order (large → small) of the note evaluation value e among the MD notes designated by the selected melody data DM. However, the first note (ie, musically important note) in the melody section B is preferentially selected regardless of the note evaluation value e. In addition, the music generation unit 34 processes notes not selected in step SD14 among the MD notes designated by the selected melody data DM (SD15). For example, the music generation unit 34 deletes a non-selected note and extends the immediately preceding note in the time axis direction by the deleted amount. However, if the pitch difference between the unselected note and the immediately preceding note falls below a threshold (for example, about 4 semitones), a long clef symbol (-) that means the continuation of the character of the immediately preceding note is changed to the unselected note. Make it correspond. Adding a long clef only to notes whose pitch is close to the immediately preceding note is that the music will be unnatural if the character continues from the immediately preceding note, even for notes whose pitch changes significantly from the immediately preceding note. Because it is perceived as an impression. The selected melody data DM after the processing of step SD15 is determined as the melody data QU of the target unit section U.

他方、ステップSD13の判定結果が否定である場合(すなわち、音符の個数MDと文字の個数NDとが合致する場合)、楽曲生成部34は、音符の個数MDの調整(SD12,SD14,SD15)を実行しない。すなわち、選択旋律データDMが対象単位区間Uの旋律データQUとして確定する。以上に説明した処理(SD11〜SD15)により文字の個数NDと音符の個数MDとが合致する。すなわち、指定文字列DLの各文字と素材旋律の各音符とが1対1に対応した旋律データQUが生成される。以上の説明から理解されるように、演算処理装置22が旋律調整処理S16を実行することで、対象単位区間Uの選択旋律データDMが指定する素材旋律の音符の個数MDを調整して各文字に対応させる要素(旋律調整手段)が実現される。   On the other hand, when the determination result of step SD13 is negative (ie, when the number of notes MD matches the number of characters ND), the music generation unit 34 adjusts the number of notes MD (SD12, SD14, SD15). Do not execute. That is, the selected melody data DM is determined as the melody data QU of the target unit section U. By the processing (SD11 to SD15) described above, the number of characters ND and the number of notes MD match. That is, melody data QU is generated in which each character of the designated character string DL and each note of the material melody correspond one-to-one. As can be understood from the above description, the arithmetic processing unit 22 executes the melody adjustment process S16, thereby adjusting the number MD of material melody notes designated by the selected melody data DM of the target unit section U to each character. The element (melody adjustment means) corresponding to is realized.

なお、以上に例示した旋律調整処理S16では、文字と音符とを対象単位区間U内で1対1に対応させたが、相互に対応する旋律区間Bと文字群Gとの間で旋律区間B内の各音符と文字群G内の各文字とを1対1に対応させることも可能である。例えば、楽曲生成部34は、前述の第2調整処理SC12と同様に、旋律区間B内の音符の個数MBと文字群G内の文字の個数NBとの差分ΔBが最小となるように各旋律区間Bと各文字群Gとの対応を確定し、旋律区間Bと文字群Gとの組合せ毎に、旋律区間B内の音符数と文字群G内の文字数とが合致するように旋律調性処理S16(SD11〜SD15)を実行する。   In the melody adjustment process S16 exemplified above, characters and notes are made to correspond one-to-one in the target unit section U, but the melody section B between the melody section B and the character group G corresponding to each other is used. It is also possible to associate each note in the character group with each character in the character group G on a one-to-one basis. For example, as in the second adjustment process SC12 described above, the music generation unit 34 makes each melody such that the difference ΔB between the number MB of notes in the melody section B and the number NB of characters in the character group G is minimized. The correspondence between the section B and each character group G is determined, and for each combination of the melody section B and the character group G, the number of notes in the melody section B and the number of characters in the character group G match. Processing S16 (SD11 to SD15) is executed.

旋律生成処理(S13〜S16)の具体的な内容は以上の通りである。前述のように、旋律生成処理がK個の単位区間Uの各々について反復されることで楽曲データQを構成するK個の旋律データQUが生成される。楽曲生成部34が生成した楽曲データQは、図1の楽音生成部42と音声合成部44とに供給される。   The specific contents of the melody generation process (S13 to S16) are as described above. As described above, the melody generation process is repeated for each of the K unit sections U, thereby generating K pieces of melody data QU constituting the music data Q. The music data Q generated by the music generator 34 is supplied to the musical sound generator 42 and the voice synthesizer 44 shown in FIG.

楽音生成部42は、楽曲データQが指定する各音符の演奏音を示す楽音信号V1を生成する。具体的には、公知のMIDI音源が楽音生成部42として好適に採用される。他方、音声合成部44は、楽曲生成部34が生成した楽曲データQと情報取得部32が生成した指定文字列DLとに応じた音声信号V2を生成する。音声信号V2は、指定文字列DLの各文字を、楽曲データQがその文字に対応する音符に指定する音高で発声した歌唱音を示す音響信号である。音声信号V2の生成には、例えば公知の素片接続型の音声合成処理が好適に採用され得る。すなわち、音声合成部44は、指定文字列DLの各文字に対応する音声素片を順次に選択し、各音声素片を、楽曲データQが指定する各音符の音高と発音期間とに調整したうえで相互に連結することで音声信号V2を生成する。   The musical sound generation unit 42 generates a musical sound signal V1 indicating the performance sound of each note designated by the music data Q. Specifically, a well-known MIDI sound source is preferably employed as the musical sound generation unit 42. On the other hand, the voice synthesizer 44 generates a voice signal V2 corresponding to the music data Q generated by the music generator 34 and the designated character string DL generated by the information acquisition unit 32. The audio signal V2 is an acoustic signal indicating a singing sound uttered by each pitch of the designated character string DL at a pitch specified by the music data Q as a note corresponding to the character. For the generation of the audio signal V2, for example, a well-known unit connection type speech synthesis process can be suitably employed. That is, the speech synthesizer 44 sequentially selects speech segments corresponding to each character of the designated character string DL, and adjusts each speech segment to the pitch and pronunciation period of each note designated by the music data Q. Then, the audio signal V2 is generated by connecting them together.

混合部46は、楽音生成部42が生成した楽音信号V1と音声合成部44が生成した音声信号V2との混合(加重和)で音響信号Vを生成する。混合部46が生成した音響信号Vが放音装置14に供給されることで音波が再生される。   The mixing unit 46 generates the acoustic signal V by mixing (weighted sum) of the musical sound signal V1 generated by the musical sound generating unit 42 and the audio signal V2 generated by the voice synthesizing unit 44. The acoustic signal V generated by the mixing unit 46 is supplied to the sound emitting device 14 to reproduce the sound wave.

以上に説明したように、第1実施形態では、指定文字列DLを区分した複数の文字群Gが各単位区間Uに分配される。したがって、歌詞の韻律に応じて音符列を生成する非特許文献1の技術と比較して、指定文字列DLの各文字群Gと楽曲の各単位区間とが無理なく対応した自然な楽曲を生成することが可能である。例えば、第1実施形態の例示のように指定文字列DLを文節単位で複数の文字群Gに区分すれば、楽曲の音楽的な纏まりと指定文字列DLの意味的な纏まりとが相互に対応する自然な楽曲を生成することが可能である。すなわち、例えば音楽的な纏まりの境界が文節の途中に位置するような不自然な楽曲が生成される可能性は低減される。   As described above, in the first embodiment, the plurality of character groups G obtained by dividing the designated character string DL are distributed to each unit section U. Therefore, as compared with the technique of Non-Patent Document 1 that generates a note string according to the prosody of the lyrics, a natural song is generated in which each character group G of the designated character string DL and each unit section of the song correspond reasonably. Is possible. For example, if the designated character string DL is divided into a plurality of character groups G in phrase units as illustrated in the first embodiment, the musical grouping of music and the semantic grouping of the designated character string DL correspond to each other. It is possible to generate natural music. That is, for example, the possibility that an unnatural piece of music in which the boundary of musical groupings is located in the middle of a phrase is reduced.

また、第1実施形態では、各単位区間Uに対応する文字または文字群Gの個数と旋律データDMが指定する音符または旋律区間Bの個数との関係に応じた旋律評価値EBが旋律データDM毎に算定されて旋律データDMの選択に適用される。したがって、例えば旋律評価処理S13で算定された旋律評価値EAに応じて各単位区間Uの旋律データDMを選択する構成と比較して、文字または文字群Gの個数と音符または旋律区間Bの個数とが乖離した不自然な楽曲が生成される可能性を低減できるという利点がある。   In the first embodiment, the melody evaluation value EB corresponding to the relationship between the number of characters or character groups G corresponding to each unit section U and the number of notes or melody sections B specified by the melody data DM is obtained from the melody data DM. It is calculated every time and applied to the selection of the melody data DM. Therefore, for example, the number of characters or character groups G and the number of notes or melody sections B are compared with the configuration in which the melody data DM of each unit section U is selected according to the melody evaluation value EA calculated in the melody evaluation processing S13. There is an advantage that it is possible to reduce the possibility of generating an unnatural music that is different from the above.

ところで、非特許文献1の技術では、歌詞の韻律に対応するように楽曲の音符列が制約されるから、利用者の意図から乖離した単調な楽曲が生成される可能性がある。第1実施形態では、楽曲のコード進行を指定するコード進行データDCに応じた旋律評価値EAが旋律データDM毎に算定されて旋律データDMの選択に反映される。したがって、非特許文献1の技術と比較して、利用者の意図に合致した自然な楽曲が生成されるという利点がある。   By the way, in the technique of Non-Patent Document 1, since the musical note string is constrained so as to correspond to the prosody of the lyrics, there is a possibility that monotonous music deviating from the intention of the user is generated. In the first embodiment, a melody evaluation value EA corresponding to chord progression data DC designating the chord progression of music is calculated for each melody data DM and reflected in selection of melody data DM. Therefore, compared with the technique of nonpatent literature 1, there exists an advantage that the natural music corresponding to a user's intention is produced | generated.

また、旋律評価値EAの算定に適用される変数の数値(a1〜a3)や旋律評価値EBの算定に適用される変数の数値(b1〜b4)は利用者からの指示に応じて可変に設定される。したがって、利用者の意図に適合した楽曲を生成できるという利点がある。例えば、数値a1と数値a2とを数値a3と比較して大きい数値に設定すれば、コード進行データDCが指定するコードの構成音やペンタトニックの構成音が優勢な楽曲(コード進行データDCが指定するコード進行に類似する楽曲)が生成され、数値a3を数値a1や数値a2と比較して大きい数値に設定すれば、コード進行データDCが指定するコード進行から乖離した楽曲が生成される。また、文字列評価処理S14に適用される数値(b1〜b4)を適宜に調整することで、文字と音符とが自然に対応する楽曲を生成できるという利点がある。   In addition, the numerical values (a1 to a3) of variables applied to the calculation of the melodic evaluation value EA and the numerical values of variables (b1 to b4) applied to the calculation of the melodic evaluation value EB are variable according to instructions from the user. Is set. Therefore, there is an advantage that music suitable for the user's intention can be generated. For example, if the numerical value a1 and the numerical value a2 are compared with the numerical value a3 and set to a large numerical value, the musical composition in which the constituent sound of the chord specified by the chord progression data DC or the constituent sound of the pentatonic predominates (the chord progression data DC specifies If a numerical value a3 is set to a value larger than the numerical value a1 or the numerical value a2, a musical piece deviating from the chord progression specified by the chord progression data DC is generated. Further, by appropriately adjusting the numerical values (b1 to b4) applied to the character string evaluation process S14, there is an advantage that a music piece in which characters and notes naturally correspond can be generated.

<第2実施形態>
本発明の第2実施形態を以下に説明する。なお、以下に例示する各形態において作用や機能が第1実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In addition, about the element which an effect | action and a function are equivalent to 1st Embodiment in each form illustrated below, each reference detailed in the above description is diverted and each detailed description is abbreviate | omitted suitably.

図10は、第2実施形態におけるコード進行データDCを構成する1個の単位データDUの模式図である。図10に示すように、第2実施形態の単位データDUでは、第1実施形態と同様のコードの指定に加えて、第1特定音と第2特定音と減点音とを指定することが可能である。図10の例示では、記号「H:」で指定された音高「D(レ)」が第1特定音を意味し、記号「L:」で指定された音高「A(ラ)」が第2特定音を意味し、記号「Minus:」で指定された音高「F(ファ)」が減点音を意味する。第1特定音と第2特定音と減点音とは、利用者からの指示に応じて設定される。なお、1個の単位データDUにおける各音符(第1特定音,第2特定音,減点音)の指定の効果は、その単位データDUに対応する時点(拍点)のみで有効とされるが、時間的に後方の単位データDUにて指定が解除されるまで有効に維持することも可能である。   FIG. 10 is a schematic diagram of one unit data DU constituting the chord progression data DC in the second embodiment. As shown in FIG. 10, in the unit data DU of the second embodiment, it is possible to specify the first specific sound, the second specific sound, and the deduction sound in addition to the specification of the code similar to the first embodiment. It is. In the example of FIG. 10, the pitch “D (re)” designated by the symbol “H:” means the first specific sound, and the pitch “A (ra)” designated by the symbol “L:” is This means the second specific sound, and the pitch “F (F)” designated by the symbol “Minus:” means the deduction sound. The first specific sound, the second specific sound, and the deduction sound are set according to an instruction from the user. Note that the effect of designating each note (first specific sound, second specific sound, deducted sound) in one unit data DU is effective only at the time (beat point) corresponding to the unit data DU. It is also possible to keep it valid until the designation is canceled in the unit data DU behind the time.

旋律評価処理S13(SB12)において、楽曲生成部34は、対象旋律データDMで指定される音符が、その音符の発音時点の単位データDUが指定する第1特定音に該当する場合には、コードの構成音やペンタトニックの構成音に該当するか否かに関わらず、第1評価値e1を数値a4に設定する。同様に、音符が第2特定音に該当する場合には第1評価値e1が数値a5に設定され、音符が減点音に該当する場合には第1評価値e1が数値a6に設定される。数値a4から数値a6の各々は、第1実施形態の数値a1から数値a3と同様に、変数データDXが指定する変数であり、利用者からの指示に応じて可変に設定される。   In the melody evaluation process S13 (SB12), the music generation unit 34 generates a chord when the note specified by the target melody data DM corresponds to the first specific sound specified by the unit data DU at the time of pronunciation of the note. The first evaluation value e1 is set to the numerical value a4 regardless of whether or not it corresponds to the constituent sound or pentatonic constituent sound. Similarly, when the note corresponds to the second specific sound, the first evaluation value e1 is set to the numerical value a5, and when the note corresponds to the deduction sound, the first evaluation value e1 is set to the numerical value a6. Each of the numerical value a4 to the numerical value a6 is a variable designated by the variable data DX, similarly to the numerical value a1 to the numerical value a3 of the first embodiment, and is variably set according to an instruction from the user.

数値a4および数値a5は正数に設定される(a4>a5)。例えば数値a4を数値a1から数値a3と比較して大きい数値に設定すれば、第1特定音に該当する音符を含む素材旋律を旋律選択処理S15にて優先的に選択することが可能である。また、数値a5を数値a1や数値a2と比較して小さい数値に設定すれば、第2特定音に該当する音符が多い素材旋律が旋律選択処理S15で選択される可能性は低減される。他方、数値a6は負数に設定される。したがって、減点音に該当する音符の音符評価値eは負数(すなわち旋律評価値EAを低下させる数値)となる。すなわち、減点音に該当する音符を含む素材旋律の選択を高い確度で回避することが可能である。   The numerical values a4 and a5 are set to positive numbers (a4> a5). For example, if the numerical value a4 is set to a large numerical value from the numerical value a1 to the numerical value a3, the material melody including the note corresponding to the first specific sound can be preferentially selected in the melody selection processing S15. Further, if the numerical value a5 is set to a small value compared with the numerical value a1 or the numerical value a2, the possibility that a material melody having many notes corresponding to the second specific sound is selected in the melody selection processing S15 is reduced. On the other hand, the numerical value a6 is set to a negative number. Therefore, the note evaluation value e of the note corresponding to the deduction sound is a negative number (that is, a numerical value that lowers the melody evaluation value EA). That is, it is possible to avoid the selection of the material melody including the note corresponding to the deduction sound with high accuracy.

第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態では、第1特定音と第2特定音と減点音とをコード進行データDCで指定して各々について第1評価値e1の数値(a4〜a6)を個別に設定できる。したがって、利用者の意図を精緻に反映した楽曲を生成できるという利点がある。例えば、利用者が優先させたい音符を含む楽曲や利用者が回避したい音符を含まない楽曲を生成することが可能である。   In the second embodiment, the same effect as in the first embodiment is realized. In the second embodiment, the first specific sound, the second specific sound, and the deduction sound are designated by the chord progression data DC, and the numerical value (a4 to a6) of the first evaluation value e1 can be individually set for each. Therefore, there is an advantage that music that accurately reflects the user's intention can be generated. For example, it is possible to generate music that includes notes that the user wants to prioritize and music that does not include notes that the user wants to avoid.

<第3実施形態>
第1実施形態では、指定文字列DLを文節単位で複数の文字群Gに区分した。第3実施形態では、利用者が文字群Gの境界を任意に指定することが可能である。図11は、入力装置12の操作で利用者が入力した指定文字列DLの模式図である。指定文字列DLは、改行記号82を境界とした複数行にわたる文字列で構成されて相前後する文字間に区切記号84が挿入され得る。図11では「:(コロン)」を区切記号84とした場合を例示したが、句読点(句点や読点)を区切記号84とすることも可能である。利用者は、文字列の入力とともに指定文字列DLの改行記号82や区切記号84の位置を任意に選定することが可能である。
<Third Embodiment>
In the first embodiment, the designated character string DL is divided into a plurality of character groups G in phrase units. In the third embodiment, the user can arbitrarily specify the boundary of the character group G. FIG. 11 is a schematic diagram of the designated character string DL input by the user by operating the input device 12. The designated character string DL is composed of a character string extending over a plurality of lines with a line feed symbol 82 as a boundary, and a delimiter symbol 84 can be inserted between adjacent characters. FIG. 11 illustrates the case where “: (colon)” is used as the delimiter symbol 84, but punctuation marks (punctuation marks and punctuation marks) may be used as the delimiter symbol 84. The user can arbitrarily select the position of the line feed symbol 82 and the delimiter symbol 84 of the designated character string DL along with the input of the character string.

図6の文字割当処理S11において、楽曲生成部34は、改行記号82および区切記号84を境界として指定文字列DLを複数の文字群Gに区分する(SA12)。そして、楽曲生成部34は、指定文字列DLに設定された改行記号82の前後で各文字群Gが別個の単位区間Uに対応するように各文字群GをK個の単位区間Uに分配する(SA13)。指定文字列DLに改行記号82が設定されていない場合には、第1実施形態と同様に、文字群Gの個数がK個の単位区間Uについて均等化されるように指定文字列DLの複数の文字群Gが単位区間U毎に区分される。   In the character assignment process S11 of FIG. 6, the music generation unit 34 divides the designated character string DL into a plurality of character groups G with the line feed symbol 82 and the delimiter symbol 84 as boundaries (SA12). Then, the music generation unit 34 distributes each character group G to K unit intervals U so that each character group G corresponds to a separate unit interval U before and after the line feed symbol 82 set in the designated character string DL. (SA13). When the line feed symbol 82 is not set in the designated character string DL, as in the first embodiment, a plurality of designated character strings DL are arranged so that the number of character groups G is equalized for K unit intervals U. Character group G is divided for each unit section U.

第3実施形態においても第1実施形態と同様の効果が実現される。また、第3実施形態では、指定文字列DLの文字群Gを利用者が任意に指定できるから、利用者が指定した文字群Gを単位として指定文字列DLを各単位区間Uに分配した自然な楽曲を生成することが可能である。なお、改行記号82や区切記号84の位置に加えて文節の境界で指定文字列DLを文字群Gに区分することも可能である。   In the third embodiment, the same effect as in the first embodiment is realized. In the third embodiment, since the user can arbitrarily designate the character group G of the designated character string DL, the natural character obtained by distributing the designated character string DL to each unit section U with the character group G designated by the user as a unit. It is possible to generate simple music. In addition to the position of the line feed symbol 82 and the delimiter symbol 84, the designated character string DL can be divided into character groups G at the boundaries of the clauses.

<第4実施形態>
第4実施形態の音声合成部44は、合成音に音楽的な表情を付与するための処理(表情付与処理)を実行する。表情付与処理の具体例は以下の通りである。
<Fourth embodiment>
The voice synthesizer 44 of the fourth embodiment executes a process (facial expression imparting process) for imparting a musical expression to the synthesized sound. A specific example of the facial expression imparting process is as follows.

(1)楽曲データQが指定する音符の音高が音高ZP1から音高ZP2に変化する場合に、音高ZP2の音符の先頭にポルタメント(しゃくり)を付与する。例えば、音高ZP2が音高ZP1を上回る場合、音高ZP1を下回る数値に低下させてから目標の音高ZP2まで音高を連続的に上昇させる効果(上行ポルタメント)を音高ZP2の音符の先頭に付加する。また、音高ZP2が音高ZP1を下回る場合、音高ZP1を上回る数値に上昇させてから目標の音高ZP2まで音高を連続的に低下させる効果(下行ポルタメント)を音高ZP2の音符の先頭に付加する。
(2)各音符にビブラートを付加する。具体的には、例えば継続長が所定の閾値を上回る音符の全体または一部(例えば終点から前方の所定長にわたる区間)にビブラートが付加される。
(3)所定時間毎の文字の個数が閾値を上回る場合(すなわち合成音が早口な場合)に合成音の明瞭度(発声時の開口の度合)を低下させ、口を完全に開かずに発声した場合のような曖昧な音声に制御する。
(4)楽曲の最初の音符や各単位区間U(または各旋律区間B)の最初の音符については音量を上昇させる。また、音量の上昇に代えて(または音量の上昇とともに)、小節(こぶし)を付与することも可能である。
(5)相前後する音符の間隔の時間長が所定の閾値を上回る場合に、間隔内に息継ぎの音声を追加する。息継ぎの音声は、例えば音声素片として事前に用意される。また、相前後する音符の間隔の時間長が所定の閾値を下回る場合に各音符を時間軸上で連続させる。すなわち、相前後する音符の間にレガートを付与する。
(6)音高やリズムのパターンと音量の時間変化とを対応させたテーブルを用意し、旋律区間内の音符の音高のパターンに対応した音量の時間変化を付与する。また、音符の音高が変化した直後に音量を一時的に増加させる構成や、音符の継続長に応じて音量を変化させる(例えば継続長が長いほど音量を増加させる)構成も採用され得る。
(7)合成音の音楽的な表情を制御するための制御変数(例えば音量や明瞭度等)の時間変化を各旋律データDMに事前に設定して音声合成時に適用する。
(8)相異なる特性の音声毎に音声素片を用意し、指定文字列DLに含まれる単語の種類やコード進行や曲調等に応じて、音声合成に実際に適用される音声素片を変更する。
(1) When the pitch of the note designated by the music data Q changes from the pitch ZP1 to the pitch ZP2, portamento (shakku) is added to the head of the note of the pitch ZP2. For example, if the pitch ZP2 exceeds the pitch ZP1, the effect of continuously increasing the pitch to the target pitch ZP2 after decreasing to a value below the pitch ZP1 (ascending portamento) Add to the beginning. Also, if the pitch ZP2 is lower than the pitch ZP1, the effect of continuously lowering the pitch to the target pitch ZP2 (descending portamento) after increasing to a value higher than the pitch ZP1 Add to the beginning.
(2) Add vibrato to each note. Specifically, for example, vibrato is added to the whole or a part of a note whose continuation length exceeds a predetermined threshold (for example, a section extending from the end point to a predetermined length ahead).
(3) When the number of characters per predetermined time exceeds the threshold (that is, when the synthesized sound is a quick mouth), the intelligibility of the synthesized sound (degree of opening at the time of utterance) is reduced, and the speech is made without opening the mouth completely Control the voice so that it is ambiguous.
(4) The volume of the first note of the music or the first note of each unit section U (or each melody section B) is increased. Further, instead of increasing the volume (or with increasing volume), a bar (fist) can be given.
(5) When the time length of the interval between adjacent notes exceeds a predetermined threshold, a breathing sound is added within the interval. The breathing voice is prepared in advance as a voice segment, for example. Further, when the time length of the interval between adjacent notes is below a predetermined threshold, each note is continued on the time axis. That is, legato is given between successive notes.
(6) A table in which pitches and rhythm patterns are associated with temporal changes in volume is prepared, and temporal changes in volume corresponding to the pitch patterns of notes in the melody section are given. In addition, a configuration in which the volume is temporarily increased immediately after the pitch of the note is changed, or a configuration in which the volume is changed according to the duration of the note (for example, the volume is increased as the duration is longer) may be employed.
(7) A time change of a control variable (for example, volume or intelligibility) for controlling the musical expression of the synthesized sound is set in advance in each melody data DM and applied during speech synthesis.
(8) A speech segment is prepared for each speech having different characteristics, and the speech segment actually applied to speech synthesis is changed according to the type of word included in the designated character string DL, chord progression, tone, etc. To do.

以上が表情付与処理の具体例である。第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、音声合成部44による音声合成の実行時(音声信号V2の生成時)に表情付与処理が実行されるから、音楽的な表情が多様な合成音を生成できるという利点がある。   The above is a specific example of the facial expression imparting process. In the fourth embodiment, the same effect as in the first embodiment is realized. Further, in the fourth embodiment, since the facial expression imparting process is executed when the voice synthesizer 44 executes voice synthesis (when the voice signal V2 is generated), it is possible to generate synthesized sounds with various musical expressions. There is.

<第5実施形態>
第5実施形態の各旋律データDMは、音符列データDM1および区間データDM2に加えて属性データDM3および属性データDM4を含んで構成される。属性データDM3は、素材旋律が楽曲内の何れの位置の旋律として好適であるかを指定する。具体的には、楽曲の先頭と中央と末尾との何れかを属性データDM3は指定する。すなわち、楽曲の先頭の旋律として好適な素材旋律の属性データDM3は先頭を指定し、楽曲の末尾の旋律として好適な素材旋律の属性データDM3は末尾を指定する。また、属性データDM4は、素材旋律が特に印象的な旋律であるか否かを指定する。具体的には、属性データDM4は、素材旋律が印象的な旋律である場合に有効状態に設定され、旋律が印象的でない場合に無効状態に設定される。属性データDM3および属性データDM4は、例えば旋律データDMの制作者が素材旋律を聴取したうえで音楽的な印象を考慮して任意に設定する。
<Fifth Embodiment>
Each melody data DM of the fifth embodiment includes attribute data DM3 and attribute data DM4 in addition to the note string data DM1 and the section data DM2. The attribute data DM3 designates at which position in the music the material melody is suitable. Specifically, the attribute data DM3 designates one of the beginning, center and end of the music. That is, the material melody attribute data DM3 suitable for the beginning of the music specifies the beginning, and the material melody attribute data DM3 suitable for the end of the music specifies the end. The attribute data DM4 designates whether or not the material melody is a particularly impressive melody. Specifically, the attribute data DM4 is set to the valid state when the material melody is an impressive melody, and is set to the invalid state when the melody is not impressive. The attribute data DM3 and the attribute data DM4 are arbitrarily set in consideration of a musical impression after the producer of the melody data DM listens to the material melody, for example.

楽曲生成部34は、文字列評価処理S14の実行時に、前述の第1調整処理SC11から第4調整処理SC14に加えて、以下に例示する第5調整処理から第7調整処理を実行する。第5調整処理から第7調整処理は、旋律評価処理S13で各旋律データDMについて算定された旋律評価値EAを調整する処理である。   The music generation unit 34 executes the fifth adjustment process to the seventh adjustment process illustrated below in addition to the first adjustment process SC11 to the fourth adjustment process SC14 described above when the character string evaluation process S14 is executed. The fifth adjustment process to the seventh adjustment process are processes for adjusting the melody evaluation value EA calculated for each melody data DM in the melody evaluation process S13.

第5調整処理は、対象旋律データDMの属性データDM3に応じて旋律評価値EAを調整する処理である。すなわち、楽曲生成部34は、対象単位区間Uの時間軸上の位置(楽曲内の先頭/中央/末尾)が属性データDM3による指定位置に合致する場合には、旋律評価値EAを維持する一方、対象単位区間Uの位置が属性データDM3による指定位置に合致しない場合には旋律評価値EAを減少させる。具体的には、楽曲生成部34は、旋律評価値EAに所定の数値b5を乗算する(EA=EA×b5)。数値b5は1を下回る正数である。したがって、楽曲内の単位区間Uの位置に好適な素材旋律の旋律データDMほど旋律選択処理S15で選択され易くなるという傾向がある。   The fifth adjustment process is a process of adjusting the melody evaluation value EA according to the attribute data DM3 of the target melody data DM. That is, the music generation unit 34 maintains the melody evaluation value EA when the position on the time axis of the target unit section U (the head / center / end in the music) matches the position specified by the attribute data DM3. If the position of the target unit section U does not match the position specified by the attribute data DM3, the melody evaluation value EA is decreased. Specifically, the music generation unit 34 multiplies the melody evaluation value EA by a predetermined numerical value b5 (EA = EA × b5). The numerical value b5 is a positive number less than 1. Therefore, the melody data DM of the material melody suitable for the position of the unit section U in the music tends to be easily selected in the melody selection process S15.

第6調整処理は、対象単位区間Uの直前の単位区間Uについて楽曲調整処理S16で生成された旋律データQUの旋律と対象旋律データDMが指定する素材旋律との音域差に応じて旋律評価値EAを調整する処理である。具体的には、楽曲生成部34は、直前の旋律データQUと対象旋律データDMとの間で旋律の音域差が大きいほど旋律評価値EAを小さい数値に調整する。例えば、直前の旋律データQUの旋律と対象旋律データDMの素材旋律との各々について各音符の音高の平均値と分散値とを算定し、旋律間の平均値の差分ΔE1と分散値の差分ΔE2とを算定する。そして、所定の数値b61の差分ΔE1乗と所定の数値b62の差分ΔE2乗とを現段階の旋律評価値EAに乗算することで調整後の旋律評価値EAを算定する(EA=EA×b61ΔE1×b62ΔE2)。したがって、直前の単位区間Uの旋律データQUが指定する旋律に音域が類似する素材旋律の旋律データDMほど旋律選択処理S15で選択され易くなるという傾向がある。 In the sixth adjustment process, the melody evaluation value is determined according to the range difference between the melody of the melody data QU generated in the music adjustment process S16 for the unit section U immediately before the target unit section U and the material melody specified by the target melody data DM. This is a process for adjusting EA. Specifically, the music generation unit 34 adjusts the melody evaluation value EA to a smaller numerical value as the melody range difference between the previous melody data QU and the target melody data DM increases. For example, for each of the melody of the immediately preceding melody data QU and the material melody of the target melody data DM, the average value and the variance value of the pitch of each note are calculated, and the difference ΔE1 between the average values between the melody and the difference between the variance values Calculate ΔE2. The adjusted melodic evaluation value EA is calculated by multiplying the current melody evaluation value EA by the difference ΔE1 power of the predetermined numerical value b61 and the difference ΔE2 power of the predetermined numerical value b62 (EA = EA × b61 ΔE1). × b62 ΔE2 ). Therefore, there is a tendency that the melody data DM of the material melody whose sound range is similar to the melody specified by the melody data QU of the immediately preceding unit section U is easily selected in the melody selection process S15.

第7調整処理は、対象単位区間Uが楽曲の最初または最後の単位区間Uに該当し、かつ、対象旋律データDMの属性データDM4が有効状態に設定されている場合(すなわち、対象旋律データDMの素材旋律が音楽的に印象的である場合)に、旋律評価値EAを大きい数値に調整する。具体的には、旋律評価値EAは、所定の数値b7を現段階の旋律評価値EAに乗算した数値に更新される(EA=EA×b7)。数値b7は1を上回る正数である。したがって、楽曲の先頭や末尾の単位区間Uについては属性データDM4が有効状態に設定された旋律データDMが選択され易い。すなわち、印象的な旋律が先頭や末尾に付与された楽曲が生成され易いという傾向がある。   The seventh adjustment process is performed when the target unit section U corresponds to the first or last unit section U of the music and the attribute data DM4 of the target melody data DM is set to the valid state (that is, the target melody data DM). The melody evaluation value EA is adjusted to a large value. Specifically, the melody evaluation value EA is updated to a value obtained by multiplying a predetermined numerical value b7 by the current melody evaluation value EA (EA = EA × b7). The numerical value b7 is a positive number exceeding 1. Therefore, the melody data DM in which the attribute data DM4 is set to the valid state is easily selected for the unit section U at the beginning or end of the music. That is, there is a tendency that music with an impressive melody added to the beginning or end tends to be generated.

第5調整処理に適用される数値b5と第6調整処理に適用される数値b61およびb62と第7調整処理に適用される数値b7とは、第1実施形態の数値b1から数値b4と同様に、変数データDXが指定する変数であり、利用者からの指示に応じて可変に設定される。以上に説明した第1調整処理から第7調整処理の実行後の旋律評価値EAが旋律評価値EBとして確定される。なお、第1調整処理から第7調整処理の順序は任意である。例えば、第5調整処理を第1調整処理SC11の直前に実行し、第6調整処理および第7調整処理を第4調整処理SC14の直後に実行することが可能である。   The numerical value b5 applied to the fifth adjustment processing, the numerical values b61 and b62 applied to the sixth adjustment processing, and the numerical value b7 applied to the seventh adjustment processing are the same as the numerical values b1 to b4 in the first embodiment. The variable data DX is a variable designated, and is variably set according to an instruction from the user. The melody evaluation value EA after execution of the first adjustment process to the seventh adjustment process described above is determined as the melody evaluation value EB. Note that the order of the first adjustment process to the seventh adjustment process is arbitrary. For example, the fifth adjustment process can be executed immediately before the first adjustment process SC11, and the sixth adjustment process and the seventh adjustment process can be executed immediately after the fourth adjustment process SC14.

第5実施形態においても第1実施形態と同様の効果が実現される。また、第5実施形態では、第1調整処理SC11から第4調整処理SC14に加えて第5調整処理から第7調整処理が実行されるから、文字列評価処理S14が第1調整処理SC11から第4調整処理SC14までの各処理のみを実行する構成と比較して、音楽的に自然な楽曲を生成できるという利点がある。   In the fifth embodiment, the same effect as in the first embodiment is realized. In the fifth embodiment, since the fifth adjustment process to the seventh adjustment process are executed in addition to the first adjustment process SC11 to the fourth adjustment process SC14, the character string evaluation process S14 is changed from the first adjustment process SC11 to the first adjustment process SC11. There is an advantage that a musically natural musical piece can be generated as compared with a configuration in which only each process up to the four adjustment process SC14 is executed.

<第6実施形態>
前述の各形態では、事前に作成された歌詞の各文字が指定された指定文字列DLに対応する楽曲を生成した。第6実施形態の指定文字列DLは、図12に例示されるように、任意(不特定)の1文字を意味する特定文字(図12の例示では記号「*」)86の配列で構成される。すなわち、指定文字列DLは歌詞の文字数のみを指定する。利用者は、特定文字86の時系列の任意の位置に区切記号88を挿入することが可能である。
<Sixth Embodiment>
In each of the above-described embodiments, a song corresponding to the designated character string DL in which each character of the lyrics created in advance is designated is generated. The designated character string DL of the sixth embodiment is composed of an array of specific characters (symbol “*” in the illustration of FIG. 12) 86 that means an arbitrary (unspecified) character as illustrated in FIG. 12. The That is, the designated character string DL designates only the number of characters in the lyrics. The user can insert a delimiter 88 at an arbitrary position in the time series of the specific character 86.

図13は、第6実施形態の楽曲生成装置100Bのブロック図である。第6実施形態の楽曲生成装置100Bは、歌詞が確定していない段階で指定文字列DLに適合する楽曲を生成するために好適に利用される。すなわち、楽曲生成装置100Bによる楽曲の生成後に、指定文字列DLの各特定文字86に歌詞の特定の文字を付与することで歌唱曲が完成する。   FIG. 13 is a block diagram of a music generation device 100B of the sixth embodiment. The music generation device 100B of the sixth embodiment is preferably used to generate music that matches the designated character string DL when the lyrics are not finalized. That is, after the music is generated by the music generation device 100B, a specific song character is added to each specific character 86 of the designated character string DL to complete the song.

図13に示すように、楽曲生成装置100Bは、第1実施形態の楽曲生成装置100Aから音声合成部44と混合部46とを省略した構成である。楽曲生成部34が生成した楽曲データQに応じて楽音生成部42が生成した音響信号V(楽音信号V1)が放音装置14に供給されて音波として再生される。楽曲生成部34は、図6の文字割当処理S11において、指定文字列DLの区切記号88を境界として指定文字列DLを複数の文字群Gに区分する(SA12)。第6実施形態においても第1実施形態と同様の効果が実現される。   As illustrated in FIG. 13, the music generation device 100B has a configuration in which the voice synthesis unit 44 and the mixing unit 46 are omitted from the music generation device 100A of the first embodiment. The acoustic signal V (musical sound signal V1) generated by the musical sound generating unit 42 according to the musical composition data Q generated by the musical composition generating unit 34 is supplied to the sound emitting device 14 and reproduced as sound waves. In the character assignment process S11 of FIG. 6, the music generation unit 34 divides the designated character string DL into a plurality of character groups G with the delimiter symbol 88 of the designated character string DL as a boundary (SA12). In the sixth embodiment, the same effect as in the first embodiment is realized.

<変形例>
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は適宜に併合され得る。
<Modification>
Each of the above forms can be variously modified. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined.

(1)前述の各形態では、旋律評価処理S13および文字列評価処理S14の実行で各旋律データDMの旋律評価値EBを算定したが、旋律評価処理S13は省略され得る。例えば、所定値に設定された旋律評価値EAを文字列評価処理S14で調整する構成や、文字列評価処理S14の第1調整処理から第7調整処理の各々で算定される数値から旋律評価値EBを算定する構成も採用され得る。 (1) In each embodiment described above, the melody evaluation value EB of each melody data DM is calculated by executing the melody evaluation process S13 and the character string evaluation process S14. However, the melody evaluation process S13 may be omitted. For example, the melodic evaluation value EA set to a predetermined value is adjusted in the character string evaluation process S14, or the melodic evaluation value is calculated from the numerical values calculated in the first adjustment process to the seventh adjustment process of the character string evaluation process S14. A configuration for calculating EB can also be employed.

(2)例えば指定文字列DLの各文字と楽曲の各音符とを厳格に1対1に対応させる必要がない場合には、旋律調整処理S16は省略され得る。すなわち、旋律選択処理S15で単位区間U毎に選択された旋律データDMの時系列を最終的な楽曲データQとして確定することも可能である。 (2) For example, when it is not necessary to strictly correspond each character of the designated character string DL with each musical note of the music, the melody adjustment processing S16 may be omitted. That is, the time series of the melody data DM selected for each unit section U in the melody selection process S15 can be determined as the final music data Q.

(3)各音符列データDM1が指定する音符の時系列やコード進行データDCで前提となる調性を共通させ(例えばハ長調)、楽曲生成部34が生成した楽曲データQが指定する旋律を、利用者からの指示に応じた調性や音楽的に適切な調性に転調することも可能である。 (3) The time series of notes specified by each note string data DM1 and the tonality assumed in the chord progression data DC are made common (for example, C major), and the melody specified by the music data Q generated by the music generator 34 is specified. It is also possible to change the tonality according to the instruction from the user and the ton that is musically appropriate.

(4)前述の各形態では、楽曲データQに応じた音響信号Vを生成したが、音響信号Vの生成は省略され得る。例えば、楽曲生成部34が生成した楽曲データQを記録媒体(例えば記憶装置24や他の記録媒体)に格納する構成や、楽曲生成部34が生成した楽曲データQを通信網から他の端末装置に送信する構成も採用され得る。 (4) In each form mentioned above, although the acoustic signal V according to the music data Q was produced | generated, the production | generation of the acoustic signal V may be abbreviate | omitted. For example, the music data Q generated by the music generation unit 34 is stored in a recording medium (for example, the storage device 24 or another recording medium), or the music data Q generated by the music generation unit 34 is transmitted from the communication network to another terminal device. The structure which transmits to can also be employ | adopted.

(5)前述の各形態では、利用者からの指示に応じてコード進行データDCを生成したが、例えば相異なるジャンルに対応する複数のコード進行データDCを記憶装置に事前に格納し、複数のコード進行データDCの何れかを例えば利用者からの指示に応じて選択して楽曲生成処理に適用することも可能である。 (5) In each of the above-described forms, the chord progression data DC is generated in response to an instruction from the user. For example, a plurality of chord progression data DC corresponding to different genres is stored in the storage device in advance, It is also possible to select any one of the chord progression data DC, for example, according to an instruction from the user and apply it to the music generation process.

(6)前述の各形態では、記憶装置24に記憶された全部の旋律データDMを旋律選択処理S15での選択候補としたが、記憶装置24に記憶された複数の旋律データDMのうちの一部の旋律データDMのみを選択候補とすることも可能である。例えば、素材旋律の音符数や音域毎に旋律データDMを複数の集合(以下「旋律データ群」という)に区分し、複数の旋律データ群から選択された1個の旋律データ群を対象として楽曲生成処理(S11〜S17)を実行する構成が採用され得る。例えば、1個の旋律データ群を選択する方法は任意であるが、例えば以下の方法が好適に採用される。 (6) In each of the above embodiments, all the melody data DM stored in the storage device 24 are selected as candidates for the melody selection process S15, but one of the plurality of melody data DM stored in the storage device 24 is used. It is also possible to select only part of the melody data DM as a selection candidate. For example, the melody data DM is divided into a plurality of sets (hereinafter referred to as “melody data group”) according to the number of notes and the range of the material melody, and the music for one melody data group selected from the plurality of melody data groups. A configuration for executing the generation processing (S11 to S17) may be employed. For example, a method for selecting one melody data group is arbitrary, but for example, the following method is preferably employed.

楽曲生成部34は、記憶装置24に格納された複数の旋律データDMの各々について、前述の各形態と同様の方法で、各単位区間Uの旋律評価値EBを算定し、K個の単位区間Uについて旋律評価値EBの平均値EB_aveを算定する。そして、楽曲生成部34は、複数の旋律データ群の各々について、旋律データ群に属する複数の旋律データDMの平均値EB_aveの平均値μおよび標準偏差σを算定し、複数の旋律データ群のうち、平均値μが最大で標準偏差σが最小(平均値EB_aveのバラツキが少ない)となる1個の旋律データ群を、旋律選択処理S15での選択候補として決定する。以上の構成によれば、旋律評価値EBの平均値EB_aveが高くてバラツキが少ない旋律データDMが選択候補とされるから、自然な楽曲を生成できるという効果は格別に顕著である。なお、以上の例示では旋律評価値EBを例示したが、旋律評価値EBを旋律評価値EAに置換することも可能である。   The music generation unit 34 calculates the melodic evaluation value EB of each unit section U for each of the plurality of melody data DM stored in the storage device 24 in the same manner as in the above-described embodiments, and K unit sections The average value EB_ave of the melody evaluation value EB is calculated for U. Then, the music generation unit 34 calculates, for each of the plurality of melody data groups, the average value μ and the standard deviation σ of the plurality of melody data DM belonging to the melody data group, and out of the plurality of melody data groups. One melody data group in which the average value μ is the maximum and the standard deviation σ is the minimum (the variation of the average value EB_ave is small) is determined as a selection candidate in the melody selection process S15. According to the above configuration, since the melody data DM having a high average value EB_ave of the melody evaluation values EB and little variation is selected as a selection candidate, the effect that a natural musical piece can be generated is particularly remarkable. In the above example, the melody evaluation value EB is illustrated. However, the melody evaluation value EB can be replaced with the melody evaluation value EA.

100A,100B……楽曲生成装置、12……入力装置、14……放音装置、22……演算処理装置、24……記憶装置、32……情報取得部、34……楽曲生成部、42……楽音生成部、44……音声合成部、46……混合部。 100A, 100B: Music generation device, 12: Input device, 14: Sound emission device, 22: Arithmetic processing device, 24: Storage device, 32: Information acquisition unit, 34: Music generation unit, 42 …… Musical sound generation unit, 44 …… speech synthesis unit, 46 …… mixing unit.

Claims (5)

複数の単位区間の各々について旋律が付与された楽曲を生成する装置であって、
相異なる旋律を指定する複数の旋律データを記憶する記憶手段と、
複数の文字で構成される指定文字列を取得する文字列取得手段と、
前記指定文字列を区分した複数の文字群を各単位区間に分配する文字割当手段と、
前記複数の単位区間の各々について、当該単位区間に対応する各文字群の文字数と前記旋律データが指定する旋律の音符数とに応じた旋律評価値を旋律データ毎に算定する文字列評価手段と、
前記複数の単位区間の各々について、当該単位区間における前記各旋律データの旋律評価値に応じて前記複数の旋律データの何れかを選択する旋律選択手段と
を具備する楽曲生成装置。
A device for generating a melody with a melody for each of a plurality of unit sections,
Storage means for storing a plurality of melodic data specifying different melodies;
A character string acquisition means for acquiring a designated character string composed of a plurality of characters;
A character allocating means for distributing a plurality of character groups into which the designated character string is divided to each unit section;
Character string evaluation means for calculating, for each melody data, a melody evaluation value corresponding to the number of characters of each character group corresponding to the unit section and the number of melody notes specified by the melody data for each of the plurality of unit sections. ,
A music generation device comprising: a melody selection unit that selects, for each of the plurality of unit sections, any one of the plurality of melody data according to a melody evaluation value of each melody data in the unit section.
前記複数の旋律データの各々は、当該旋律データが指定する旋律を複数の旋律区間に区分する境界点を指定する区間データを含み、
前記文字列評価手段は、前記複数の単位区間の各々について、当該単位区間に対応する各文字群と前記旋律データの各旋律区間とを対応させ、旋律区間毎の文字数に応じた旋律評価値を旋律データ毎に算定する
請求項1の楽曲生成装置。
Each of the plurality of melody data includes section data specifying boundary points that divide the melody specified by the melody data into a plurality of melody sections;
The character string evaluation means associates each character group corresponding to the unit section with each melody section of the melody data for each of the plurality of unit sections, and calculates a melody evaluation value according to the number of characters for each melody section. The music generation device according to claim 1, wherein calculation is performed for each melody data.
前記文字列評価手段は、前記複数の単位区間の各々について、当該単位区間に対応する文字群の個数と前記旋律データが指定する旋律の旋律区間の個数との相違が大きいほど前記旋律評価値が小さい数値となるように、前記各旋律データの旋律評価値を算定する
請求項2の楽曲生成装置。
The character string evaluation means, for each of the plurality of unit sections, the larger the difference between the number of character groups corresponding to the unit section and the number of melody sections of the melody specified by the melody data, the more the melody evaluation value. The music generation device according to claim 2, wherein a melody evaluation value of each melody data is calculated so as to be a small numerical value.
前記文字列評価手段は、前記複数の単位区間の各々について、当該単位区間に対応する文字数が前記旋律データの旋律の音符数を上回る場合に前記旋律評価値が小さい数値となるように、前記各旋律データの旋律評価値を算定する
請求項1から請求項3の何れかの楽曲生成装置。
The character string evaluation means, for each of the plurality of unit sections, the melody evaluation value is a small numerical value when the number of characters corresponding to the unit section exceeds the number of melody notes of the melody data. The music generation device according to any one of claims 1 to 3, wherein a melody evaluation value of melody data is calculated.
前記旋律選択手段が各単位区間について選択した旋律データが指定する旋律の音符数を調整し、調整後の旋律の各音符と当該単位区間内の各文字とを対応させる旋律調整手段
を具備する請求項1から請求項4の何れかの楽曲生成装置。
A melody adjustment unit that adjusts the number of melody notes specified by the melody data selected by the melody selection unit for each unit section, and associates each note in the melody after adjustment with each character in the unit section. The music generation device according to any one of claims 1 to 4.
JP2011246118A 2011-11-10 2011-11-10 Music generation apparatus and music generation method Active JP5899832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011246118A JP5899832B2 (en) 2011-11-10 2011-11-10 Music generation apparatus and music generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011246118A JP5899832B2 (en) 2011-11-10 2011-11-10 Music generation apparatus and music generation method

Publications (3)

Publication Number Publication Date
JP2013101288A true JP2013101288A (en) 2013-05-23
JP2013101288A5 JP2013101288A5 (en) 2014-11-20
JP5899832B2 JP5899832B2 (en) 2016-04-06

Family

ID=48621942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011246118A Active JP5899832B2 (en) 2011-11-10 2011-11-10 Music generation apparatus and music generation method

Country Status (1)

Country Link
JP (1) JP5899832B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539216A (en) * 2021-06-29 2021-10-22 广州酷狗计算机科技有限公司 Melody creation navigation method and device, equipment, medium and product thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04110884A (en) * 1990-08-30 1992-04-13 Casio Comput Co Ltd Melody-to-chord progress suitability evaluation device and automatic chord generation device
JP2002157255A (en) * 2000-11-21 2002-05-31 Sony Corp Device and method for retrieving music
JP2002278549A (en) * 2001-08-10 2002-09-27 Yamaha Corp Lyric writing and composing system and program
JP2003280646A (en) * 2002-03-20 2003-10-02 Yamaha Corp Electronic musical instrument and program for the instrument
JP2008275808A (en) * 2007-04-27 2008-11-13 Yoshihiko Sano Music generation method, music generator, and music generating system
JP2010026337A (en) * 2008-07-22 2010-02-04 Yoshihiko Sano Method, and program and device for creating song, and song providing system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04110884A (en) * 1990-08-30 1992-04-13 Casio Comput Co Ltd Melody-to-chord progress suitability evaluation device and automatic chord generation device
JP2002157255A (en) * 2000-11-21 2002-05-31 Sony Corp Device and method for retrieving music
JP2002278549A (en) * 2001-08-10 2002-09-27 Yamaha Corp Lyric writing and composing system and program
JP2003280646A (en) * 2002-03-20 2003-10-02 Yamaha Corp Electronic musical instrument and program for the instrument
JP2008275808A (en) * 2007-04-27 2008-11-13 Yoshihiko Sano Music generation method, music generator, and music generating system
JP2010026337A (en) * 2008-07-22 2010-02-04 Yoshihiko Sano Method, and program and device for creating song, and song providing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113539216A (en) * 2021-06-29 2021-10-22 广州酷狗计算机科技有限公司 Melody creation navigation method and device, equipment, medium and product thereof
CN113539216B (en) * 2021-06-29 2024-05-31 广州酷狗计算机科技有限公司 Melody creation navigation method and device, equipment, medium and product thereof

Also Published As

Publication number Publication date
JP5899832B2 (en) 2016-04-06

Similar Documents

Publication Publication Date Title
CA2345316C (en) Automatic music generation procedure and system
JP3598598B2 (en) Karaoke equipment
JP5899833B2 (en) Music generation apparatus and music generation method
CN112382257B (en) Audio processing method, device, equipment and medium
JPH07146695A (en) Singing voice synthesizer
JPH11502632A (en) Method and apparatus for changing the timbre and / or pitch of an acoustic signal
JP6465136B2 (en) Electronic musical instrument, method, and program
JP5974436B2 (en) Music generator
JP4548424B2 (en) Musical sound processing apparatus and program
US11417312B2 (en) Keyboard instrument and method performed by computer of keyboard instrument
JP6175812B2 (en) Musical sound information processing apparatus and program
JP2005173632A (en) Performance data generating apparatus
JPH0631985B2 (en) A computer system that adds expressive microstructure to a series of notes in a musical score.
JP4038836B2 (en) Karaoke equipment
JP5897805B2 (en) Music control device
JP5899832B2 (en) Music generation apparatus and music generation method
JP4844623B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP2002073064A (en) Voice processor, voice processing method and information recording medium
JPH11126083A (en) Karaoke reproducer
JP2014164131A (en) Acoustic synthesizer
JP3618203B2 (en) Karaoke device that allows users to play accompaniment music
KR20200047198A (en) Apparatus and method for automatically composing music
JP7456430B2 (en) Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program
JP7468495B2 (en) Information processing device, electronic musical instrument, information processing system, information processing method, and program
JP6981239B2 (en) Equipment, methods and programs

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141023

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160222

R151 Written notification of patent or utility model registration

Ref document number: 5899832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151