JP2013045082A - Musical piece generation device - Google Patents

Musical piece generation device Download PDF

Info

Publication number
JP2013045082A
JP2013045082A JP2011185125A JP2011185125A JP2013045082A JP 2013045082 A JP2013045082 A JP 2013045082A JP 2011185125 A JP2011185125 A JP 2011185125A JP 2011185125 A JP2011185125 A JP 2011185125A JP 2013045082 A JP2013045082 A JP 2013045082A
Authority
JP
Japan
Prior art keywords
section
data
pitch
unit
melody
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011185125A
Other languages
Japanese (ja)
Other versions
JP5974436B2 (en
Inventor
Tsutomu Miyaki
強 宮木
Yoshikazu Kimura
義一 木村
Kenichiro Yamaguchi
健一郎 山口
Koichi Fujimoto
功一 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011185125A priority Critical patent/JP5974436B2/en
Priority to TW101128657A priority patent/TWI471853B/en
Priority to CN201210309068.9A priority patent/CN102956224B/en
Publication of JP2013045082A publication Critical patent/JP2013045082A/en
Application granted granted Critical
Publication of JP5974436B2 publication Critical patent/JP5974436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate musically natural and various melodies.SOLUTION: A musical piece generation device includes: a first acquisition unit 42 for generating section designation data GA corresponding to one of a plurality of pieces of section designation data DA designating a time series of a sound production section; a second acquisition unit 44 for selecting one of a plurality of pieces of pitch designation data DB designating a time series of a pitch, as pitch designation data GB; and a melody generation unit for generating melody data which designates a time series of a note corresponding to each sound production section designated by the section designation data GA acquired by the first acquisition unit and a pitch designated by the pitch designation data GB acquired by the second acquisition unit 44 at a start point of the sound production section.

Description

本発明は、楽曲(旋律)を生成する技術に関する。   The present invention relates to a technique for generating music (melody).

楽曲の旋律を自動的に生成する技術(自動作曲技術)が従来から提案されている。例えば特許文献1には、音価列データが時系列に指定する各音価(発音区間)に音高を付与することで旋律を生成する技術が開示されている。各音価に付与される音高はランダムに選択される。特許文献2には、メロディ素材データが時系列に指定する各音高をキーやスケール等の背景情報に応じて変更することで旋律を生成する技術が開示されている。   A technique (automatic music technique) that automatically generates a melody of music has been proposed. For example, Patent Literature 1 discloses a technique for generating a melody by assigning a pitch to each note value (sounding section) specified in time series by note value string data. The pitch given to each note value is selected at random. Patent Document 2 discloses a technique for generating a melody by changing each pitch specified by melody material data in time series according to background information such as a key and a scale.

特開平9−081141号公報Japanese Patent Laid-Open No. 9-081141 特開平9−081143号公報Japanese Patent Laid-Open No. 9-081143

特許文献1の技術では、各音価に付与される音高がランダムに選択されるから、音楽的に自然な旋律を生成することは実際には困難である。また、特許文献2の技術では、メロディ素材データが指定する各音高を変更するに過ぎないから、多様な旋律を生成することは困難である。以上の事情を考慮して、本発明は、音楽的に自然で多様な旋律を生成することを目的とする。   In the technique of Patent Document 1, since a pitch given to each tone value is selected at random, it is actually difficult to generate a musically natural melody. In the technique of Patent Document 2, it is difficult to generate various melodies because only the pitches specified by the melody material data are changed. In view of the above circumstances, an object of the present invention is to generate musically natural and diverse melodies.

以上の課題を解決するために本発明が採用する手段を説明する。なお、本発明の理解を容易にするために、以下の説明では、本発明の各要素と後述の各実施形態の要素との対応を括弧書で付記するが、本発明の範囲を実施形態の例示に限定する趣旨ではない。   Means employed by the present invention to solve the above problems will be described. In order to facilitate understanding of the present invention, in the following description, the correspondence between each element of the present invention and the element of each of the embodiments described later is indicated in parentheses, but the scope of the present invention is not limited to the embodiment. It is not intended to limit the example.

本発明の楽曲生成装置は、発音区間の時系列を指定する複数の区間指定データ(例えば区間指定データDA)の何れかに応じた区間指定データ(例えば区間指定データGA)を取得する第1取得手段(例えば第1取得部42)と、音高の時系列を指定する複数の音高指定データ(例えば音高指定データDB)の何れかに応じた音高指定データ(例えば音高指定データGB)を取得する第2取得手段(例えば第2取得部44)と、第1取得手段が取得した区間指定データが指定する各発音区間と、第2取得手段が取得した音高指定データが当該発音区間の基準時点(例えば発音区間の始点)について指定する音高とに応じた音符の時系列を指定する旋律データ(例えば旋律データDM)を生成する旋律生成手段(例えば旋律生成部522)とを具備する。以上の構成では、複数の区間指定データの何れかに応じた区間指定データと複数の音高指定データの何れかに応じた音高指定データとを利用して旋律データが生成されるから、例えばメロディ素材データが指定する各音高を変更するだけの特許文献2の技術と比較して多様な楽曲を生成できるという利点がある。また、区間指定データと音高指定データとをテンプレートとして利用して旋律データが生成されるから、例えば音高をランダムに選択する特許文献1の技術と比較して音楽的に自然な旋律を生成することが可能である。   The music generation device of the present invention acquires first section acquisition data (for example, section specification data GA) according to any of a plurality of section specification data (for example, section specification data DA) for specifying a time series of pronunciation sections. Pitch designation data (for example, pitch designation data GB) corresponding to any of the means (for example, the first acquisition unit 42) and a plurality of pitch designation data (for example, pitch designation data DB) for designating a time series of pitches. ) Is acquired by the second acquisition means (for example, the second acquisition unit 44), each sound generation section specified by the section specification data acquired by the first acquisition means, and the pitch specification data acquired by the second acquisition means is the sound generation. Melody generating means (for example, melody generating unit 522) for generating melody data (for example, melody data DM) for specifying a time series of notes corresponding to a pitch specified for a reference time point (for example, a starting point of a pronunciation section). Have . In the above configuration, the melody data is generated using the section designation data according to any of the plurality of section designation data and the pitch designation data according to any of the plurality of pitch designation data. There is an advantage that a variety of music can be generated as compared with the technique of Patent Document 2 in which only the pitches specified by the melody material data are changed. Also, since melody data is generated using the section specification data and pitch specification data as templates, for example, a musically natural melody is generated compared to the technique of Patent Document 1 in which pitches are selected at random. Is possible.

本発明の好適な態様において、旋律生成手段は、区間指定データが指定する各発音区間と音高指定データが当該発音区間の基準時点に指定する音高とを有する音符を配列した編成音符列(例えば編成音符列M)を生成する音高抽出手段(例えば音高抽出部62)と、音高抽出手段が生成した編成音符列の各音符の音高を調整して旋律データを生成する音高調整手段(例えば音高調整部64)とを含む。以上の態様では、区間指定データと音高指定データとから生成された編成音符列の各音符の音高が調整されるから、編成音符列を調整しない構成と比較して音楽的に自然な旋律を生成することが可能である。   In a preferred aspect of the present invention, the melody generating means includes a knitted musical note sequence in which notes having each sounding section designated by the section designation data and the pitch designated by the pitch designation data at the reference time of the sounding section are arranged ( For example, a pitch extraction unit (for example, pitch extraction unit 62) that generates a knitted note sequence M) and a pitch that generates melody data by adjusting the pitch of each note of the knitted note sequence generated by the pitch extraction unit. Adjusting means (for example, pitch adjusting unit 64). In the above aspect, since the pitch of each note of the knitted note sequence generated from the section specifying data and the pitch specifying data is adjusted, the musically natural melody is compared with the configuration in which the knitted note sequence is not adjusted. Can be generated.

音高調整手段による調整処理の内容は任意であるが、例えばコード進行を指定するコード進行データ(例えば複数のコード進行データの何れかに応じたコード進行データ)を取得する第3取得手段(例えば第3取得部46)を具備する構成では、音高調整手段は、編成音符列の複数の音符のうち少なくとも一部の音符(例えば重要音や終結音に指定された音符)の音高を、当該音符の発音区間についてコード進行データが指定するコードの構成音の音高に変更する第1調整処理(例えば第1調整処理SB1)を実行する。以上の態様では、編成音符列のうち少なくとも一部の音符の音高が、コード進行データが指定するコードの構成音に変更されるから、各音符の音高が音楽的に自然に遷移する楽曲を生成することが可能である。また、編成音符列の複数の音符のうち少なくとも一部の音符(例えば経過音に指定された音符)の音高を、当該音符の直前または直後の音符の音高に対応する所定の範囲内の音高に変更する第2調整処理(例えば第2調整処理SB2)を音高調整手段が実行する構成でも、各音符の音高が音楽的に自然に遷移する楽曲を生成できるという利点がある。   The content of the adjustment processing by the pitch adjustment means is arbitrary, but for example, third acquisition means (for example, chord progression data for specifying chord progression (for example, chord progression data corresponding to any of a plurality of chord progression data)) In the configuration including the third acquisition unit 46), the pitch adjusting means calculates the pitch of at least some of the notes (for example, the notes designated as the important sound and the end sound) among the plurality of notes of the knitting note string. A first adjustment process (for example, a first adjustment process SB1) is executed to change the pitch of the constituent sound of the chord designated by the chord progression data for the note production period. In the above aspect, the pitch of at least some of the notes in the knitted note sequence is changed to the constituent sound of the chord specified by the chord progression data, so that the pitch of each note transitions musically naturally. Can be generated. In addition, the pitch of at least some of the notes (for example, the notes specified as the elapsed sound) of the plurality of notes in the knitting note string is set within a predetermined range corresponding to the pitch of the note immediately before or after the note. Even in a configuration in which the pitch adjustment means executes the second adjustment process (for example, the second adjustment process SB2) for changing to a pitch, there is an advantage that a musical piece in which the pitch of each note transitions naturally can be generated.

本発明の好適な態様に係る楽曲生成装置は、複数の音声単位(例えば音節や音素)を時系列に配列した指定文字列を取得する文字列設定手段(例えば文字列設定部34)と、旋律生成手段が生成した旋律データが指定する複数の音符により指定文字列を発音した音声の音声信号を生成する音声合成手段(例えば音声合成部524)とを具備する。以上の態様によれば、音楽的に自然で多様な旋律を発音した音声の音声信号を生成できるという利点がある。   The music generation device according to a preferred aspect of the present invention includes a character string setting unit (for example, a character string setting unit 34) that acquires a designated character string in which a plurality of speech units (for example, syllables and phonemes) are arranged in time series, and a melody. Voice synthesizing means (for example, a voice synthesizing unit 524) that generates a voice signal of a voice that is generated by a plurality of notes designated by the melody data generated by the generating means. According to the above aspect, there exists an advantage that the audio | voice signal of the sound which sounded musically natural and various melodies can be produced | generated.

音声合成手段を具備する構成の好適例において、第1取得手段は、複数の区間指定データの何れかを選択する選択手段(例えば選択部422)と、選択手段が選択した区間指定データが指定する各発音区間と指定文字列の各音声単位とを相互に対応させる譜割手段(例えば譜割部424)とを含み、音声合成手段は、旋律データが指定する複数の音符の各々の発音区間にて譜割手段が当該発音区間に対応させた音声単位を発音する音声の音声信号を生成する。以上の態様では、旋律データが指定する各音符の発音区間にて指定文字列の音声単位が発音される自然な音声の音声信号が生成されるという利点がある。   In a preferred example of the configuration including the speech synthesizing unit, the first acquisition unit specifies the selection unit (for example, the selection unit 422) that selects any one of the plurality of section specifying data and the section specifying data selected by the selecting unit specifies. A musical score section (for example, a musical score section 424) that associates each sound generation section with each sound unit of the designated character string, and the speech synthesis means includes a sound generation section for each of the sound generation sections of the plurality of notes specified by the melody data. Then, the musical score generating means generates a voice signal for voice that pronounces a voice unit corresponding to the sound generation section. In the above aspect, there is an advantage that a sound signal of a natural sound in which the sound unit of the designated character string is pronounced in the sounding interval of each note designated by the melody data is generated.

本発明の好適な態様において、選択手段は、文字列設定手段が設定した指定文字列の音声単位の個数が多いほど、複数の区間指定データのうち発音区間の個数が多い区間指定データを選択する。以上の態様では、指定文字列の音声単位の個数が多いほど発音区間の個数が多い区間指定データが選択されるから、各発音区間と各音声単位とを無理なく対応させることが可能である。   In a preferred aspect of the present invention, the selecting means selects the section specifying data having a larger number of pronunciation sections among the plurality of section specifying data as the number of voice units of the specified character string set by the character string setting section is larger. . In the above aspect, since the section designating data having a larger number of sounding sections is selected as the number of sound units of the designated character string is larger, each sounding section can be associated with each sound unit without difficulty.

本発明の好適な態様において、譜割手段は、時間軸上に設定された複数のブロックの各々について、区間指定データが当該ブロック内に指定する発音区間の個数と指定文字列のうち当該ブロック内の音声単位の個数とが近似するように、指定文字列をブロック毎に区分し、各発音区間と各音声単位とをブロック毎に対応させる。以上の態様によれば、各ブロックにて発音区間と音声単位とを無理なく対応させることが可能である。また、発音区間の個数が音声単位の個数を下回るブロックについては当該ブロック内の発音区間を分割し、発音区間の個数が音声単位の個数を上回るブロックについては当該ブロック内の指定文字列に所定の音声単位(例えば長音記号)を追加する構成によれば、各発音区間と各音声単位とを1対1に対応させることが可能である。   In a preferred aspect of the present invention, the musical notation means includes, for each of a plurality of blocks set on the time axis, the number of pronunciation sections designated in the block by the section designation data and the designated character string. The designated character string is divided into blocks so that the number of voice units is approximated, and each sound generation section and each voice unit are associated with each block. According to the above aspect, it is possible to associate the sounding section and the voice unit without difficulty in each block. Also, for blocks where the number of sounding intervals is less than the number of speech units, the sounding interval in the block is divided, and for blocks where the number of sounding intervals exceeds the number of sound units, a predetermined character string in the block is specified. According to the configuration in which a voice unit (for example, a long sound symbol) is added, each sound generation section and each voice unit can be made to correspond one-to-one.

本発明の好適な態様に係る楽曲生成装置は、伴奏音を示す伴奏信号を生成する伴奏音生成手段(例えば伴奏音生成部54)と、音声合成手段が生成した音声信号と伴奏音生成手段が生成した伴奏信号とを混合する混合手段(例えば混合部56)とを具備する。以上の態様では、伴奏信号が音声信号に混合されるから、音声信号を単独で生成する構成と比較して音楽性の豊かな楽曲を生成できるという利点がある。また、音声合成手段が生成する音声信号と伴奏音生成手段が生成する伴奏信号とを同等のテンポに設定すれば、旋律と伴奏とが自然に整合した楽曲を生成できるという利点もある。   The music generating apparatus according to a preferred aspect of the present invention includes an accompaniment sound generating unit (for example, an accompaniment sound generating unit 54) that generates an accompaniment signal indicating an accompaniment sound, an audio signal generated by the voice synthesizing unit, and an accompaniment sound generating unit Mixing means (for example, a mixing unit 56) for mixing the generated accompaniment signal. In the above aspect, since the accompaniment signal is mixed with the audio signal, there is an advantage that a musical composition rich in musicality can be generated as compared with the configuration in which the audio signal is generated alone. Further, if the audio signal generated by the voice synthesizing means and the accompaniment signal generated by the accompaniment sound generating means are set to the same tempo, there is also an advantage that a music in which the melody and the accompaniment naturally match can be generated.

以上の各態様に係る楽曲生成装置は、専用のDSP(Digital Signal Processor)などのハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)などの汎用の演算処理装置とプログラムとの協働によっても実現される。本発明に係るプログラムは、発音区間の時系列を指定する複数の区間指定データの何れかに応じた区間指定データを取得する第1取得処理と、音高の時系列を指定する複数の音高指定データの何れかに応じた音高指定データを取得する第2取得処理と、第1取得処理で取得した区間指定データが指定する各発音区間と、第2取得処理で取得した音高指定データが当該発音区間の基準時点について指定する音高とに応じた音符の時系列を指定する旋律データを生成する旋律生成処理とをコンピュータに実行させる。以上のプログラムによれば、本発明に係る楽曲生成装置と同様の作用および効果が実現される。なお、本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされるほか、通信網を介した配信の形態で提供されてコンピュータにインストールされる。   The music generating device according to each of the above aspects is realized by hardware (electronic circuit) such as a dedicated DSP (Digital Signal Processor), or a general-purpose arithmetic processing device such as a CPU (Central Processing Unit) and a program. It is also realized through collaboration. The program according to the present invention includes a first acquisition process for acquiring section specifying data corresponding to any of a plurality of section specifying data for specifying a time series of sound generation sections, and a plurality of pitches for specifying a time series of pitches. Second acquisition process for acquiring pitch specification data according to any of the specified data, each sounding section specified by the section specification data acquired in the first acquisition process, and pitch specification data acquired in the second acquisition process Causes the computer to execute a melody generation process for generating melody data that specifies a time series of notes corresponding to the pitch specified for the reference time point of the pronunciation interval. According to the above program, the same operation and effect as the music generating device according to the present invention are realized. Note that the program of the present invention is provided in a form stored in a computer-readable recording medium and installed in the computer, or is provided in a form distributed via a communication network and installed in the computer.

また、本発明は、楽曲を生成する方法としても実現される。本発明の楽曲生成方法は、発音区間の時系列を指定する複数の区間指定データの何れかに応じた区間指定データを取得し、音高の時系列を指定する複数の音高指定データの何れかに応じた音高指定データを取得し、取得した区間指定データが指定する各発音区間と、取得した音高指定データが当該発音区間の基準時点について指定する音高とに応じた音符の時系列を指定する旋律データを生成する。以上の方法によれば、本発明に係る楽曲生成装置と同様の作用および効果が実現される。   The present invention is also realized as a method for generating music. The music generation method of the present invention obtains section designation data corresponding to any of a plurality of section designation data for designating a time series of pronunciation sections, and any of a plurality of pitch designation data for designating a time series of pitches When the pitch specified data is acquired, and the sound generation interval specified by the acquired interval specification data and the pitch specified by the acquired pitch specification data are specified according to the reference time of the sound generation interval. Generate melody data that specifies the series. According to the above method, the same operation and effect as the music generating device according to the present invention are realized.

本発明の第1実施形態に係る楽曲生成装置のブロック図である。It is a block diagram of the music production | generation apparatus which concerns on 1st Embodiment of this invention. 区間指定データの説明図である。It is explanatory drawing of area designation data. 音高指定データの説明図である。It is explanatory drawing of pitch designation | designated data. 指定文字列の区分の説明図である。It is explanatory drawing of the division | segmentation of the designated character string. 第1取得部のブロック図である。It is a block diagram of a 1st acquisition part. 譜割処理のフローチャートである。It is a flowchart of a staff division process. 歌唱音生成部のブロック図である。It is a block diagram of a song sound production | generation part. 旋律生成部の動作の説明図である。It is explanatory drawing of operation | movement of a melody production | generation part. 調整処理のフローチャートである。It is a flowchart of an adjustment process. 伴奏音生成部のブロック図である。It is a block diagram of an accompaniment sound production | generation part. 第2実施形態に係る楽曲生成装置のブロック図である。It is a block diagram of the music production | generation apparatus which concerns on 2nd Embodiment.

<第1実施形態>
図1は、本発明の第1実施形態に係る楽曲生成装置100Aのブロック図である。楽曲生成装置100Aは、楽曲を生成してその楽曲の演奏音の音響信号Vを出力する信号処理装置(自動作曲装置)である。第1実施形態では、歌唱音の旋律に楽器音の伴奏を付加した楽曲(歌唱曲)を生成する構成を例示する。
<First Embodiment>
FIG. 1 is a block diagram of a music generation device 100A according to the first embodiment of the present invention. The music generation device 100A is a signal processing device (automatic music device) that generates a music and outputs an acoustic signal V of the performance sound of the music. In 1st Embodiment, the structure which produces | generates the music (song song) which added the accompaniment of the instrument sound to the melody of the song sound is illustrated.

楽曲生成装置100Aには入力装置12と放音装置14とが接続される。入力装置12は、利用者からの指示を受付ける機器(例えばマウスやキーボード)である。放音装置14(例えばスピーカやヘッドホン)は、楽曲生成装置100Aから供給される音響信号Vに応じた音波を放射する。なお、音響信号Vをデジタルからアナログに変換するD/A変換器等の図示は便宜的に省略されている。   An input device 12 and a sound emitting device 14 are connected to the music generating device 100A. The input device 12 is a device (for example, a mouse or a keyboard) that receives an instruction from a user. The sound emitting device 14 (for example, a speaker or a headphone) emits a sound wave corresponding to the acoustic signal V supplied from the music generating device 100A. In addition, illustration of the D / A converter etc. which convert the acoustic signal V from digital to analog is abbreviate | omitted for convenience.

第1実施形態の楽曲生成装置100Aは、演算処理装置22と記憶装置24とを具備するコンピュータシステムで実現される。演算処理装置22は、記憶装置24に格納されたプログラムPGMを実行することで、楽曲を生成するための複数の機能(変数設定部32,文字列設定部34,第1取得部42,第2取得部44,第3取得部46,歌唱音生成部52,伴奏音生成部54,混合部56)を実現する。なお、演算処理装置22の一部の機能を専用の電子回路(DSP)に分担させることも可能である。   The music generation device 100 </ b> A of the first embodiment is realized by a computer system that includes an arithmetic processing device 22 and a storage device 24. The arithmetic processing device 22 executes a program PGM stored in the storage device 24 to thereby generate a plurality of functions (a variable setting unit 32, a character string setting unit 34, a first acquisition unit 42, and a second acquisition unit). An acquisition unit 44, a third acquisition unit 46, a singing sound generation unit 52, an accompaniment sound generation unit 54, and a mixing unit 56) are realized. Note that a part of the functions of the arithmetic processing unit 22 can be shared by a dedicated electronic circuit (DSP).

記憶装置24は、演算処理装置22が実行するプログラムPGMや演算処理装置22が使用する各種のデータを記憶する。半導体記録媒体や磁気記録媒体等の公知の記録媒体や複数種の記録媒体の組合せが記憶装置24として任意に採用され得る。   The storage device 24 stores a program PGM executed by the arithmetic processing device 22 and various data used by the arithmetic processing device 22. A known recording medium such as a semiconductor recording medium or a magnetic recording medium or a combination of a plurality of types of recording media can be arbitrarily employed as the storage device 24.

第1実施形態の記憶装置24は、複数の区間指定データDAと複数の音高指定データDBと複数のコード進行データDCとコードテーブルTBLとを記憶する。各区間指定データDAと各音高指定データDBと各コード進行データDCとは、楽曲生成の素材として選択された既存の複数の楽曲の各々における所定の区間(以下「素材区間」という)から生成されたテンプレートである。   The storage device 24 of the first embodiment stores a plurality of section specifying data DA, a plurality of pitch specifying data DB, a plurality of chord progression data DC, and a chord table TBL. Each section designating data DA, each pitch designating data DB, and each chord progression data DC are generated from a predetermined section (hereinafter referred to as “material section”) in each of a plurality of existing music pieces selected as music generation materials. Template.

図2および図3に示すように、第1実施形態では、相連続する所定個(第1実施形態の例示では8個)の小節が各楽曲から素材区間Qとして抽出される。各素材区間Qは拍子(例えば4/4拍子)が共通する。したがって、各素材区間Qを共通のテンポで再生した場合の各素材区間Qの時間長は相等しい。図2および図3に示すように、素材区間Qは、楽曲の小節の2個分を単位として4個のブロックQB(QB1〜QB4)に区分される。ただし、素材区間Q内のブロックQBの個数やブロックQBを構成する小節の個数は任意に変更され得る。   As shown in FIGS. 2 and 3, in the first embodiment, a predetermined number of consecutive bars (eight in the example of the first embodiment) are extracted as the material section Q from each piece of music. Each material section Q has a common time signature (for example, 4/4 time signature). Accordingly, the time lengths of the material sections Q when the material sections Q are reproduced at a common tempo are the same. As shown in FIGS. 2 and 3, the material section Q is divided into four blocks QB (QB1 to QB4) in units of two music bars. However, the number of blocks QB in the material section Q and the number of bars constituting the block QB can be arbitrarily changed.

記憶装置24に記憶された各区間指定データDAは、図2に示すように、素材区間Q内の旋律を構成する各音符が発音される区間(以下「発音区間」という)Sの時系列を指定する。すなわち、各区間指定データDAは、素材区間Q内の旋律のリズムパターンを表現する。複数の区間指定データDAの各々は、相異なる素材区間Q(相異なる楽曲の素材区間Qまたは1個の楽曲内の相異なる素材区間Q)から生成される。したがって、区間指定データDAが指定する発音区間Sの時系列の態様(各発音区間Sの時間軸上の位置や継続長や個数)は区間指定データDA毎に相違する。   As shown in FIG. 2, each section designation data DA stored in the storage device 24 is a time series of sections (hereinafter referred to as “sound generation sections”) S in which each note constituting the melody in the material section Q is pronounced. specify. That is, each section designation data DA expresses a rhythm pattern of melody in the material section Q. Each of the plurality of section designation data DA is generated from different material sections Q (material sections Q of different music pieces or different material sections Q in one music piece). Therefore, the time-series manner of the sound generation section S specified by the section specification data DA (position, duration, and number of sound generation sections S on the time axis) is different for each section specification data DA.

図2に示すように、1個の区間指定データDAは、素材区間Q内の相異なる発音区間Sに対応する複数の単位データUAの時系列で構成される。各単位データUAは、属性情報UA1と時間情報UA2とを含んで構成される。時間情報UA2は、発音区間Sの時間軸上の位置(例えば開始点の時刻)および継続長(音価)を指定する。   As shown in FIG. 2, one section designation data DA is composed of a plurality of unit data UA corresponding to different sound generation sections S in the material section Q. Each unit data UA includes attribute information UA1 and time information UA2. The time information UA2 designates the position on the time axis of the sounding section S (for example, the time at the start point) and the duration (sound value).

属性情報UA1は、発音区間Sの音符の音楽的な属性(楽曲内での音楽的な意義)を指定する。具体的には、属性情報UA1は、図2に示すように、重要音と終結音と経過音との何れかを指定する。重要音は、素材区間Q内で音楽的に重要な音符を意味する。具体的には、継続長が長い音符や楽曲のコードの構成音が重要音に分類される。終結音は、素材区間Q内の各ブロックQBの最後に位置する音符(重要音以外の音符)である。経過音は、重要音および終結音以外の音符である。各単位データUAの属性情報UA1は、例えば楽曲生成装置100Aの提供者が各素材区間Qの内容を解析することで手動により設定する。   The attribute information UA1 designates the musical attribute (musical significance within the musical composition) of the notes in the pronunciation period S. Specifically, as shown in FIG. 2, the attribute information UA1 designates any one of an important sound, a termination sound, and a elapsed sound. The important sound means a musically important note in the material section Q. Specifically, notes having a long duration or constituent sounds of music chords are classified as important sounds. The closing sound is a note (note other than the important sound) located at the end of each block QB in the material section Q. The elapsed sound is a note other than the important sound and the end sound. The attribute information UA1 of each unit data UA is manually set by analyzing the contents of each material section Q, for example, by the provider of the music generation device 100A.

各区間指定データDAは、MIDI(Musical Instrument Digital Interface)規格に準拠したSMF(Standard MIDI File)形式の音楽ファイルとして記述され得る。具体的には、属性情報UA1をノートナンバの数値で便宜的に指定するイベントデータと、各イベントデータの処理間隔を時間情報UA2として指定するタイミングデータとを時系列に配列したSMF形式の時系列データが区間指定データDAとして作成されて記憶装置24に格納される。   Each section designation data DA can be described as a music file in the SMF (Standard MIDI File) format conforming to the MIDI (Musical Instrument Digital Interface) standard. Specifically, the event data that designates the attribute information UA1 with a numerical value of the note number for convenience, and the timing data that designates the processing interval of each event data as the time information UA2 are arranged in time series in the SMF format. Data is created as section designation data DA and stored in the storage device 24.

図3に示すように、記憶装置24に記憶された各音高指定データDBは、素材区間Q内の旋律を構成する各音符の音高の時系列を指定する。すなわち、各音高指定データDBは、素材区間Q内のメロディラインを表現する。音高指定データDBが指定する音高の時系列の態様は音高指定データDB毎に相違する。   As shown in FIG. 3, each pitch designation data DB stored in the storage device 24 designates a time series of pitches of each note constituting the melody in the material section Q. That is, each pitch designation data DB represents a melody line in the material section Q. The time-series manner of the pitch designated by the pitch designation data DB is different for each pitch designation data DB.

図3に示すように、1個の音高指定データDBは、素材区間Q内の相異なる音符に対応する複数の単位データUBの時系列で構成される。各単位データUBは、音高情報UB1と時間情報UB2とを含んで構成される。音高情報UB1は音符の音高を指定し、時間情報UB2は音符の時間軸上の位置および継続長を指定する。各音高指定データDBは、音高情報UB1をノートナンバの数値で指定するイベントデータと、各イベントデータの処理間隔を時間情報UB2として指定するタイミングデータとを時系列に配列したSMF形式の音楽ファイルとして記述され得る。   As shown in FIG. 3, one pitch designation data DB is constituted by a time series of a plurality of unit data UB corresponding to different notes in the material section Q. Each unit data UB includes pitch information UB1 and time information UB2. The pitch information UB1 designates the pitch of the note, and the time information UB2 designates the position and duration of the note on the time axis. Each pitch designation data DB is music in SMF format in which event data that designates pitch information UB1 with a numerical value of note number and timing data that designates the processing interval of each event data as time information UB2 are arranged in time series. Can be described as a file.

記憶装置24に記憶された各コード進行データDCは、素材区間Q内のコード進行(コードの時系列)を指定する。具体的には、各コード進行データDCは、素材区間Qを区分した単位時間(例えば8分音符の時間長)毎にコードを指定する。各コード進行データが指定するコードの時系列はコード進行データDC毎に相違する。図1のコードテーブルTBLは、コード進行データDCで指定され得るコード毎にそのコードの複数の構成音を指定する。以上が第1実施形態の記憶装置24に記憶される主要なデータである。   Each chord progression data DC stored in the storage device 24 designates chord progression (code time series) in the material section Q. Specifically, each chord progression data DC designates a chord for each unit time (eg, eighth note time length) in which the material section Q is divided. The time series of chords specified by each chord progression data is different for each chord progression data DC. The chord table TBL in FIG. 1 designates a plurality of constituent sounds of the chord for each chord that can be designated by the chord progression data DC. The above is the main data stored in the storage device 24 of the first embodiment.

図1の変数設定部32は、楽曲生成に適用される変数を可変に設定する。具体的には、変数設定部32は、入力装置12に対する利用者からの指示に応じて楽曲のテンポXtと音楽的なスタイル(例えばロックやジャズ等のジャンル)Xsとを設定する。テンポXtは、例えば利用者から指示された任意の数値に設定され、スタイルXsは、例えば複数の選択肢のうち利用者が選択した内容に設定される。   The variable setting unit 32 in FIG. 1 variably sets a variable applied to music generation. Specifically, the variable setting unit 32 sets a music tempo Xt and a musical style (for example, a genre such as rock or jazz) Xs in accordance with an instruction from the user to the input device 12. The tempo Xt is set to an arbitrary numerical value instructed by the user, for example, and the style Xs is set to the content selected by the user among a plurality of options, for example.

文字列設定部34は、楽曲の歌詞の文字列(以下「指定文字列」という)DYを可変に設定する。具体的には、文字列設定部34は、入力装置12に対する利用者からの指示(文字入力)に応じて指定文字列DYを設定する。図4に示すように、指定文字列DYは、複数の音節y(音声単位)で構成される。   The character string setting unit 34 variably sets a character string (hereinafter referred to as “designated character string”) DY of the lyrics of the music. Specifically, the character string setting unit 34 sets the designated character string DY according to an instruction (character input) from the user to the input device 12. As shown in FIG. 4, the designated character string DY is composed of a plurality of syllables y (sound units).

指定文字列DYは、文字列Yaと文字列Ybとに分割される。具体的には、利用者が2行分の指定文字列DYを指定する構成では、改行以前の文字列Yaと改行以降の文字列Ybとに指定文字列DYが分割される。なお、指定文字列DYの分割の方法は任意である。2個の文章で構成される指定文字列DYを利用者が指定する構成では、第1文に対応する文字列Yaと第2文に対応する文字列Ybとに指定文字列DYが分割される。   The designated character string DY is divided into a character string Ya and a character string Yb. Specifically, in the configuration in which the user designates the designated character string DY for two lines, the designated character string DY is divided into the character string Ya before the line feed and the character string Yb after the line feed. The method for dividing the designated character string DY is arbitrary. In a configuration in which the user designates a designated character string DY composed of two sentences, the designated character string DY is divided into a character string Ya corresponding to the first sentence and a character string Yb corresponding to the second sentence. .

図1の第1取得部42は、記憶装置24に記憶された複数の区間指定データDAの何れかに応じた区間指定データGAを生成する。図5は、第1実施形態の第1取得部42のブロック図である。図5に示すように、第1取得部42は、選択部422と譜割部424とを含んで構成される。   The first acquisition unit 42 in FIG. 1 generates section designation data GA corresponding to any of the plurality of section designation data DA stored in the storage device 24. FIG. 5 is a block diagram of the first acquisition unit 42 of the first embodiment. As shown in FIG. 5, the first acquisition unit 42 includes a selection unit 422 and a staff division unit 424.

選択部422は、記憶装置24に記憶された複数の区間指定データDAの何れかを選択する。第1実施形態では、文字列設定部34が設定した指定文字列DYを構成する音節yの個数に応じて区間指定データDAが選択される。具体的には、選択部422は、指定文字列DYの音節yの個数が多いほど発音区間Sの個数が多い区間指定データDAを選択する。   The selection unit 422 selects any one of the plurality of section designation data DA stored in the storage device 24. In the first embodiment, the section designation data DA is selected according to the number of syllables y constituting the designated character string DY set by the character string setting unit 34. Specifically, the selection unit 422 selects the section designation data DA in which the number of pronunciation sections S increases as the number of syllables y in the designated character string DY increases.

例えば選択部422は、記憶装置24に記憶された複数の区間指定データDAの各々について以下の数式(1)の指標値αを算定する。
α=|Na−NYa|+|Nb−NYb| ……(1)
数式(1)の第1項|Na−NYa|は、素材区間Qの前半区間(ブロックQB1およびブロックQB2)内に区間指定データDAが指定する発音区間Sの個数Naと、指定文字列DYのうち前方の文字列Yaの音節yの個数NYaとの差分の絶対値である。同様に、数式(1)の第2項|Nb−NYb|は、素材区間Qの後半区間(ブロックQB3およびブロックQB4)内に区間指定データDAが指定する発音区間Sの個数Nbと、指定文字列DYのうち後方の文字列Ybの音節yの個数NYbとの差分の絶対値である。すなわち、素材区間Qの前半区間での発音区間Sの個数Naと文字列Yaの音節yの個数NYaとが近似するほど、または、素材区間Qの後半区間での発音区間Sの個数Nbと文字列Ybの音節yの個数NYbとが近似するほど、指標値αは小さい数値となる。
For example, the selection unit 422 calculates an index value α of the following formula (1) for each of the plurality of section designation data DA stored in the storage device 24.
α = | Na−NYa | + | Nb−NYb | (1)
The first term | Na−NYa | in the equation (1) is the number Na of the pronunciation sections S designated by the section designation data DA in the first half section (block QB1 and block QB2) of the material section Q and the designated character string DY. Of these, the absolute value of the difference from the number NYa of syllables y of the preceding character string Ya. Similarly, the second term | Nb−NYb | of the equation (1) includes the number Nb of the sound generation sections S specified by the section specifying data DA in the latter half section (block QB3 and block QB4) of the material section Q, and the specified character. This is the absolute value of the difference from the number NYb of syllables y of the rear character string Yb in the string DY. That is, the number Nb of the sounding sections S and the number Nb of the sounding sections S in the latter half of the material section Q, or the number Na of the sounding sections S in the first half section of the material section Q and the number NYa of the syllable y of the character string Ya are approximated. The index value α becomes smaller as the number NYb of syllables y in the column Yb approximates.

選択部422は、指標値αが所定の範囲内(例えば5以下の範囲内)にある区間指定データDA(すなわち、指定文字列DYの音節yの個数に近い個数の発音区間Sを指定する区間指定データDA)を記憶装置24から検索し、検索した複数の区間指定データDAからランダムに1個の区間指定データDAを選択する。   The selection unit 422 specifies the section designating data DA (that is, the number of pronunciation sections S close to the number of syllables y in the designated character string DY) in which the index value α is within a predetermined range (for example, a range of 5 or less). The designation data DA) is retrieved from the storage device 24, and one section designation data DA is selected at random from the retrieved plurality of section designation data DA.

図5の譜割部424は、選択部422が選択した区間指定データDAが示す各発音区間Sと文字列設定部34が設定した指定文字列DYの各音節yとを対応させる譜割処理を実行する。具体的には、譜割部424は、図4に示すように、素材区間Q内の4個のブロックQB(QB1〜QB4)の各々について、区間指定データDAがそのブロックQBi(i=1〜4)内に指定する発音区間Sの個数Niと指定文字列DYのうちそのブロックQBi内の音節yの個数NYiとの差異が最小化されるように、指定文字列DYの各音節yと素材区間Q内の各発音区間Sとを対応させる。   The musical score section 424 in FIG. 5 performs musical score processing for associating each sound generation section S indicated by the section designation data DA selected by the selection section 422 with each syllable y of the designated character string DY set by the character string setting section 34. Run. Specifically, as shown in FIG. 4, the staff division unit 424 sets the section designation data DA for each of the four blocks QB (QB1 to QB4) in the material section Q so that the block QBi (i = 1 to 1). 4) Each syllable y of the designated character string DY and the material so that the difference between the number Ni of the sound generation sections S designated in the number N and the number NYi of the syllable y in the block QBi of the designated character string DY is minimized. The sound generation sections S in the section Q are associated with each other.

図6は、譜割処理のフローチャートである。譜割処理を開始すると、譜割部424は、図4に示すように、指定文字列DYを素材区間Q内のブロックQB毎に分割する(SA1)。指定文字列DYの分割の境界は、指定文字列DYの各文節の境界から選択される。指定文字列DYの文節の特定には、形態素解析等の公知の自然言語処理が任意に利用され得る。なお、図4では、文字列Yaと文字列Ybとの境界がブロックQB2とブロックQB3との境界と合致する場合を便宜的に例示したが、文字列Yaと文字列Ybとの境界と各ブロックQBの境界とは必ずしも合致しない。   FIG. 6 is a flowchart of the staff division process. When the musical score processing is started, the musical score section 424 divides the designated character string DY into blocks QB in the material section Q as shown in FIG. 4 (SA1). The dividing boundary of the designated character string DY is selected from the boundaries of the clauses of the designated character string DY. Known natural language processing such as morphological analysis can be arbitrarily used to specify the phrase of the designated character string DY. In FIG. 4, the case where the boundary between the character string Ya and the character string Yb coincides with the boundary between the block QB2 and the block QB3 is illustrated for convenience, but the boundary between the character string Ya and the character string Yb and each block It does not necessarily match the QB boundary.

具体的には、譜割部424は、以下の数式(2)で定義される指標値βが最小化するように指定文字列DYを文節の境界で分割する。
β=|N1−NY1|2+|N2−NY2|2+|N3−NY3|2+|N4−NY4|2 ……(2)
数式(2)から理解されるように、指標値βは、区間指定データDAがブロックQBi内に指定する発音区間Sの個数Niと、指定文字列DYのうちブロックQBi内に存在する音節yの個数NYiとの差異の自乗|Ni−NYi|2を、複数のブロックQB1〜QB4について積算した数値である。すなわち、譜割部424は、発音区間Sの個数Niと音節yの個数NYiとの差異が複数のブロックQB1〜QB4について最小化されるように、指定文字列DYをブロックQB毎に区分する。
Specifically, the staff division unit 424 divides the designated character string DY at the boundary of the phrase so that the index value β defined by the following formula (2) is minimized.
β = | N1−NY1 | 2 + | N2−NY2 | 2 + | N3−NY3 | 2 + | N4−NY4 | 2 (2)
As understood from the equation (2), the index value β is determined by the number Ni of the sound generation sections S specified by the section specifying data DA in the block QBi and the syllable y existing in the block QBi of the specified character string DY. This is a numerical value obtained by integrating the square | Ni-NYi | 2 of the difference from the number NYi for a plurality of blocks QB1 to QB4. That is, the staff division unit 424 divides the designated character string DY for each block QB so that the difference between the number Ni of the sound generation sections S and the number NYi of the syllables y is minimized for the plurality of blocks QB1 to QB4.

指定文字列DYを以上の処理で分割した段階では、各ブロックQBi内の発音区間Sの個数Niと指定文字列DYの音節yの個数NYiとは必ずしも合致しない。そこで、譜割部424は、各ブロックQB内で発音区間Sの個数Niと指定文字列DYの音節yの個数NYiとを合致させるための処理(SA2,SA3)を実行する。すなわち、譜割部424は、各ブロックQB内で発音区間Sと音節yとを1対1に対応させる。   At the stage where the designated character string DY is divided by the above processing, the number Ni of the sounding sections S in each block QBi and the number NYi of the syllable y of the designated character string DY do not necessarily match. Therefore, the musical score section 424 executes a process (SA2, SA3) for matching the number Ni of the pronunciation sections S with the number NYi of the syllable y of the designated character string DY in each block QB. That is, the musical score section 424 associates the sound generation section S and the syllable y on a one-to-one basis within each block QB.

第1に、譜割部424は、発音区間Sの個数Niが音節yの個数NYiを下回るブロックQBi(Ni<NYi)について、各発音区間Sを適宜に分割することでブロックQBi内の発音区間Sの個数Niを音節yの個数NYiまで増加させる(SA2)。具体的には、譜割部424は、ブロックQBi内で最長の発音区間Sを分割(例えば2等分)する処理を、発音区間Sの個数Niが音節yの個数NYiに到達するまで反復する。分割後の複数の発音区間Sの属性(重要音/終結音/経過音)は分割前の発音区間Sと共通の属性に設定される。   First, the score division unit 424 appropriately divides each sounding section S for the block QBi (Ni <NYi) in which the number Ni of the sounding sections S is less than the number NYi of the syllable y, thereby generating the sounding sections in the block QBi. The number S of Ni is increased to the number NYi of syllables y (SA2). Specifically, the score division unit 424 repeats the process of dividing (for example, dividing into two equal parts) the longest sounding section S in the block QBi until the number Ni of sounding sections S reaches the number NYi of syllables y. . The attributes (important sound / final sound / elapsed sound) of the plurality of sounding sections S after the division are set to the same attributes as the sounding section S before the division.

第2に、譜割部424は、発音区間Sの個数Niが音節yの個数NYiを上回るブロックQBi(Ni>NYi)について、調整用の所定の音節yを指定文字列DYに適宜に挿入することでブロックQBi内の音節yの個数NYiを発音区間Sの個数Niまで増加させる(SA3)。具体的には、譜割部424は、直前の音節yの継続を意味する長音記号「ー」を調整用の音節yとしてブロックQBi内の指定文字列DYに挿入する処理を、音節yの個数NYiが発音区間Sの個数Niに到達するまで反復する。調整用の音節yが挿入される位置は、例えばブロックQBi内の指定文字列DYからランダムに選択される。   Secondly, the staff division unit 424 appropriately inserts a predetermined syllable y for adjustment into the designated character string DY for the block QBi (Ni> NYi) in which the number Ni of the pronunciation sections S exceeds the number NYi of the syllables y. As a result, the number NYi of syllables y in the block QBi is increased to the number Ni of the sounding sections S (SA3). Specifically, the staff division unit 424 inserts into the designated character string DY in the block QBi a long syllable symbol “-”, which means continuation of the immediately preceding syllable y, as the syllable y for adjustment. Iterates until NYi reaches the number Ni of the sound generation sections S. The position where the adjustment syllable y is inserted is selected at random from the designated character string DY in the block QBi, for example.

以上に説明した譜割処理により、各ブロックQBi内の発音区間Sと音節yとが1対1に対応する。譜割部424は、譜割処理後の各発音区間Sの時系列を指定する区間指定データGAと譜割処理後の各音節yの時系列を指定する指定文字列GYとを生成する。すなわち、区間指定データGAは、選択部422が選択した区間指定データDAで指定される複数の発音区間Sの一部をステップSA2での分割後の複数の発音区間Sに置換した状態の発音区間Sの時系列を指定する時系列データであり、区間指定データDAと同様に複数の単位データUAを含んで構成される。指定文字列GYは、文字列設定部34が設定した指定文字列DYにステップSA3で調整用の音節yを追加した内容の文字列である。以上の説明から理解されるように、区間指定データGAが指定する各発音区間Sと指定文字列GYを構成する各音節yとは1対1に対応する。   By the musical score processing described above, the sound generation section S and the syllable y in each block QBi correspond one-to-one. The musical score section 424 generates section designation data GA for designating the time series of each sounding section S after the musical score processing and the designated character string GY for designating the time series of each syllable y after the musical score processing. That is, the section designating data GA is the sounding section in a state where a part of the plurality of sounding sections S designated by the section designating data DA selected by the selection unit 422 is replaced with the plurality of sounding sections S after the division at step SA2. This is time series data for designating a time series of S, and includes a plurality of unit data UA as with the section designation data DA. The designated character string GY is a character string having contents obtained by adding the syllable y for adjustment to the designated character string DY set by the character string setting unit 34 in step SA3. As understood from the above description, each sound generation section S designated by the section designation data GA and each syllable y constituting the designated character string GY have a one-to-one correspondence.

図1の第2取得部44は、記憶装置24に記憶された複数の音高指定データDBの何れかを音高指定データGBとして選択して記憶装置24から取得する。音高指定データDBの選択の方法は任意であるが、例えば、複数の音高指定データDBの何れかをランダムに音高指定データGBとして選択することが可能である。   The second acquisition unit 44 in FIG. 1 selects any of the plurality of pitch designation data DB stored in the storage device 24 as the pitch designation data GB and acquires it from the storage device 24. Although the method for selecting the pitch designation data DB is arbitrary, for example, any one of the plurality of pitch designation data DB can be randomly selected as the pitch designation data GB.

図1の第3取得部46は、記憶装置24に記憶された複数のコード進行データDCの何れかをコード進行データGCとして選択して記憶装置24から取得する。例えば第3取得部46は、複数のコード進行データDCの何れかをランダムにコード進行データGCとして選択する。   The third acquisition unit 46 in FIG. 1 selects any one of the plurality of chord progression data DC stored in the storage device 24 as chord progression data GC and obtains it from the storage device 24. For example, the third acquisition unit 46 randomly selects any one of the plurality of chord progression data DC as the chord progression data GC.

歌唱音生成部52は、第1取得部42が生成した区間指定データGAと第2取得部44が取得した音高指定データGBと第3取得部46が取得したコード進行データGCとに応じた旋律を第1取得部42が生成した指定文字列GYで発音する音声の音声信号VAを生成する。   The singing sound generating unit 52 corresponds to the section specifying data GA generated by the first acquiring unit 42, the pitch specifying data GB acquired by the second acquiring unit 44, and the chord progression data GC acquired by the third acquiring unit 46. A voice signal VA of a voice that produces a melody with the designated character string GY generated by the first acquisition unit 42 is generated.

図7は、歌唱音生成部52のブロック図である。図7に示すように、歌唱音生成部52は、旋律生成部522と音声合成部524とを具備する。旋律生成部522は、区間指定データGAと音高指定データGBとコード進行データGCとをテンプレートとして利用して旋律データDMを生成する要素であり、音高抽出部62と音高調整部64とを含んで構成される。   FIG. 7 is a block diagram of the singing sound generation unit 52. As shown in FIG. 7, the singing sound generation unit 52 includes a melody generation unit 522 and a voice synthesis unit 524. The melody generation unit 522 is an element that generates the melody data DM using the section specification data GA, the pitch specification data GB, and the chord progression data GC as a template. The pitch extraction unit 62, the pitch adjustment unit 64, It is comprised including.

音高抽出部62は、図8に示すように、区間指定データGAが指定する各発音区間Sと、音高指定データGBがその発音区間Sの始点について指定する音高とで規定される音符nの時系列(以下「編成音符列」という)Mを生成する。具体的には、編成音符列Mを構成する複数の音符nのうち第m番目(mは自然数)の音符nは、区間指定データGAが指定する複数の発音区間Sのうち第m番目の発音区間Sの始点から終点までにわたり、音高指定データGBがその発音区間Sの始点の時点に指定する音高に維持される。例えば、図8に例示された編成音符列Mのうち第1番目の音符nは、区間指定データGAが指定する最初の発音区間S内において、その発音区間Sの始点の時点について音高指定データGBが指定する音高“C#”に維持される。以上の説明から理解されるように、編成音符列Mの各音符nと区間指定データGAが指定する各発音区間とは1対1に対応する。   The pitch extraction unit 62, as shown in FIG. 8, is a musical note defined by each tone generation section S designated by the section designation data GA and a pitch designated by the pitch designation data GB for the start point of the pronunciation section S. A time series of n (hereinafter referred to as “knitted note string”) M is generated. Specifically, the m-th note n (m is a natural number) of the plurality of notes n constituting the knitted note string M is the m-th pronunciation of the plurality of sound generation intervals S specified by the interval specification data GA. From the start point to the end point of the section S, the pitch specification data GB is maintained at the pitch specified at the start point of the sound generation section S. For example, the first note n in the knitting note string M illustrated in FIG. 8 is the pitch designation data for the start point of the sounding section S in the first sounding section S designated by the section designating data GA. The pitch “C #” specified by GB is maintained. As can be understood from the above description, each note n of the knitting note string M and each sounding section specified by the section specifying data GA have a one-to-one correspondence.

図7の音高調整部64は、音高抽出部62が生成した編成音符列Mの各音符nの音高を調整して旋律データDMを生成する。図9は、音高調整部64による調整処理のフローチャートである。図9に示すように、音高調整部64は、第1調整処理SB1と第2調整処理SB2と第3調整処理SB3とを順次に実行する。なお、各調整処理(SB1〜SB3)の順序は適宜に変更され得る。   The pitch adjusting unit 64 in FIG. 7 adjusts the pitch of each note n of the knitted note sequence M generated by the pitch extracting unit 62 to generate melody data DM. FIG. 9 is a flowchart of adjustment processing by the pitch adjustment unit 64. As shown in FIG. 9, the pitch adjustment unit 64 sequentially executes a first adjustment process SB1, a second adjustment process SB2, and a third adjustment process SB3. Note that the order of the adjustment processes (SB1 to SB3) can be changed as appropriate.

第1調整処理SB1は、編成音符列Mを構成する複数の音符nのうち区間指定データGAで重要音または終結音に指定された音符nの音高を、第3取得部46が取得したコード進行データGCに応じて調整する処理である。具体的には、音高調整部64は、編成音符列Mのうち重要音または終結音に指定された各音符nの音高を、コード進行データGCがその音符nの発音区間Sについて指定するコード(例えば発音区間Sの始点のコード)の構成音のうち当該音高に最も近い音高に変更する。コード進行データGCが指定するコードの構成音は、記憶装置24に記憶されたコードテーブルTBLから特定される。   In the first adjustment process SB1, the third acquisition unit 46 acquires the pitch of the note n designated as the important sound or the end sound in the section designation data GA among the plurality of notes n constituting the knitting note string M. This is a process of adjusting according to the progress data GC. Specifically, the pitch adjusting unit 64 specifies the pitch of each note n designated as an important note or a final note in the knitted note string M for the sound generation interval S of the note n by the chord progression data GC. Of the constituent sounds of the chord (for example, the chord at the start point of the sounding section S), the pitch is changed to the pitch closest to the pitch. The sound of the chord designated by the chord progression data GC is specified from the chord table TBL stored in the storage device 24.

ただし、音楽的な自然性を確保する観点から以下の例外処理が実行される。第1に、重要音の音符nの音高が“F”または“B”であり、かつ、その音符nについてコード進行データGCが指定するコードの根音が“C”である場合には、音符nの音高の変更を実行しない。すなわち、音符nの音高は“F”または“B”のまま維持される。第2に、終結音の音符nについてコード進行データGCが指定するコードの根音が“C”,“F”または“G”である場合、音符nの音高は、その音高に最も近いペンタトニック音(C,D,E,G,A)に変更される。   However, the following exception processing is executed from the viewpoint of ensuring musical naturalness. First, when the pitch of the note n of the important note is “F” or “B” and the root note of the chord designated by the chord progression data GC for the note n is “C”, The pitch of note n is not changed. That is, the pitch of the note n is maintained as “F” or “B”. Second, if the root note of the chord designated by the chord progression data GC is “C”, “F” or “G” for the note n of the end note, the pitch of the note n is closest to that pitch. The sound is changed to a pentatonic sound (C, D, E, G, A).

第2調整処理SB2は、編成音符列Mを構成する複数の音符nのうち区間指定データGAが経過音に指定する音符nの音高を調整する処理である。具体的には、音高調整部64は、編成音符列Mのうち経過音に指定された各音符nの音高を、その音符nの直前または直後の音符nの音高を含む所定の範囲内の音高に変更する。例えば、経過音の各音符nの音高は、その直前または直後の音符nの音高を中心または端点(上限または下限)とする所定の範囲(例えば4半音分の範囲)内の幹音(C,D,E,F,G,A,B)に設定される。   The second adjustment process SB2 is a process of adjusting the pitch of the note n designated by the section designation data GA as the elapsed sound among the plurality of notes n constituting the knitting note string M. Specifically, the pitch adjusting unit 64 includes a predetermined range including the pitch of each note n designated as the elapsed note in the knitted note string M, including the pitch of the note n immediately before or after the note n. Change to the pitch within. For example, the pitch of each note n of the elapsed sound is a stem tone within a predetermined range (for example, a range of four semitones) with the pitch of the note n immediately before or after it as the center or the end point (upper limit or lower limit). C, D, E, F, G, A, B).

第3調整処理SB3は、コード進行データGCが編成音符列Mの各音符n(重要音,終結音,経過音)について特定のコードを指定する場合の例外処理である。具体的には、音符nの音高が“A”であり、かつ、その音符nについて指定されるコードがFm系(例えばFm,Fm7等)である場合、音高調整部64は、音符nの音高を“A”から“G#”に変更する。また、音符nの音高が“B”であり、かつ、その音符nについて指定されるコードがFm系,Gm系,A#系またはC7である場合、音高調整部64は、音符nの音高を“B”から“A#”に変更する。   The third adjustment process SB3 is an exception process when the chord progression data GC designates a specific chord for each note n (important sound, end sound, elapsed sound) of the knitting note string M. Specifically, when the pitch of the note n is “A” and the chord designated for the note n is Fm series (for example, Fm, Fm7, etc.), the pitch adjustment unit 64 Is changed from “A” to “G #”. When the pitch of the note n is “B” and the chord designated for the note n is Fm, Gm, A #, or C7, the pitch adjuster 64 determines that the note n The pitch is changed from “B” to “A #”.

図7の旋律生成部522(音高調整部64)は、以上に説明した調整後の編成音符列Mを指定する旋律データDMを生成する。図8に示すように、旋律データDMは、調整後の編成音符列Mの各音符nに対応する複数の単位データUMの時系列で構成される。各単位データUMは、音符nの音高を指定する音高情報UM1と音符nの発音区間S(時間軸上の位置および継続長)を指定する時間情報UM2とを含んで構成される。具体的には、旋律データDMは、音高指定データDBと同様にSMF形式の音楽ファイルとして記述される。旋律データDMが指定する各音符nと指定文字列GYが指定する各音節yとの関係は、第1取得部42(譜割部424)が対応させた関係(各音符nの発音区間Sと指定文字列GYの各音節yとが1対1に対応する関係)に維持される。   The melody generation unit 522 (pitch adjustment unit 64) in FIG. 7 generates melody data DM that specifies the adjusted knitted note string M described above. As shown in FIG. 8, the melody data DM is composed of time series of a plurality of unit data UM corresponding to each note n of the adjusted musical note string M. Each unit data UM includes pitch information UM1 for designating the pitch of the note n and time information UM2 for designating the sound generation section S (position and duration on the time axis) of the note n. Specifically, the melody data DM is described as a music file in the SMF format, like the pitch designation data DB. The relationship between each note n designated by the melody data DM and each syllable y designated by the designated character string GY is the relationship (the pronunciation interval S of each note n) and the relationship associated with the first acquisition unit 42 (the score division unit 424). Each syllable y of the designated character string GY is maintained in a one-to-one relationship).

図7の音声合成部524は、旋律生成部522が生成した旋律データDMと第1取得部42が生成した指定文字列GYとに応じた音声信号VAを生成する。音声信号VAは、指定文字列GYの各音節yを、旋律データDMがその音節yに対応する音符nに指定する音高で発声したときの歌唱音の音響信号である。すなわち、音声信号VAは、指定文字列GYを歌詞として編成音符列M(メロディライン)を歌唱した歌唱音に相当する。音声信号VAの生成には、例えば公知の素片接続型の音声合成処理が好適に採用され得る。すなわち、音声合成部524は、指定文字列GYが指定する各音節yに対応する音声素片を順次に選択し、各音声素片を、旋律データDMが指定する各音符nの発音区間Sと音高とに調整したうえで相互に連結することで音声信号VAを生成する。音声信号VAのテンポは、変数設定部32が設定したテンポXtに設定される。   7 generates a speech signal VA corresponding to the melody data DM generated by the melody generation unit 522 and the designated character string GY generated by the first acquisition unit 42. The voice signal VA is an acoustic signal of a singing sound when each syllable y of the designated character string GY is uttered at a pitch specified by the note n corresponding to the syllable y in the melody data DM. That is, the audio signal VA corresponds to the singing sound of singing the organized note string M (melody line) with the designated character string GY as lyrics. For the generation of the audio signal VA, for example, a known unit connection type speech synthesis process can be suitably employed. That is, the speech synthesizer 524 sequentially selects speech segments corresponding to each syllable y designated by the designated character string GY, and each speech segment is selected from the pronunciation interval S of each note n designated by the melody data DM. The audio signal VA is generated by adjusting the pitch and connecting them to each other. The tempo of the audio signal VA is set to the tempo Xt set by the variable setting unit 32.

図1の伴奏音生成部54は、伴奏音を示す伴奏信号VBを生成する。図10に示すように、伴奏音生成部54は、伴奏データ生成部542と伴奏信号生成部544とを含んで構成される。伴奏データ生成部542は、第3取得部46が取得したコード進行データGCに応じた伴奏データDEを生成する。伴奏データDEは、コード進行データGCが順次に指定するコードに対応した伴奏音を時系列に指定するSMF形式の音楽ファイルである。伴奏データDEが指定する伴奏音の種類やリズムは、変数設定部32が設定したスタイルXsに応じて設定される。また、伴奏データDEのテンポは、変数設定部32が設定したテンポXtに設定される。伴奏信号生成部544は、伴奏データDEに対して所定の処理(例えばMIDI音源による楽音生成処理)を実行することで伴奏信号VBを生成する。以上の説明から理解されるように、音声信号VAと伴奏信号VBとは同等のテンポに設定される。   1 generates an accompaniment signal VB indicating an accompaniment sound. As shown in FIG. 10, the accompaniment sound generation unit 54 includes an accompaniment data generation unit 542 and an accompaniment signal generation unit 544. The accompaniment data generation unit 542 generates accompaniment data DE corresponding to the chord progression data GC acquired by the third acquisition unit 46. The accompaniment data DE is a music file in the SMF format in which accompaniment sounds corresponding to the chords sequentially designated by the chord progression data GC are designated in time series. The type and rhythm of the accompaniment sound specified by the accompaniment data DE is set according to the style Xs set by the variable setting unit 32. The tempo of the accompaniment data DE is set to the tempo Xt set by the variable setting unit 32. The accompaniment signal generation unit 544 generates an accompaniment signal VB by executing predetermined processing (for example, musical tone generation processing by a MIDI sound source) on the accompaniment data DE. As understood from the above description, the audio signal VA and the accompaniment signal VB are set to the same tempo.

図1の混合部56は、歌唱音生成部52が生成した音声信号VAと伴奏音生成部54が生成した伴奏信号VBとの混合(加重和)で音響信号Vを生成する。混合部56が生成した音響信号Vが放音装置14に供給されることで音波が再生される。以上の説明から理解されるように、音響信号Vの再生音は、旋律データDMが示す旋律を指定文字列GYで歌唱した歌唱音に伴奏音が付加された歌唱曲の演奏音となる。   The mixing unit 56 of FIG. 1 generates the acoustic signal V by mixing (weighted sum) of the audio signal VA generated by the singing sound generating unit 52 and the accompaniment signal VB generated by the accompaniment sound generating unit 54. The acoustic signal V generated by the mixing unit 56 is supplied to the sound emitting device 14 to reproduce the sound wave. As can be understood from the above description, the reproduced sound of the acoustic signal V is a performance sound of a song in which an accompaniment sound is added to a song sound sung by the designated character string GY of the melody indicated by the melody data DM.

以上に説明したように、第1実施形態では、複数の区間指定データDAの何れかに応じた区間指定データGAと複数の音高指定データDBの何れかに応じた音高指定データGBとを利用して旋律データDMが生成される。したがって、区間指定データGAが共通する場合でも、音高指定データGBが相違するならば、相異なる旋律の旋律データDMが生成され、音高指定データGBが共通する場合でも、区間指定データGAが相違するならば、相異なる旋律の旋律データDMが生成される。すなわち、第1実施形態によれば、例えばメロディ素材データが指定する各音高を変更するだけの特許文献2の技術と比較して、楽曲生成の素材として選択された楽曲が少ない場合でも多様な楽曲を生成できるという利点がある。   As described above, in the first embodiment, the section specifying data GA corresponding to any of the plurality of section specifying data DA and the pitch specifying data GB corresponding to any of the plurality of pitch specifying data DB are used. Using this, melody data DM is generated. Therefore, even if the section designation data GA is common, if the pitch designation data GB is different, melody data DM having different melody is generated, and even if the pitch designation data GB is common, the section designation data GA is If they are different, melody data DM having different melody is generated. That is, according to the first embodiment, for example, compared to the technique of Patent Document 2 in which only the pitches specified by the melody material data are changed, there are a variety of cases even when there are few songs selected as material for music generation. There is an advantage that music can be generated.

また、例えば既存の楽曲のリズムパターンを表現する区間指定データDAと既存の楽曲のメロディラインを表現する音高指定データDBとをテンプレートとして利用して旋律データDMが生成されるから、例えば音高をランダムに選択する特許文献1の技術と比較して、音楽的に自然な旋律を生成できるという利点もある。すなわち、第1実施形態によれば、音楽的に自然で多様な旋律を生成することが可能である。   Further, for example, the melody data DM is generated using the section designation data DA representing the rhythm pattern of the existing music and the pitch designation data DB representing the melody line of the existing music as templates. Compared with the technique of Patent Document 1 that randomly selects a melody, there is also an advantage that a musically natural melody can be generated. That is, according to the first embodiment, it is possible to generate musically natural and various melody.

第1実施形態では、区間指定データDAと音高指定データDBとから生成された編成音符列Mの各音符nの音高が音高調整部64にて調整されるから、編成音符列Mを調整しない構成と比較して音楽的に自然な旋律を生成できるという利点がある。具体的には、第1実施形態では、重要音や終結音の音符nの音高が、コード進行データGCで指定されるコードの構成音の音高に変更されるから(第1調整処理SB1)、旋律内で特に重要な音符の音高を音楽的に自然に遷移させることが可能である。また、区間指定データDAと音高指定データDBとコード進行データDCの組合せに応じた多様な旋律を生成できるという利点もある。また、経過音の音符nの音高が直前または直後の音符nの音高に対して所定の範囲内の音高に変更されるから(第2調整処理SB2)、経過音の音高も音楽的に自然に遷移させることが可能である。   In the first embodiment, the pitch adjustment unit 64 adjusts the pitch of each note n of the knitting note string M generated from the section specifying data DA and the pitch specifying data DB. There is an advantage that a musically natural melody can be generated as compared with a configuration without adjustment. Specifically, in the first embodiment, the pitch of the note n of the important sound and the end sound is changed to the pitch of the constituent sound of the chord designated by the chord progression data GC (first adjusting process SB1). ), It is possible to shift musically natural pitches of notes that are particularly important in the melody. There is also an advantage that various melody can be generated according to the combination of the section designation data DA, the pitch designation data DB, and the chord progression data DC. Further, since the pitch of the note n of the elapsed sound is changed to a pitch within a predetermined range with respect to the pitch of the immediately preceding or subsequent note n (second adjustment process SB2), the pitch of the elapsed sound is also music. It is possible to transition naturally.

第1実施形態では、区間指定データGAが指定する各発音区間Sと指定文字列GYの各音節yとが譜割部424にて対応付けられるから、各発音区間Sと各音節yとの対応が明確で自然な歌唱音の音声信号VAを生成できるという利点がある。第1実施形態では特に、指定文字列DYの音節yの個数が多いほど発音区間Sの個数が多い区間指定データDAが選択されるから、発音区間Sの個数と音節yの個数とが大幅に相違し得る構成と比較して、各発音区間Sと各音節yとを無理なく対応させることが可能である。また、発音区間Sの個数Niと音節yの個数NYiとの差異がブロックQB1〜QB4について最小化されるように指定文字列DYをブロックQB毎に区分して各発音区間Sと各音節yとが対応付けられるから、ブロックQB1〜QB4の各々において各発音区間Sと各音節yとを無理なく対応させることが可能である。しかも、各発音区間Sと各音節yとが1対1に対応するように発音区間Sの分割(SA2)や指定文字列DYに対する音節yの挿入(SA3)が実行されるから、旋律の各音符nに1個の音節yが割当てられた自然な歌唱音の音声信号VAを生成できるという利点もある。   In the first embodiment, each pronunciation section S designated by the section designation data GA and each syllable y of the designated character string GY are associated by the musical score section 424. Therefore, the correspondence between each pronunciation section S and each syllable y. There is an advantage that a voice signal VA of a clear and natural singing sound can be generated. In the first embodiment, in particular, as the number of syllables y in the designated character string DY increases, the section designation data DA having a larger number of pronunciation sections S is selected, so the number of pronunciation sections S and the number of syllables y are greatly increased. Compared to a configuration that can be different, each sound generation section S can be associated with each syllable y without difficulty. Further, the designated character string DY is divided for each block QB so that the difference between the number Ni of the sounding sections S and the number NYi of the syllables y is minimized for the blocks QB1 to QB4. Are associated with each other, it is possible to associate each sounding section S with each syllable y without difficulty in each of the blocks QB1 to QB4. In addition, the division of the pronunciation section S (SA2) and the insertion of the syllable y (SA3) to the designated character string DY are executed so that each pronunciation section S and each syllable y have a one-to-one correspondence. There is also an advantage that a voice signal VA of a natural singing sound in which one syllable y is assigned to the note n can be generated.

第1実施形態では、伴奏音生成部54が生成した伴奏信号VBが音声信号VAに付加されるから、音声信号VAを単独で再生する構成と比較して音楽性の豊かな楽曲を生成できるという利点がある。第1実施形態では特に、複数のコード進行データDCから選択されたコード進行データGCを利用して伴奏信号VBが生成されるから、伴奏が1種類に固定された構成と比較して多様な楽曲を生成できるという利点がある。しかも、第1実施形態では、利用者からの指示に応じたスタイルXsに応じた伴奏データDEが生成されるから、利用者の意図や嗜好に合致した楽曲を生成することが可能である。また、音声信号VAと伴奏信号VBとが共通のテンポXtに設定されるから、伴奏音と旋律音とが自然に整合した楽曲を生成できるという利点もある。   In the first embodiment, since the accompaniment signal VB generated by the accompaniment sound generation unit 54 is added to the audio signal VA, it is possible to generate a musical composition rich in musicality as compared with the configuration in which the audio signal VA is reproduced alone. There are advantages. In the first embodiment, in particular, since the accompaniment signal VB is generated using chord progression data GC selected from a plurality of chord progression data DC, a variety of music is produced as compared with a configuration in which the accompaniment is fixed to one type. There is an advantage that can be generated. Moreover, in the first embodiment, the accompaniment data DE corresponding to the style Xs corresponding to the instruction from the user is generated, so that it is possible to generate music that matches the user's intention and preference. Further, since the audio signal VA and the accompaniment signal VB are set to a common tempo Xt, there is also an advantage that a musical piece in which the accompaniment sound and the melody sound are naturally matched can be generated.

<第2実施形態>
本発明の第2実施形態を以下に説明する。第1実施形態では、楽曲生成装置100Aを単体の装置で実現した構成を例示した。第2実施形態では、相互に通信可能な複数のサーバ装置が協働することで、第1実施形態の楽曲生成装置100Aと同様の機能の楽曲生成装置100Bが実現される。なお、以下に例示する各態様において作用や機能が第1実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
Second Embodiment
A second embodiment of the present invention will be described below. In the first embodiment, a configuration in which the music generation device 100A is realized by a single device has been exemplified. In the second embodiment, the music generation device 100B having the same function as the music generation device 100A of the first embodiment is realized by the cooperation of a plurality of server devices that can communicate with each other. In addition, about the element which an effect | action and a function are equivalent to 1st Embodiment in each aspect illustrated below, each reference detailed in the above description is diverted and each detailed description is abbreviate | omitted suitably.

図11は、第2実施形態に係る楽曲生成装置100Bのブロック図である。図11に示すように、第2実施形態の楽曲生成装置100Bは、音響信号Vを生成して端末装置10に提供する通信システム(楽曲生成システム)であり、管理サーバ装置70と旋律生成サーバ装置72と音声信号合成サーバ装置74と伴奏生成サーバ装置76と伴奏信号合成サーバ装置78とを含んで構成される。各サーバ装置はインターネット等の通信網を介して相互に通信可能である。端末装置10は、例えば携帯電話機やパーソナルコンピュータ等の通信端末であり、入力装置12と放音装置14とを含んで構成される。   FIG. 11 is a block diagram of a music generation device 100B according to the second embodiment. As shown in FIG. 11, the music generation device 100B of the second embodiment is a communication system (music generation system) that generates an acoustic signal V and provides it to the terminal device 10, and includes a management server device 70 and a melody generation server device. 72, an audio signal synthesis server device 74, an accompaniment generation server device 76, and an accompaniment signal synthesis server device 78. Each server device can communicate with each other via a communication network such as the Internet. The terminal device 10 is a communication terminal such as a mobile phone or a personal computer, and includes an input device 12 and a sound emitting device 14.

管理サーバ装置70は、端末装置10と通信するウェブサーバであり、変数設定部32と文字列設定部34と記憶部242と第3取得部46と混合部56とを具備する。変数設定部32は、端末装置10の入力装置12に対する利用者からの指示に応じてテンポXtおよびスタイルXsを設定し、文字列設定部34は、入力装置12に対する利用者からの指示に応じて指定文字列DYを設定する。記憶部242は、複数のコード進行データDCを記憶する。第3取得部46は、複数のコード進行データDCの何れかをコード進行データGCとして取得する。指定文字列DYとテンポXtとコード進行データGCとは旋律生成サーバ装置72に送信され、コード進行データGCとテンポXtとスタイルXsとは伴奏生成サーバ装置76に送信される。   The management server device 70 is a web server that communicates with the terminal device 10, and includes a variable setting unit 32, a character string setting unit 34, a storage unit 242, a third acquisition unit 46, and a mixing unit 56. The variable setting unit 32 sets the tempo Xt and the style Xs according to an instruction from the user to the input device 12 of the terminal device 10, and the character string setting unit 34 corresponds to the instruction from the user to the input device 12. Set the specified character string DY. The storage unit 242 stores a plurality of chord progression data DC. The third acquisition unit 46 acquires any of the plurality of chord progression data DC as chord progression data GC. The designated character string DY, tempo Xt and chord progression data GC are transmitted to the melody generation server device 72, and the chord progression data GC, tempo Xt and style Xs are transmitted to the accompaniment generation server device 76.

旋律生成サーバ装置72は、記憶部244と第1取得部42と第2取得部44と旋律生成部522とを具備する。記憶部244は、複数の区間指定データDAと複数の音高指定データDBとを記憶する。第1取得部42は、記憶部244に記憶された複数の区間指定データDAの何れかを指定文字列DYに応じて選択して図6の譜割処理を実行することで区間指定データGAと指定文字列GYとを生成する。第2取得部44は、記憶部244に記憶された複数の音高指定データDBの何れかを音高指定データGBとして選択する。旋律生成部522は、区間指定データGAと音高指定データGBとコード進行データGCとに応じた旋律データDMを生成する。旋律データDMと指定文字列GYとテンポXtとは音声信号合成サーバ装置74に送信される。   The melody generation server device 72 includes a storage unit 244, a first acquisition unit 42, a second acquisition unit 44, and a melody generation unit 522. The storage unit 244 stores a plurality of section designation data DA and a plurality of pitch designation data DB. The first acquisition unit 42 selects any one of the plurality of section designation data DA stored in the storage unit 244 according to the designated character string DY, and executes the musical score processing of FIG. A designated character string GY is generated. The second acquisition unit 44 selects any one of the plurality of pitch designation data DB stored in the storage unit 244 as the pitch designation data GB. The melody generation unit 522 generates melody data DM according to the section designation data GA, the pitch designation data GB, and the chord progression data GC. The melody data DM, the designated character string GY, and the tempo Xt are transmitted to the audio signal synthesis server device 74.

音声信号合成サーバ装置74は、旋律データDMと指定文字列GYとテンポXtとに応じた音声信号VAを生成する音声合成部524を具備する。音声合成部524が生成した音声信号VAは、旋律生成サーバ装置72を経由して管理サーバ装置70に送信される。   The voice signal synthesis server device 74 includes a voice synthesis unit 524 that generates a voice signal VA corresponding to the melody data DM, the designated character string GY, and the tempo Xt. The voice signal VA generated by the voice synthesizer 524 is transmitted to the management server device 70 via the melody generation server device 72.

伴奏生成サーバ装置76は、コード進行データGCとテンポXtとスタイルXsとに応じた伴奏データDEを生成する。伴奏信号合成サーバ装置78は、伴奏生成サーバ装置76から供給される伴奏データDEに応じた伴奏信号VBを生成する伴奏信号生成部544を具備する。伴奏信号生成部544が生成した伴奏信号VBは、伴奏生成サーバ装置76を経由して管理サーバ装置70に送信される。   The accompaniment generation server device 76 generates accompaniment data DE corresponding to the chord progression data GC, the tempo Xt, and the style Xs. The accompaniment signal synthesis server device 78 includes an accompaniment signal generation unit 544 that generates an accompaniment signal VB according to the accompaniment data DE supplied from the accompaniment generation server device 76. The accompaniment signal VB generated by the accompaniment signal generation unit 544 is transmitted to the management server device 70 via the accompaniment generation server device 76.

管理サーバ装置70の混合部56は、音声信号合成サーバ装置74が生成した音声信号VAと伴奏信号合成サーバ装置78が生成した伴奏信号VBとを混合して音響信号Vを生成する。音響信号Vが端末装置10に送信されて放音装置14から音波として再生される。   The mixing unit 56 of the management server device 70 generates the acoustic signal V by mixing the audio signal VA generated by the audio signal synthesis server device 74 and the accompaniment signal VB generated by the accompaniment signal synthesis server device 78. The acoustic signal V is transmitted to the terminal device 10 and reproduced as a sound wave from the sound emitting device 14.

第2実施形態においても第1実施形態と同様の効果が実現される。なお、楽曲生成装置100Bを構成するサーバ装置の個数や各々が分担する機能は、図11の例示から適宜に変更される。例えば、図11の旋律生成サーバ装置72および音声信号合成サーバ装置74の機能を単体のサーバ装置が分担する構成や、伴奏生成サーバ装置76および伴奏信号合成サーバ装置78の機能を単体のサーバ装置が分担する構成も採用され得る。   In the second embodiment, the same effect as in the first embodiment is realized. Note that the number of server devices constituting the music generation device 100B and the functions shared by each are appropriately changed from the example of FIG. For example, a single server device shares the functions of the melody generation server device 72 and the audio signal synthesis server device 74 of FIG. 11, and the single server device has the functions of the accompaniment generation server device 76 and the accompaniment signal synthesis server device 78. A shared configuration may also be employed.

<変形例>
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は適宜に併合され得る。
<Modification>
Each of the above forms can be variously modified. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined.

(1)第1取得部42が区間指定データGAを取得する方法は適宜に変更される。例えば、第1取得部42が複数の区間指定データDAの何れかを区間指定データGAとしてランダムに選択する構成(すなわち、譜割部424を省略した構成)も採用される。すなわち、区間指定データDAを指定文字列DYに応じて選択する構成や、区間指定データDAに対して譜割処理を実行する構成は省略され得る。以上の説明から理解されるように、第1取得部42は、複数の区間指定データDAの何れかに応じた区間指定データGAを取得する要素として包括される。区間指定データGAは、第1実施形態の例示のように譜割部424による譜割処理後の区間指定データDAと区間指定データDA自身との双方を包含する。第2取得部44や第3取得部46の動作も適宜に変更される。例えば、第2取得部44が、複数の音高指定データDBの何れかを記憶装置24から選択して所定の処理(例えば各音符の音高を所定量だけ増加させる処理)を実行することで音高指定データGBを生成する構成も採用される。第3取得部46についても同様である。 (1) The method by which the first acquisition unit 42 acquires the section designation data GA is changed as appropriate. For example, a configuration in which the first acquisition unit 42 randomly selects any one of the plurality of section designation data DA as the section designation data GA (that is, a configuration in which the score section 424 is omitted) is also employed. That is, the configuration for selecting the section designation data DA according to the designated character string DY and the configuration for executing the musical score processing on the section designation data DA can be omitted. As understood from the above description, the first acquisition unit 42 is included as an element for acquiring the section designation data GA corresponding to any of the plurality of section designation data DA. The section designation data GA includes both the section designation data DA and the section designation data DA itself after the musical score processing by the musical score section 424 as illustrated in the first embodiment. The operations of the second acquisition unit 44 and the third acquisition unit 46 are also changed as appropriate. For example, the second acquisition unit 44 selects one of the plurality of pitch designation data DB from the storage device 24 and executes a predetermined process (for example, a process of increasing the pitch of each note by a predetermined amount). A configuration for generating pitch designation data GB is also employed. The same applies to the third acquisition unit 46.

(2)前述の各形態では、指定文字列GYに応じた音声信号VAを音声合成部524が生成したが、文字列設定部34や音声合成部524は省略され得る。すなわち、編成音符列Mを指定する旋律データDMの生成を目的とする装置や、旋律データDMが指定する編成音符列Mの楽器音を示す音響信号を生成する装置としても本発明は実現され得る。 (2) In each of the above-described embodiments, the voice synthesizer 524 generates the voice signal VA corresponding to the designated character string GY, but the character string setting unit 34 and the voice synthesizer 524 may be omitted. That is, the present invention can also be realized as an apparatus for generating melody data DM specifying the knitting note string M, or an apparatus for generating an acoustic signal indicating the musical instrument sound of the knitting note string M specified by the melody data DM. .

(3)伴奏音生成部54が伴奏信号VBを生成する方法は適宜に変更される。例えば、相異なるスタイルに対応する複数の伴奏データDEを記憶装置24に保持し、利用者が指定したスタイルXsに応じた伴奏データDEを選択して伴奏信号VBを生成することも可能である。また、伴奏音生成部54を省略した構成(すなわち旋律のみを生成する構成)も採用され得る。 (3) The method by which the accompaniment sound generation unit 54 generates the accompaniment signal VB is appropriately changed. For example, a plurality of accompaniment data DE corresponding to different styles can be stored in the storage device 24, and the accompaniment signal VB can be generated by selecting the accompaniment data DE corresponding to the style Xs designated by the user. Further, a configuration in which the accompaniment sound generation unit 54 is omitted (that is, a configuration that generates only a melody) may be employed.

(4)前述の各形態では、区間指定データGAが指定する発音区間Sの始点について音高指定データGBが指定する音高を音高抽出部62が抽出したが、音高が抽出される時点は発音区間Sの始点に限定されない。例えば、発音区間Sの始点から所定の時間が経過した時点や発音区間Sの中点について音高指定データGBが指定する音高をその発音区間Sに対応する音符nの音高として抽出することも可能である。以上の説明から理解されるように、旋律生成部522は、区間指定データGAが指定する各発音区間Sと、音高指定データGBがその発音区間Sの基準時点について指定する音高とに応じた音符の時系列を指定する旋律データDMを生成する要素として包括され、発音区間Sの基準時点は、発音区間Sに対して所定の位置関係にある時点(発音区間Sの始点や中点)を意味する。 (4) In each of the above-described embodiments, the pitch extraction unit 62 extracts the pitch specified by the pitch specification data GB for the start point of the sound generation section S specified by the section specification data GA. Is not limited to the starting point of the pronunciation period S. For example, the pitch specified by the pitch specification data GB at the time when a predetermined time has elapsed from the start point of the sounding section S or the middle point of the sounding section S is extracted as the pitch of the note n corresponding to the sounding section S. Is also possible. As understood from the above description, the melody generation unit 522 responds to each sound generation section S designated by the section designation data GA and the pitch designated by the pitch designation data GB for the reference time point of the sound generation section S. The reference time of the sound generation section S is a time point that is in a predetermined positional relationship with the sound generation section S (the start point and the middle point of the sound generation section S). Means.

(5)前述の各形態では、編成音符列Mのうち重要音および終結音に該当する音符nについて第1調整処理SB1を実行し、経過音に該当する音符nについて第2調整処理SB2を実行したが、編成音符列Mの全部の音符nに第1調整処理SB1や第2調整処理SB2を実行することも可能である。 (5) In each of the above-described forms, the first adjustment process SB1 is executed for the note n corresponding to the important sound and the end sound in the knitted note string M, and the second adjustment process SB2 is executed for the note n corresponding to the elapsed sound. However, it is also possible to execute the first adjustment process SB1 and the second adjustment process SB2 on all the notes n of the knitting note string M.

(6)前述の各形態で例示したデータの形式は任意に変更される。例えば、区間指定データDA,音高指定データDB,旋律データDMおよび伴奏データDEは、SMF形式に限定されず、任意の形式で記述され得る。コード進行データDCをSMF形式で記述することも可能である。また、音響信号Vや音声信号VAや伴奏信号VBは、時間波形のサンプル系列には限定されず、時間波形を時系列に指定するデータ(例えばMIDI規格に準拠した演奏データ)としても表現され得る。 (6) The data format exemplified in each of the above embodiments is arbitrarily changed. For example, the section designation data DA, pitch designation data DB, melody data DM, and accompaniment data DE are not limited to the SMF format and can be described in any format. It is also possible to describe the chord progression data DC in the SMF format. The acoustic signal V, the audio signal VA, and the accompaniment signal VB are not limited to the time waveform sample series, and can be expressed as data specifying the time waveform in time series (for example, performance data compliant with the MIDI standard). .

100A,100B……楽曲生成装置、10……端末装置、12……入力装置、14……放音装置、22……演算処理装置、24……記憶装置、32……変数設定部、34……文字列設定部、42……第1取得部、422……選択部、424……譜割部、44……第2取得部、46……第3取得部、52……歌唱音生成部、522……旋律生成部、524……音声合成部、54……伴奏音生成部、542……伴奏データ生成部、544……伴奏信号生成部、56……混合部、62……音高抽出部、64……音高調整部、70……管理サーバ装置、72……旋律生成サーバ装置、74……音声信号合成サーバ装置、76……伴奏生成サーバ装置、78……伴奏信号合成サーバ装置。
100A, 100B ... Music generation device, 10 ... Terminal device, 12 ... Input device, 14 ... Sound emission device, 22 ... Arithmetic processing device, 24 ... Storage device, 32 ... Variable setting unit, 34 ... ... Character string setting section, 42 ... First acquisition section, 422 ... Selection section, 424 ... Musical score section, 44 ... Second acquisition section, 46 ... Third acquisition section, 52 ... Singing sound generation section 522 …… Melodic generator, 524 …… Speech synthesizer, 54 …… Accompaniment sound generator, 542 …… Accompaniment data generator, 544 …… Accompaniment signal generator, 56 …… Mixer, 62 …… Pitch Extraction unit 64... Pitch adjustment unit 70... Management server device 72 .. melody generation server device 74 .. speech signal synthesis server device 76 .. accompaniment generation server device 78 .. accompaniment signal synthesis server apparatus.

Claims (5)

発音区間の時系列を指定する複数の区間指定データの何れかに応じた区間指定データを取得する第1取得手段と、
音高の時系列を指定する複数の音高指定データの何れかに応じた音高指定データを取得する第2取得手段と、
前記第1取得手段が取得した区間指定データが指定する各発音区間と、前記第2取得手段が取得した音高指定データが当該発音区間の基準時点について指定する音高とに応じた音符の時系列を指定する旋律データを生成する旋律生成手段と
を具備する楽曲生成装置。
First acquisition means for acquiring section specifying data corresponding to any of a plurality of section specifying data specifying a time series of pronunciation sections;
Second acquisition means for acquiring pitch designation data according to any of a plurality of pitch designation data for designating a time series of pitches;
At the time of a note corresponding to each sounding section specified by the section specifying data acquired by the first acquisition means and the pitch specified by the pitch specifying data acquired by the second acquisition means for the reference time of the sounding section A music generation device comprising: melody generation means for generating melody data for designating a series.
前記旋律生成手段は、
前記区間指定データが指定する各発音区間と前記音高指定データが当該発音区間の基準時点に指定する音高とを有する音符を配列した編成音符列を生成する音高抽出手段と、
前記音高抽出手段が生成した編成音符列の各音符の音高を調整して前記旋律データを生成する音高調整手段とを含む
請求項1の楽曲生成装置。
The melody generation means includes
A pitch extraction means for generating a knitted note sequence in which notes having the respective tone generation sections designated by the section designation data and the pitch designated by the pitch designation data at the reference time of the sound generation section are arranged;
The music generating device according to claim 1, further comprising pitch adjusting means for adjusting the pitch of each note of the knitted note sequence generated by the pitch extracting means to generate the melody data.
複数の音声単位を時系列に配列した指定文字列を取得する文字列設定手段と、
前記旋律生成手段が生成した旋律データが指定する複数の音符により前記指定文字列を発音した音声の音声信号を生成する音声合成手段と
を具備する請求項1または請求項2の楽曲生成装置。
Character string setting means for acquiring a designated character string in which a plurality of audio units are arranged in time series,
The music generating device according to claim 1, further comprising: a voice synthesizing unit that generates a voice signal of a voice in which the designated character string is pronounced by a plurality of notes designated by the melody data generated by the melody generating unit.
前記第1取得手段は、
前記複数の区間指定データの何れかを選択する選択手段と、
前記選択手段が選択した区間指定データが指定する各発音区間と前記指定文字列の各音声単位とを相互に対応させる譜割手段とを含み、
前記音声合成手段は、前記旋律データが指定する複数の音符の各々の発音区間にて前記譜割手段が当該発音区間に対応させた音声単位を発音する音声の音声信号を生成する
請求項3の楽曲生成装置。
The first acquisition means includes
Selecting means for selecting any of the plurality of section designation data;
Including a musical score section that associates each sound generation section designated by the section designation data selected by the selection means with each voice unit of the designated character string,
The voice synthesis unit generates a voice signal of a voice that produces a voice unit corresponding to the sounding section in the sounding section of each of a plurality of notes designated by the melody data. Music generation device.
伴奏音を示す伴奏信号を生成する伴奏音生成手段と、
前記音声合成手段が生成した音声信号と前記伴奏音生成手段が生成した伴奏信号とを混合する混合手段と
を具備する請求項3または請求項4の楽曲生成装置。
Accompaniment sound generating means for generating an accompaniment signal indicating the accompaniment sound;
The music generating device according to claim 3 or 4, further comprising: a mixing unit that mixes the audio signal generated by the voice synthesizing unit and the accompaniment signal generated by the accompaniment sound generating unit.
JP2011185125A 2011-08-26 2011-08-26 Music generator Active JP5974436B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011185125A JP5974436B2 (en) 2011-08-26 2011-08-26 Music generator
TW101128657A TWI471853B (en) 2011-08-26 2012-08-08 Music generating device
CN201210309068.9A CN102956224B (en) 2011-08-26 2012-08-27 Music Generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185125A JP5974436B2 (en) 2011-08-26 2011-08-26 Music generator

Publications (2)

Publication Number Publication Date
JP2013045082A true JP2013045082A (en) 2013-03-04
JP5974436B2 JP5974436B2 (en) 2016-08-23

Family

ID=47764959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185125A Active JP5974436B2 (en) 2011-08-26 2011-08-26 Music generator

Country Status (3)

Country Link
JP (1) JP5974436B2 (en)
CN (1) CN102956224B (en)
TW (1) TWI471853B (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103824565B (en) * 2014-02-26 2017-02-15 曾新 Humming music reading method and system based on music note and duration modeling
CN106652997B (en) * 2016-12-29 2020-07-28 腾讯音乐娱乐(深圳)有限公司 Audio synthesis method and terminal
CN111542874B (en) * 2017-11-07 2023-09-01 雅马哈株式会社 Data generating device and recording medium
JP7052339B2 (en) * 2017-12-25 2022-04-12 カシオ計算機株式会社 Keyboard instruments, methods and programs
CN108831425B (en) 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 Sound mixing method, device and storage medium
CN110189741A (en) * 2018-07-05 2019-08-30 腾讯数码(天津)有限公司 Audio synthetic method, device, storage medium and computer equipment
JP7375302B2 (en) * 2019-01-11 2023-11-08 ヤマハ株式会社 Acoustic analysis method, acoustic analysis device and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981141A (en) * 1995-09-14 1997-03-28 Hitachi Ltd Automatic composition system and automatic composition method
JP2000148141A (en) * 1998-09-09 2000-05-26 Yamaha Corp Automatic composing device and storage medium
JP2002196757A (en) * 2001-11-15 2002-07-12 Yamaha Corp Automatic composition apparatus
JP2002278549A (en) * 2001-08-10 2002-09-27 Yamaha Corp Lyric writing and composing system and program
JP2003255949A (en) * 2002-03-06 2003-09-10 Yamaha Corp Automatic pitch correcting device and automatic composition apparatus
JP2008209535A (en) * 2007-02-26 2008-09-11 Doshisha System and method for generating music information

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4246822A (en) * 1979-02-09 1981-01-27 Kawai Musical Instrument Mfg. Co. Ltd. Data transfer apparatus for digital polyphonic tone synthesizer
US4399731A (en) * 1981-08-11 1983-08-23 Nippon Gakki Seizo Kabushiki Kaisha Apparatus for automatically composing music piece
JP3055352B2 (en) * 1993-03-13 2000-06-26 ヤマハ株式会社 Accompaniment pattern creation device
JPH07219536A (en) * 1994-02-03 1995-08-18 Yamaha Corp Automatic arrangement device
JP3528361B2 (en) * 1995-09-12 2004-05-17 カシオ計算機株式会社 Automatic composer
JP3580210B2 (en) * 2000-02-21 2004-10-20 ヤマハ株式会社 Mobile phone with composition function
US7251597B2 (en) * 2002-12-27 2007-07-31 International Business Machines Corporation Method for tracking a pitch signal
JP4277697B2 (en) * 2004-01-23 2009-06-10 ヤマハ株式会社 SINGING VOICE GENERATION DEVICE, ITS PROGRAM, AND PORTABLE COMMUNICATION TERMINAL HAVING SINGING VOICE GENERATION FUNCTION
JP5157922B2 (en) * 2009-01-09 2013-03-06 ヤマハ株式会社 Speech synthesizer and program
JP5471858B2 (en) * 2009-07-02 2014-04-16 ヤマハ株式会社 Database generating apparatus for singing synthesis and pitch curve generating apparatus
JP5605066B2 (en) * 2010-08-06 2014-10-15 ヤマハ株式会社 Data generation apparatus and program for sound synthesis

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981141A (en) * 1995-09-14 1997-03-28 Hitachi Ltd Automatic composition system and automatic composition method
JP2000148141A (en) * 1998-09-09 2000-05-26 Yamaha Corp Automatic composing device and storage medium
JP2002278549A (en) * 2001-08-10 2002-09-27 Yamaha Corp Lyric writing and composing system and program
JP2002196757A (en) * 2001-11-15 2002-07-12 Yamaha Corp Automatic composition apparatus
JP2003255949A (en) * 2002-03-06 2003-09-10 Yamaha Corp Automatic pitch correcting device and automatic composition apparatus
JP2008209535A (en) * 2007-02-26 2008-09-11 Doshisha System and method for generating music information

Also Published As

Publication number Publication date
CN102956224B (en) 2016-08-24
CN102956224A (en) 2013-03-06
TWI471853B (en) 2015-02-01
TW201312547A (en) 2013-03-16
JP5974436B2 (en) 2016-08-23

Similar Documents

Publication Publication Date Title
JP5974436B2 (en) Music generator
KR100658869B1 (en) Music generating device and operating method thereof
US20210193114A1 (en) Electronic musical instruments, method and storage media
JP6728754B2 (en) Pronunciation device, pronunciation method and pronunciation program
CN112382257B (en) Audio processing method, device, equipment and medium
US20210295819A1 (en) Electronic musical instrument and control method for electronic musical instrument
US20220076651A1 (en) Electronic musical instrument, method, and storage medium
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
WO2015060340A1 (en) Singing voice synthesis
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
JP5899833B2 (en) Music generation apparatus and music generation method
JP2016206496A (en) Controller, synthetic singing sound creation device and program
JP4844623B2 (en) CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM
JP6167503B2 (en) Speech synthesizer
JPH11126083A (en) Karaoke reproducer
WO2023171522A1 (en) Sound generation method, sound generation system, and program
JP2018151547A (en) Sound production device and sound production control method
JP2018151548A (en) Pronunciation device and loop section setting method
JP5598056B2 (en) Karaoke device and karaoke song introduction program
WO2022080395A1 (en) Audio synthesizing method and program
JP6525034B2 (en) Code progression information generation apparatus and program for realizing code progression information generation method
Subramanian Carnatic music-automatic computer synthesis of gamakams
JP2016177277A (en) Sound generating device, sound generating method, and sound generating program
JP2022065566A (en) Method for synthesizing voice and program
JP2022065554A (en) Method for synthesizing voice and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160704

R151 Written notification of patent or utility model registration

Ref document number: 5974436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151