JPH0981141A - Automatic composition system and automatic composition method - Google Patents

Automatic composition system and automatic composition method

Info

Publication number
JPH0981141A
JPH0981141A JP7237082A JP23708295A JPH0981141A JP H0981141 A JPH0981141 A JP H0981141A JP 7237082 A JP7237082 A JP 7237082A JP 23708295 A JP23708295 A JP 23708295A JP H0981141 A JPH0981141 A JP H0981141A
Authority
JP
Japan
Prior art keywords
value sequence
tone value
data
sequence data
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7237082A
Other languages
Japanese (ja)
Other versions
JP3623557B2 (en
Inventor
Takashi Hasegawa
長谷川  隆
Yoshinori Kitahara
義典 北原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP23708295A priority Critical patent/JP3623557B2/en
Publication of JPH0981141A publication Critical patent/JPH0981141A/en
Application granted granted Critical
Publication of JP3623557B2 publication Critical patent/JP3623557B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an automatic composition system capable of producing musical pieces without requiring the specialized knowledge relating to music. SOLUTION: This automatic composition system has a note value string data base 34 which stores the plural sets of the note value string data corresponding to the note value strings respectively including the note values for plural music piece-music components, a processor 12 which selects a prescribed one from the plural sets of the note value string data and forms melody data by imparting pitches to the respective note values included in the selected set of the note value string data and a reproducing device 20 which reproduces a prescribed melody according to the pitches and note values included in the resulted melody data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、楽曲を自動的に生成す
る自動作曲システムに関し、より詳細には、専門的な知
識を必要とすることなく、バックグラウンド音楽に好適
な楽曲を生成する自動作曲システムに関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic music composition system for automatically creating music, and more specifically, an automatic music composition system for automatically creating music suitable for background music without requiring specialized knowledge. It is about a composition system.

【0002】[0002]

【従来の技術】従来より、楽曲を自動的に生成する技術
が提案されている。このような技術には、たとえば、乱
数に基づき得られた音符が、楽理的に適切であるか否か
を判断し、不適切である場合には、再度音符を得ること
により楽曲を生成する技法、マルコフ連鎖を用いて、確
率的に音符を求めることにより楽曲を生成する技法、或
いは、既存曲から抽出した音符やリズム感の推移確率お
よび乱数を用いて楽曲を生成する技法などが知られてい
る(「コンピュータと音楽」 共立出版、第9頁)。ま
た、特開平5−181409記載に記載されたように、
1小節分のリズムパターンを、1小節毎にデータベース
より検索することにより音価列を生成する技法が知られ
ている。このような楽曲を構成するメロディは、音符の
長さを示す音価および音の高さを示す音高から構成され
ている。
2. Description of the Related Art Conventionally, techniques for automatically generating music have been proposed. For such a technique, for example, it is determined whether a note obtained based on a random number is rationally appropriate, and if it is inappropriate, a note is re-obtained to generate a music piece. Techniques, such as the technique of generating music by probabilistically finding notes using Markov chains, or the technique of generating music using transition probabilities and random numbers of musical notes and rhythms extracted from existing music are known. ("Computer and Music" Kyoritsu Shuppan, page 9). Further, as described in JP-A-5-181409,
A technique is known in which a note value sequence is generated by searching a database for a rhythm pattern for one bar for each bar. The melody that constitutes such a piece of music is composed of a note value indicating the length of a note and a pitch indicating the pitch of the note.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、前述し
たメロディ中の音価の列であるリズムは、一定のパター
ンを繰り返す場合が多く、確率的に変動するものではな
いため、確率や乱数鵜を用いてメロディを生成すると、
音楽的で、視聴者が心地好く感じるようなメロディを得
ることが困難であるという問題点があった。
However, since the rhythm, which is a sequence of tone values in the melody described above, often repeats a fixed pattern and does not fluctuate stochastically, probability and random cormorants are used. To generate a melody,
There is a problem that it is difficult to obtain a melody that is musical and makes the viewer feel comfortable.

【0004】その一方、リズムパターンを検索すること
を繰り返して音価列を得る技法にあっては、i)生成さ
れた複数のリズムパターンの間の相互関係を考慮してい
ないこと、ii)リズムパターンが1小節に限定されるこ
となどから、音楽的で、視聴者が心地好く感じるような
音価列を生成することは困難であった。
On the other hand, in the technique of obtaining a note value sequence by repeatedly searching for rhythm patterns, i) the mutual relationship between a plurality of generated rhythm patterns is not taken into consideration, ii) rhythm Since the pattern is limited to one measure, it is difficult to generate a tone value sequence that is musical and makes the viewer feel comfortable.

【0005】さらに、いずれの方法を用いたとしても、
音楽の知識を有さない者が、楽曲、特に、所定の時間長
の楽曲を得ることは困難であるという問題点があった。
Furthermore, whichever method is used,
There is a problem that it is difficult for a person who does not have knowledge of music to obtain a music piece, particularly a music piece having a predetermined time length.

【0006】本発明の目的は、音楽に関する知識を必要
とすることなく、音楽的な楽曲を容易に生成することが
できる自動作曲システムを提供することにある。
An object of the present invention is to provide an automatic music composition system which can easily generate musical music without requiring knowledge about music.

【0007】また、本発明の目的は、音楽に関する知識
を必要とすることなく、所望の時間長の楽曲を得ること
ができる自動作曲システムを提供することにある。
Another object of the present invention is to provide an automatic music composition system capable of obtaining a music piece of a desired time length without requiring knowledge about music.

【0008】[0008]

【課題を解決するための手段】本発明の目的は、所定の
音価のそれぞれに、所定の音高を付与することによりメ
ロディを生成する自動作曲システムであって、各々が楽
曲一曲分の複数の音価を含む音価列に対応する、複数の
音価列データの組を記憶する音価列記憶手段と、前記音
価列記憶手段に記憶された複数の音価列データの組から
所定の一つを選択する音価列選択手段と、前記音価列選
択手段により選択された音価列データの組に含まれる音
価のそれぞれに音高を付与して、メロディデータを生成
する音高付与手段とを備えたことを特徴とする自動作曲
システムにより達成される。
SUMMARY OF THE INVENTION An object of the present invention is an automatic music composition system for generating a melody by giving a predetermined pitch to a predetermined tone value, each of which corresponds to one music piece. From a tone value sequence storage means for storing a plurality of tone value sequence data sets corresponding to a tone value sequence including a plurality of tone values, and a plurality of tone value sequence data sets stored in the tone value sequence storage means. A tone value sequence selecting means for selecting a predetermined one and a tone value included in each of the tone value sequence data sets selected by the tone value sequence selecting means are given pitches to generate melody data. It is achieved by an automatic music composition system including a pitch imparting means.

【0009】本発明の好ましい実施態様においては、さ
らに、前記メロディデータに含まれる音高および音価に
したがって、所定のメロディを再生する再生手段を備え
テいる。
A preferred embodiment of the present invention further comprises a reproducing means for reproducing a predetermined melody in accordance with the pitch and tone value contained in the melody data.

【0010】本発明のさらに好ましい実施態様において
は、前記音価列データの組が、それぞれ、当該音価列デ
ータの組に基づき得られた楽曲の再生時間を示す再生時
間データを含み、前記システムが、さらに、操作者によ
り与えられる楽曲の所要時間を受け入れる所要時間入力
手段と、前記所要時間入力手段により得られた所要時間
と、前記音価列データの組に含まれる再生時間データに
対応する再生時間とを比較する比較手段とを備え、前記
音価列選択手段が、前記比較手段による比較結果にした
がって所定の音価列データの組を選択し、選択された音
価列データの組に基づき、メロディデータが生成される
ように構成されている。
In a further preferred aspect of the present invention, each of the note value sequence data sets includes reproduction time data indicating a reproduction time of a music piece obtained based on the note value sequence data set. Further, it corresponds to the required time input means for accepting the required time of the music given by the operator, the required time obtained by the required time input means, and the reproduction time data included in the set of the note value sequence data. A tone value sequence selection means for selecting a predetermined tone value sequence data set according to the comparison result by the comparison means, and selecting the selected tone value sequence data set. Based on this, melody data is generated.

【0011】本発明のさらに好ましい実施態様において
は、前記音価列選択手段が、前記所要時間と前記再生時
間との比が最も1に近いような音価列データの組を選択
するように構成されている。
In a further preferred aspect of the present invention, the tone value sequence selecting means is configured to select a tone value sequence data set such that a ratio of the required time and the reproduction time is closest to 1. Has been done.

【0012】本発明のさらに好ましい実施態様において
は、前記音価列選択手段が、前記所要時間と前記再生時
間との差が最も小さいような音価列データの組を選択す
るように構成されている。
[0012] In a further preferred aspect of the present invention, the tone value sequence selecting means is configured to select a tone value sequence data set such that a difference between the required time and the reproduction time is smallest. There is.

【0013】本発明のさらに好ましい実施態様において
は、前記音価列データの組が、それぞれ、当該音価列デ
ータの組に基づき得られた楽曲のテンポを示すテンポデ
ータを含み、前記システムが、さらに、前記音価列選択
手段により選択された音価列データの組に含まれるテン
ポデータを、前記所要時間にしたがって調整するテンポ
データ調整手段を備えている。
In a further preferred aspect of the present invention, each of the note value sequence data sets includes tempo data indicating a tempo of a music piece obtained based on the note value sequence data set. Further, it is provided with tempo data adjusting means for adjusting the tempo data included in the set of tone value sequence data selected by the tone value sequence selecting means according to the required time.

【0014】本発明のさらに好ましい実施態様において
は、前記比較手段が、前記所要時間が何れの音価列デー
タの組に含まれる再生時間データに対応する再生時間よ
りも大きい場合に、前記所要時間と前記再生時間の整数
倍とを比較し、前記音価列選択手段が、前記所要時間と
前記再生時間の整数倍との間の比が最も1に近いような
音価列データの組を選択して、前記音価列データの組に
含まれる音価列が前記整数回だけ繰り返された新たな音
価列データの組を生成し、得られた音価列データの組に
基づき、メロディデータが生成されるように構成されて
いる。
In a further preferred aspect of the present invention, when the required time is greater than the reproduction time corresponding to the reproduction time data included in any of the tone value sequence data sets, the required time is exceeded. Is compared with an integer multiple of the reproduction time, and the tone value sequence selecting means selects a tone value sequence data set in which the ratio between the required time and the integral time of the reproduction time is closest to 1. Then, a new tone value sequence data set in which the tone value sequence included in the tone value sequence data set is repeated the integer number of times is generated, and the melody data is generated based on the obtained tone value sequence data set. Are configured to be generated.

【0015】本発明のさらに好ましい実施態様において
は、前記比較手段が、前記所要時間が何れの音価列デー
タの組に含まれる再生時間データに対応する再生時間よ
りも大きい場合に、前記所要時間と前記再生時間の整数
倍とを比較し、前記音価列選択手段が、前記所要時間と
前記再生時間の整数倍との差が最も小さいような音価列
データの組を選択して、前記音価列データの組に含まれ
る音価列が前記整数回だけ繰り返された新たな音価列デ
ータの組を生成し、得られた音価列データの組に基づ
き、メロディデータが生成されるように構成されてい
る。
In a further preferred aspect of the present invention, when the required time is greater than the reproduction time corresponding to the reproduction time data included in any of the tone value sequence data sets, the required time is exceeded. And an integer multiple of the reproduction time, the note value sequence selecting means selects a set of note value sequence data such that the difference between the required time and the integer multiple of the reproduction time is the smallest, and A new tone value sequence data set in which the tone value sequence included in the tone value sequence data set is repeated an integer number of times is generated, and melody data is generated based on the obtained tone value sequence data set. Is configured.

【0016】本発明のさらに好ましい実施態様において
は、前記音高付与手段が、音価列のそれぞれに対応し
て、ランダムにピッチデータを付与するように構成され
ている。
[0016] In a further preferred aspect of the present invention, the pitch imparting means is configured to randomly impart pitch data corresponding to each tone value sequence.

【0017】本発明の別の実施態様においては、複数の
画像を、予め定められた手順にしたがって、それぞれを
所定の時間だけディスプレイに表示するとともに、当該
画像の少なくとも一つに対応して所定の楽曲を再生する
ように構成されたマルチメディア情報再生システムが、
楽曲を付与すべき少なくとも一つの画像を選択する画像
選択手段と、前記画像選択手段より選択された画像の表
示時間を抽出する表示時間抽出手段と、各々が楽曲一曲
分の複数の音価を含む複数の音価列と、当該楽曲の再生
時間を示す再生時間データとを含む、複数の音価列デー
タの組を記憶する音価列記憶手段と、前記表示時間抽出
手段により得られた表示時間と、前記音価列データの組
に含まれる再生時間データに対応する再生時間とを比較
する比較手段と、前記比較手段による比較結果にしたが
って、前記音価列記憶手段に記憶された複数の音価列デ
ータの組から所定の一つを選択する音価列選択手段と、
前記音価列選択手段により選択された音価列データに含
まれる音価のそれぞれに音高を付与して、メロディデー
タを生成する音高付与手段と、前記メロディデータに含
まれる音高および音価にしたがって、所定のメロディを
再生する再生手段を備えている。
In another embodiment of the present invention, a plurality of images are displayed on a display for a predetermined time according to a predetermined procedure, and a predetermined image corresponding to at least one of the images is displayed. A multimedia information playback system configured to play songs,
Image selecting means for selecting at least one image to which a music piece is to be added, display time extracting means for extracting a display time of the image selected by the image selecting means, and each of the plurality of note values for one music piece. A tone value sequence storage unit that stores a plurality of tone value sequence data sets including a plurality of tone value sequence numbers and playback time data indicating the playback time of the music, and the display obtained by the display time extraction unit. Comparison means for comparing the time and the reproduction time corresponding to the reproduction time data included in the set of the tone value sequence data, and a plurality of storage means stored in the tone value sequence storage means according to the comparison result by the comparison means. Note value sequence selecting means for selecting a predetermined one from a set of note value sequence data,
Pitch assigning means for assigning a pitch to each of the tone values included in the tone value sequence data selected by the tone value sequence selecting means to generate melody data, and a tone pitch and a tone included in the melody data. According to the price, a reproducing means for reproducing a predetermined melody is provided.

【0018】[0018]

【作用】本発明によれば、楽曲一曲分の音価列に対応す
る音価列データの組を、一つ選択し、この音価列データ
の組に含まれる音価列のそれぞれに、音高を対応させ
て、これにより、メロディを生成するため、専門的な知
識を有することなく、操作者が、容易に楽曲を得ること
が可能となる。また、音価列自体が、予め定められてい
るため、自然なリズムを得ることができ、このため、よ
り音楽的に心地好いメロディを得ることが可能となる。
According to the present invention, one set of note value sequence data corresponding to the note value sequence for one music piece is selected, and each of the note value sequences included in this note value sequence data set is selected. Since the pitches are made to correspond to each other to generate the melody, the operator can easily obtain the music without having specialized knowledge. Further, since the tone value sequence itself is predetermined, it is possible to obtain a natural rhythm, which makes it possible to obtain a more musically pleasing melody.

【0019】本発明のさらに好ましい実施態様によれ
ば、操作者により与えられた所要時間に整合する再生時
間を有する音価列データの組を選択し、これに基づき、
メロディが得られるため、専門的な知識を必要とするこ
となく、操作者は、所望の時間長のメロディを得ること
が可能となる。
According to a further preferred embodiment of the invention, a set of note value sequence data having a reproduction time matching the required time given by the operator is selected, on the basis of which
Since the melody is obtained, the operator can obtain the melody of a desired time length without requiring specialized knowledge.

【0020】本発明のさらに好ましい実施態様によれ
ば、所定の再生時間を有する音価列データの組を選択
し、さらに、操作者に与えられた所要時間と、当該再生
時間とが一致するように、テンポデータを調整するた
め、より正確に、所望の時間長のメロディを得ることが
可能となる。
According to a further preferred aspect of the present invention, a set of tone value sequence data having a predetermined reproduction time is selected, and further, the required time given to the operator and the reproduction time match. Moreover, since the tempo data is adjusted, it is possible to more accurately obtain a melody of a desired time length.

【0021】本発明のさらに好ましい実施態様によれ
ば、操作者により与えられた所定時間が、予め記憶され
た音価列データの組に基づき得られるメロディの再生時
間よりも長い場合であっても、所定の音価列を繰り返す
ことにより、所望の時間長を有する、自然なテンポのメ
ロディを得ることが可能となる。
According to a further preferred embodiment of the present invention, even when the predetermined time given by the operator is longer than the reproduction time of the melody obtained on the basis of the set of the tone value sequence data stored in advance. , By repeating a predetermined tone value sequence, it is possible to obtain a melody with a desired time length and a natural tempo.

【0022】本発明の別の好ましい実施態様によれば、
所定の画像の各々に対応して、所望の時間長のメロディ
を得ることができるため、画像の各々に対応する、好適
なバックグラウンド音楽を得ることが可能となる。
According to another preferred embodiment of the invention,
Since a melody having a desired time length can be obtained corresponding to each of the predetermined images, it is possible to obtain a suitable background music corresponding to each of the images.

【0023】[0023]

【実施例】以下、添付図面を参照して、本発明の実施例
につき、説明を加える。本発明による自動作曲方法の実
施例を図面を用いて詳細に説明する。図1は、本発明の
実施例にかかる自動作曲システムの構成を示すハードウ
ェア構成図である。
Embodiments of the present invention will be described below with reference to the accompanying drawings. An embodiment of the automatic music composition method according to the present invention will be described in detail with reference to the drawings. FIG. 1 is a hardware configuration diagram showing a configuration of an automatic music composition system according to an embodiment of the present invention.

【0024】図1に示すように、この自動作曲システム
は、システム全体を制御するプロセッサ12、後述する
記憶装置に記憶された種々のプログラムを一時的に記憶
するためのプログラムメモリ14、プロセッサにより処
理中に生じるデータなどを一時的に記憶するためのデー
タメモリ16、所定の処理により得られた楽曲などを表
示するためのディスプレイ18、得られた楽曲に関する
データに基づき、所定の音高の楽音を所定の時間だけ発
音するための楽音発生装置(図示せず)、楽音発生装置
により得られた楽音を増幅するための増幅器(図示せ
ず)、および、当該楽音を再生するためのスピーカ(図
示せず)などを有する再生装置20、操作者が所望の指
令を入力するためのキーボード24およびマウス26、
並びに、種々の情報を記憶している記憶装置28を備え
ている。
As shown in FIG. 1, this automatic music composition system is processed by a processor 12 for controlling the entire system, a program memory 14 for temporarily storing various programs stored in a storage device described later, and a processor. A data memory 16 for temporarily storing data generated therein, a display 18 for displaying a music piece obtained by a predetermined process, and a musical tone having a predetermined pitch based on the data about the obtained music piece. A tone generator (not shown) for producing a predetermined time, an amplifier (not shown) for amplifying the tone obtained by the tone generator, and a speaker (not shown) for reproducing the tone. , A keyboard 24 and a mouse 26 for the operator to input a desired command,
In addition, a storage device 28 that stores various information is provided.

【0025】本実施例において、記憶装置28は、ハー
ドディスクおよびハードディスクドライバから構成され
る2次記憶装置である。図1に示すように、この記憶装
置28には、本発明にしたがって楽曲を生成するための
音価検索プログラム30と、ピッチ付与プログラム32
が記憶されている。さらに、記憶装置28には、前述し
た音価検索プログラム30を実行する際に用いられる音
価列データベース34が格納されている。これらプログ
ラム30、32およびデータベース34については、後
に詳細に説明する。
In the present embodiment, the storage device 28 is a secondary storage device composed of a hard disk and a hard disk driver. As shown in FIG. 1, in this storage device 28, a note value search program 30 for generating music according to the present invention and a pitch assignment program 32.
Is remembered. Further, the storage device 28 stores a tone value sequence database 34 used when the tone value search program 30 described above is executed. The programs 30, 32 and the database 34 will be described in detail later.

【0026】本実施例にかかる自動作曲システムにおい
ては、操作者がキーボード24およびマウス26を操作
することに所定の指令をプロセッサ12に与えると、プ
ロセッサ12が、記憶装置28に記憶されたプログラム
30、32を読みだし、これらをプログラムメモリ14
に一時的に記憶し、この一時的に記憶されたプログラム
にしたがって、プロセッサ301が所定の処理を実行す
る。このような処理により得られた楽曲に関連するデー
タは、再生装置20に与えられるとともに、ディスプレ
イ18に与えられる。再生装置20においては、楽音発
生装置により生成された楽音データが、A/D変換器
(図示せず)に与えられ、さらに、A/D変換器からの
アナログ信号を、増幅器(図示せず)により所望に増幅
し、増幅された信号がスピーカに与えられる。このよう
にして、処理により得られた楽曲を再生することが可能
となる。
In the automatic music composition system according to this embodiment, when the operator gives the processor 12 a predetermined command to operate the keyboard 24 and the mouse 26, the processor 12 causes the program 30 stored in the storage device 28 to be stored. , 32, and these are stored in the program memory 14
The processor 301 executes a predetermined process in accordance with the temporarily stored program. The data related to the music obtained by such processing is given to the reproducing device 20 and the display 18. In the reproducing device 20, the musical sound data generated by the musical sound generating device is given to an A / D converter (not shown), and an analog signal from the A / D converter is further amplified (not shown). Amplifies the signal as desired, and the amplified signal is given to the speaker. In this way, the music obtained by the processing can be reproduced.

【0027】また、ディスプレイ18は、与えられたデ
ータに対応する画像を生成し、これを画面上に再生す
る。
The display 18 also generates an image corresponding to the given data and reproduces it on the screen.

【0028】次に、本実施例の自動作曲システムのプロ
セッサ12による処理をより詳細に説明する。ここに、
図2は、本実施例の処理の概要を示すフローチャートで
ある。図2に示すように、プロセッサ12による処理
は、全般的には、楽曲のメロディの音価を構成する音価
列を選択する処理(ステップ201)、および、選択さ
れた音価列に含まれる音価の各々に音高、すなわち、ピ
ッチを付与する処理(ステップ202)から構成され
る。ステップ201においては、プログラムメモリ14
に一時的に記憶された音価列検索プログラムがプロセッ
サ12により実行され、その一方、ステップ202にお
いては、プログラムメモリ14に一時的に記憶されたピ
ッチ付与プログラムが実行される。
Next, the processing by the processor 12 of the automatic music composition system of this embodiment will be described in more detail. here,
FIG. 2 is a flowchart showing an outline of the processing of this embodiment. As shown in FIG. 2, the process by the processor 12 is generally included in the process of selecting the note value sequence that constitutes the note value of the melody of the music (step 201) and the selected note value sequence. It is composed of a process (step 202) of giving a pitch, that is, a pitch to each of the note values. In step 201, the program memory 14
The note value sequence search program temporarily stored in the processor 12 is executed by the processor 12, while the pitch assigning program temporarily stored in the program memory 14 is executed in step 202.

【0029】まず、ステップ201の処理をより詳細に
説明する。ここに、図3は、本実施例にかかる自動作曲
システムの記憶装置28に格納された音価列データベー
ス34に含まれる音価列などを説明するための図であ
る。
First, the process of step 201 will be described in more detail. Here, FIG. 3 is a diagram for explaining a tone value sequence included in the tone value sequence database 34 stored in the storage device 28 of the automatic composition system according to the present embodiment.

【0030】図3に示すように、音価列データベース3
4には、複数個の音価および他の必要な情報からなる音
価列データの組が、N個記憶されている(符号300−
1ないし300−Nにより示す)。たとえば、第1番目
の音価列データの組300−1には、プロセッサ12が
処理を実行する際に、この組を特定するためのIDとし
て使用されるIDデータ301と、音価列の拍子を示す
拍子データ302と、複数の音価に対応する実データ3
03とが含まれる。
As shown in FIG. 3, the note value sequence database 3
4 stores N sets of tone value sequence data consisting of a plurality of tone values and other necessary information (reference numeral 300-).
1 to 300-N). For example, in the first tone value sequence data set 300-1, the ID data 301 used as an ID for identifying this set when the processor 12 executes the processing and the tone value sequence time signature. Data 302 indicating the number and actual data 3 corresponding to a plurality of note values
03 and 03 are included.

【0031】拍子データ302は、生成すべきメロディ
の拍子に関する情報であり、たとえば、音価列データの
組300−1においては、「4/4(4分の4)拍子」
を示す値となる。
The time signature data 302 is information about the time signature of the melody to be generated. For example, in the note value sequence data set 300-1, "4/4 (fourths) meter".
.

【0032】実データ303は、より詳細には、楽曲一
曲分のメロディを構成する複数の音価の発音タイミング
を示すデータと、音符の長さを示すデータとから構成さ
れている。ここに、図4は、音価列データの組300−
1に含まれる実データの内容を示す図である。図4に示
すように、実データは、発音タイミングを示すタイミン
グデータ401と音符の長さを示す音長データ402か
らなるデータの組(400−1ないし400−4)から
構成される。これらタイミングデータ401の値および
音長データ402は、4分音符を96とした場合の値に
対応している。すなわち、第1のデータの組400−1
においては、最初のタイミング、すなわち、スタートか
ら0(ゼロ)時間経過したタイミングで、4分音符の音
長の音を発音すべきことが示されている。また、第2の
データの組400−2においては、スタートから4分音
符二つ分の長さだけ経過したタイミングで、8分音符の
音長の音を発音すべきことが示されている。このような
値を有する複数のデータの組により、楽曲一曲分の音価
を表わすことができる。
More specifically, the actual data 303 is composed of data indicating sounding timings of a plurality of note values forming a melody for one music piece and data indicating note lengths. Here, FIG. 4 shows a set 300 of tone value sequence data.
It is a figure which shows the content of the actual data contained in 1. As shown in FIG. 4, the actual data is composed of a data set (400-1 to 400-4) including timing data 401 indicating sounding timing and sound length data 402 indicating note length. The value of the timing data 401 and the tone length data 402 correspond to the value when the quarter note is 96. That is, the first data set 400-1
(1), it is indicated that a note of a quarter note duration should be generated at the first timing, that is, the timing when 0 (zero) time has elapsed from the start. Further, the second data set 400-2 indicates that a note having a note length of eight notes should be generated at the timing when two quarter notes have elapsed from the start. With a set of a plurality of data having such values, it is possible to represent the musical value of one music piece.

【0033】このような音価列データの組を、ステップ
201において選択する処理を以下に説明する。図5
は、ステップ201の処理をより詳細に示すフローチャ
ートである。図5に示すように、まず、音価列データの
組に一致するように、1ないしNのうちの何れかの整数
乱数Xを得て、これをデータメモリ16の所定の領域に
一時的に記憶し(ステップ501)、得られた乱数Xと
一致するID番号を有する音価列データの組を検索する
(ステップ502ないしステップ504)。ステップ5
02ないし504を繰り返した結果、乱数Xと一致する
ID番号を有する音価列データの組が検索されると、こ
の音価列データの組を記憶装置28の音価列データベー
スから読みだし、これをデータメモリ16の所定の領域
に記憶する(ステップ505)。
The process of selecting such a set of tone value sequence data in step 201 will be described below. FIG.
3 is a flowchart showing the processing of step 201 in more detail. As shown in FIG. 5, first, an integer random number X of 1 to N is obtained so as to match the tone value sequence data set, and this is temporarily stored in a predetermined area of the data memory 16. The set is stored (step 501) and a set of tone value sequence data having an ID number matching the obtained random number X is searched (steps 502 to 504). Step 5
As a result of repeating 02 to 504, when a tone value sequence data set having an ID number that matches the random number X is searched, this tone value sequence data set is read from the tone value sequence database of the storage device 28, and Is stored in a predetermined area of the data memory 16 (step 505).

【0034】次に、ステップ202における処理をより
詳細に説明する。このステップは、プログラムメモリ1
4に一時的に記憶されたピッチ付与プログラム32にし
たがって実行される。ここに、図6は、ステップ202
の処理をより詳細に示すフローチャートである。この処
理では、ステップ201においてデータメモリ16に記
憶された音価列データの組の実データに含まれるデータ
の組のそれぞれに対応して、音高データを生成する。よ
り詳細には、実データに含まれる最初のデータの組中の
音長データに、0ないし127のうちの何れかの整数乱
数を得て、これを、当該データの組に対応する音高と決
定する(ステップ601、602)。このような処理を
繰り返し、実データに含まれる最後のデータの組に対応
する音高を得ると処理を終了する(ステップ603でイ
エス(yes))。
Next, the processing in step 202 will be described in more detail. This step is the program memory 1
4 is executed in accordance with the pitch giving program 32 temporarily stored in No. 4. Here, in FIG. 6, step 202
6 is a flowchart showing the processing of step 1 in more detail. In this process, pitch data is generated corresponding to each data set included in the actual data of the tone value sequence data set stored in the data memory 16 in step 201. More specifically, an integer random number from 0 to 127 is obtained for the tone length data in the first data set included in the actual data, and this is used as the pitch corresponding to the data set. It is determined (steps 601, 602). Such processing is repeated, and when the pitch corresponding to the last data set included in the actual data is obtained, the processing ends (Yes in step 603).

【0035】本実施例において、音高データの値は、M
IDI規格の音高データの値と一致するようにしてい
る。すなわち、最低値の“0(ゼロ)”が、C−(マイ
ナス)2に対応し、最高値の“127”が、G8に対応
するようになっている。
In this embodiment, the value of the pitch data is M
It is designed to match the value of the pitch data of the IDI standard. That is, the lowest value "0 (zero)" corresponds to C- (minus) 2, and the highest value "127" corresponds to G8.

【0036】このような処理を実行した結果、たとえ
ば、図4のような実データを含む音価列データの組に基
づいて、図7(a)に示すような、音高データを含むメ
ロディデータ、すなわち、タイミングデータ701、音
長データ702および音高データ703からなるデータ
の組700−1、700−2、700−3、700−4
・・・・・を得ることができる。
As a result of executing such processing, for example, based on a set of tone value sequence data including actual data as shown in FIG. 4, melody data including pitch data as shown in FIG. 7A. That is, that is, a data set 700-1, 700-2, 700-3, 700-4 composed of timing data 701, pitch length data 702 and pitch data 703.
... can be obtained.

【0037】たとえば、図7に示すメロディデータにお
いて、最初のデータの組700−1は、最初のタイミン
グで、C3に対応する音高の4分音符の音長の音を発生
するべきことを示している。また、第2のデータの組7
00−2は、スタートから4分音符二つ分の長さだけ経
過したタイミングで、G3に対応する音高の8分音符の
音調の音を発生すべきことを示している。このように得
られたデータの組に基づき、図7(b)に示すようなメ
ロディを得ることができる。
For example, in the melody data shown in FIG. 7, the first data set 700-1 indicates that at the first timing, a note having a pitch of a quarter note corresponding to C3 should be generated. ing. Also, the second data set 7
00-2 indicates that the tone of the eighth note of the pitch corresponding to G3 should be generated at the timing when the length of two quarter notes has elapsed from the start. Based on the data set thus obtained, a melody as shown in FIG. 7B can be obtained.

【0038】なお、メロディデータには、前述した音価
列データの組中の拍子データも含まれている。
The melody data also includes the time signature data in the set of note value sequence data described above.

【0039】このように得られたメロディデータは、デ
ータメモリ16の所定の領域に記憶される。操作者がキ
ーボード24およびマウス26を操作することにより、
メロディデータにしたがった楽曲を再生すべき旨の指令
を与えると、プロセッサ12は、メロディデータを、デ
ータメモリ16から読みだし、これを再生装置20に与
える。再生装置20は、操作者により与えられたテンポ
或いは予め定められたテンポで、与えられたデータにし
たがって所定の音長および音高の楽音を発生し、これに
より、スピーカが楽曲を再生する。
The melody data thus obtained is stored in a predetermined area of the data memory 16. By operating the keyboard 24 and the mouse 26 by the operator,
When a command is issued to reproduce a music piece according to the melody data, the processor 12 reads the melody data from the data memory 16 and gives it to the reproducing device 20. The reproducing apparatus 20 generates a musical sound of a predetermined tone length and pitch according to the given data at the tempo given by the operator or at a predetermined tempo, whereby the speaker plays the music.

【0040】また、操作者がキーボード24などを操作
することにより、メロディデータにしたがった楽譜をデ
ィスプレイの画面上に表示すべき旨の指令を与えると、
プロセッサ12は、メロディデータを、データメモリか
ら読みだし、このデータに基づく画像データを生成し、
これをディスプレイ18に与える。ディスプレイ18
は、与えられた画像データに対応する画像を、その画面
上に再生する。
When the operator operates the keyboard 24 or the like to give a command to display the musical score according to the melody data on the screen of the display,
The processor 12 reads the melody data from the data memory, generates image data based on this data,
This is given to the display 18. Display 18
Reproduces the image corresponding to the given image data on the screen.

【0041】本実施例によれば、音価列データベースか
ら、拍子データおよび楽曲一曲分の音価を含む実データ
からなる音価列データの組が選択され、選択された実デ
ータを構成する音価のそれぞれに対して、音高が付加さ
れ、その結果、楽曲一曲分のメロディに対応するメロデ
ィデータを得ることができる。したがって、専門的な知
識を要することなく、操作者は、音楽的な楽曲を得るこ
とが可能となる。
According to the present embodiment, a set of note value sequence data consisting of time signature data and actual data including note values for one music piece is selected from the note value sequence database to form the selected actual data. A pitch is added to each of the tone values, and as a result, melody data corresponding to the melody of one song can be obtained. Therefore, the operator can obtain musical compositions without requiring specialized knowledge.

【0042】さらに、楽曲一曲分の音価を含む実データ
が予め音価列データベースに記憶されているため、複雑
な処理を実行することなく、容易に適切な楽曲を得るこ
とが可能となる。
Further, since the actual data including the tone value of one song is stored in the tone value sequence database in advance, it is possible to easily obtain an appropriate song without executing complicated processing. .

【0043】次に、本発明の第2の実施例にかかる自動
作曲システムにつき説明を加える。この第2実施例にお
いては、操作者が希望する時間長を有する楽曲を生成す
ることができる。図8は、この第2実施例にかかる自動
作曲システムのハードウェア構成図である。図8に示す
ように、この自動作曲システムの構成は、第1実施例の
自動作曲システムの構成と、以下の点を除いて同一であ
る。すなわち、記憶装置28には、操作者による楽曲の
所要時間の入力を受け入れるための所要時間入力プログ
ラム36が、さらに格納されている。また、音価列検索
プログラム30′および音価列データベース34′の内
容が後述するように、第1実施例のものと相違する。
Next, an automatic music composition system according to the second embodiment of the present invention will be described. In the second embodiment, it is possible to generate a musical piece having a time length desired by the operator. FIG. 8 is a hardware configuration diagram of the automatic music composition system according to the second embodiment. As shown in FIG. 8, the structure of this automatic music composition system is the same as the structure of the automatic music composition system of the first embodiment except for the following points. That is, the storage device 28 further stores a required time input program 36 for receiving the input of the required time of the music piece by the operator. Further, the contents of the tone value sequence search program 30 'and the tone value sequence database 34' are different from those of the first embodiment, as will be described later.

【0044】このように構成された第2実施例にかかる
自動作曲システムのプロセッサ12による処理を説明す
る。図9は、第2実施例における処理の概要を示すフロ
ーチャートである。図9に示すように、プロセッサ12
により処理は、全般的には、操作者がキーボード24お
よびマウス26を操作することにより与えた楽曲の所要
時間に関する情報を取得する処理(ステップ901)
と、楽曲の所要時間にしたがって、所定の音価列を選択
する処理(ステップ902)と、選択された音価列に含
まれる音価の各々に、音高を付与する処理(ステップ9
03)とから構成される。
The processing by the processor 12 of the automatic music composition system according to the second embodiment having such a configuration will be described. FIG. 9 is a flowchart showing an outline of the processing in the second embodiment. As shown in FIG.
The process is generally a process of acquiring information about the required time of the music given by the operator operating the keyboard 24 and the mouse 26 (step 901).
And a process of selecting a predetermined tone value sequence according to the required time of the music (step 902) and a process of assigning a pitch to each of the tone values included in the selected tone value sequence (step 9).
03) and.

【0045】このステップ901の処理は、プロセッサ
12により記憶手段28から読み出され、プログラムメ
モリ14に一時的に記憶された所要時間入力プログラム
36により実行され、ステップ902の処理は、音価列
検索プログラム30′により、さらに、ステップ903
の処理は、ピッチ付与プログラム32により実行され
る。この第2実施例におけるステップ902の処理を以
下に詳細に説明する。ここに、図10は、第2実施例に
かかる自動作曲システムの記憶装置28に記憶された音
価列データベース34′に含まれる音価列などを説明す
るための図である。
The processing of this step 901 is executed by the required time input program 36 which is read from the storage means 28 by the processor 12 and temporarily stored in the program memory 14, and the processing of step 902 is the note value string search. Further, according to the program 30 ', step 903
The process of is executed by the pitch giving program 32. The process of step 902 in the second embodiment will be described in detail below. FIG. 10 is a diagram for explaining the note value sequences and the like included in the tone value sequence database 34 'stored in the storage device 28 of the automatic composition system according to the second embodiment.

【0046】図10に示すように、第2実施例にかかる
音価列データベース34′には、複数の音価および他の
必要な情報からなる音価列データの組が、L個記憶され
ている(符号1000−1ないし1000−L)。たと
えば、音価列データの組1000−1には、プロセッサ
12が処理を実行する際に、この組を特定するためのI
Dとして用いられるとともに、この音価列に対応する楽
曲を再生した際の所要時間を示す所要時間データ100
1と、音価列に対応する楽曲を再生する際の楽曲のテン
ポを示すテンポデータ1002と、音価列の拍子を示す
拍子データ1003と、複数の音価に対応する実データ
1004とが含まれる。
As shown in FIG. 10, the tone value sequence database 34 'according to the second embodiment stores L number of tone value sequence data sets each including a plurality of tone values and other necessary information. (Reference numbers 1000-1 to 1000-L). For example, the tone value sequence data set 1000-1 includes an I for identifying this set when the processor 12 executes a process.
The required time data 100 which is used as D and indicates the required time when the music corresponding to this note value sequence is reproduced.
1, tempo data 1002 indicating the tempo of the music when the music corresponding to the note value sequence is reproduced, time signature data 1003 indicating the time signature of the note value sequence, and actual data 1004 corresponding to a plurality of note values. Be done.

【0047】所要時間データ1001は、対応する組に
含まれるテンポデータに基づき、実データの音価に基づ
く楽曲を再生した場合の所要時間を示している。たとえ
ば、音価列データの組1000−1に含まれるテンポデ
ータ1001−1は、30(秒)に対応する。第2実施
例においては、この所要時間データにより、音価列デー
タの組1000−1ないし1000−Lのうちの何れか
が一意的に定まるようになっている。すなわち、同じ所
要時間データを含む他の音価列データの組が存在しない
ように構成されている。
The required time data 1001 indicates the required time when a music piece based on the tone value of the actual data is reproduced based on the tempo data included in the corresponding set. For example, tempo data 1001-1 included in the tone value sequence data set 1000-1 corresponds to 30 (seconds). In the second embodiment, any one of the tone value sequence data sets 1000-1 to 1000-L is uniquely determined by the required time data. That is, it is configured such that there is no other tone value sequence data set including the same required time data.

【0048】テンポデータ1002は、一般的なテンポ
の表記と同様に、基準となる所定の長さの音符が一分間
に幾つ含まれるかを示している。たとえば、音価列デー
タの組1000−1中のテンポデータ1002−1は、
4分音符が1分間に120含まれることを示している。
より具体的には、このテンポデータは、基準となる所定
の音符の長さを表わす整数に対応する第1のデータと、
この音符が一分間に含まれる数を示す第2のデータとか
ら構成される、前述したテンポデータ1002−1は、
96という値に対応する第1のデータと、120という
値に対応する第2のデータとから構成されている。
The tempo data 1002 indicates how many notes of a predetermined reference length are included in one minute, similar to the general notation of tempo. For example, the tempo data 1002-1 in the tone value sequence data set 1000-1 is
It indicates that one quarter note is included in 120 minutes.
More specifically, the tempo data is the first data corresponding to an integer representing the length of a predetermined note serving as a reference,
The aforementioned tempo data 1002-1, which is composed of the second data indicating the number of notes included in one minute,
It is composed of first data corresponding to a value of 96 and second data corresponding to a value of 120.

【0049】また、拍子データ1003および実データ
1004の構成は、第1実施例の対応するデータ、すな
わち、拍子データ302および実データ303の構成
と、それぞれ、同一になっている。さらに、音価列デー
タベース34において、これら音価列データの組は、こ
れら組のそれぞれに含まれる所要時間データにしたがっ
て、その値が小さい順に記憶されている。
The beat data 1003 and the real data 1004 have the same configurations as the corresponding data of the first embodiment, that is, the beat data 302 and the real data 303, respectively. Furthermore, in the tone value sequence database 34, the sets of these tone value sequence data are stored in ascending order of their values according to the required time data included in each of these sets.

【0050】図11は、ステップ902の処理をより詳
細に示すフローチャートである。図11に示すように、
ステップ902の処理においては、まず、ステップ90
1において操作者により与えられた所要時間をデータメ
モリ16に一時的に記憶する(ステップ1101)。そ
の後、音価列データベース34から、最初の音価列デー
タの組、すなわち、対応する値が最も小さいような所要
時間データを含む音価列データの組が、音価列データベ
ース34から読み出され、これがデータメモリ16の所
定の領域に記憶される(ステップ1102)。
FIG. 11 is a flowchart showing the process of step 902 in more detail. As shown in FIG.
In the process of step 902, first, step 90
The required time given by the operator in 1 is temporarily stored in the data memory 16 (step 1101). Thereafter, from the note value sequence database 34, the first note value sequence data set, that is, the note value sequence data set including the required time data having the smallest corresponding value is read out from the note value sequence database 34. This is stored in a predetermined area of the data memory 16 (step 1102).

【0051】次いで、操作者により与えれた所要時間T
と、音価列データの組S中の所要時間データの値Stと
が比較され(ステップ1103)、値Stが、所要時間
T以上であるときには、ステップ1104に進み、その
一方、値Stが、所要時間Tより小さいときには、ステ
ップ1105に進む。ステップ1105においては、音
価列データベース34中の最後の音価列データの組に関
する処理が終了しているかどうかを判断する。より詳細
には、ステップ1102において初期値が与えられ、ス
テップ1106においてインクリメントされるKが、音
価列データベース中に含まれる音価列データの組の数L
と等しいか否かを判断している。このステップにおいて
イエス(Yes)と判断された場合には、ステップ11
11に進む。
Next, the required time T given by the operator.
And the value St of the required time data in the tone value sequence data set S are compared (step 1103). When the value St is equal to or greater than the required time T, the process proceeds to step 1104, while the value St is When it is shorter than the required time T, the process proceeds to step 1105. In step 1105, it is determined whether or not the process regarding the last tone value sequence data set in the tone value sequence database 34 has been completed. More specifically, the initial value is given in step 1102, and K incremented in step 1106 is the number L of the tone value sequence data sets included in the tone value sequence database.
Is determined to be equal or not. If yes in this step, step 11
Proceed to 11.

【0052】その一方、ステップ1105においてノー
(No)と判断された場合には、次の音価列データの
組、すなわち、所要時間データの値が、今回の処理の対
象となった音価列データの組に含まれる所要時間データ
の値に最も隣接し、かつ、この値よりも大きいような所
要時間データの値を有する音価列データの組Sが、音価
列データベースから読み出され、これがデータメモリ1
6の所定の領域に一時的に記憶される(ステップ110
6)。
On the other hand, if it is determined No in step 1105, the next set of tone value sequence data, that is, the value of the required time data, is the tone value sequence that is the target of this processing. A note value sequence data set S having a value of the required time data that is most adjacent to the value of the required time data included in the data set and is larger than this value is read from the note value sequence database, This is the data memory 1
6 is temporarily stored in a predetermined area (step 110).
6).

【0053】次いで、新たにデータメモリ16に一時的
に記憶された音価列データの組Sに関連して、ステップ
1103以下の処理が実行される。
Next, in connection with the set S of the tone value sequence data newly temporarily stored in the data memory 16, the processing from step 1103 onward is executed.

【0054】さて、前述したステップ1103において
イエス(Yes)と判断された場合、すなわち、値St
が所要時間T以上である場合には、前回ステップ110
3を実行したときに関連した音価列データの組を音価列
データベース34より読みだし、読み出された音価列デ
ータの組SPを、データメモリ16の他の所定の領域に
記憶する(ステップ1104)。
Now, if it is determined to be Yes in step 1103, that is, the value St
Is the required time T or more, the previous step 110
3 is read from the tone value sequence database 34, and the read tone value sequence data set SP is stored in another predetermined area of the data memory 16 ( Step 1104).

【0055】次いで、所要時間Tを、今回の処理に関連
する音価列データの組S中の所要時間データの値Stで
割った結果と、当該所要時間Tを、前回の処理に関連す
る音価列データの組SP中の所要時間データの値SPt
で割った結果とを比較する(ステップ1107)。これ
は、操作者により与えられた所要時間と音価列データの
組中の所要時間データの値との比が、1に近い方を選択
するための処理である。
Next, the required time T is divided by the value St of the required time data in the set S of the tone value sequence data related to the current processing, and the required time T is the sound related to the previous processing. Value SPt of required time data in the price sequence data set SP
The result divided by is compared (step 1107). This is a process for selecting one in which the ratio of the required time given by the operator and the value of the required time data in the set of note value sequence data is closer to 1.

【0056】ステップ1107においてノー(No)と
判断された場合、すなわち、T/SPt<St/Tであ
った場合には、前回の処理に関連する音価列データの組
SP中の所要時間データの値と与えられた所要時間との
間の比が、より1に近いため、これを、選択すべき音価
列データの組FSとする(ステップ1108)。その一
方、ステップ1107においてイエス(Yes)と判断
された場合、すなわち、T/SPt≧St/Tであった
場合には、今回の処理に関する音価列データの組Sを、
選択すべき音価列データの組FSとする(ステップ11
09)。
If it is determined No in step 1107, that is, if T / SPt <St / T, the required time data in the set SP of the tone value sequence data related to the previous processing is determined. Since the ratio between the value of and the given duration is closer to 1, it is set as the note value sequence data set FS to be selected (step 1108). On the other hand, if it is determined as Yes in step 1107, that is, if T / SPt ≧ St / T, the set S of the tone value sequence data regarding the current process is
The set FS of tone value sequence data to be selected is set (step 11).
09).

【0057】或いは、ステップ1103においてノー
(No)と判断され、かつ、ステップ1105において
イエス(Yes)と判断された場合には、音価列データ
の組Sを、選択すべき音価列データの組FSとする(ス
テップ1111)。
Alternatively, if it is determined NO in step 1103 and YES in step 1105, the set S of the tone value sequence data is set as the tone value sequence data to be selected. A set FS is set (step 1111).

【0058】このようにして、選択すべき音価列データ
の組FSが得られると、この音価列データの組中のテン
ポデータが、データメモリ16から読み出され、与えら
れた所要時間Tと、選択された音価列データに基づく楽
曲の再生時間とが合致するように、新たなテンポデータ
NTを生成する(ステップ1110)。より詳細には、
新たなテンポデータNTの値=テンポデータの値×(F
Sの所要時間データの値/所要時間T)により得ること
ができる。
In this way, when the tone value sequence data set FS to be selected is obtained, the tempo data in this tone value sequence data set is read out from the data memory 16 and given the required time T. Then, new tempo data NT is generated so that the reproduction time of the music based on the selected tone value sequence data matches (step 1110). More specifically,
Value of new tempo data NT = value of tempo data × (F
It can be obtained by the value of the required time data of S / the required time T).

【0059】このように、図11に示す処理によれば、
その値が与えられた所要時間に最も隣接する所要時間デ
ータを含む音符列データの組を選択し、さらに、対応す
るテンポデータを調整し、与えられた所要時間と、選択
された音価列データの組にしたがって楽曲を再生した場
合の再生時間とを一致させることができる。
Thus, according to the processing shown in FIG.
Select the note sequence data set that contains the duration data that is closest to the given duration, and adjust the corresponding tempo data, and then adjust the corresponding duration and the selected note value sequence data. It is possible to match the reproduction time when the music is reproduced in accordance with the group of.

【0060】なお、本実施例において、ステップ110
5でイエス(Yes)と判断された場合に、以下のよう
な処理を実行しても良い。
In this embodiment, step 110
When it is determined to be Yes in 5, the following processing may be executed.

【0061】このような場合に、音価列データの組Sの
所要時間の値Stを、それぞれ2倍して、ステップ11
03ないしステップ1110の処理を、2倍された所要
時間(2×St)の値に関連して実行する。何れかの音
価列データの組に関連して、ステップ1103において
イエス(Yes)と判断された場合には、当該音価列デ
ータの組或いは前回の処理に関連する音価列データの組
が、ステップ1107ないしステップ1109において
選択される。さらに、L個の音価列データの組みに関連
して処理が実行された後に、ステップ1105でイエス
(Yes)と判断された場合には、音価列データの組S
の所要時間の値Stを、それぞれ3倍して、ステップ1
103ないし1110の処理を、3倍された所要時間の
値(3×St)に関連して実行する。
In such a case, the required time values St of the tone value sequence data set S are each doubled, and step 11
The processing from 03 to step 1110 is executed in relation to the value of the required time (2 × St) doubled. In the case where YES is determined in step 1103 in relation to any one of the tone value sequence data sets, the tone value sequence data set concerned or the tone value sequence data set related to the previous process is determined. , Steps 1107 to 1109 are selected. Furthermore, after the process is executed in association with the L number of tone value series data sets, if it is determined to be Yes in step 1105, the tone value series data set S is obtained.
The required time value St of each is multiplied by 3 respectively, and step 1
The processes of 103 to 1110 are executed in relation to the value of the required time which is tripled (3 × St).

【0062】このような処理を実行することにより、テ
ンポデータの値を著しく変更することなく、所定の音価
列データの組を選択することが可能となる。これによ
り、選択された音価列データに基づく楽曲を、不自然に
遅いテンポで再生することを防止することができる。
By executing such processing, it becomes possible to select a predetermined tone value sequence data set without significantly changing the value of the tempo data. As a result, it is possible to prevent the music based on the selected tone value sequence data from being reproduced at an unnaturally slow tempo.

【0063】所定の音価列データの組が選択された後
に、ステップ202により、音価列データの組中の実デ
ータを構成する音価の各々に対して、ピッチが与えら
れ、これにより、メロディデータが生成され、データメ
モリ16の所定の領域に記憶される。この処理は、第1
実施例において図6および図7を参照して説明したもの
と同様である。
After a predetermined tone value sequence data set is selected, step 202 gives a pitch to each of the tone values forming the actual data in the tone value sequence data set. Melody data is generated and stored in a predetermined area of the data memory 16. This process is the first
This is similar to that described with reference to FIGS. 6 and 7 in the embodiment.

【0064】操作者がキーボード24およびマウス26
を操作することにより、メロディデータにしたがった楽
曲を再生すべき旨の指令を与えると、プロセッサ12
は、メロディデータを、データメモリ16から読みだ
し、これを再生装置20に与える。再生装置20は、操
作者により与えられた所要時間に基づき図11のステッ
プ1110により得られたテンポデータで、与えられた
データにしたがって所定の音長および音高の楽音を発生
し、これにより、スピーカが楽曲を再生する。
The operator operates the keyboard 24 and the mouse 26.
Is operated to give a command to reproduce the music according to the melody data, the processor 12
Reads out the melody data from the data memory 16 and supplies it to the reproducing apparatus 20. The playback device 20 generates a musical tone of a predetermined pitch and pitch according to the given data with the tempo data obtained in step 1110 of FIG. 11 based on the required time given by the operator. The speaker plays the music.

【0065】また、操作者がキーボード24などを操作
することにより、メロディデータにしたがった楽譜をデ
ィスプレイの画面上に表示すべき旨の指令を与えると、
プロセッサ12は、メロディデータを、データメモリか
ら読みだし、このデータに基づく画像データを生成し、
これをディスプレイ18に与える。ディスプレイ18
は、与えられた画像データに対応する画像を、その画面
上に再生する。
When the operator operates the keyboard 24 or the like to give a command to display the musical score according to the melody data on the screen of the display,
The processor 12 reads the melody data from the data memory, generates image data based on this data,
This is given to the display 18. Display 18
Reproduces the image corresponding to the given image data on the screen.

【0066】本実施例によれば、操作者により設定され
た時間にしたがって、再生した際の所要時間が、当該設
定された時間に近接するような音価列データの組を選択
するため、専門的知識を要することなく、所望の所要時
間の楽曲を得ることが可能となる。
According to the present embodiment, a set of tone value sequence data is selected according to the time set by the operator so that the required time for reproduction approaches the set time. It is possible to obtain a music piece of a desired required time without requiring specific knowledge.

【0067】さらに、本実施例によれば、音価列データ
の組に含まれるテンポデータの値を、設定された時間に
したがって調整するため、所要時間が経過するときにち
ょうど終了するような楽曲を得ることが可能となる。
Further, according to the present embodiment, the value of the tempo data included in the set of tone value sequence data is adjusted according to the set time, so that the music which is just finished when the required time elapses. Can be obtained.

【0068】次に、本発明の第3の実施例にかかる自動
作曲システムにつき説明を加える。特に、第3実施例に
おいては、商品紹介などのプレゼンテーションに用いら
れる画像の各々に対する、或いは、プレゼンテーション
全体に対するバックグラウンド音楽を作成するように構
成されている。ここに、図12は、第3実施例にかかる
自動作曲システムのハードウェア構成図である。この自
動作曲システムの構成は、第1実施例の自動作曲システ
ムの構成と、以下の点を除いて同一である。すなわち、
記憶装置28には、所定の時間に所定の画像をディスプ
レイ18の画面上に再生するための手順などを記述した
プレゼンテーション手続ファイル38と、プレゼンテー
ション手続ファイルにしたがって再生される画像の再生
時間などを得るための所要時間抽出プログラム40とが
含まれている。
Next, an automatic music composition system according to the third embodiment of the present invention will be described. In particular, the third embodiment is configured to create background music for each image used for a presentation such as product introduction or for the entire presentation. FIG. 12 is a hardware configuration diagram of the automatic music composition system according to the third embodiment. The structure of this automatic music composition system is the same as the structure of the automatic music composition system of the first embodiment except for the following points. That is,
The storage device 28 obtains a presentation procedure file 38 that describes a procedure for reproducing a predetermined image on the screen of the display 18 at a predetermined time, a reproduction time of an image reproduced according to the presentation procedure file, and the like. And a required time extraction program 40 for.

【0069】また、音価列検索プログラム30′および
音価列データベース34′の内容は、第2実施例のもの
と同一となっている。
The contents of the tone value sequence search program 30 'and the tone value sequence database 34' are the same as those in the second embodiment.

【0070】このように構成された自動作曲システムの
プロセッサ12により読み出されたプレゼンテーション
手続ファイルに基づき実行される処理につき説明を加え
る。図13は、プレゼンテーション手続ファイルに基づ
き実行される処理を説明するための図である。図13に
示すように、プレゼンテーション手続ファイルには、デ
ィスプレイ18に表示すべき画像のビットマップデータ
1301とこの画像を表示すべき時間を示す提示時間デ
ータ1302からなるデータの組が、複数含まれている
(符号1300−1ないし1300−M)。このデータ
の組1300−1ないし1300−Mは、プレゼンテー
ション中に画像を提示する順に、プレゼンテーション手
続ファイル中に記憶されている。
The processing executed based on the presentation procedure file read by the processor 12 of the automatic music composition system thus configured will be described. FIG. 13 is a diagram for explaining the processing executed based on the presentation procedure file. As shown in FIG. 13, the presentation procedure file includes a plurality of data sets including bitmap data 1301 of an image to be displayed on the display 18 and presentation time data 1302 indicating a time at which the image should be displayed. (Reference numerals 1300-1 to 1300-M). The data sets 1300-1 to 1300-M are stored in the presentation procedure file in the order in which the images are presented during the presentation.

【0071】図13において、たとえば、第1のビット
マップデータ1301−1に対応する画像を、提示時間
データ1302−1にしたがって30秒だけ提示し、次
いで、第2のビットマップデータ1301−2に対応す
る画像を、提示時間データにしたがって、135秒だけ
提示すべきことが示されている。
In FIG. 13, for example, the image corresponding to the first bitmap data 1301-1 is presented for 30 seconds according to the presentation time data 1302-1, and then the second bitmap data 1301-2 is displayed. It has been shown that the corresponding image should be presented for 135 seconds according to the presentation time data.

【0072】第3実施例にかかる自動作曲システムは、
プレゼンテーション手続ファイルに含まれるデータの組
のそれぞれに対するバックグラウンド音楽、或いは、デ
ータの組全体に対するバックグラウンド音楽を、以下の
手順にしたがって生成する。
The automatic music composition system according to the third embodiment is
Background music for each of the data sets included in the presentation procedure file or background music for the entire data set is generated according to the following procedure.

【0073】まず、プロセッサ12により読み出され、
プログラムメモリ14に一時的に記憶された所要時間抽
出プログラム40にしたがって、得るべき楽曲の所要時
間を抽出する。
First, read by the processor 12,
The required time of the music to be obtained is extracted according to the required time extraction program 40 temporarily stored in the program memory 14.

【0074】本実施例においては、図14に示すよう
に、データの組のそれぞれに関連する画像、すなわち、
シート1401、1402、・・・・をディスプレイ1
8の画面1400上に表示し、プレゼンテーションに、
バックグラウンド音楽を付加すべき画像(たとえば、1
402)を、マウス26を用いて、表示された画像の上
をクリックすることにより選択する。このように操作者
がマウス26を操作することにより所望の画像、すなわ
ち、シートを選択した後に、ボタン1410がクリック
されると、プロセッサ12は、選択されたシートに対応
するデータの組をプレゼンテーション手続ファイルから
検索し、これらに含まれる提示時間データを読み出し
て、これらを、それぞれ、データメモリ16の所定の領
域に記憶する。
In this example, as shown in FIG. 14, the images associated with each of the data sets, that is,
Sheets 1401, 1402, ... Display 1
Displayed on screen 1400 of 8
Images to which background music should be added (eg 1
402) is selected by using the mouse 26 and clicking on the displayed image. Thus, when the operator operates the mouse 26 to select a desired image, that is, a sheet, and then the button 1410 is clicked, the processor 12 causes the data set corresponding to the selected sheet to be presented as a presentation procedure. The files are searched, the presentation time data contained therein is read, and these are stored in predetermined areas of the data memory 16, respectively.

【0075】次いで、各シートに関連する提示時間デー
タのそれぞれに対応して、第2実施例の図9および図1
1を参照して説明した処理と同一の処理を実行する。こ
の場合に、図11において、ステップ1101の所要時
間Tを、提示時間データに対応する時間とすれば良い。
9 and 1 of the second embodiment in correspondence with the presentation time data associated with each sheet.
The same process as the process described with reference to 1 is executed. In this case, in FIG. 11, the time T required in step 1101 may be the time corresponding to the presentation time data.

【0076】このように、各シートに関連して、提示時
間と同じ所要時間の楽曲を得ることが可能となる。
As described above, it is possible to obtain a music piece having the same required time as the presentation time in relation to each sheet.

【0077】本実施例によれば、複数の画像を一定の時
間ごとに表示する際に、各画像の提示時間ごとに適切な
楽曲を得ることが可能となる。
According to the present embodiment, when displaying a plurality of images at a constant time, it is possible to obtain an appropriate music for each presentation time of each image.

【0078】本発明は、以上の実施例に限定されること
なく、特許請求の範囲に記載された発明の範囲内で、種
々の変更が可能であり、それらも本発明の範囲内に包含
されるものであることは言うまでもない。
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and those modifications are also included in the scope of the present invention. It goes without saying that it is one.

【0079】たとえば、前記第3実施例においては、プ
レゼンテーション中の画像、すなわち、シートのそれぞ
れに対応する楽曲を得るように構成されているが、これ
に限定されるものではなく、教育ソフト、ゲーム、電子
カタログ、インターネットのホームページなど、複数の
画像により構成されるマルチメディア作品の各画像に対
応するバックグラウンド音楽を生成することも可能であ
る。
For example, in the third embodiment, the image in the presentation, that is, the music corresponding to each sheet is obtained, but the present invention is not limited to this. It is also possible to generate background music corresponding to each image of a multimedia work composed of a plurality of images, such as an electronic catalog or an internet home page.

【0080】また、前記第3実施例にかかるシステム
を、ビデオ編集における任意数のカット、または、全体
に対するバックグラウンド音楽を作成するために仕様可
能であることも明らかである。この場合には、図14に
おけるシートが、それぞれ、カットに対応する。
It is also clear that the system according to the third embodiment can be specified to create an arbitrary number of cuts in video editing or background music for the whole. In this case, each of the sheets in FIG. 14 corresponds to a cut.

【0081】さらに、前記実施例においては、図6に示
すように、各音価に対応して、乱数整数を得ることによ
り、当該音価に関する音高を生成しているが、これに限
定されるものではない。たとえば、さらに、音価列デー
タベースとは別個に、コードデータの組を有するコード
データベースを備え、選択された音価列データの組に基
づき、コードデータベースから、所定のコードデータの
組を選択し、当該コードデータの組に含まれるコードと
整合するように、音高を得るように構成しても良いこと
は明らかである。
Further, in the above-described embodiment, as shown in FIG. 6, the pitch related to the note value is generated by obtaining the random number integer corresponding to each note value, but the invention is not limited to this. Not something. For example, further comprising a chord database having a chord data set separately from the tone value sequence database, and based on the selected tone value sequence data set, selects a predetermined chord data set from the chord database, Obviously, the pitch may be configured so as to match the chord included in the chord data set.

【0082】或いは、各音価列データの組に対応して、
音価列データの組に含まれる音符の数と等しい数だけの
複数の音高を含むピッチ列を複数用意して、これら複数
のピッチ列から、図5に示した処理とほぼ同様な処理に
より、所定のピッチ列を選択して、音価列の各音価に対
応する音高を得ても良い。
Alternatively, in correspondence with each tone value sequence data set,
A plurality of pitch strings including a plurality of pitches equal in number to the notes included in the note value string data set are prepared, and from these plural pitch strings, a process similar to the process shown in FIG. 5 is performed. , A predetermined pitch sequence may be selected to obtain a pitch corresponding to each tone value in the tone value sequence.

【0083】また、前記実施例においては、得られたメ
ロディデータを、再生装置20により再生するように構
成されているが、たとえば、えられたメロディデータを
MIDIデータに変換し、これを、装置に設けられたM
IDI端子を介して、外部の装置、たとえば、シンセサ
イザに出力し、シンセサイザ或いはこれに接続されたス
ピーカから楽音を発生させるようにしてもよいことは明
らかである。
In the above embodiment, the obtained melody data is reproduced by the reproducing device 20. For example, the obtained melody data is converted into MIDI data, and this is converted into MIDI data. M provided in
Obviously, it may be possible to output to an external device, for example, a synthesizer via the IDI terminal, and to generate a musical sound from the synthesizer or a speaker connected thereto.

【0084】また、本明細書において、手段とは、必ず
しも物理的手段を意味するものではなく、各手段の機能
が、ソフトウエアによって実現される場合も包含する。
また、一つの手段の機能が二以上の物理的手段により実
現されても、二以上の手段の機能が一つの物理的手段に
より実現されてもよい。
In the present specification, the term "means" does not necessarily mean physical means, but also includes the case where the function of each means is realized by software.
Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.

【0085】[0085]

【発明の効果】本実施例によれば、音楽に関する知識を
必要とすることなく、音楽的な楽曲を容易に生成するこ
とができる自動作曲システムを提供することが可能とな
る。
According to the present embodiment, it is possible to provide an automatic music composition system which can easily generate a musical composition without requiring knowledge about music.

【0086】また、本発明によれば、音楽に関する知識
を必要とすることなく、所望の時間の楽曲を得ることが
できる自動作曲システムを提供することが可能となる。
Further, according to the present invention, it is possible to provide an automatic music composition system capable of obtaining a music piece of a desired time without requiring knowledge about music.

【図面の簡単な説明】[Brief description of drawings]

【図1】 図1は、本発明の実施例にかかる自動作曲シ
ステムの構成を示すハードウェア構成図である。
FIG. 1 is a hardware configuration diagram showing a configuration of an automatic music composition system according to an embodiment of the present invention.

【図2】 図2は、本発明の第1実施例にかかる自動作
曲システムにおける処理の概要を示すフローチャートで
ある。
FIG. 2 is a flowchart showing an outline of processing in the automatic music composition system according to the first embodiment of the present invention.

【図3】 図3は、本実施例にかかる自動作曲システム
の記憶装置に格納された音価列データベースを説明する
ための図である。
FIG. 3 is a diagram for explaining a note value sequence database stored in a storage device of the automatic composition system according to the present embodiment.

【図4】 図4は、音価列データの組に含まれる実デー
タの内容を示す図である。
FIG. 4 is a diagram showing the content of actual data included in a set of tone value sequence data.

【図5】 図5は、図2のステップ201の処理をより
詳細に示すフローチャートである。
FIG. 5 is a flowchart showing the process of step 201 of FIG. 2 in more detail.

【図6】 図6は、図2のステップ202の処理をより
詳細に示すフローチャートである。
FIG. 6 is a flowchart showing the process of step 202 of FIG. 2 in more detail.

【図7】 図7は、得られたメロディデータおよびこれ
に対応するメロディを示す図である。
FIG. 7 is a diagram showing the obtained melody data and the corresponding melody.

【図8】 図8は、本発明の第2実施例にかかる自動作
曲システムのハードウェア構成図である。
FIG. 8 is a hardware configuration diagram of an automatic music composition system according to a second embodiment of the present invention.

【図9】 図9は、第2実施例にかかる自動作曲システ
ムの処理の概要を示すフローチャートである。
FIG. 9 is a flowchart showing an outline of processing of the automatic music composition system according to the second embodiment.

【図10】 図10は、第2実施例にかかる自動作曲シ
ステムの記憶装置に記憶された音価列データベースを説
明するための図である。
FIG. 10 is a diagram for explaining a note value sequence database stored in a storage device of the automatic composition system according to the second example.

【図11】 図11は、図9のステップ902の処理を
より詳細に示すフローチャートである。
FIG. 11 is a flowchart showing the process of step 902 of FIG. 9 in more detail.

【図12】 図12は、本発明の第3実施例にかかる自
動作曲システムのハードウェア構成図である。
FIG. 12 is a hardware configuration diagram of an automatic music composition system according to a third embodiment of the present invention.

【図13】 図13は、第3実施例にかかるプレゼンテ
ーション手続ファイルに基づき実行される処理を説明す
るための図である。
FIG. 13 is a diagram for explaining processing executed based on a presentation procedure file according to the third embodiment.

【図14】 図14は、ディスプレイの画面上に表示さ
れる画像の例を示す図である。
FIG. 14 is a diagram showing an example of an image displayed on the screen of the display.

【符号の説明】[Explanation of symbols]

12 プロセッサ 14 プログラムメモリ 16 データメモリ 18 ディスプレイ 20 再生装置 24 キーボード 26 マウス 28 記憶装置 30 音価列検索プログラム 32 ピッチ付与プログラム 34 音価列データベース 12 processor 14 program memory 16 data memory 18 display 20 playback device 24 keyboard 26 mouse 28 storage device 30 note value sequence search program 32 pitch assignment program 34 note value sequence database

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 所定の音価のそれぞれに、所定の音高を
付与することによりメロディを生成する自動作曲システ
ムであって、 各々が楽曲一曲分の複数の音価を含む音価列に対応す
る、複数の音価列データの組を記憶する音価列記憶手段
と、 前記音価列記憶手段に記憶された複数の音価列データの
組から所定の一つを選択する音価列選択手段と、 前記音価列選択手段により選択された音価列データの組
に含まれる音価のそれぞれに音高を付与して、メロディ
データを生成する音高付与手段とを備えたことを特徴と
する自動作曲システム。
1. An automatic music composition system for generating a melody by assigning a predetermined pitch to each of a predetermined note value, each of which has a note value sequence including a plurality of note values for one music piece. A corresponding tone value sequence storage means for storing a plurality of tone value sequence data sets, and a tone value sequence for selecting a predetermined one from the plurality of tone value sequence data sets stored in the tone value sequence storage means. And a pitch assigning unit that assigns a pitch to each of the tone values included in the tone value sequence data set selected by the tone value sequence selecting unit to generate melody data. A featured automatic music composition system.
【請求項2】 さらに、前記メロディデータに含まれる
音高および音価にしたがって、所定のメロディを再生す
る再生手段を備えたことを特徴とする請求項1に記載の
自動作曲システム。
2. The automatic music composition system according to claim 1, further comprising reproducing means for reproducing a predetermined melody according to a pitch and a note value included in the melody data.
【請求項3】 前記音価列データの組が、それぞれ、当
該音価列データの組に基づき得られた楽曲の再生時間を
示す再生時間データを含み、 前記システムが、さらに、操作者により与えられる楽曲
の所要時間を受け入れる所要時間入力手段と、 前記所要時間入力手段により得られた所要時間と、前記
音価列データの組に含まれる再生時間データに対応する
再生時間とを比較する比較手段とを備え、 前記音価列選択手段が、前記比較手段による比較結果に
したがって所定の音価列データの組を選択し、選択され
た音価列データの組に基づき、メロディデータが生成さ
れるように構成されたことを特徴とする請求項1または
2に記載の自動作曲システム。
3. The set of note value sequence data each includes reproduction time data indicating a reproduction time of a music piece obtained based on the set of note value sequence data, and the system is further provided by an operator. Required time input means for accepting the required time of the music, a comparing means for comparing the required time obtained by the required time input means with the reproduction time corresponding to the reproduction time data included in the set of note value sequence data. The tone value sequence selection means selects a predetermined tone value sequence data set according to the comparison result by the comparison means, and melody data is generated based on the selected tone value sequence data set. The automatic music composition system according to claim 1 or 2, wherein the automatic music composition system is configured as described above.
【請求項4】 前記音価列選択手段が、前記所要時間と
前記再生時間との比が最も1に近いような音価列データ
の組を選択するように構成されたことを特徴とする請求
項3に記載の自動作曲システム。
4. The tone value sequence selecting means is configured to select a tone value sequence data set having a ratio of the required time and the reproduction time closest to one. The automatic music composition system according to item 3.
【請求項5】 前記音価列選択手段が、前記所要時間と
前記再生時間との差が最も小さいような音価列データの
組を選択するように構成されたことを特徴とする請求項
3に記載の自動作曲システム。
5. The tone value sequence selecting means is configured to select a tone value sequence data set having a smallest difference between the required time and the reproduction time. Automatic composition system described in.
【請求項6】 前記音価列データの組が、それぞれ、当
該音価列データの組に基づき得られた楽曲のテンポを示
すテンポデータを含み、 前記システムが、さらに、前記音価列選択手段により選
択された音価列データの組に含まれるテンポデータを、
前記所要時間にしたがって調整するテンポデータ調整手
段を備えたことを特徴とする請求項3ないし5の何れか
一項に記載の自動作曲システム。
6. The tone value sequence data set includes tempo data indicating a tempo of a music piece obtained based on the tone value sequence data set, and the system further includes the tone value sequence selection means. The tempo data included in the note value sequence data set selected by
The automatic music composition system according to any one of claims 3 to 5, further comprising tempo data adjusting means for adjusting according to the required time.
【請求項7】 前記比較手段が、前記所要時間が何れの
音価列データの組に含まれる再生時間データに対応する
再生時間よりも大きい場合に、前記所要時間と前記再生
時間の整数倍とを比較し、 前記音価列選択手段が、前記所要時間と前記再生時間の
整数倍との間の比が最も1に近いような音価列データの
組を選択して、前記音価列データの組に含まれる音価列
が前記整数回だけ繰り返された新たな音価列データの組
を生成し、得られた音価列データの組に基づき、メロデ
ィデータが生成されるように構成されたことを特徴とす
る請求項3に記載の自動作曲システム。
7. The required time and an integral multiple of the played time when the required time is greater than the played time corresponding to the played time data included in any set of tone value sequence data. The tone value sequence selection means selects a tone value sequence data set such that the ratio between the required time and the integral multiple of the reproduction time is closest to 1, and determines the tone value sequence data. Is configured to generate a new tone value sequence data set in which the tone value sequence included in the set is repeated an integer number of times, and melody data is generated based on the obtained tone value sequence data set. The automatic music composition system according to claim 3, wherein
【請求項8】 前記比較手段が、前記所要時間が何れの
音価列データの組に含まれる再生時間データに対応する
再生時間よりも大きい場合に、前記所要時間と前記再生
時間の整数倍とを比較し、 前記音価列選択手段が、前記所要時間と前記再生時間の
整数倍との差が最も小さいような音価列データの組を選
択して、前記音価列データの組に含まれる音価列が前記
整数回だけ繰り返された新たな音価列データの組を生成
し、得られた音価列データの組に基づき、メロディデー
タが生成されるように構成されたことを特徴とする請求
項3に記載の自動作曲システム。
8. The required time and an integral multiple of the played time when the comparing means is longer than the played time corresponding to the played time data included in any set of tone value sequence data. The tone value sequence selecting means selects a tone value sequence data set such that the difference between the required time and an integer multiple of the reproduction time is the smallest, and includes it in the tone value sequence data set. It is configured that a new note value sequence data set in which the note value sequence is repeated an integer number of times is generated, and melody data is generated based on the obtained note value sequence data set. The automatic music composition system according to claim 3.
【請求項9】 前記音高付与手段が、音価列のそれぞれ
に対応して、ランダムにピッチデータを付与するように
構成されたことを特徴とする請求項1ないし8の何れか
一項に記載の自動作曲システム。
9. The tone pitch imparting means is configured to randomly impart pitch data corresponding to each tone value sequence, according to any one of claims 1 to 8. The described automatic song system.
【請求項10】 所定の音価のそれぞれに、所定の音高
を付与することによりメロディを生成する自動作曲方法
であって、 各々が楽曲一曲分の複数の音価を含む音価列に対応す
る、複数の音価列データの組から、所定の一つを選択
し、 選択された前記音価列データの組に含まれる音価のそれ
ぞれに音高を付与して、メロディデータを生成するよう
に構成されたことを特徴とする自動作曲方法。
10. An automatic music composition method for generating a melody by assigning a predetermined pitch to each of a predetermined note value, each of which is a note value sequence including a plurality of note values for one music piece. A predetermined one is selected from a corresponding set of a plurality of tone value sequence data, and a pitch is given to each of the tone values included in the selected tone value sequence data set to generate melody data. A method for automatically synthesizing music.
【請求項11】 前記音価列データの組が、それぞれ、
当該音価列データの組に基づき得られた楽曲の再生時間
を示す再生時間データを含み、 さらに、操作者により与えられる楽曲の所要時間を受け
入れ、 前記所要時間所要時間と、前記音価列データの組に含ま
れる再生時間データに対応する再生時間とを比較し、 当該比較結果にしたがって所定の音価列データの組を選
択し、選択された音価列データの組に基づき、メロディ
データを生成するように構成されたことを特徴とする請
求項10に記載の自動作曲方法。
11. The tone value sequence data sets are respectively:
Including the reproduction time data indicating the reproduction time of the music obtained based on the set of the tone value sequence data, and further accepting the required time of the song given by the operator, the required time required time, and the tone value sequence data Is compared with the playback time corresponding to the playback time data included in the set, and a predetermined note value sequence data set is selected according to the comparison result, and the melody data is selected based on the selected note value sequence data set. The automatic music composition method according to claim 10, wherein the automatic music composition method is configured to generate.
【請求項12】 前記選択するステップが、前記所要時
間と前記再生時間との比が最も1に近いような音価列デ
ータの組を選択するように構成されたことを特徴とする
請求項11に記載の自動作曲方法。
12. The selection step is configured to select a set of tone value sequence data in which a ratio of the required time and the reproduction time is closest to 1. 11. Automatic song method described in.
【請求項13】 前記選択するステップが、前記所要時
間と前記再生時間との差が最も小さいような音価列デー
タの組を選択するように構成されたことを特徴とする請
求項11に記載の自動作曲方法。
13. The method according to claim 11, wherein the selecting step is configured to select a set of tone value sequence data having a smallest difference between the required time and the reproduction time. Automatic song method.
【請求項14】 前記音価列データの組が、それぞれ、
当該音価列データの組に基づき得られた楽曲のテンポを
示すテンポデータを含み、 さらに、前記選択された音価列データの組に含まれるテ
ンポデータを、前記所要時間にしたがって調整するよう
に構成されたことを特徴とする請求項11ないし13の
何れか一項に記載の自動作曲方法。
14. The tone value sequence data sets are respectively:
The tempo data indicating the tempo of the music obtained based on the set of note value sequence data is included, and the tempo data included in the selected set of note value sequence data is adjusted according to the required time. 14. The automatic music composition method according to claim 11, wherein the automatic music composition method is configured.
【請求項15】 前記比較するステップが、前記所要時
間が何れの音価列データの組に含まれる再生時間データ
に対応する再生時間よりも大きい場合に、前記所要時間
と前記再生時間の整数倍とを比較し、 前記選択するステップが、前記所要時間と前記再生時間
の整数倍との間の比が最も1に近いような音価列データ
の組を選択して、前記音価列データの組に含まれる音価
列が前記整数回だけ繰り返された新たな音価列データの
組を生成し、得られた音価列データの組に基づき、メロ
ディデータが生成されるように構成されたことを特徴と
する請求項11に記載の自動作曲方法。
15. The step of comparing, when the required time is larger than the reproduction time corresponding to the reproduction time data included in any of the sets of tone value sequence data, the required time and an integral multiple of the reproduction time. And selecting the tone value sequence data set such that the ratio between the required time and the integral multiple of the reproduction time is closest to 1, and selecting the tone value sequence data. It is configured such that a new tone value sequence data set in which the tone value sequence included in the set is repeated the integer times is generated, and melody data is generated based on the obtained tone value sequence data set. The automatic music composition method according to claim 11, wherein:
【請求項16】 複数の画像を、予め定められた手順に
したがって、それぞれを所定の時間だけディスプレイに
表示するとともに、当該画像の少なくとも一つに対応し
て所定の楽曲を再生するように構成されたマルチメディ
ア情報再生システムであって、 楽曲を付与すべき少なくとも一つの画像を選択する画像
選択手段と、 前記画像選択手段より選択された画像の表示時間を抽出
する表示時間抽出手段と、 各々が楽曲一曲分の複数の音価を含む複数の音価列と、
当該楽曲の再生時間を示す再生時間データとを含む、複
数の音価列データの組を記憶する音価列記憶手段と、 前記表示時間抽出手段により得られた表示時間と、前記
音価列データの組に含まれる再生時間データに対応する
再生時間とを比較する比較手段と、 前記比較手段による比較結果にしたがって、前記音価列
記憶手段に記憶された複数の音価列データの組から所定
の一つを選択する音価列選択手段と、 前記音価列選択手段により選択された音価列データに含
まれる音価のそれぞれに音高を付与して、メロディデー
タを生成する音高付与手段と、 前記メロディデータに含まれる音高および音価にしたが
って、所定のメロディを再生する再生手段を備えたこと
を特徴とするマルチメディア情報再生システム。
16. A plurality of images are displayed on a display for a predetermined time according to a predetermined procedure, and a predetermined music piece is played back corresponding to at least one of the images. In the multimedia information reproducing system, an image selecting means for selecting at least one image to which music is to be added, and a display time extracting means for extracting a display time of the image selected by the image selecting means, A plurality of note value sequences including a plurality of note values for one song,
A note value sequence storage unit that stores a set of a plurality of note value sequence data sets, including reproduction time data indicating a reproduction time period of the music piece, a display time period obtained by the display time period extraction unit, and the tone value sequence data set. Comparing means for comparing the reproduction time corresponding to the reproduction time data included in the set, and a predetermined value from a set of the tone value sequence data stored in the tone value sequence storage means according to the comparison result by the comparing means. Of the tone value sequence selecting means for selecting one of the tone value sequence and the tone value assignment for generating the melody data by assigning a tone pitch to each of the tone values included in the tone value sequence data selected by the tone value sequence selecting means. A multimedia information reproducing system comprising means and reproducing means for reproducing a predetermined melody according to a pitch and a tone value included in the melody data.
JP23708295A 1995-09-14 1995-09-14 Automatic composition system and automatic composition method Expired - Fee Related JP3623557B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23708295A JP3623557B2 (en) 1995-09-14 1995-09-14 Automatic composition system and automatic composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23708295A JP3623557B2 (en) 1995-09-14 1995-09-14 Automatic composition system and automatic composition method

Publications (2)

Publication Number Publication Date
JPH0981141A true JPH0981141A (en) 1997-03-28
JP3623557B2 JP3623557B2 (en) 2005-02-23

Family

ID=17010153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23708295A Expired - Fee Related JP3623557B2 (en) 1995-09-14 1995-09-14 Automatic composition system and automatic composition method

Country Status (1)

Country Link
JP (1) JP3623557B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084169A (en) * 1996-09-13 2000-07-04 Hitachi, Ltd. Automatically composing background music for an image by extracting a feature thereof
US6175072B1 (en) 1998-08-05 2001-01-16 Yamaha Corporation Automatic music composing apparatus and method
JP2013045082A (en) * 2011-08-26 2013-03-04 Yamaha Corp Musical piece generation device
JP2014219580A (en) * 2013-05-09 2014-11-20 和彦 外山 Environmental sound generating device, environmental sound generating program, sound environment forming method, and recording medium
JP2016053746A (en) * 2016-01-22 2016-04-14 和彦 外山 Environmental sound generating device, environmental sound generating program, and sound environment forming method
JP2017090927A (en) * 2017-01-18 2017-05-25 和彦 外山 Environmental sound generating device, environmental sound generating program, and sound environment forming method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084169A (en) * 1996-09-13 2000-07-04 Hitachi, Ltd. Automatically composing background music for an image by extracting a feature thereof
US6175072B1 (en) 1998-08-05 2001-01-16 Yamaha Corporation Automatic music composing apparatus and method
JP2013045082A (en) * 2011-08-26 2013-03-04 Yamaha Corp Musical piece generation device
CN102956224A (en) * 2011-08-26 2013-03-06 雅马哈株式会社 Music generating device
JP2014219580A (en) * 2013-05-09 2014-11-20 和彦 外山 Environmental sound generating device, environmental sound generating program, sound environment forming method, and recording medium
JP2016053746A (en) * 2016-01-22 2016-04-14 和彦 外山 Environmental sound generating device, environmental sound generating program, and sound environment forming method
JP2017090927A (en) * 2017-01-18 2017-05-25 和彦 外山 Environmental sound generating device, environmental sound generating program, and sound environment forming method

Also Published As

Publication number Publication date
JP3623557B2 (en) 2005-02-23

Similar Documents

Publication Publication Date Title
JP5982980B2 (en) Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern
JP3484986B2 (en) Automatic composition device, automatic composition method, and storage medium
EP0847039B1 (en) Musical tone-generating method
JPH1165565A (en) Music reproducing device and music reproducing control program record medium
JP5970934B2 (en) Apparatus, method, and recording medium for searching performance data using query indicating musical tone generation pattern
CN1770258B (en) Rendition style determination apparatus and method
JP3239672B2 (en) Automatic performance device
JPH07295560A (en) Midi data editing device
US6323411B1 (en) Apparatus and method for practicing a musical instrument using categorized practice pieces of music
JP3623557B2 (en) Automatic composition system and automatic composition method
JP2002229561A (en) Automatic arranging system and method
JP3419278B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3716725B2 (en) Audio processing apparatus, audio processing method, and information recording medium
JP3829780B2 (en) Performance method determining device and program
CN112420003A (en) Method and device for generating accompaniment, electronic equipment and computer-readable storage medium
JP3520736B2 (en) Music reproducing apparatus and recording medium on which background image search program is recorded
JP3266007B2 (en) Performance data converter
JPH09127940A (en) Automatic rendition device
JP3261929B2 (en) Automatic accompaniment device
JP2002304175A (en) Waveform-generating method, performance data processing method and waveform-selecting device
JP6611633B2 (en) Karaoke system server
US20240005896A1 (en) Music generation method and apparatus
JP2003167576A (en) System for providing musical composition
JP3775390B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium
JP3775386B2 (en) Performance setting data selection device, performance setting data selection method, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071203

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081203

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091203

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees