JP3489290B2 - Automatic composer - Google Patents

Automatic composer

Info

Publication number
JP3489290B2
JP3489290B2 JP24358195A JP24358195A JP3489290B2 JP 3489290 B2 JP3489290 B2 JP 3489290B2 JP 24358195 A JP24358195 A JP 24358195A JP 24358195 A JP24358195 A JP 24358195A JP 3489290 B2 JP3489290 B2 JP 3489290B2
Authority
JP
Japan
Prior art keywords
data
note
performance information
melody
pitch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24358195A
Other languages
Japanese (ja)
Other versions
JPH0962263A (en
Inventor
栄一郎 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP24358195A priority Critical patent/JP3489290B2/en
Publication of JPH0962263A publication Critical patent/JPH0962263A/en
Application granted granted Critical
Publication of JP3489290B2 publication Critical patent/JP3489290B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、入力した楽曲情
報に基づいて新たな楽曲情報を自動的に作成する自動作
曲装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic music composition apparatus for automatically creating new music information based on inputted music information.

【0002】[0002]

【従来の技術】近年、パーソナルコンピュータの普及に
伴い、コンピュータを用いて楽器を演奏したり、作曲し
たり、編曲したり、音色を合成したりするコンピュータ
ミュージックを用いて、誰でも音楽を自由に楽しめるよ
うになってきた。特に、コンピュータを用いた作曲の分
野では、音楽的な専門知識がなくても、コンピュータの
指示に従い各種の音楽条件を入力設定するだけで簡単に
作曲することができる。また、最近では元となる曲のメ
ロディを和声音と非和声音に分類し、非和声音をさらに
分類することによってそのメロディの特徴を分析し、そ
の分析結果とコード進行に従って新たなメロディを合成
し、自動的に作曲を行うようなものが提案されている。
2. Description of the Related Art In recent years, with the spread of personal computers, anyone can freely play music by using computer music to play musical instruments, compose, arrange, and synthesize tones. I'm starting to enjoy it. Particularly, in the field of music composition using a computer, music composition can be easily composed by simply inputting and setting various music conditions in accordance with instructions of the computer, even if there is no specialized knowledge of music. In addition, recently, the melody of the original song is classified into harmony and nonharmonic sounds, and the features of the melody are analyzed by further classifying the nonharmonic sounds, and a new melody is synthesized according to the analysis result and chord progression. However, there is a proposal to automatically compose music.

【0003】[0003]

【発明が解決しようとする課題】ところが、元となる曲
のメロディの特徴を分析し、その分析結果に基づいて自
動的に作曲するような自動作曲装置は、入力したメロデ
ィを変更後のコード進行に従って編集するだけに過ぎ
ず、元のメロディの曲想やリズムなどを変化させるもの
ではなかった。
However, an automatic music composition apparatus that analyzes the characteristics of the melody of the original song and automatically composes the music based on the analysis result is used for chord progression after changing the input melody. It was just to edit according to the above, and it did not change the musical composition or rhythm of the original melody.

【0004】この発明は上述の点に鑑みてなされたもの
で、入力したメロディの特徴を生かしつつ、そのメロデ
ィとは異なるような変化に富んだ楽曲を新たに生成する
ことのできる自動作曲装置を提供するものである。
The present invention has been made in view of the above points, and provides an automatic music composition apparatus that can generate a variety of music different from the melody while making the best use of the characteristics of the input melody. It is provided.

【0005】[0005]

【課題を解決するための手段】 第1の発明に係る自動
作曲装置は、複数の音符データから構成される演奏情報
を供給する演奏情報供給手段と、前記演奏情報の中から
所定の条件に合致する音符データを抽出する抽出手段
と、複数の演奏情報パターンを記憶するパターン記憶手
段と、前記抽出手段によって抽出された音符データの音
楽的特徴を表す特徴データを生成し、該生成された特徴
データに従って前記パターン記憶手段から演奏情報パタ
ーンを選択するパターン選択手段と、このパターン選択
手段によって選択された演奏情報パターンに従って新た
な楽曲を生成する楽曲生成手段とを備えたものである。
音符データは音高や発音タイミングなどから構成され
る。抽出手段はこのような音符データから構成される演
奏情報の中から所定の条件に合致した音符データのみを
抽出する。例えば、その演奏情報を構成する音符データ
の発音タイミングに基づいてその演奏情報のリズムパタ
ーンを認識することができるので、そのリズムパターン
に基づいて半小節(1小節の半分)毎に強拍音に該当す
る音符データを抽出したり、音符データの音高の変化の
状態から所定の音高変化を示す音符データを抽出したり
する。選択手段は抽出手段によって抽出された音符デー
の音楽的特徴を表す特徴データを生成し、該生成され
た特徴データに従ってパターン記憶手段の中から対応す
る演奏情報パターンを適宜選択する。例えば、選択手段
は抽出された音符データの隣合うもの同士の音高差や抽
出された音符データの数などに応じて演奏情報パターン
を選択したりする。楽曲生成手段は選択された演奏情報
パターンに基づいて新たな楽曲を生成する。従って、こ
の第1の発明によれば、入力したメロディの特徴を生か
しつつ、そのメロディとは異なるような変化に富んだ楽
曲を新たに生成することができる。
Means for Solving the Problems An automatic music composition apparatus according to a first aspect of the invention is a performance information supply means for supplying performance information composed of a plurality of note data and a predetermined condition among the performance information. Means for extracting note data to be reproduced, pattern storage means for storing a plurality of performance information patterns, and sound of the note data extracted by the extracting means.
Feature data representing a comfort feature is generated, and the generated feature
A pattern selection means for selecting a performance information pattern from the pattern storage means according to the data and a music generation means for generating a new music piece according to the performance information pattern selected by the pattern selection means are provided.
The note data is composed of pitch and sounding timing. The extracting means extracts only the note data that matches a predetermined condition from the performance information composed of such note data. For example, since the rhythm pattern of the performance information can be recognized based on the sounding timing of the note data that constitutes the performance information, a strong beat sound is generated for each half bar (half of one bar) based on the rhythm pattern. The corresponding note data is extracted, or the note data showing a predetermined pitch change is extracted from the state of the pitch change of the note data. The selecting means generates characteristic data representing musical characteristics of the note data extracted by the extracting means , and the characteristic data is generated.
A corresponding performance information pattern is appropriately selected from the pattern storage means according to the characteristic data . For example, the selecting means selects a performance information pattern in accordance with the pitch difference between adjacent note data pieces extracted or the number of note data pieces extracted. The music generation means generates a new music based on the selected performance information pattern. Therefore, according to the first aspect of the present invention, it is possible to newly generate a song that is rich in variety and that is different from the melody while making the most of the characteristics of the input melody.

【0006】第2の発明に係る自動作曲装置は、複数の
音符データから構成される演奏情報を供給する演奏情報
供給手段と、前記演奏情報を所定の区間に分割し、該区
間に含まれる前記音符データの音高または発音タイミン
グの変更を示す変更種類と該変更種類に対応したパラメ
ータとを該区間毎に設定するパラメータ設定手段と、前
記所定区間毎に前記音符データを構成する音高及び発
音タイミングの少なくとも一方を、該区間に対応して設
定された前記変更種類と前記パラメータに従って変更す
ることにより、前記供給された演奏情報を変更する演奏
情報変更手段と、この演奏情報変更手段によって変更さ
れた演奏情報に従って新たな楽曲を生成する楽曲生成手
段とを備えたものである。パラメータ設定手段は演奏情
報を所定の区間、例えば1小節毎や2小節毎などのよう
な適当な区間に分割し、その区間毎に、該区間に含まれ
る音符データの音高または発音タイミングの変更を示す
変更種類と該変更種類に対応したパラメータとを設定す
る。この変更種類とそれに対応するパラメータには、例
えば、区間内でリズムを逆進行させるもの、その区間内
の所定のリズムを別のリズムに変更するもの、区間内で
ピッチを逆進行させるもの、区間内で所定のピッチを基
準にピッチを反転させるものなどがある。演奏情報変更
手段はこのように各区間ごとに設定された変更種類とそ
パラメータに従って所定区間毎に音符データを構成
する音高や発音タイミングなどを変更することで演奏情
報そのものを変更する。楽曲生成手段は変更された演奏
情報に基づいて新たな楽曲を生成する。従って、この第
2の発明によれば、入力したメロディの特徴を生かしつ
つ、そのメロディとは異なるような変化に富んだ楽曲を
新たに生成することができる。
[0006] automatic composition apparatus according to a second aspect of the present invention is to divide the performance information supply means for supplying performance information including a plurality of note data, the performance information in a predetermined period, the compartment
The pitch or pronunciation of the note data included between
Change type indicating the change of the group and the parameter corresponding to the change type
Parameter setting means for setting the data for each section, and at least one of the pitch and sounding timing constituting the note data for each of the predetermined sections , corresponding to the section.
Performance information changing means for changing the supplied performance information by changing in accordance with the specified change type and the parameter, and music generation for generating a new music piece according to the performance information changed by the performance information changing means. And means. The parameter setting means divides the performance information into a predetermined section, for example, an appropriate section such as every one bar or every two bars, and each section is included in the section.
Indicates a change in pitch or pronunciation timing of note data
A change type and a parameter corresponding to the change type are set. The change type and the parameters corresponding thereto include, for example, one that reverses a rhythm within a section, one that changes a predetermined rhythm within the section to another rhythm, one that reverses a pitch within the section, and a section Among them, there is one in which the pitch is reversed with reference to a predetermined pitch. The performance information changing means is the type of change set for each section and
Changing the performance information itself by changing the like pitch and tone generation timing constituting the musical note data at every predetermined interval in accordance with the parameters. The music generation means generates a new music based on the changed performance information. Therefore, according to the second aspect of the present invention, it is possible to newly generate a musical piece rich in variety different from the melody while making the most of the characteristics of the input melody.

【0007】第3の発明に係る自動作曲装置は、複数の
音符データから構成される演奏情報を供給する演奏情報
供給手段と、作曲の対象となる歌詞に対応した音節デー
タからなる歌詞データを供給するデータ供給手段と、前
記演奏情報及び前記歌詞データを対応付けて所定の区間
に分割する分割手段と、分割された区間毎に前記音節デ
ータの数に応じて前記音符データを追加又は削除するデ
ータ変更手段と、前記データ変更手段によって変更され
た演奏情報に従って新たな楽曲を生成する楽曲生成手段
とを備えたものである。作曲の対象となる歌詞は、ユー
ザによって作成されたものであり、文字の集合である。
特に、日本語のひらがなやカタカナは1つの文字が1つ
の音節を構成する音節文字である。従って、データ供給
手段は、作曲の対象となる歌詞をひらがな又はカタカナ
で表した場合における1文字を音節データとし、その音
節データの集まりである歌詞データを供給する。演奏情
報供給手段は複数の音符データから構成される演奏情報
を供給する。分割手段はこのような音節データの集まり
である歌詞データと音符データの集まりである演奏情報
をそれぞれ対応付けて所定の区間に分割する。ところ
が、分割された区間内では、音節データの数と音符デー
タの数が一致しない場合がある。そこで、データ変更手
段は分割された区間毎に音節データの数に音符データの
数が等しくなるように音符データの数を追加したり削除
したりして演奏情報を変更する。楽曲生成手段は変更さ
れた演奏情報に基づいて新たな楽曲を生成する。従っ
て、この第3の発明によれば、入力したメロディの特徴
を生かしつつ、入力した歌詞に合致した変化に富んだ楽
曲を新たに生成することができる。
The automatic music composition apparatus according to the third invention supplies performance information supply means for supplying performance information composed of a plurality of note data, and lyrics data composed of syllable data corresponding to the lyrics to be composed. Data supplying means, dividing means for dividing the performance information and the lyrics data into predetermined sections in association with each other, and data for adding or deleting the note data in accordance with the number of the syllable data for each divided section. The change means and the music generation means for generating a new music according to the performance information changed by the data change means are provided. The lyrics to be composed are created by the user and are a set of characters.
In particular, Japanese hiragana and katakana are syllable characters in which one character forms one syllable. Therefore, the data supplying means supplies one piece of character when the lyrics to be composed are expressed in hiragana or katakana as syllable data, and supplies the lyrics data which is a collection of the syllable data. The performance information supply means supplies performance information composed of a plurality of note data. The dividing means divides the lyrics data, which is a collection of syllable data, and the performance information, which is a collection of note data, into predetermined sections in association with each other. However, in the divided sections, the number of syllable data and the number of note data may not match. Therefore, the data changing means changes the performance information by adding or deleting the number of note data so that the number of note data is equal to the number of syllable data for each divided section. The music generation means generates a new music based on the changed performance information. Therefore, according to the third aspect of the present invention, it is possible to newly generate a tune that is rich in variation and that matches the input lyrics while making the most of the characteristics of the input melody.

【0008】[0008]

【発明の実施の形態】以下、この発明の実施の形態を添
付図面に従って詳細に説明する。図2はこの発明に係る
自動作曲装置を内蔵した電子楽器の構成を示すハードブ
ロック図である。電子楽器は、マイクロプロセッサユニ
ット(CPU)1、プログラムメモリ2及びワーキング
メモリ3からなるマイクロコンピュータによって制御さ
れる。CPU1は、この電子楽器全体の動作を制御する
ものである。このCPU1に対して、データ及びアドレ
スバス1Eを介してプログラムメモリ2、ワーキングメ
モリ3、パターンメモリ4、演奏データメモリ5、押鍵
検出回路6、演奏データ入力装置7、スイッチ検出回路
8、表示回路9及び音源回路10がそれぞれ接続されて
いる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the accompanying drawings. FIG. 2 is a hardware block diagram showing the configuration of an electronic musical instrument incorporating the automatic music composition apparatus according to the present invention. The electronic musical instrument is controlled by a microcomputer including a microprocessor unit (CPU) 1, a program memory 2 and a working memory 3. The CPU 1 controls the operation of the entire electronic musical instrument. For this CPU 1, a program memory 2, a working memory 3, a pattern memory 4, a performance data memory 5, a key press detection circuit 6, a performance data input device 7, a switch detection circuit 8 and a display circuit via a data and address bus 1E. 9 and the tone generator circuit 10 are connected to each other.

【0009】プログラムメモリ2はCPU1の各種プロ
グラム、各種データ、各種記号文字等を格納するもので
あり、リードオンリーメモリ(ROM)で構成されてい
る。ワーキングメモリ3は、演奏情報やCPU1がプロ
グラムを実行する際に発生する各種データを一時的に記
憶するものであり、ランダムアクセスメモリ(RAM)
の所定のアドレス領域がそれぞれ割り当てられ、レジス
タやフラグなどとして利用される。パターンバンクメモ
リ4は、音高差データやリズムパターンデータに対応し
たメロディのパターンを複数記憶したものである。この
パターンバンクメモリ4からメロディパターンを読み出
すには、音高差データやリズムパターンデータに対応し
たアドレスを与えればよい。演奏データメモリ5は、作
曲したメロディに関する演奏データなどを記憶するもの
である。
The program memory 2 stores various programs of the CPU 1, various data, various symbol characters, etc., and is constituted by a read only memory (ROM). The working memory 3 is for temporarily storing performance information and various data generated when the CPU 1 executes a program, and is a random access memory (RAM).
The respective predetermined address areas are assigned and used as registers and flags. The pattern bank memory 4 stores a plurality of melody patterns corresponding to pitch difference data and rhythm pattern data. To read the melody pattern from the pattern bank memory 4, an address corresponding to the pitch difference data or the rhythm pattern data may be given. The performance data memory 5 stores performance data regarding the composed melody.

【0010】鍵盤1Aは、発音すべき楽音の音高を選択
するための複数の鍵を備えており、各鍵に対応してキー
スイッチを有しており、また必要に応じて押鍵速度検出
装置や押圧力検出装置等のタッチ検出手段を有してい
る。押鍵検出回路6は、発生すべき楽音の音高を指定す
る鍵盤1Aのそれぞれの鍵に対応して設けられた複数の
キースイッチからなる回路を含んで構成されており、新
たな鍵が押圧されたときはキーオンイベントを出力し、
鍵が新たに離鍵されたときはキーオフイベントを出力す
る。また、鍵押し下げ時の押鍵操作速度又は押圧力等を
判別してタッチデータを生成する処理を行い、生成した
タッチデータをベロシティデータとして出力する。この
ようにキーオン、キーオフイベント及びベロシティなど
のデータはMIDI規格で表現されておりキーコードと
割当てチャンネルを示すデータも含んでいる。演奏デー
タ入力装置7は、元となる楽曲に関する演奏データを入
力するものであり、例えば演奏データがMIDI規格に
準拠したデータの場合にはMIDIインターフェイスで
構成される。
The keyboard 1A is provided with a plurality of keys for selecting the pitch of a musical tone to be generated, has a key switch corresponding to each key, and detects the key depression speed as necessary. It has a touch detection means such as a device and a pressing force detection device. The key depression detection circuit 6 is configured to include a circuit composed of a plurality of key switches provided corresponding to each key of the keyboard 1A that specifies the pitch of a musical tone to be generated, and a new key is depressed. Output a key-on event,
When the key is newly released, a key-off event is output. In addition, a process of generating touch data is performed by determining the key pressing operation speed or the pressing force when the key is pressed, and the generated touch data is output as velocity data. As described above, the data such as the key-on event, the key-off event, and the velocity are expressed by the MIDI standard, and also include the data indicating the key code and the assigned channel. The performance data input device 7 is for inputting performance data relating to an original music piece, and is composed of a MIDI interface when the performance data is data complying with the MIDI standard.

【0011】テンキー&キーボード&各種スイッチ1B
は、既存曲を音楽的特徴を分析及び抽出するための分析
スイッチや分析及び抽出結果に基づいて自動的に作曲を
行うための作曲スイッチ、数値データ入力用のテンキー
や文字データ入力用のキーボード、自動演奏のスタート
/ストップスイッチなどの各種の操作子を含んで構成さ
れる。なお、この他にも音高、音色、効果等を選択・設
定・制御するための各種操作子を含むが、その詳細につ
いては公知なので説明を省略する。スイッチ検出回路8
は、テンキー&キーボード&各種スイッチ1Bの各操作
子の操作状態を検出し、その操作状態に応じたスイッチ
情報をデータ及びアドレスバス1Eを介してCPU1に
出力する。表示回路9はCPU1の制御状態、設定デー
タの内容等の各種の情報をディスプレイ1Cに表示する
ものである。ディスプレイ1Cは液晶表示パネル(LC
D)やCRT等から構成され、表示回路9によってその
表示動作を制御されるようになっている。このテンキー
&キーボード&各種スイッチ1B及びディスプレイによ
ってGUI(Graphical User Inte
rface)が構成される。
Numeric keypad & keyboard & various switches 1B
Is an analysis switch for analyzing and extracting the musical characteristics of existing songs, a composition switch for automatically composing music based on the analysis and extraction results, a numeric keypad for entering numerical data and a keyboard for entering character data, It is configured to include various controls such as automatic performance start / stop switches. It should be noted that, in addition to these, various operators for selecting, setting, and controlling pitch, tone color, effect, etc. are included, but since the details thereof are publicly known, description thereof will be omitted. Switch detection circuit 8
Detects the operation state of each operation element of the numeric keypad & keyboard & various switches 1B and outputs switch information according to the operation state to the CPU 1 via the data and address bus 1E. The display circuit 9 displays various information such as the control state of the CPU 1 and the contents of setting data on the display 1C. The display 1C is a liquid crystal display panel (LC
D), CRT, etc., and its display operation is controlled by the display circuit 9. GUI (Graphical User Inte) by this numeric keypad & keyboard & various switches 1B and display
rface) is configured.

【0012】音源回路10は、複数のチャンネルで楽音
信号の同時発生が可能であり、データ及びアドレスバス
1Eを経由して与えられた演奏情報(MIDI規格に準
拠したデータ)を入力し、このデータに基づき楽音信号
を発生する。音源回路10における楽音信号発生方式は
いかなるものを用いてもよい。例えば、発生すべき楽音
の音高に対応して変化するアドレスデータに応じて波形
メモリに記憶した楽音波形サンプル値データを順次読み
出すメモリ読み出し方式、又は上記アドレスデータを位
相角パラメータデータとして所定の周波数変調演算を実
行して楽音波形サンプル値データを求めるFM方式、あ
るいは上記アドレスデータを位相角パラメータデータと
して所定の振幅変調演算を実行して楽音波形サンプル値
データを求めるAM方式等の公知の方式を適宜採用して
もよい。音源回路10から発生された楽音信号は、図示
しないアンプ及びスピーカからなるサウンドシステム1
Dを介して発音される。
The tone generator circuit 10 is capable of simultaneously generating musical tone signals on a plurality of channels, inputs data and performance information (data conforming to the MIDI standard) given via the address bus 1E, and receives this data. A tone signal is generated based on. Any tone signal generation method may be used in the tone generator circuit 10. For example, a memory reading method for sequentially reading the musical tone waveform sample value data stored in the waveform memory according to the address data that changes corresponding to the pitch of the musical tone to be generated, or a predetermined frequency with the address data as phase angle parameter data. A well-known method such as an FM method for performing a modulation operation to obtain musical tone waveform sample value data or an AM method for performing a predetermined amplitude modulation operation using the address data as phase angle parameter data to obtain a tone waveform sample value data. You may employ suitably. The tone signal generated from the tone generator circuit 10 is a sound system 1 including an amplifier and a speaker (not shown).
Pronounced via D.

【0013】次に、この発明に係る自動作曲装置の動作
の一例を説明する。図3は図2の電子楽器のメインフロ
ーを示す図である。メインフローは次のようなステップ
で順番に実行される。 ステップ31:まず、初期設定処理を行い、図2のワー
キングメモリ3内の各レジスタ及びフラグなどに初期値
を設定したりする。 ステップ32:テンキー&キーボード&各種スイッチ1
B上の作曲スイッチがオン操作されたかどうかを判定
し、オン操作有り(YES)の場合はステップ33に進
み、オン操作無し(NO)の場合はステップ34に進
む。
Next, an example of the operation of the automatic music composition apparatus according to the present invention will be described. FIG. 3 is a diagram showing a main flow of the electronic musical instrument of FIG. The main flow is sequentially executed by the following steps. Step 31: First, initial setting processing is performed, and initial values are set in the registers and flags in the working memory 3 shown in FIG. Step 32: Numeric keypad & keyboard & various switches 1
It is determined whether or not the composition switch on B has been turned on. If there is an on operation (YES), the process proceeds to step 33, and if there is no on operation (NO), the process proceeds to step 34.

【0014】ステップ33:前記ステップ32で作曲ス
イッチのオン操作有り(YES)と判定されたので、こ
こでは、そのオン操作に対応して自動作曲処理1〜6の
中のいずれか1つの処理を行う。すなわち、この実施の
形態では、自動作曲装置は全部で6種類の自動作曲モー
ドを有しており、その中のいずれか1つのモードで自動
作曲を行うようになっている。このモードは予め別のス
イッチで設定しておいてもよいし、作曲スイッチを6個
設け、操作されたスイッチに対応して自動作曲処理1〜
6の中のいずれかを実行するようにしてもよい。これら
自動作曲処理1〜6の詳細については後述する。
Step 33: Since it is determined in step 32 that the composition switch has been turned on (YES), any one of the automatic music processings 1 to 6 is executed in response to the on operation. To do. That is, in this embodiment, the automatic music composition device has a total of six types of automatic music composition modes, and one of the modes is used to perform automatic composition. This mode may be set in advance with another switch, or six composition switches are provided, and the automatic music composition processing 1 to
Any one of 6 may be executed. Details of these automatic music pieces processing 1 to 6 will be described later.

【0015】ステップ34:テンキー&キーボード&各
種スイッチ1B上の自動演奏スタート/スイッチがオン
操作されたかどうかを判定し、オン操作有り(YES)
の場合はステップ35に進み、オン操作無し(NO)の
場合はステップ36に進む。 ステップ35:自動演奏スタート/ストップスイッチの
オンイベントに対応した自動演奏のスタート処理又はス
トップ処理を行う。すなわち、オンイベントが自動演奏
スタートイベントの場合には演奏データメモリ5から演
奏データを読み出し、それに基づいた自動演奏処理を行
う。オンイベントがストップイベントの場合には、現在
発音中の音を消音し、自動演奏処理を停止する。 ステップ36:その他の処理、例えば鍵盤1Aの操作に
応じた発音処理などを行う。
Step 34: It is judged whether the automatic performance start / switch on the numeric keypad & keyboard & various switches 1B is turned on, and there is an on operation (YES).
In case of NO, the process proceeds to step 35. In case of no ON operation (NO), the process proceeds to step 36. Step 35: The automatic performance start / stop processing corresponding to the ON event of the automatic performance start / stop switch is performed. That is, when the on event is the automatic performance start event, the performance data is read from the performance data memory 5 and the automatic performance processing is performed based on the performance data. If the on event is a stop event, the currently sounding sound is muted and the automatic performance process is stopped. Step 36: Other processing, for example, sounding processing according to the operation of the keyboard 1A is performed.

【0016】図1は図3のステップ33の自動作曲処理
1の詳細を示す図である。以下、この自動作曲処理1に
よって元となるメロディが取り込まれてから新たなメロ
ディが作曲されるまでの過程を図4の譜面を用いてステ
ップ順に説明する。 ステップ11:既存曲のメロディを取り込む。例えば、
既存曲のメロディを小節線データを含む形でGUI(テ
ンキー&キーボード&各種スイッチ1B及びディスプレ
イ1C)や鍵盤1Aなどから取り込む。既存曲がMID
Iデータの場合には、取り込まれたMIDIデータに後
からユーザがGUIを用いて小節線データを入力しても
よい。また、印刷楽譜などをスキャナで読み取ってもよ
い。ここでは、図4(a)に示すようなメロディが取り
込まれたとする。 ステップ12:前記ステップ11で取り込まれた既存曲
の調を示す調データを入力する。図4の場合には、調デ
ータとしてハ長調が入力される。
FIG. 1 is a diagram showing the details of the automatic music composition processing 1 in step 33 of FIG. Hereinafter, the process from the acquisition of the original melody to the composition of a new melody by the automatic music processing 1 will be described step by step using the musical score of FIG. Step 11: Take in the melody of the existing song. For example,
The melody of an existing song is loaded from the GUI (numerical keypad & keyboard & various switches 1B and display 1C), keyboard 1A, etc. in a form including bar line data. Existing song is MID
In the case of I data, the user may later input bar line data to the imported MIDI data using the GUI. Further, the printed musical score or the like may be read by a scanner. Here, it is assumed that the melody as shown in FIG. Step 12: Input the key data indicating the key of the existing song captured in the step 11. In the case of FIG. 4, C major is input as the key data.

【0017】ステップ13:取り込まれたメロディに対
して各区間毎のその強拍音を抽出し、それを抽出演奏デ
ータとする。すなわち、取り込まれたメロディが2/
2,2/4,2/8などの2拍子系や3/2,3/4,
3/8などの3拍子系の場合には1小節毎に、4/2,
4/4(C),4/8などの4拍子系の場合には半小節
(1小節の半分)毎に、強拍音を抽出する。図4(a)
のメロディの場合には、4/4(C)拍子なので、強拍
音として1拍目と3拍目の音符データが抽出される。図
4(b)は抽出された抽出演奏データを示す。
Step 13: Extract the strong beat sound of each section from the fetched melody and use it as the extracted performance data. That is, the imported melody is 2 /
2-beat system such as 2,2 / 4,2 / 8 or 3 / 2,3 / 4,
In the case of 3-beat system such as 3/8, 4/2 for each bar
In the case of 4-beat system such as 4/4 (C) and 4/8, a strong beat sound is extracted for each half measure (half of one measure). Figure 4 (a)
In the case of the melody, since the time signature is 4/4 (C), note data of the first beat and the third beat is extracted as a strong beat. FIG. 4B shows the extracted extracted performance data.

【0018】ステップ14:各区間の隣合う強拍音の音
符データ同士の音高差データを生成する。ここで音高差
データは両音符データの音高が半音でいくつ離れている
かで示す。例えば、図4(b)の抽出演奏データの場合
には、音高差データは『3半音−2半音−4半音−2半
音−2半音−3半音−4半音』となる。なお、この音高
差データは単純に音高差だけを示しているが、『3半音
上−2半音下−4半音上−2半音上−2半音下−3半音
上−4半音上』のように次の音符データの音高が高いの
か低いのかを示してもよい。
Step 14: Generate pitch difference data between note data of adjacent strong beat sounds in each section. Here, the pitch difference data indicates how many pitches of both note data are separated by a semitone. For example, in the case of the extracted performance data of FIG. 4B, the pitch difference data is "3 semitones-2 semitones-4 semitones-2 semitones-2 semitones-3 semitones-4 semitones". Note that this pitch difference data simply indicates only the pitch difference, but "3 semitones up-2 semitones down-4 semitones up-2 semitones up-2 semitones down-3 semitones up-4 semitones up" Thus, it may indicate whether the pitch of the next note data is high or low.

【0019】ステップ15:各区間について、前記ステ
ップ14で生成された音高差データに従って、パターン
バンクメモリ4からメロディパターンを選択する。すな
わち、音高差データを上位アドレスとし、それにランダ
ムな下位アドレスを組み合わせたものを、パターンバン
クメモリ4の読み出しアドレスとし、そこからメロディ
パターンを読み出す。図4(c)には図4(b)の音高
差データに基づいてパターンバンクメモリ4から読み出
されたメロディパターンの一例が示されている。なお、
最後の半小節に関して音高差データを生成することがで
きないので、図4(a)の音符データがそのまま採用さ
れる。すなわち、最後の半小節の音符データ『E』と4
分休符はそのまま図4(c)の最後の半小節のメロディ
パターンとして採用される。 ステップ16:前記ステップ15で読み出されたメロデ
ィパターンは最初の音がその調の主音となるように基準
化されているので、各区間について、選択されたメロデ
ィパターンの最初の音高と抽出演奏データの音高とが等
しくなるようにメロディパターンの音高をシフトする。
図4(d)では、第1番目の半小節の最初の8分音符デ
ータ『C』が図4(b)の抽出演奏データの2分音符デ
ータ『E』の音高となるように全体的にシフトされる。
以下、同様にそれぞれの半小節の各音符データの音高も
シフトされる。
Step 15: For each section, a melody pattern is selected from the pattern bank memory 4 in accordance with the pitch difference data generated in Step 14. That is, the pitch difference data is used as the upper address, and a combination of the random lower address is used as the read address of the pattern bank memory 4, and the melody pattern is read therefrom. FIG. 4C shows an example of the melody pattern read from the pattern bank memory 4 based on the pitch difference data of FIG. 4B. In addition,
Since the pitch difference data cannot be generated for the last half measure, the note data of FIG. 4 (a) is adopted as it is. That is, the note data “E” and 4 of the last half measure
The minute rests are directly adopted as the melody pattern of the last half measure in FIG. 4 (c). Step 16: Since the melody pattern read out in step 15 is standardized so that the first note becomes the tonic of the key, the first pitch and the extracted performance of the selected melody pattern for each section. The pitch of the melody pattern is shifted so that the pitch of the data becomes equal.
In FIG. 4 (d), the first eighth note data “C” of the first semi-bar is set so as to be the pitch of the half note data “E” of the extracted performance data of FIG. 4 (b). Is shifted to.
Thereafter, the pitch of each note data of each half measure is similarly shifted.

【0020】ステップ17:音符データの音高をステッ
プ12で入力された調の音階音に変換する。すなわち、
図4(d)の音符データの中から『♯』又は『♭』の付
いた音符データの音高を半音下げることによって、図4
(e)のようなハ長調の音階音に変換する。なお、
『♯』又は『♭』のついた音符データの音高を半音上げ
ることによって、図4(e)のようなハ長調の音階音に
変換してもよい。 ステップ18:小節線を復元する。例えば、図4(c)
及び図4(d)のようなデータ処理のために付加された
半小節毎の小節線を削除し、図4(a)と同様の4/4
拍子に対応した小節線を復元する。以上のような一連の
処理によって、図4(a)のようなメロディから図4
(e)のような全く新しいメロディが作曲される。
Step 17: Convert the pitch of the note data into the scale note of the key input in Step 12. That is,
By lowering the pitch of the note data with “#” or “♭” from the note data of FIG.
It is converted into a C major scale tone as shown in (e). In addition,
The pitch of the note data with “#” or “♭” may be increased by a semitone to convert it into a C major scale tone as shown in FIG. Step 18: Restore bar lines. For example, FIG. 4 (c)
And, the bar line for each half bar added for data processing as shown in FIG.
Restore the bar line corresponding to the time signature. By the series of processes described above, the melody as shown in FIG.
A completely new melody like (e) is composed.

【0021】なお、この自動作曲処理1では、各区間の
強拍音を抽出して抽出演奏データを作成する場合につい
て説明したが、これに限らず、次のようにして取り込ん
だメロディから音符データを抽出して、抽出演奏データ
を作成するようにしてもよい。例えば、所定の区間(1
小節)毎に、音符データの音高の変化の状態に基づい
て、音符データの音高が同じ音高で進行している場合を
探し出し、それに該当する音符データの中から適当なも
のを抽出してもよいし、入力調の音階音に従って順番に
音高が進行している場合を探し出し、それに該当する音
符データの中から適当なものを抽出してもよいし、さら
に、入力調の音階音で1音以上跳躍して進行している場
合を探し出し、それに該当する音符データの中から適当
なものを抽出してもよい。また、各区間毎に所定のリズ
ムパターンに合致する音符データの集合を抽出し、その
中から適当なものを抽出してもよい。
In the automatic music processing 1, a case has been described in which strong beat sounds in each section are extracted to create extracted performance data. However, the present invention is not limited to this, and note data is acquired from a melody imported as follows. May be extracted to create the extracted performance data. For example, a predetermined section (1
For each measure, find the case where the pitch of the note data is proceeding at the same pitch based on the state of the change of the pitch of the note data, and extract the appropriate one from the corresponding note data. Alternatively, it is possible to search for a case where the pitch is progressing in order according to the scale note of the input note, and to extract an appropriate one from the note data corresponding to it, It is also possible to search for a case where one or more notes are jumping and advancing, and to extract an appropriate note data from the note data corresponding thereto. Alternatively, a set of note data that matches a predetermined rhythm pattern may be extracted for each section, and an appropriate one may be extracted from the set.

【0022】図5は図3のステップ33の自動作曲処理
2の詳細を示す図である。この自動作曲処理2は自動作
曲処理1の変形例であり、異なる点はメロディの取り込
みとは別に、歌詞データを取り込み、その歌詞データを
構成する音節データ数に基づいて発音タイミングパター
ンすなわちリズムパターンを選択し、そのリズムパター
ンと音高差データとに基づいてメロディパターンを選択
するようにした点である。以下、自動作曲処理2によっ
て元となるメロディから新たなメロディが作曲されるま
での過程を図6の譜面を用いてステップ順に説明する。
なお、自動作曲処理1と同じ処理については簡略化して
説明する。
FIG. 5 is a diagram showing the details of the automatic music composition processing 2 in step 33 of FIG. This automatic music processing 2 is a modification of the automatic music processing 1. The difference is that, in addition to the melody acquisition, lyrics data is acquired and a sounding timing pattern, that is, a rhythm pattern is generated on the basis of the number of syllable data constituting the lyrics data. The point is that the melody pattern is selected and the melody pattern is selected based on the rhythm pattern and the pitch difference data. Hereinafter, the process from the original melody to the composition of a new melody by the automatic music composition processing 2 will be described step by step using the musical score of FIG.
The same processing as the automatic music composition processing 1 will be simplified and described.

【0023】ステップ51:既存曲のメロディを取り込
む。ここでは、図6(a)の譜面に示すようなメロディ
が取り込まれたとする。なお、このメロディは図4
(a)と同じである。 ステップ52:調データを入力する。図6(a)の場合
にもハ長調が入力される。 ステップ53:小節線データで区切られた歌詞データを
取り込む。この歌詞データは図6(b)に示すように第
1小節が6つの音節データ『あ、い、う、え、お、か』
からなり、第2小節が5つの音節データ『き、く、け、
こ、さ』からなり、第3小節が8つの音節データ『し、
す、せ、そ、た、ち、つ、て』からなり、第4小節が4
つの音節データ『と、な、に、ぬ』からなるものであ
る。 ステップ54:各小節毎に、その小節内の音節数すなわ
ち音節データの数に対応した発音タイミングパターンを
パターンバンクメモリ4からランダムに読み出す。例え
ば、第1小節の音節データ数は『6』、第2小節の音節
データ数は『5』、第3小節の音節データ数『8』、第
4小節の音節データ数は『4』なので、図6(c)に示
すような音節データ数に応じた発音タイミングパターン
が選択される。
Step 51: Take in the melody of the existing song. Here, it is assumed that the melody shown in the musical score of FIG. This melody is shown in Figure 4.
Same as (a). Step 52: Input key data. Also in the case of FIG. 6A, C major is input. Step 53: Capture the lyrics data delimited by the bar line data. As shown in FIG. 6 (b), this lyric data is syllable data in which the first measure has six syllables “A, I, U, E, O, or”.
The second measure is 5 syllable data "Ki, Ku, Ke,"
Ko, Sa ”, and the third measure is 8 syllable data“ Shi,
Sue, se, so, ta, chi, tsu, te ”, 4th measure is 4
It consists of one syllable data “and na, ni, n”. Step 54: For each bar, a sounding timing pattern corresponding to the number of syllables in the bar, that is, the number of syllable data, is read out randomly from the pattern bank memory 4. For example, the number of syllable data of the first measure is "6", the number of syllable data of the second measure is "5", the number of syllable data of the third measure is "8", and the number of syllable data of the fourth measure is "4". A sounding timing pattern corresponding to the number of syllable data as shown in FIG. 6C is selected.

【0024】ステップ55:取り込まれたメロディに対
して各区間毎にその強拍音を抽出し、それを抽出演奏デ
ータとする。図6(a)のメロディは図4(a)と同じ
なので、抽出演奏データは図6(d)のように図4
(b)と同じになる。 ステップ56:各区間の隣合う強拍音の音符データ同士
の音高差データを生成する。図6(d)の抽出演奏デー
タの場合にも、図4(b)の場合と同じ音高差データ
『3半音−2半音−4半音−2半音−2半音−3半音−
4半音』が生成さされる。
Step 55: Extract the strong beat sound of each section of the taken melody and use it as the extracted performance data. Since the melody of FIG. 6A is the same as that of FIG. 4A, the extracted performance data is as shown in FIG.
Same as (b). Step 56: Generate pitch difference data between note data of adjacent strong beats in each section. Also in the case of the extracted performance data of FIG. 6D, the same pitch difference data “3 semitones-2 semitones-4 semitones-2 semitones-2 semitones-3 semitones-as in the case of FIG. 4B.
4 semitones ”are generated.

【0025】ステップ57:各区間毎に、前記ステップ
54で選択された発音タイミングパターンと、前記ステ
ップ56で生成された音高差データとに従って、パター
ンバンクメモリ4からメロディパターンを選択する。す
なわち、音高差データを上位アドレスとし、それにラン
ダムな下位アドレスを組み合わせたものを、パターンバ
ンクメモリ4の読み出しアドレスとし、そこからメロデ
ィパターンを読み出す。読み出されたメロディパターン
のリズムパターンが発音タイミングパターンと一致する
場合にはそれをメロディパターンとし、一致しない場合
にはさらに一致するメロディパターンが読み出されるま
で下位アドレスを変化させる。図6(e)には図6
(c)の発音タイミングパターンと一致したメロディパ
ターンがパターンバンクメモリ4から読み出された場合
が示されている。説明の便宜上、図6(e)のメロディ
パターンと図4(c)のメロディパターンとが同じ場合
を図示したが、実際には音高差データやリズムパターン
が同じであってもメロディパターンは異なることの方が
多い。なお、パターンバンクメモリ4を音高差データ及
びリズムパターンに応じてメロディパターンを記憶して
おき、音高差データとリズムパターンの組み合わせを上
位アドレスとして、それにランダムな下位アドレスを組
み合わせて読み出すようにしてもよい。
Step 57: For each section, a melody pattern is selected from the pattern bank memory 4 in accordance with the tone generation timing pattern selected in step 54 and the pitch difference data generated in step 56. That is, the pitch difference data is used as the upper address, and a combination of the random lower address is used as the read address of the pattern bank memory 4, and the melody pattern is read therefrom. When the rhythm pattern of the read melody pattern matches the sounding timing pattern, it is set as the melody pattern, and when the rhythm pattern does not match, the lower address is changed until a further matching melody pattern is read. FIG. 6 (e) shows FIG.
The case where the melody pattern that matches the sounding timing pattern of (c) is read from the pattern bank memory 4 is shown. For convenience of explanation, the case where the melody pattern of FIG. 6 (e) and the melody pattern of FIG. 4 (c) are the same is shown, but the melody pattern is different even if the pitch difference data and the rhythm pattern are actually the same. There are more things. The pattern bank memory 4 stores a melody pattern in accordance with the pitch difference data and the rhythm pattern, and a combination of the pitch difference data and the rhythm pattern is used as an upper address, and a random lower address is combined and read out. May be.

【0026】ステップ58:前記ステップ15で読み出
されたメロディパターンは最初の音がその調の主音とな
るように基準化されているので、各区間について、選択
されたメロディパターンの最初の音高と抽出演奏データ
の音高とが等しくなるようにメロディパターンの音高を
シフトする。これによって図6(e)の譜面は図6
(f)のようになる。
Step 58: Since the melody pattern read out in the step 15 is standardized so that the first note becomes the tonic of the key, the first pitch of the selected melody pattern for each section. And the pitch of the melody pattern is shifted so that the pitch of the extracted performance data becomes equal. As a result, the musical score of FIG.
It becomes like (f).

【0027】ステップ59:音符データの音高を入力調
の音階音に変換する。すなわち、図6(f)の音符デー
タの中から『♯』又は『♭』の付いた音符データの音高
を半音下げる。逆に『♯』又は『♭』の付いた音符デー
タの音高を半音上げてもよい。 ステップ5A:小節線を復元する。これによって、図6
(a)のようなメロディから図6(g)のような全く新
しいメロディが作曲される。
Step 59: Convert the pitch of the note data into an input scale. That is, the pitch of the note data with "#" or "♭" is lowered by a semitone from the note data of FIG. 6 (f). On the contrary, the pitch of the note data with “#” or “♭” may be increased by a semitone. Step 5A: Restore the bar line. As a result, FIG.
An entirely new melody as shown in FIG. 6G is composed from the melody as shown in FIG.

【0028】図7は図3のステップ33の自動作曲処理
3の詳細を示す図である。この自動作曲処理3が自動作
曲処理1と異なる点は、取り込まれたメロディを所定の
区間に区切り、その区間毎にメロディデータをどのよう
に変更するのかその変更種類とパラメータを設定するこ
とによって、取り込まれたメロディデータを変更し新た
なメロディデータを作曲するようにした点である。以
下、自動作曲処理3によって元となるメロディから新た
なメロディが作曲されるまでの過程を図8の譜面を用い
てステップ順に説明する。なお、自動作曲処理1と同じ
処理については簡略化して説明する。
FIG. 7 is a diagram showing the details of the automatic music composition process 3 in step 33 of FIG. This automatic music processing 3 is different from the automatic music processing 1 by dividing the captured melody into predetermined sections and setting how to change the melody data for each section by setting the change type and parameters. The point is that the loaded melody data is changed and new melody data is composed. Hereinafter, the process from the original melody to the composition of a new melody by the automatic music composition process 3 will be described step by step using the musical score of FIG. The same processing as the automatic music composition processing 1 will be simplified and described.

【0029】ステップ71:既存曲のメロディを取り込
む。この自動作曲処理3では、図8(a)の譜面に示す
ようなメロディが取り込まれる。 ステップ72:調データを入力する。図8(a)の場合
にはハ長調が入力される。 ステップ73:GUI(テンキー&キーボード&各種ス
イッチ1B及びディスプレイ1C)などを用いて、取り
込んだメロディを所定の区間に区切り、その区間毎にど
のような変更を行うのかを示す変更種類と、その変更種
類に対応したパラメータを設定する。
Step 71: Take in the melody of the existing song. In this automatic music composition processing 3, a melody as shown in the musical score of FIG. Step 72: Input key data. In the case of FIG. 8A, C major is input. Step 73: Using the GUI (numeric keypad & keyboard & various switches 1B and display 1C) and the like, divide the captured melody into predetermined sections, and change types that indicate what kind of change is to be made for each section, and the change Set the parameter corresponding to the type.

【0030】変更種類としては、例えば、区間内でリズ
ムを逆進行させる第1のリズム変更種類(リズム逆進
行)、その区間内の所定のリズムを別のリズムに変更す
る第2のリズム変更種類(リズム置換)、区間内でピッ
チを逆進行させる第1のピッチ変更種類(ピッチ逆進
行)と、区間内で所定のピッチを基準にピッチを反転さ
せる第2のピッチ変更種類(ピッチ反転)などがある。
これ以外にも、色々なリズム変更種類やピッチ変更種類
が考えられるがここではそれらについての説明は省略す
る。第1のリズム変更種類の場合には逆進行させる場合
の出発点の音高を、第2のリズム変更種類の場合には変
更前のリズムと変更後のリズムを、第1のピッチ変更種
類の場合には逆進行させる場合の出発点の音高を、第2
のピッチ変更種類の場合には反転の基準となる基準ピッ
チを、それぞれパラメータとして設定する必要がある。
なお、この実施の形態では1つの区間についてはリズム
変更種類とピッチ変更種類を同時に設定することは可能
であるが、同時に2つのリズム変更種類やピッチ変更種
類を設定することはできないこととする。なお、1つの
区間について2つ以上のリズム変更種類やピッチ変更種
類を設定した場合には、それらの変更処理によって生成
されたメロディパターンのアンド又はオアしたものを新
たなメロディデータとして採用してもよいことはいうま
でもない。この場合、同じ発音タイミングに2つの音符
データが生じた場合には、いずれか一方を優先させた
り、発音タイミングが非常に短い場合には、最低音符長
を設定しておき、これ以下の音符長を削除するなどすれ
ばよい。
As the change type, for example, a first rhythm change type in which a rhythm is reversely advanced in a section (rhythm reverse progression), and a second rhythm change type in which a predetermined rhythm in the section is changed to another rhythm (Rhythm replacement), a first pitch change type (pitch reverse progression) for reversing the pitch within the section, and a second pitch change type (pitch reversal) for reversing the pitch within the section based on a predetermined pitch There is.
Other than this, various rhythm change types and pitch change types are conceivable, but description thereof will be omitted here. In the case of the first rhythm change type, the pitch of the starting point for reverse progression is set, and in the case of the second rhythm change type, the rhythm before the change and the rhythm after the change are set in the first pitch change type. In some cases, the pitch of the starting point for reverse traveling is
In the case of the pitch change type, it is necessary to set the reference pitch, which is the reference of inversion, as a parameter.
In this embodiment, the rhythm change type and the pitch change type can be set simultaneously for one section, but two rhythm change types and pitch change types cannot be set at the same time. When two or more rhythm change types and pitch change types are set for one section, the AND or OR of the melody patterns generated by these changing processes may be adopted as new melody data. It goes without saying that it is good. In this case, if two note data occur at the same sounding timing, one of them is given priority, or if the sounding timing is very short, a minimum note length is set and a note length less than this is set. Should be deleted.

【0031】ステップ74:各区間毎に、設定された変
更種類とパラメータに従ってその区間内のメロディデー
タを変更する。設定された変更種類とパラメータの一例
が図8(b)に示してある。ここでは、取り込まれたメ
ロディを2小節毎に区切り、第1小節と第2小節を区間
1とし、第3小節と第4小節を区間2とする。そして、
区間1には、第1のリズム変更種類(リズム逆進行)と
そのパラメータとして出発点音高『E』が設定されてい
る。区間2には、第2のピッチ変更種類(ピッチ反転)
とそのパラメータとして基準ピッチ『G』が設定されて
いる。従って、図8(c)のメロディデータはその変更
種類とパラメータに従って、図8(d)のように変更さ
れる。
Step 74: For each section, the melody data in that section is changed according to the set change type and parameters. An example of the set change type and parameters is shown in FIG. Here, the captured melody is divided into two bars, the first bar and the second bar are set as section 1, and the third bar and the fourth bar are set as section 2. And
In the section 1, the first rhythm change type (rhythm reverse progression) and the starting point pitch “E” are set as its parameters. The second pitch change type (pitch inversion) in section 2
And the reference pitch "G" is set as the parameter. Therefore, the melody data of FIG. 8C is changed as shown in FIG. 8D according to the change type and the parameter.

【0032】すなわち、図8(c)の区間1では、リズ
ムパターンは8分休符−8分音符(C)−8分音符
(C)−8分音符(D)−8分音符(E)−8分音符
(G)−4分音符(E)−8分休符−8分音符(D)−
8分音符(D)−8分音符(E)−8分音符(F)−8
分音符(A)−4分音符(F)なので、出発点音高
『E』を基準としてリズム逆進行後は区間1の最後の方
から先頭に向かって逆進行し、図8(d)の区間1のよ
うに4分音符(E)−8分音符(E)−8分音符(F
♯)−8分音符(G♯)−8分音符(B)−8分音符
(G♯)−8分休符−4分音符(F♯)−8分音符(F
♯)−8分音符(G♯)−8分音符(A)−8分音符
(C♯)−8分音符(A)−8分休符となる。図8
(b)の区間2では、ピッチパターンは4分休符−16
分音符(G)−16分音符(A)−16分音符(G)−
16分音符(F)−8分音符(E)−4分音符(G)−
8分音符(C)−2分音符(B)であるが、基準音高
『G』を中心したピッチ反転後は図8(d)の区間2の
ように4分休符−16分音符(G)−16分音符(F)
−16分音符(G)−16分音符(A)−8分音符(B
♭)−4分音符(G)−8分音符(D)−2分音符(E
♭)となる。
That is, in section 1 of FIG. 8C, the rhythm pattern is an eighth rest-8th note (C) -8th note (C) -8th note (D) -8th note (E). -8th note (G) -4th note (E) -8th rest -8th note (D)-
8th note (D) -8th note (E) -8th note (F) -8
Since it is a quarter note (A) -fourth note (F), after the rhythm reverse proceeding with reference to the starting pitch "E", the rhythm reverses from the end of the section 1 toward the beginning, as shown in FIG. As in section 1, quarter note (E) -8th note (E) -8th note (F
#)-8th note (G #)-8th note (B) -8th note (G #)-8th rest-4th note (F #)-8th note (F
#)-8th note (G #)-8th note (A) -8th note (C #)-8th note (A) -8th rest. Figure 8
In section 2 of (b), the pitch pattern is a quarter rest −16.
Minute Note (G) -16th Note (A) -16th Note (G)-
16th note (F) -8th note (E) -4th note (G)-
8th note (C) -2nd note (B), but after pitch inversion centered on the reference pitch "G", as shown in section 2 of FIG. 8D, a quarter rest-16th note ( G) -16th note (F)
-16th note (G) -16th note (A) -8th note (B
♭) -4th note (G) -8th note (D) -2nd note (E
♭)

【0033】ステップ75:前記ステップ74で変更さ
れたメロディデータを構成する各音符データの音高を入
力調の音階音に変換する。すなわち、図8(d)の音符
データの中から『♯』又は『♭』の付いた音符データの
音高を半音下げることによって、図8(d)のようなメ
ロディとなる。逆に『♯』又は『♭』の付いた音符デー
タの音高を半音上げてもよい。 ステップ76:小節線を復元する。これによって、図8
(a)のようなメロディから図8(f)のような全く新
しいメロディが作曲される。なお、区間2における図8
(c)から図8(d)への反転処理では基準ピッチ
『G』に対して音高が高い場合には基準ピッチ『G』よ
りもその音高分だけ低くし、逆に低い場合にはその音高
分だけ高くする場合について説明したが、これに限ら
ず、ピッチ反転の度合いを設定してもよい。例えば、基
準ピッチに対する音高の数倍又は数分の1倍となるよう
に反転するとか、音高が高い場合と低い場合とでその度
合いを異ならせるなどしてもよい。
Step 75: The pitch of each note data constituting the melody data changed in the step 74 is converted into an input scale. That is, by lowering the pitch of the note data with "#" or "♭" from the note data of FIG. 8 (d) by a semitone, a melody as shown in FIG. 8 (d) is obtained. On the contrary, the pitch of the note data with “#” or “♭” may be increased by a semitone. Step 76: Restore bar lines. As a result, FIG.
A completely new melody as shown in FIG. 8F is composed from the melody as shown in FIG. In addition, FIG.
In the reversal processing from FIG. 8C to FIG. 8D, when the pitch is higher than the reference pitch “G”, the pitch is lower than the reference pitch “G” by the pitch, and conversely when it is low. Although the case where the pitch is increased by the pitch has been described, the invention is not limited to this, and the pitch inversion degree may be set. For example, the pitch may be inverted to be several times or a fraction of the pitch with respect to the reference pitch, or the degree may be different depending on whether the pitch is high or low.

【0034】図9は図3のステップ33の自動作曲処理
4の詳細を示す図である。この自動作曲処理4は図7の
自動作曲処理3の変形例であり、異なる点はメロディの
取り込みとは別に、歌詞データを取り込み、その歌詞デ
ータを構成する音節データ数に基づいて変更後のメロデ
ィを変更している点である。以下、自動作曲処理4によ
って元となるメロディから新たなメロディが作曲される
までの過程を図10の譜面を用いてステップ順に説明す
る。なお、図7の自動作曲処理3と同じ処理については
簡略化して説明する。
FIG. 9 is a diagram showing the details of the automatic music composition processing 4 in step 33 of FIG. This automatic music processing 4 is a modification of the automatic music processing 3 of FIG. 7. The difference is that, apart from the acquisition of the melody, the lyrics data is acquired and the melody after the change is made based on the number of syllable data constituting the lyrics data. Is the point that has changed. Hereinafter, the process from the original melody to the composition of a new melody by the automatic music composition processing 4 will be described step by step using the musical score of FIG. It should be noted that the same processing as the automatic music composition processing 3 of FIG. 7 will be briefly described.

【0035】ステップ91:既存曲のメロディを取り込
む。ここでは、図10(a)の譜面に示すようなメロデ
ィを取り込む。このメロディは図8(a)と同じであ
る。 ステップ92:調データを入力する。図10(a)の場
合にはハ長調が入力される。 ステップ93:図10(h)のような小節線データで区
切られた歌詞データを取り込む。この歌詞データの第1
小節は4つの音節データ『い、ろ、は、に』、第2小節
は4つの音節データ『ほ、へ、と、ち』、第3小節は8
つの音節データ『り、ぬ、る、お、わ、か、よ、た』、
第4小節は2つの音節データ『れ、そ』からそれぞれ構
成される。 ステップ94:ステップ91で取り込んだメロディを所
定の区間に区切り、その区間毎にどのような変更を行う
のかを示す変更種類と、その変更種類に対応したパラメ
ータをそれぞれ設定する。
Step 91: Take in the melody of the existing song. Here, a melody as shown in the musical score of FIG. This melody is the same as in FIG. Step 92: Input key data. In the case of FIG. 10A, C major is input. Step 93: Take in the lyrics data delimited by bar line data as shown in FIG. First of this lyrics data
The measure has four syllable data “I, Ro, Hani”, the second measure has four syllable data “Ho, He, Tochi”, and the third measure has 8
Syllable data "Ri, Nu, Ru, Oh, Wa, Ka, Yo, Ta",
The fourth measure is composed of two syllable data "re, so". Step 94: The melody captured in step 91 is divided into predetermined sections, and a change type indicating what kind of change is to be made for each section and a parameter corresponding to the change type are set.

【0036】ステップ95:各区間毎に、設定された変
更種類とパラメータに従ってその区間内のメロディデー
タを変更する。変更種類とパラメータの一例が図10
(b)に示してある。変更種類とパラメータは図8
(b)と同じである。従って、図10(c)のメロディ
データはその変更種類とパラメータに従って、図8
(d)と同じ図10(d)のように変更される。
Step 95: For each section, the melody data in that section is changed according to the set change type and parameters. FIG. 10 shows an example of change types and parameters.
It is shown in (b). Change types and parameters are shown in Fig. 8.
Same as (b). Therefore, the melody data shown in FIG.
It is changed as shown in FIG. 10D, which is the same as FIG.

【0037】ステップ96:前記ステップ95で変更さ
れたメロディデータを構成する各音符データの音高を入
力調の音階音に変換する。すなわち、図10(d)の音
符データの中から『♯』又は『♭』の付いた音符データ
の音高を半音下げることによって、図10(e)のよう
なメロディとなる。図10(e)のメロディと図8
(e)のメロディは同じである。 ステップ97:小節線を復元する。これによって、図1
0(e)の譜面は図10(f)のようになる。ここまで
の処理によって変更されたメロディは図7の場合と同じ
である。
Step 96: The pitch of each note data forming the melody data changed in the step 95 is converted into an input scale. That is, by lowering the pitch of the note data with “#” or “♭” from the note data of FIG. 10 (d) by a semitone, a melody as shown in FIG. 10 (e) is obtained. FIG. 10 (e) melody and FIG.
The melody of (e) is the same. Step 97: Restore bar lines. As a result, FIG.
The musical score of 0 (e) is as shown in FIG. 10 (f). The melody changed by the processing so far is the same as in the case of FIG.

【0038】ステップ98:各小節毎に音節データ数に
音符データ数を合わせる。すなわち、各小節に割り当て
られた音節データ数と音符データ数とが同じになるよう
に、音符データを追加したり削除したりする。例えば、
第1小節においては、図10(h)の歌詞データの音節
データ数は『4』であり、図10(f)の音符データ数
は『6』なので、2個の音符データが削除される。第2
小節においては、図10(h)の歌詞データの音節デー
タ数は『4』であり、図10(f)の音符データ数は
『6』なので、2個の音符データが削除される。第3小
節においては、図10(h)の歌詞データの音節データ
数は『8』であり、図10(f)の音符データ数は
『7』なので、1個の音符データが追加される。第4小
節においては、図10(h)の歌詞データの音節データ
数は『2』であり、図10(f)の音符データ数は
『1』なので、1個の音符データが追加される。これに
よって、図10(a)のようなメロディから図10
(g)のような全く新しいメロディが作曲される。
Step 98: Match the number of note data with the number of syllable data for each measure. That is, note data is added or deleted so that the number of syllable data assigned to each measure is equal to the number of note data. For example,
In the first measure, the syllable data number of the lyrics data of FIG. 10 (h) is “4”, and the note data number of FIG. 10 (f) is “6”, so two note data are deleted. Second
In the measure, since the number of syllable data of the lyrics data of FIG. 10 (h) is “4” and the number of musical note data of FIG. 10 (f) is “6”, two musical note data are deleted. In the third measure, the number of syllable data of the lyrics data of FIG. 10 (h) is “8” and the number of note data of FIG. 10 (f) is “7”, so one note data is added. In the fourth measure, the number of syllable data of the lyrics data of FIG. 10 (h) is “2” and the number of musical note data of FIG. 10 (f) is “1”, so one musical note data is added. As a result, the melody shown in FIG.
A completely new melody like (g) is composed.

【0039】図11は図3のステップ33の自動作曲処
理5の詳細を示す図である。この自動作曲処理5は図7
の自動作曲処理3の変形例であり、異なる点は所定の区
間毎に所定のパラメータを抽出し、抽出したパラメータ
を変更し、変更されたパラメータに基づいてメロディデ
ータを変更するようにした点である。以下、自動作曲処
理5によって元となるメロディから新たなメロディが作
曲されるまでの過程を図12の譜面を用いてステップ順
に説明する。なお、自動作曲処理3と同じ処理について
は簡略化して説明する。
FIG. 11 is a diagram showing details of the automatic music composition processing 5 in step 33 of FIG. This automatic music processing 5 is shown in FIG.
This is a modified example of the automatic tune processing 3 of the above, and a different point is that a predetermined parameter is extracted for each predetermined section, the extracted parameter is changed, and the melody data is changed based on the changed parameter. is there. Hereinafter, the process from the original melody to the composition of a new melody by the automatic music composition processing 5 will be described step by step using the musical score of FIG. Note that the same processing as the automatic music composition processing 3 will be simplified and described.

【0040】ステップ111:既存曲のメロディを取り
込む。ここでは、図12(a)の譜面に示すようなメロ
ディを取り込む。このメロディは図8(a)と同じであ
る。 ステップ112:調データを入力する。図12(a)の
場合にはハ長調が入力される。 ステップ113:ステップ111で取り込んだメロディ
を所定の区間に区切り、その区間毎に所定のパラメータ
を抽出する。抽出するパラメータとしては、例えば、区
間内における音符データの音高の変化の状態をパラメー
タ、すなわち音符データの音高が同じ音高で進行する回
数(同音進行)、入力調の音階音に従って順番に音高が
進行する回数(順次進行)、入力調の音階音で1音以上
跳躍して進行する回数(跳躍進行)である。これ以外に
も、色々なリズムやピッチに関するものが考えられるが
ここではそれらについての説明は省略する。ここでは、
取り込まれたメロディを2小節毎に区切り、第1小節と
第2小節を区間1とし、第3小節と第4小節を区間2と
する。そして、各区間のパラメータ抽出の結果は、図1
2(c)に示すように、区間1では跳躍進行4回、順次
進行4回、同音進行2回であり、区間2では跳躍進行2
回、順次進行5回、同音進行0回である。なお、同音進
行0回の場合は図示を省略してある。
Step 111: Take in the melody of the existing song. Here, a melody as shown in the musical score of FIG. This melody is the same as in FIG. Step 112: Input key data. In the case of FIG. 12A, C major is input. Step 113: The melody captured in step 111 is divided into predetermined sections, and a predetermined parameter is extracted for each section. As the parameter to be extracted, for example, the state of the change of the pitch of the note data in the interval is a parameter, that is, the number of times the pitch of the note data progresses at the same pitch (homogeneous progression), in order according to the scale of the input note. It is the number of times the pitch progresses (sequential progress) and the number of times the sound jumps in the input tone by one or more tones (jump progress). In addition to this, various rhythms and pitches can be considered, but description thereof will be omitted here. here,
The captured melody is divided into two bars, the first bar and the second bar are set as section 1, and the third bar and the fourth bar are set as section 2. The result of parameter extraction for each section is shown in FIG.
As shown in FIG. 2 (c), in the section 1, the jump progress is 4 times, the sequential progress is 4 times, and the same sound progress is 2 times.
1 time, 5 times in sequence, 0 times in same sound. The illustration is omitted when the same sound progresses 0 times.

【0041】ステップ114:抽出された各区間のパラ
メータの一部を変更する。例えば、区間1における跳躍
進行の4回を3回に、順次進行の4回を5回に、区間2
における跳躍進行の2回を3回に、順次進行の5回を4
回にそれぞれ変更する。従って、変更後のパラメータは
図12(d)のようになる。 ステップ115:各区間について、変更されたパラメー
タに従ってその区間内のメロディデータを変更する。従
って、区間1においては、図12(b)の8分音符
(G)から4分音符(E)への跳躍進行が、図12
(e)の8分音符(G)から4分音符(A)への順次進
行に変更され、区間2においては、図12(b)の16
分音符(G)から16分音符(A)への順次進行が、図
12(e)の16分音符(G)から16分音符(D)へ
の跳躍進行に変更される。
Step 114: Change a part of the parameters of each extracted section. For example, four jumps in section 1 are three times, four steps in sequence are five times, and section two is two.
2 jumps in 3 times, 5 jumps in 4 times
Change each time. Therefore, the changed parameters are as shown in FIG. Step 115: For each section, change the melody data in that section according to the changed parameters. Therefore, in the section 1, the jumping progress from the eighth note (G) to the quarter note (E) of FIG.
The progress is changed from the eighth note (G) in (e) to the quarter note (A) in sequence, and in section 2, 16 in FIG.
The sequential progression from the 1st note (G) to the 16th note (A) is changed to the jumping progression from the 16th note (G) to the 16th note (D) in FIG.

【0042】ステップ116:前記ステップ115で変
更されたメロディデータを構成する各音符データの音高
を入力調の音階音に変換する。図12(e)の場合には
この処理は行われない。 ステップ117:小節線を復元する。これによって、図
12(a)のメロディから図12(f)のようなメロデ
ィが作曲される。なお、このステップ115のメロディ
データの変更処理では、音符データの一部を変更する場
合について説明したが、これだと変更後のメロディと元
のメロディとがほとんど同じになるので、変更後パラメ
ータの内容に合致するように図12(b)の音符データ
の内容を全て変更するようにしてもよい。このようにす
れば、区間1では跳躍進行3回、順次進行5回、同音進
行2回であり、区間2では跳躍進行3回、順次進行4
回、同音進行0回である、図12(g)に示すような全
く新たなメロディを得ることができるようになる。
Step 116: The pitch of each note data forming the melody data changed in the above step 115 is converted into an input scale. This process is not performed in the case of FIG. Step 117: Restore the bar line. As a result, a melody as shown in FIG. 12 (f) is composed from the melody as shown in FIG. 12 (a). In the melody data changing process in step 115, the case where a part of the note data is changed has been described. However, since the changed melody and the original melody are almost the same in this case, the changed parameter All the contents of the note data in FIG. 12B may be changed so as to match the contents. In this way, in the section 1, the jump progress is 3 times, the sequential progress is 5 times, the same sound progress is 2 times, and in the section 2, the jump progress is 3 times and the sequential progress is 4 times.
It is possible to obtain a completely new melody as shown in FIG.

【0043】図13は図3のステップ33の自動作曲処
理6の詳細を示す図である。この自動作曲処理6は図1
1の自動作曲処理5の変形例であり、異なる点はメロデ
ィの取り込みとは別に、歌詞データを取り込み、その歌
詞データを構成する音節データ数に基づいて変更後のメ
ロディをさらに変更している点である。以下、自動作曲
処理6によって元となるメロディから新たなメロディが
作曲されるまでの過程を図14の譜面を用いてステップ
順に説明する。なお、図11の自動作曲処理5と同じ処
理については簡略化して説明する。
FIG. 13 is a diagram showing the details of the automatic music composition process 6 in step 33 of FIG. This automatic music processing 6 is shown in FIG.
This is a modified example of the automatic tune processing 5 of No. 1, except that melody data is captured separately from the melody data, and the melody after the modification is further modified based on the number of syllable data that compose the lyrics data. Is. Hereinafter, the process from the original melody to the composition of a new melody by the automatic music composition processing 6 will be described step by step using the musical score of FIG. Note that the same processing as the automatic music composition processing 5 in FIG. 11 will be described in a simplified manner.

【0044】ステップ131:既存曲のメロディを取り
込む。ここでは、図14(a)の譜面に示すようなメロ
ディを取り込む。このメロディは図12(a)と同じで
ある。 ステップ132:調データを入力する。図14(a)の
場合にはハ長調が入力される。 ステップ133:図14(h)のような小節線データで
区切られた歌詞データを取り込む。この歌詞データの第
1小節は7つの音節データ『い、ろ、は、に、ほ、へ、
と』、第2小節は7つの音節データ『ち、り、ぬ、る、
お、わ、か』、第3小節は6つの音節データ『よ、た、
れ、そ、つ、ね』、第4小節は1つの音節データ『う』
からそれぞれ構成される。 ステップ134:ステップ131で取り込んだメロディ
を所定の区間に区切り、その区間毎に所定のパラメータ
を抽出する。抽出するパラメータとしては、自動作曲処
理5の場合と同じ、区間内における音符データの音高の
変化の状態を示すものである。従って、抽出されたパラ
メータは図12(c)と同じ図14(c)のようにな
る。
Step 131: Take in the melody of the existing song. Here, the melody as shown in the musical score of FIG. This melody is the same as in FIG. Step 132: Input key data. In the case of FIG. 14A, C major is input. Step 133: Take in the lyrics data delimited by the bar line data as shown in FIG. The first measure of this lyrics data is 7 syllable data "I, Ro, Ha, Ni, Ho, He,
And, the second measure is 7 syllable data "Chi, Ri, Nu, Ru,
"O, wa, ka", the third measure is 6 syllable data "Yo, Ta,
"So, Tsu, Ne", 4th measure is one syllable data "U"
Each is composed of Step 134: The melody captured in step 131 is divided into predetermined sections, and predetermined parameters are extracted for each section. The parameters to be extracted are the same as in the case of the automatic music composition processing 5 and indicate the state of the pitch change of the note data in the section. Therefore, the extracted parameters are as shown in FIG. 14C, which is the same as FIG. 12C.

【0045】ステップ135:抽出された各区間のパラ
メータの一部を変更する。図12の場合と同じように、
区間1における跳躍進行の4回を3回に、順次進行の4
回を5回に、区間2における跳躍進行の2回を3回に、
順次進行の5回を4回にそれぞれ変更する。変更後のパ
ラメータは図12(d)と同じ図14(d)のようにな
る。 ステップ136:各区間について、変更されたパラメー
タに従ってその区間内のメロディデータを変更する。変
更されたパラメータの一例は図12(d)と同じ図14
(d)のようになる。なお、前述のように変更後パラメ
ータの内容に合致するように図14(b)の音符データ
の内容を全て変更してもよいことは言うまでもない。
Step 135: Change a part of the extracted parameters of each section. As in the case of FIG. 12,
4 jumps in section 1 to 3 jumps, 4 jumps in sequence
5 times, 2 jumps in section 2 to 3 times,
Change 5 times in sequence to 4 times respectively. The changed parameters are as shown in FIG. 14 (d), which is the same as FIG. 12 (d). Step 136: For each section, change the melody data in that section according to the changed parameters. An example of the changed parameters is the same as in FIG.
It becomes like (d). Needless to say, all the contents of the note data in FIG. 14B may be changed so as to match the contents of the changed parameters as described above.

【0046】ステップ137:前記ステップ115で変
更されたメロディデータを構成する各音符データの音高
を入力調の音階音に変換する。図14(e)の場合には
この処理は行われない。 ステップ138:小節線を復元する。これによって、図
14(e)の譜面は図14(f)のようになる ステップ139:各小節毎に音節データ数に音符データ
数を合わせる。すなわち、各小節に割り当てられた音節
データ数と音符データ数とが同じになるように、音符デ
ータを追加したり削除したりする。例えば、第1小節に
おいては、図14(h)の歌詞データの音節データ数は
『い、ろ、は、に、ほ、へ、と』の7個であり、図14
(f)の音符データ数は6個なので、1個の音符データ
が追加される。第2小節においては、図14(h)の歌
詞データの音節データ数は『ち、り、ぬ、る、お、わ、
か』の7個であり、図14(f)の音符データ数は6個
なので、1個の音符データが追加される。第3小節にお
いては、図14(h)の歌詞データの音節データ数は
『よ、た、れ、そ、つ、ね』の6個であり、図14
(f)の音符データ数は7個なので、1個の音符データ
が削除される。第4小節においては、図14(h)の歌
詞データの音節データ数は『う』の1個であり、図14
(f)の音符データ数も1個なので、そのまま変更され
ない。なお、追加又は削除される音符データはランダム
に選択される。これによって、図14(a)のようなメ
ロディから図14(g)のような全く新しいメロディが
作曲される。なお、自動作曲処理5又は6において、所
定区間のパラメータの数と変更後のパラメータの数が同
じ場合について説明したが、変更後のパラメータの数が
減少又は増加した場合には、それに応じて音符データを
減少又は増加してもよい。
Step 137: The pitch of each note data constituting the melody data changed in the above step 115 is converted into an input scale. This process is not performed in the case of FIG. Step 138: Restore the bar line. As a result, the musical score of FIG. 14E becomes as shown in FIG. 14F. Step 139: The number of note data is adjusted to the number of syllable data for each measure. That is, note data is added or deleted so that the number of syllable data assigned to each measure is equal to the number of note data. For example, in the first measure, the number of syllable data of the lyrics data of FIG. 14 (h) is seven, that is, “i, ro, ha, ni, ho, ha, to”.
Since the number of note data in (f) is 6, one note data is added. In the second measure, the number of syllable data of the lyrics data of FIG. 14 (h) is “Chi, Ri, Nu, Ru, Oh, wa,
14 ”, and the number of note data in FIG. 14 (f) is 6, one note data is added. In the third measure, the number of syllable data of the lyrics data of FIG. 14 (h) is six, “yo, ta, lea, so, tsu, ne”.
Since the number of note data in (f) is 7, one note data is deleted. In the fourth measure, the number of syllable data of the lyrics data of FIG. 14 (h) is one “u”,
Since the number of note data in (f) is also one, it is not changed as it is. The note data to be added or deleted is randomly selected. As a result, a completely new melody as shown in FIG. 14 (g) is composed from the melody as shown in FIG. 14 (a). In the automatic music processing 5 or 6, the case where the number of parameters in the predetermined section is the same as the number of parameters after the change has been described. The data may be reduced or increased.

【0047】なお、上述の自動作曲処理1では、各区間
毎に強拍音となる音符データを抽出する場合について説
明したが、自動作曲処理5で行っているような同音進
行、順次進行又は跳躍進行に該当する音符データを抽出
するようにしてもよい。この場合、該当する音符データ
が複数存在する場合(図12(c)に示すように跳躍進
行4回、順次進行4回、同音進行2回などの場合)に
は、その中から最先のものであるとか、最後のものであ
るとか、最も音高の低いものであるとか、高いものであ
るとかなどのように適宜選択するようにすればよい。上
述の実施の形態では、音節データとして日本語を例に説
明したが、これ以外の言語の場合にも同様に適用できる
ことはいうまでもない。この場合、単母音、二重母音、
破裂音、鼻音、側音、摩擦音、破擦音などの発音記号に
基づいて音節データを決定し、決定された音節データに
基づいて作曲を行えばよい。また、上述の実施の形態で
は、1つのメロディが作曲される場合について説明した
が、複数通りのメロディを同時に生成するようにしても
よい。例えば、図12(e)や図12(g)のような異
なるメロディが同時に生成できるようにしてもよい。さ
らに、削除又は追加する音符データはメロディデータの
中からランダムに選択してもよいし、同音進行、順次進
行又は跳躍進行を減らすような形で削除してもよいし、
同音進行、順次進行又は跳躍進行を増やすような形で追
加してもよい。
In the above-described automatic music composition processing 1, the case of extracting note data that becomes a strong beat sound for each section has been described, but the same note progression, sequential progression or jumping as performed in the automatic music composition processing 5 has been described. You may make it extract the note data applicable to progress. In this case, when there are a plurality of corresponding note data (in the case of jumping progress 4 times, sequential progress 4 times, same sound progress 2 times as shown in FIG. 12C), the earliest one , The last one, the lowest pitch, the highest pitch, and so on. In the above embodiment, Japanese has been described as an example of syllable data, but it goes without saying that the same can be applied to the case of other languages. In this case, single vowels, double vowels,
Syllable data may be determined based on phonetic symbols such as plosives, nasal sounds, sidetones, fricatives, and siphons, and composition may be performed based on the determined syllable data. Further, in the above-mentioned embodiment, the case where one melody is composed has been described, but a plurality of melody may be generated at the same time. For example, different melodies as shown in FIG. 12E and FIG. 12G may be generated at the same time. Furthermore, the note data to be deleted or added may be randomly selected from the melody data, or may be deleted in a form that reduces homophonic progression, sequential progression or jump progression,
You may add in the form which increases homophony progress, a sequential progress, or a jump progress.

【0048】[0048]

【発明の効果】この発明によれば、入力したメロディの
特徴を生かしつつ、そのメロディとは異なるような変化
に富んだ楽曲を新たに作曲することができるという効果
がある。
According to the present invention, while utilizing the characteristics of the inputted melody, it is possible to newly compose a musical piece rich in variety different from the melody.

【図面の簡単な説明】[Brief description of drawings]

【図1】 図3のステップ33の自動作曲処理1の詳細
を示す図である。
FIG. 1 is a diagram showing details of automatic music composition processing 1 in step 33 of FIG.

【図2】 この発明に係る自動作曲装置を内蔵した電子
楽器の構成を示すハードブロック図である。
FIG. 2 is a hardware block diagram showing a configuration of an electronic musical instrument incorporating the automatic musical composition apparatus according to the present invention.

【図3】 図2の電子楽器のメインフローを示す図であ
る。
FIG. 3 is a diagram showing a main flow of the electronic musical instrument of FIG.

【図4】 図1の自動作曲処理1によって元となるメロ
ディから新たなメロディが作曲されるまでの過程を示す
図である。
FIG. 4 is a diagram showing a process from the original melody to the composition of a new melody by the automatic music composition processing 1 of FIG.

【図5】 図3のステップ33の自動作曲処理2の詳細
を示す図である。
FIG. 5 is a diagram showing details of the automatic music composition processing 2 in step 33 of FIG.

【図6】 図5の自動作曲処理2によって元となるメロ
ディから新たなメロディが作曲されるまでの過程を示す
図である。
6 is a diagram showing a process from the original melody to a new melody composition by the automatic music composition processing 2 of FIG. 5;

【図7】 図3のステップ33の自動作曲処理3の詳細
を示す図である。
FIG. 7 is a diagram showing details of the automatic music composition processing 3 in step 33 of FIG.

【図8】 図7の自動作曲処理3によって元となるメロ
ディから新たなメロディが作曲されるまでの過程を示す
図である。
FIG. 8 is a diagram showing a process in which a new melody is composed from an original melody by the automatic music composition processing 3 of FIG. 7;

【図9】 図3のステップ33の自動作曲処理4の詳細
を示す図である。
FIG. 9 is a diagram showing details of the automatic music composition processing 4 in step 33 of FIG.

【図10】 図9の自動作曲処理4によって元となるメ
ロディから新たなメロディが作曲されるまでの過程を示
す図である。
FIG. 10 is a diagram showing a process from the original melody to a new melody composition by the automatic music composition processing 4 of FIG. 9;

【図11】 図3のステップ33の自動作曲処理5の詳
細を示す図である。
11 is a diagram showing details of the automatic music composition processing 5 in step 33 of FIG.

【図12】 図11の自動作曲処理5によって元となる
メロディから新たなメロディが作曲されるまでの過程を
示す図である。
FIG. 12 is a diagram showing a process from the original melody to a new melody composition by the automatic music composition processing 5 of FIG.

【図13】 図3のステップ33の自動作曲処理6の詳
細を示す図である。
FIG. 13 is a diagram showing details of the automatic music composition processing 6 in step 33 of FIG.

【図14】 図13の自動作曲処理6によって元となる
メロディから新たなメロディが作曲されるまでの過程を
示す図である。
FIG. 14 is a diagram showing a process from the original melody to the composition of a new melody by the automatic music composition processing 6 of FIG.

【符号の説明】[Explanation of symbols]

1…CPU、2…プログラムメモリ、3…ワーキングメ
モリ、4…演奏データメモリ、5…押鍵検出回路、6…
スイッチ検出回路、7…表示回路、8…音源回路、9…
鍵盤、1A…テンキー&キーボード&各種スイッチ、1
B…ディスプレイ、1C…サウンドシステム、1D…デ
ータ及びアドレスバス
1 ... CPU, 2 ... Program memory, 3 ... Working memory, 4 ... Performance data memory, 5 ... Key detection circuit, 6 ...
Switch detection circuit, 7 ... Display circuit, 8 ... Sound source circuit, 9 ...
Keyboard, 1A ... Numeric keypad & keyboard & various switches, 1
B ... Display, 1C ... Sound system, 1D ... Data and address bus

フロントページの続き (56)参考文献 特開 昭63−286883(JP,A) 特開 昭63−250696(JP,A) 特開 平6−348261(JP,A) 特開 平6−274171(JP,A) 特開 平3−119381(JP,A) 特開 平1−167882(JP,A) 特開 平1−167881(JP,A) 実開 平2−76794(JP,U) (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 - 7/12 G10G 1/04 Continuation of the front page (56) Reference JP-A-63-286883 (JP, A) JP-A-63-250696 (JP, A) JP-A-6-348261 (JP, A) JP-A-6-274171 (JP , A) JP-A-3-119381 (JP, A) JP-A-1-167882 (JP, A) JP-A-1-167881 (JP, A) Jitsukaihei 2-76794 (JP, U) (58) Fields investigated (Int.Cl. 7 , DB name) G10H 1/00-7/12 G10G 1/04

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の音符データから構成される演奏情
報を供給する演奏情報供給手段と、 前記演奏情報の中から所定の条件に合致する音符データ
を抽出する抽出手段と、 複数の演奏情報パターンを記憶するパターン記憶手段
と、 前記抽出手段によって抽出された音符データの音楽的特
徴を表す特徴データを生成し、該生成された特徴データ
に従って前記パターン記憶手段から演奏情報パターンを
選択するパターン選択手段と、 このパターン選択手段によって選択された演奏情報パタ
ーンに従って新たな楽曲を生成する楽曲生成手段とを備
えた自動作曲装置。
1. Performance information supply means for supplying performance information composed of a plurality of note data, extraction means for extracting note data matching a predetermined condition from the performance information, and a plurality of performance information patterns. And a pattern selecting means for generating characteristic data representing musical characteristics of the note data extracted by the extracting means and selecting a performance information pattern from the pattern storing means according to the generated characteristic data. And a music composition means for generating a new music piece in accordance with the performance information pattern selected by the pattern selection means.
【請求項2】 複数の音符データから構成される演奏情
報を供給する演奏情報供給手段と、 前記演奏情報を所定の区間に分割し、該区間に含まれる
前記音符データの音高または発音タイミングの変更を示
す変更種類と該変更種類に対応したパラメータとを該区
間毎に設定するパラメータ設定手段と、 前記所定区間毎に前記音符データを構成する音高及び
発音タイミングの少なくとも一方を、該区間に対応して
設定された前記変更種類と前記パラメータに従って変更
することにより、前記供給された演奏情報を変更する演
奏情報変更手段と、 この演奏情報変更手段によって変更された演奏情報に従
って新たな楽曲を生成する楽曲生成手段とを備えた自動
作曲装置。
2. Performance information supply means for supplying performance information composed of a plurality of note data, and the performance information is divided into predetermined sections and included in the sections.
Indicates a change in pitch or pronunciation timing of the note data
The change type and the parameter corresponding to the change type.
And parameter setting means for setting each between, for each of the predetermined interval, at least one of the pitch and tone generation timing constituting the musical note data, corresponding to the inter-compartment
Performance information changing means for changing the supplied performance information by changing according to the set change type and the parameter, and music generation for generating a new music piece according to the performance information changed by the performance information changing means. And a music composition device.
【請求項3】 複数の音符データから構成される演奏情
報を供給する演奏情報供給手段と、 作曲の対象となる歌詞に対応した音節データからなる歌
詞データを供給するデータ供給手段と、 前記演奏情報及び前記歌詞データを対応付けて所定の区
間に分割する分割手段と、 分割された区間毎に前記音節データの数に応じて前記音
符データを追加又は削除するデータ変更手段と、 前記データ変更手段によって変更された演奏情報に従っ
て新たな楽曲を生成する楽曲生成手段とを備えた自動作
曲装置。
3. Performance information supply means for supplying performance information composed of a plurality of note data, data supply means for supplying lyrics data composed of syllable data corresponding to lyrics to be composed, and the performance information. And dividing means for associating the lyrics data with each other and dividing the lyrics data into predetermined sections, data changing means for adding or deleting the note data according to the number of the syllable data for each divided section, and the data changing means. An automatic music composition device comprising a music composition generation unit for generating a new music composition according to changed performance information.
JP24358195A 1995-08-29 1995-08-29 Automatic composer Expired - Fee Related JP3489290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24358195A JP3489290B2 (en) 1995-08-29 1995-08-29 Automatic composer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24358195A JP3489290B2 (en) 1995-08-29 1995-08-29 Automatic composer

Publications (2)

Publication Number Publication Date
JPH0962263A JPH0962263A (en) 1997-03-07
JP3489290B2 true JP3489290B2 (en) 2004-01-19

Family

ID=17105958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24358195A Expired - Fee Related JP3489290B2 (en) 1995-08-29 1995-08-29 Automatic composer

Country Status (1)

Country Link
JP (1) JP3489290B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3303617B2 (en) * 1995-08-07 2002-07-22 ヤマハ株式会社 Automatic composer
JP3620240B2 (en) * 1997-10-14 2005-02-16 ヤマハ株式会社 Automatic composer and recording medium
JP2003509729A (en) * 1999-09-16 2003-03-11 ハンスルソフト コーポレーション リミテッド Method and apparatus for playing musical instruments based on digital music files
JP3666364B2 (en) * 2000-05-30 2005-06-29 ヤマハ株式会社 Content generation service device, system, and recording medium
JP3801005B2 (en) * 2001-09-25 2006-07-26 ヤマハ株式会社 Songwriting device and songwriting program
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
JP4737212B2 (en) * 2008-03-07 2011-07-27 日本電気株式会社 Melody creation device, method, program, and portable terminal device
JP2010026337A (en) * 2008-07-22 2010-02-04 Yoshihiko Sano Method, and program and device for creating song, and song providing system
JP6255960B2 (en) * 2013-12-10 2018-01-10 ヤマハ株式会社 Program and music data generating apparatus for realizing music data generating method
JP6496998B2 (en) * 2014-08-29 2019-04-10 ヤマハ株式会社 Performance information editing apparatus and performance information editing program

Also Published As

Publication number Publication date
JPH0962263A (en) 1997-03-07

Similar Documents

Publication Publication Date Title
JP3303617B2 (en) Automatic composer
US5939654A (en) Harmony generating apparatus and method of use for karaoke
US6175072B1 (en) Automatic music composing apparatus and method
JP2562370B2 (en) Automatic accompaniment device
US6100462A (en) Apparatus and method for generating melody
JP3528654B2 (en) Melody generator, rhythm generator, and recording medium
US6392134B2 (en) Apparatus and method for generating auxiliary melody on the basis of main melody
JP3489290B2 (en) Automatic composer
JP2806351B2 (en) Performance information analyzer and automatic arrangement device using the same
JP2000315081A (en) Device and method for automatically composing music and storage medium therefor
JPH0651761A (en) Automatic playing device
JPH0990952A (en) Chord analyzing device
JP2636640B2 (en) Automatic accompaniment device
JPH09179559A (en) Device and method for automatic accompaniment
JP3664126B2 (en) Automatic composer
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP3722035B2 (en) Performance signal processing apparatus, method and program, and storage medium
JP3835131B2 (en) Automatic composition apparatus and method, and storage medium
JPH0636151B2 (en) Automatic arrangement system and device
JPH0764561A (en) Electronic musical instrument
JP3661963B2 (en) Electronic musical instruments
JP2000112472A (en) Automatic music composing device, and recording medium
JP3933070B2 (en) Arpeggio generator and program
JPH06342288A (en) Musical sound generating device
JP3570266B2 (en) Automatic composition device and method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071107

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081107

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091107

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees