JPH04157499A - Automatic rhythm creation device - Google Patents

Automatic rhythm creation device

Info

Publication number
JPH04157499A
JPH04157499A JP2282889A JP28288990A JPH04157499A JP H04157499 A JPH04157499 A JP H04157499A JP 2282889 A JP2282889 A JP 2282889A JP 28288990 A JP28288990 A JP 28288990A JP H04157499 A JPH04157499 A JP H04157499A
Authority
JP
Japan
Prior art keywords
rhythm
data
neural network
input
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2282889A
Other languages
Japanese (ja)
Other versions
JP2643582B2 (en
Inventor
Hironobu Osakabe
広宣 刑部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2282889A priority Critical patent/JP2643582B2/en
Publication of JPH04157499A publication Critical patent/JPH04157499A/en
Application granted granted Critical
Publication of JP2643582B2 publication Critical patent/JP2643582B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To easily generate a rhythm sound strictly in accordance with an image and matched to the tune of a music piece by outputting a rhythm information by inference from a performance data by using a neural network. CONSTITUTION:A performance data of a music piece is input to a neural network means. A neural network is a hierarchical network and treated as a software by CPU 1. Rhythm parts are previously learned about a plural number of music pieces in correspondence with melody parts of famous music pieces in the neural network. The neural network outputs a rhythm information of rhythm accompaniment against the music piece of the performance data by inference on the basis of a plural number of parameters input to neurons I1-I11 of an input layer and a synapse weight (w) in ROM 2. Consequently, it is possible to automatically and easily create a rhythm sound based on the music piece.

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は、任意の楽曲に対し、 リズム伴奏を行なう
自動リズム生成装置に関する。
[Detailed Description of the Invention] (Industrial Application Field) The present invention relates to an automatic rhythm generation device that provides rhythmic accompaniment to any musical piece.

(従来の技術) 自動リズム生成装置において、演奏者が1曲分のリズム
データを作成する方法として、従来大きく分けて次の2
種類の方法が知られている。
(Prior Art) Conventionally, methods for a performer to create rhythm data for one song in an automatic rhythm generation device can be roughly divided into the following two methods.
Different methods are known.

第1に、リズムデータをひとつひとつ人力O記憶させる
方法であり、第2に、予め用意された複数のリズムパタ
ーンを任意に組み合わせてリズム演奏シーケンスをプロ
グラムする方法(特開昭62−159185)であった (発明が解決しようとする課題) しかし、第1のリズムデータを記憶手段にひとつひとつ
入力する方法では、楽曲1曲分のリズムデータを入力す
るのには大変な手間が掛かっ瓢第2の複数の演奏パター
ンを任意に組み合わせてプログラムする方法では、演奏
パターンの組合せには限界があり、所望のリズム演奏シ
ーケンスを作成することは困難でありへ また、特に、初心者にとっては、メロディラインをなぞ
ることはできても、そのメロディに基づいてリズム伴奏
を作り出すのはたいへん難しく、従って種々の楽曲に対
してそれに適したリズムデータを生成することは困難で
あっ九 (発明の目的) この発明は上述した事情に鑑みてなされたもので、その
目的とするところは、楽曲に基づいたリズム音を容易に
発生することができる自動リズム生成装置を提供するこ
とを目的とする。
The first method is to manually store rhythm data one by one, and the second method is to program a rhythm performance sequence by arbitrarily combining multiple rhythm patterns prepared in advance (Japanese Patent Laid-Open No. 159185/1985). (Problem to be Solved by the Invention) However, with the method of inputting the first rhythm data one by one into the storage means, it takes a lot of effort to input the rhythm data for one song. However, with the method of programming arbitrary combinations of performance patterns, there are limits to the combinations of performance patterns, making it difficult to create a desired rhythm performance sequence. However, it is very difficult to create rhythm accompaniment based on the melody, and therefore it is difficult to generate rhythm data suitable for various songs. This was done in view of the circumstances, and the purpose is to provide an automatic rhythm generation device that can easily generate rhythm sounds based on musical pieces.

(課題を解決するための手段) 楽曲の演奏データを受け、該演奏データをパターン化し
た演奏パターン情報を出力する演奏パターン情報出力手
段と、該演奏パターン情報出力手段から出力された演奏
パターン情報に基づいてリズム情報を推論出力するニュ
ーラルネットワーク手段と、該ニューラルネットワーク
手段から出力されたリズム情報に基づきリズムの発音タ
イミングを示すリズムデータを形成するリズムデータ形
成手段と、を具備し、該リズムデータ形成手段で形成さ
れたリズムデータに従ってリズム音を発生するようにし
たことを特徴とする。
(Means for Solving the Problems) A performance pattern information output means that receives performance data of a musical piece and outputs performance pattern information obtained by patterning the performance data, and a performance pattern information outputted from the performance pattern information output means. a neural network means for inferring and outputting rhythm information based on the neural network means; and a rhythm data forming means for forming rhythm data indicating rhythm pronunciation timing based on the rhythm information output from the neural network means, the rhythm data forming means The rhythm sound is generated according to the rhythm data formed by the means.

(作用) この発明の自動リズム生成装置では、楽曲の演奏データ
をニューラルネットワーク手段に入力する。ニューラル
ネットワーク手段は、入力層への入力がシナプス結合に
より中間層から出力層へと伝達されることによりリズム
情報を推論する。このニューラルネットワーク手段は、
 リズム情報について予め学習されており、このような
ニューラルネットワーク手段を用いてリズム情報を推論
することにより、楽曲に基づいたリズム音を自動的にか
ス 容易に生成することができる。
(Function) In the automatic rhythm generation device of the present invention, performance data of a musical piece is input to the neural network means. The neural network means infers rhythm information by transmitting input to the input layer from the intermediate layer to the output layer through synaptic connections. This neural network means
Rhythm information is learned in advance, and by inferring rhythm information using such a neural network means, rhythm sounds based on music can be automatically and easily generated.

(実施例) 第1図はこの発明の実施例である電子楽器のブロック図
である。この電子楽器はCPU 1によって制御さ札 
演奏者の指示に基づいて楽曲の演奏音およびリズム音の
発生が行なわれる。CPUIはバス9を介して各回路部
と接続されており、データ等の送受を行なう。回路部と
しては、ROM2、RAM3、記憶手段4、操作パネル
5、音源回路6がある。音源回路6の出力側にl戴  
同回路6で発生した楽曲の楽音信号及びリズム音信号を
増幅してスピーカ等から出力するためのサウンドシステ
ム(S、S)7が接続されている。
(Embodiment) FIG. 1 is a block diagram of an electronic musical instrument that is an embodiment of the present invention. This electronic musical instrument is controlled by CPU 1
Performance sounds and rhythm sounds of the music are generated based on instructions from the performer. The CPUI is connected to each circuit section via a bus 9, and sends and receives data and the like. The circuit section includes a ROM 2, a RAM 3, a storage means 4, an operation panel 5, and a sound source circuit 6. Mounted on the output side of the sound source circuit 6
A sound system (S, S) 7 is connected to the circuit 6 for amplifying musical tone signals and rhythm tone signals of music generated by the circuit 6 and outputting the amplified signals from a speaker or the like.

記憶手段4は、任意の楽曲のメロディに関する演奏デー
タ(音高データや符長データからなる)を記憶するもの
で、演奏データを読み書き自在にしてなり、例えば半導
体メモリが用いられる。
The storage means 4 stores performance data (consisting of pitch data and note length data) relating to the melody of an arbitrary musical piece, and is made to be able to read and write the performance data, for example, using a semiconductor memory.

操作パネル5は、 リズムの特徴を表現する複数のイメ
ージパラメータを設定するスイッチ群が設けられている
。ここで、イメージパラメータとは、例えば、音色(シ
ンバル、バスドラム、スネアドラム等)・ジャンル(ロ
ック、ハードロック、バラード、サンバ等)・ビート(
4ビート、 8ビート、 16ビート等)である。
The operation panel 5 is provided with a group of switches for setting a plurality of image parameters expressing the characteristics of the rhythm. Here, image parameters include, for example, tone (cymbals, bass drum, snare drum, etc.), genre (rock, hard rock, ballad, samba, etc.), beat (
4 beats, 8 beats, 16 beats, etc.).

CPUIは、各回路間のデータの送受を制御したり、ニ
ューラルネットワークの処理を含む各種演算をする中央
処理装置である。
The CPUI is a central processing unit that controls data transmission and reception between circuits and performs various calculations including neural network processing.

ニューラルネットワーク塩 第2図に示すような階層型
二エーラルネットワークであり、CPU1によってソフ
ト的に処理される。ニューラルネットワークは、有名な
楽曲のメロディバートに対応させてリズムパートが予め
複数楽曲について学習されている。この学習は、楽曲の
メロディバートの演奏データを入力したとき、出力層の
実際の演算値とその楽曲のリズムパートの発音タイミン
グを示すリズムデータとの誤差が最小になるように、各
ニューロン間のシナプスウェイトWを変化させて行なう
。なお、この学習方法は、例えばバックプロパゲージ1
ン方式で行なうことができる力ζ 他の方法であっても
よい。この学習されたシナプスウェイトWは、ROM2
に記憶されている。
Neural Network Salt This is a hierarchical bi-ethnic network as shown in FIG. 2, and is processed by the CPU 1 in software. The neural network has previously learned rhythm parts for multiple songs in correspondence with the melody parts of famous songs. This learning is designed to minimize the error between the actual calculation value of the output layer and the rhythm data indicating the timing of the rhythm part of the song when the performance data of the melody part of the song is input. This is performed by changing the synaptic weight W. Note that this learning method can be used, for example, with Backpropagage 1.
Other methods are also possible. This learned synaptic weight W is stored in ROM2
is stored in

ニューラルネットワークは、入力層の各ニューロンII
〜IIIに入力される複数のパラメータとROM2内の
シナプスウェイトWとに基づいて、演奏データの楽曲に
対するリズム伴奏のリズム情報を推論して出力する。こ
の場合、入力層→中間層、中間層→出力層の各ニューロ
ンは、所定の重み付けでシナプス結合されており、結合
の強さは、シナプスウェイトWによって決定される。
The neural network consists of each neuron II in the input layer.
Based on the plurality of parameters inputted to ~III and the synapse weight W in the ROM 2, the rhythm information of the rhythm accompaniment for the music of the performance data is inferred and output. In this case, each neuron from the input layer to the intermediate layer and from the intermediate layer to the output layer is synaptically connected with a predetermined weighting, and the strength of the connection is determined by the synaptic weight W.

ROM2には、CPUIの制御プログラムと学習された
シナプスウェイトW等が記憶されている。
The ROM 2 stores a CPUI control program, learned synapse weights W, and the like.

なお、このROM2には、音色種類毎で、かつジャンル
種類毎で、かつビート種類毎にそれぞれ一組のシナプス
ウェイトWが記憶されている。
Note that this ROM 2 stores a set of synaptic weights W for each tone color type, for each genre type, and for each beat type.

RAM3は読み書き自在なメモリで、入力される各種パ
ラメータ及び入力層・中間層・出力層の各ニューロンの
データとニューラルネットワーク処理により推論された
リズム情報から得たリズム音の発音タイミングを示すリ
ズムデータ等を記憶する。
RAM3 is a readable and writable memory that stores rhythm data indicating the timing of the sound of rhythm sounds obtained from various input parameters, data from each neuron in the input layer, intermediate layer, and output layer, and rhythm information inferred by neural network processing. remember.

音源回路6は、記憶手段4に記憶された楽曲の演奏デー
タとRAM3に記憶されたリズムデータに基づ〜\て楽
曲の楽音およびリズム音の音信号を発生仏 この音信号
は音源回路6に接続されたサウンドシステム7によって
増幅されスピーカ等から発音される。
The sound source circuit 6 generates sound signals for the musical tones and rhythm sounds of the music based on the performance data of the music stored in the storage means 4 and the rhythm data stored in the RAM 3. This sound signal is sent to the sound source circuit 6. The sound is amplified by the connected sound system 7 and output from a speaker or the like.

次に、記憶手段4に記憶されている楽曲の演奏データが
全音符#2分音符・4分音符・全休符・2分音符・4分
休符から構成されているものとして、第2固自第3図を
用いて本発明のリズム作成動作について説明する。
Next, assuming that the performance data of the song stored in the storage means 4 is composed of whole notes #half notes, quarter notes, whole rests, half notes, and quarter rests, the second characteristic The rhythm creation operation of the present invention will be explained using FIG.

まず、CPUIは、操作パネル6の音色・ジャンル・ビ
ートのスイッチ状態を検出して、選択指定された音色・
ジャンル・ビートを示す各データをそれぞれRAM3内
のI2、I3、I4に対応する記憶部分に記憶させる(
stepL)。
First, the CPU detects the tone/genre/beat switch states on the operation panel 6, and selects the selected tone/beat.
Each piece of data indicating the genre/beat is stored in the memory portions corresponding to I2, I3, and I4 in RAM3 (
stepL).

記憶手段4に記憶されている楽曲のメロディの演奏デー
タは、CPUIの指令にしたがい順次読み出される。読
み出された演奏データは、CPU1により、音符会休符
の種類が判別さ札 1小節を4等分して4つのセクシ1
ンに分けた第1〜4番目の各セクシ厘ンの音符の有無を
示すデータと各セクシ1ンのつながりを示すデータとに
データ変換さt’k  RAM5内の■5〜111に対
応する記憶部分に記憶される(step2L  なお、
このつながりを示すデータは、第1セクシ値ンと第2セ
クシーン・第2セクシーンと第3セクシ1ン・第3セク
シーンと第4セクシーンの各セフシーン間で音符・休符
が継続するか否かを110で示すデータである。この場
合、 1小節が4等分されているので、各セクションの
長さは、4分音符長に相当する。4分音符または4分休
符のときは、次のセクシ習ンまで継続されないので、つ
ながりを示すデータは0となる。2分音符または2分休
符の時は、次のセクシ「ンまで継続されるので、つなが
りを示すデータは1となる。このデータ変換は、4分音
符(休符)長を基準として読みだされた音符(休符)が
その何倍の長さかによって判断し変換が行なわれる。
The performance data of the melody of the music stored in the storage means 4 is sequentially read out according to instructions from the CPUI. The CPU 1 determines the type of musical rest from the read performance data.One measure is divided into four equal parts and divided into four sections.
The data is converted into data indicating the presence or absence of a note in each of the first to fourth sections divided into sections, and data indicating the connection of each section 1. (step 2L)
The data showing this connection is that musical notes and rests continue between the first sex scene and the second sex scene, the second sex scene and the third sex scene, and the third sex scene and the fourth sex scene. This is data indicating by 110 whether or not. In this case, since one measure is divided into four equal parts, the length of each section corresponds to the length of a quarter note. In the case of a quarter note or a quarter rest, the data indicating the connection will be 0 because it will not continue until the next sekki lesson. If it is a half note or a half rest, it will continue until the next section, so the data indicating the connection will be 1. This data conversion is read based on the quarter note (rest) length. Conversion is performed based on how many times the length of the converted note (rest) is.

また、CPU1は、記憶手段4から順次読み出される演
奏データのうちの符長データを計数し、1小節長に等し
くなると、小節数を計数し、RAM5内の小節数の11
に対応する記憶部分に記憶させる(step2)。 こ
こで、 CPU 1は、上記の各計数をRAM5内のレ
ジスタをカウンタとして利用して行うものであり、計数
された小節数および操作パネル5で設定された音色・ジ
ャンル・ビートとをニューラルネットワークの入力層に
入力するように指示する。ニューラルネットワークの入
力層は、 12個のニューロン11−111がらなり、
楽曲の何小説目かを表わす小節数if ・音色12 (
シンバル、バスドラム、スネアドラム等)eジャンルミ
3 (ロック、ハードロック、バラード、 サンバ等)
φビー)I4(4ビート、 8ビート、 16ビート等
)・各セフシーンの音符の有無i5.17.19、il
lと2分音符や全音符であったときの次セクシーンへの
つながりを表わすデータi8、I8.ilO力ζ 各ニ
ューロンにパラメータとして入力される。
Further, the CPU 1 counts the note length data of the performance data sequentially read out from the storage means 4, and when it becomes equal to one measure length, counts the number of measures,
(step 2). Here, the CPU 1 performs each of the above counts by using the register in the RAM 5 as a counter, and uses the counted number of measures and the tone, genre, and beat set on the operation panel 5 in a neural network. Instruct the input layer to input. The input layer of the neural network consists of 12 neurons 11-111,
The number of measures if which represents the number of novels in the song ・Tone 12 (
Cymbals, bass drum, snare drum, etc.) e Genre Mi 3 (rock, hard rock, ballad, samba, etc.)
φbee) I4 (4 beats, 8 beats, 16 beats, etc.)・Presence or absence of notes in each scene i5.17.19, il
Data i8, I8. which represents the connection to the next sexy when it is a half note or a whole note. ilO force ζ is input to each neuron as a parameter.

ここで、1小節の演奏データが第2図に示すように2分
音符04分休符・4分音符の順に構成されているとする
。第1セクシ1ンには2分音符があるので、音符の有無
を示すデータは1となりI5に入力さ札 第2セクシー
ンでも継続して2分音符の発音が行なわれるので、つな
がりを示すデータも1となりI6に入力される。第2七
タシ冒ンには2分音符があるので、音符の有無を示すデ
ータは1となり17に入力さ攬 第3セクシーンでは2
分音符の発音は行なわれないので、つながりを示すデー
タは0となりI8に入力される。第3セクシ、ンには4
分休符があるので、音符の有無を示すデータはOとなり
I9に入力さ粍 またこの4分休符は第4セクシーンま
で継続しないので、つながりを示すデータも0となり!
10に入力される。第4セクシWンには4分音符がある
ので、音符の有無を示すデータは1となり111に入力
される。つまり、ニューラルネットワークの入力層!6
〜111には、演奏パターン情報としてのパラメータ1
5〜illとして“1・1・1・0・0・0・1”が入
力される。
Here, it is assumed that one measure of performance data is composed of a half note, a quarter note, a quarter note, and a quarter note, as shown in FIG. Since there is a half note in the first sex, the data indicating the presence or absence of a note is 1 and is input to I5.Since the half note continues to be sounded in the second sex, the data indicating the connection is 1. also becomes 1 and is input to I6. Since there is a half note in the second seventh sex, the data indicating the presence or absence of a note becomes 1 and is input to 17. In the third sex, it is 2.
Since no diacritics are produced, the data indicating the connection becomes 0 and is input to I8. 3rd sex, 4 for n
Since there is a minute rest, the data indicating the presence or absence of a note will be 0, which will be input into I9.Also, since this quarter rest does not continue until the fourth sex, the data indicating the connection will also be 0!
10 is input. Since there is a quarter note in the fourth section W, the data indicating the presence or absence of a note becomes 1 and is input to 111. In other words, the input layer of the neural network! 6
~111 contains parameter 1 as performance pattern information.
"1.1.1.0.0.0.1" is input as 5 to ill.

次に、CPUIは、ニューラルネットワークに入力され
たパラメータX1〜j11に基づ〜1て推論演算し リ
ズム伴奏のリズム情報を形成出力する(stops)。
Next, the CPU performs inference calculations based on the parameters X1 to j11 input to the neural network, and forms and outputs rhythm information of rhythm accompaniment (stops).

この推論演算は、ROM2に記憶されたシナプスウェイ
トWを適宜読出し、CPU1によって行なう。入力層の
各ニューロンIt〜Illは、中間層の全てのニエーロ
ンにシナプス結合しており、結合の強さはシナプスウェ
イトWによって決定される。すなわち、中間層はm個の
ニューロンN1〜N■からなっており、Nlに入力され
るデータは、 i I Xwl + i 2 Xw2 
+・−・+ i IIXwJIとなり、N2〜Nmにつ
いても同様である。また、中間層の各ニューロンNl 
−Nmは出力lのすべてのニューロンにシナプス結合し
ている。出力層は4個のニューロン01〜04からなっ
ており、olから04に入力されるデータは中間層N】
〜N葺と同様である。この出力層の各ニューロン01〜
04は1小節を4等分した4つのセフシロンのリズム音
のリズム情報を出力する。このリズム情報は、CPUI
によって任意のしきい値で正規化され(例えば、OI≧
0.5 ならば0i=1)、発音の有無を1.0で示す
リズムデータとなる(step4)。すなわち、各ニュ
ーロンOf〜04の出力により、 1小節分のリズムパ
ターンを作ることができる。このリズムデータは、RA
M3に記憶される(step5)。このように順次1小
節ごとに楽曲の演奏データを入力し、 1小節分のリズ
ムデータを作成しRAM3に順次記憶させる(s t 
e p8)ことによって、楽曲に基づくと共に操作者が
指示した音色−ジャンル・ビートに対応したリズム伴奏
のリズムデータを作ることができる。
This inference calculation is performed by the CPU 1 by appropriately reading out the synaptic weight W stored in the ROM 2. Each neuron It to Ill in the input layer is synaptically connected to all neurons in the intermediate layer, and the strength of the connection is determined by the synaptic weight W. That is, the middle layer consists of m neurons N1 to N■, and the data input to Nl is i I Xwl + i 2 Xw2
+・−・+ i IIXwJI, and the same applies to N2 to Nm. Also, each neuron Nl in the middle layer
-Nm is synaptically connected to all neurons of output l. The output layer consists of four neurons 01 to 04, and the data input from ol to 04 is the middle layer N]
- Same as N-buki. Each neuron 01~ of this output layer
04 outputs rhythm information of four cefsilon rhythm sounds obtained by dividing one bar into four equal parts. This rhythm information is
normalized by an arbitrary threshold (e.g., OI≧
If 0.5, then 0i=1), the rhythm data indicates the presence or absence of sound as 1.0 (step 4). That is, a rhythm pattern for one bar can be created by the output of each neuron Of~04. This rhythm data is RA
It is stored in M3 (step 5). In this way, the performance data of the song is input one measure at a time, one measure of rhythm data is created, and it is sequentially stored in RAM3 (s t
By doing this, it is possible to create rhythm data for rhythm accompaniment based on the music and corresponding to the tone, genre, and beat specified by the operator.

このようにして形成されてRAM3に記憶されたリズム
データ塩 周知の自動リズム演奏装置と同様にして演奏
スタート指示に応じて順次読みださ札 音源回路6から
このリズムデータに従ったタイミングでリズム音信号が
出力されてリズム音が発音される。また、楽曲の演奏デ
ータの読み出しに同期してRAM3に記憶されたリズム
データを読み出すことによって、楽曲の楽音とリズム音
を同時に発音することができる。
Rhythm data formed in this manner and stored in the RAM 3; tags that are sequentially read out in response to a performance start instruction in the same way as a well-known automatic rhythm performance device; rhythm sounds from the sound source circuit 6 at timings according to the rhythm data; A signal is output and a rhythm sound is produced. Further, by reading out the rhythm data stored in the RAM 3 in synchronization with reading out the performance data of the music piece, the musical tones and rhythm sounds of the music piece can be produced simultaneously.

な払 この実施例では、予め学習させておいたROM2
のシナプスウェイトに従ってニューラルネットの演算を
行なうようにした力ζ ユーザが任意に学習させられる
ようにしてもよい。
In this example, ROM2 that has been trained in advance
The force ζ that causes the neural network to perform calculations according to the synaptic weights of ζ may be made to be learned arbitrarily by the user.

この実施例においては、演奏データを記憶手段から読み
出した力ζ 高速の演算手段を用いることによってキー
ボードからリアルタイム入力してもよい。
In this embodiment, the performance data may be input in real time from the keyboard by using a high-speed calculation means.

また、操作パネルで音色をn個選択し、出力層のニュー
ロンを(出力層の等分数)Xn個設けることによって、
複数種類の音色のリズムを1度に出力することができる
In addition, by selecting n tones on the operation panel and providing (equal fraction of the output layer) Xn neurons in the output layer,
It is possible to output multiple types of rhythm rhythms at once.

また、ユニーラルネットワークの入力層と出力層に1小
節分のニューロンを設けた力ζ 任意の長さでよく、2
小節分でも1曲分であってもよい。
In addition, the force ζ that has neurons for one measure in the input layer and output layer of the unilateral network can be any length, and 2
It may be a measure or one song.

さらに、本実施例では1小節を4等分して4つのセクシ
真ンに分けためζ 8等分でも16等分でも32等分で
もよく、分割数を多くすればするほど8分音符(休符)
・16分音符(休符)等に対応できるため、より複雑な
メロディ−に対してより豊かなリズム伴奏を付加するこ
とが可能となる。
Furthermore, in this example, one measure is divided into four equal parts and divided into four quarter notes. mark)
- Since it can support sixteenth notes (rests), etc., it is possible to add richer rhythmic accompaniment to more complex melodies.

ニューラルネットワークは、同一の機能を実現できれば
CPUによる処理に代えてハードウェアを用いて処理す
るようにしてもよい。
The neural network may perform processing using hardware instead of the CPU if the same function can be achieved.

本実施例では、楽曲(演奏データ)の音高を考慮しなか
った力ζ 音高データを所定の数値化によってニューラ
ルネットワークにおける所定の入力層に入力し、音高変
化パターンとリズムとの間に一定の関係がある楽曲につ
いて二二一ラルネットトワークの学習を行なうことによ
って、符長データと音高データの両者に基づいたリズム
データを作ることができ、楽曲により適したリズム音が
得られる。
In this example, the force ζ pitch data, which does not take into account the pitch of the music (performance data), is input into a predetermined input layer of the neural network by digitizing it into a predetermined value, and the pitch change pattern and the rhythm are By learning the 221 Ral network for songs that have a certain relationship, rhythm data can be created based on both note length data and pitch data, and rhythm sounds more suitable for the song can be obtained.

(発明の効果) 以上のようにこの発明の自動リズム生成装置によれ?!
、  ニューラルネットワークを用いて演奏データから
リズム情報を推論出力することにより、イメージ通りで
、かつ楽曲の曲想にあったリズム音を容易に発生するこ
とができる。
(Effects of the Invention) As described above, the automatic rhythm generation device of this invention is effective. !
By inferring and outputting rhythm information from performance data using a neural network, it is possible to easily generate rhythmic sounds that are exactly as imagined and match the idea of the song.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の実施例である自動リズム生成装置の
ブロックA 第2図は同自動リズム生成装置に用いられ
るニューラルネットワークの概略構成を示すA 第3図
はCPUの動作を示すフローチャートである。 −CPU −ROM −RAM 4−記憶手段 5−操作パネル 6−音源回路 7−5.S(サウンドシステム) 8−バス
Fig. 1 is a block diagram of an automatic rhythm generation device according to an embodiment of the present invention. Fig. 2 shows a schematic configuration of a neural network used in the automatic rhythm generation device. Fig. 3 is a flowchart showing the operation of the CPU. . -CPU -ROM -RAM 4-Storage means 5-Operation panel 6-Sound source circuit 7-5. S (sound system) 8-bass

Claims (1)

【特許請求の範囲】  楽曲の演奏データを受け、該演奏データをパターン化
した演奏パターン情報を出力する演奏パターン情報出力
手段と、 該演奏パターン情報出力手段から出力された演奏パター
ン情報に基づいてリズム情報を推論出力するニューラル
ネットワーク手段と、 該ニューラルネットワーク手段から出力されたリズム情
報に基づきリズムの発音タイミングを示すリズムデータ
を形成するリズムデータ形成手段と、 を具備し、該リズムデータ形成手段で形成されたリズム
データに従ってリズム音を発生するようにしたことを特
徴とする自動リズム生成装置
[Scope of Claims] Performance pattern information output means that receives performance data of a piece of music and outputs performance pattern information that is patterned from the performance data; Neural network means for inferring and outputting information; and rhythm data forming means for forming rhythm data indicating rhythm pronunciation timing based on the rhythm information output from the neural network means, the rhythm data forming means forming rhythm data. An automatic rhythm generation device characterized in that it generates rhythm sounds according to rhythm data that has been generated.
JP2282889A 1990-10-20 1990-10-20 Automatic rhythm generator Expired - Fee Related JP2643582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2282889A JP2643582B2 (en) 1990-10-20 1990-10-20 Automatic rhythm generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2282889A JP2643582B2 (en) 1990-10-20 1990-10-20 Automatic rhythm generator

Publications (2)

Publication Number Publication Date
JPH04157499A true JPH04157499A (en) 1992-05-29
JP2643582B2 JP2643582B2 (en) 1997-08-20

Family

ID=17658411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2282889A Expired - Fee Related JP2643582B2 (en) 1990-10-20 1990-10-20 Automatic rhythm generator

Country Status (1)

Country Link
JP (1) JP2643582B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06295293A (en) * 1993-03-31 1994-10-21 Matsushita Electric Ind Co Ltd Neural network video processor
CN110047514A (en) * 2019-05-30 2019-07-23 腾讯音乐娱乐科技(深圳)有限公司 A kind of accompaniment degree of purity appraisal procedure and relevant device
CN110675849A (en) * 2019-09-11 2020-01-10 东北大学 Method for generating Bossa Nova style music rhythm based on Bayesian network
WO2021166745A1 (en) * 2020-02-17 2021-08-26 ヤマハ株式会社 Arrangement generation method, arrangement generation device, and generation program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03129399A (en) * 1989-07-21 1991-06-03 Fujitsu Ltd Rhythm pattern generating device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03129399A (en) * 1989-07-21 1991-06-03 Fujitsu Ltd Rhythm pattern generating device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06295293A (en) * 1993-03-31 1994-10-21 Matsushita Electric Ind Co Ltd Neural network video processor
CN110047514A (en) * 2019-05-30 2019-07-23 腾讯音乐娱乐科技(深圳)有限公司 A kind of accompaniment degree of purity appraisal procedure and relevant device
CN110675849A (en) * 2019-09-11 2020-01-10 东北大学 Method for generating Bossa Nova style music rhythm based on Bayesian network
CN110675849B (en) * 2019-09-11 2022-11-15 东北大学 Method for generating Bossa Nova style music rhythm based on Bayesian network
WO2021166745A1 (en) * 2020-02-17 2021-08-26 ヤマハ株式会社 Arrangement generation method, arrangement generation device, and generation program
JPWO2021166745A1 (en) * 2020-02-17 2021-08-26

Also Published As

Publication number Publication date
JP2643582B2 (en) 1997-08-20

Similar Documents

Publication Publication Date Title
US5138928A (en) Rhythm pattern learning apparatus
JPH01173099A (en) Automatic accompanying device
US4433601A (en) Orchestral accompaniment techniques
JP7160068B2 (en) Electronic musical instrument, method of sounding electronic musical instrument, and program
JPH11344979A (en) Melody generator and record medium
Franklin Multi-phase learning for jazz improvisation and interaction
Adiloglu et al. A machine learning approach to two-voice counterpoint composition
JPH04157499A (en) Automatic rhythm creation device
Raphael Synthesizing musical accompaniments with Bayesian belief networks
JPH0990952A (en) Chord analyzing device
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
WO2022202199A1 (en) Code estimation device, training device, code estimation method, and training method
JP2638817B2 (en) Accompaniment line fundamental tone determination device
JP2560485B2 (en) Electronic musical instrument
Ostermann et al. Evaluation rules for evolutionary generation of drum patterns in jazz solos
JP2605477B2 (en) Base pattern generation device and base pattern generation method
JP3398983B2 (en) Automatic accompaniment device
JP3054242B2 (en) Automatic accompaniment device
JP2743919B2 (en) Rhythm pattern generator
US4183277A (en) Rhythm accent circuit
JPH04274297A (en) Automatic musical performance device
JPS61156099A (en) Automatic performancer
Costalonga et al. Agent-based guitar performance simulation
JP2787723B2 (en) Music part generator
WO2018216423A1 (en) Musical piece evaluation apparatus, musical piece evaluation method, and program

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees