JPH0527750A - Automatic accompaniment method - Google Patents

Automatic accompaniment method

Info

Publication number
JPH0527750A
JPH0527750A JP3186105A JP18610591A JPH0527750A JP H0527750 A JPH0527750 A JP H0527750A JP 3186105 A JP3186105 A JP 3186105A JP 18610591 A JP18610591 A JP 18610591A JP H0527750 A JPH0527750 A JP H0527750A
Authority
JP
Japan
Prior art keywords
cell
transition rule
state
accompaniment
melody
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3186105A
Other languages
Japanese (ja)
Inventor
Yoichi Horii
洋一 堀井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP3186105A priority Critical patent/JPH0527750A/en
Publication of JPH0527750A publication Critical patent/JPH0527750A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To automatically generate accompaniment data conforming to a played melody. CONSTITUTION:Interval and sound volume data on a sound played on a musical instrument 101 are inputted to a central processing unit 103 through a sound input device 102. A cell state update routine 104 determines the transition rule of the state change of a cell and updates the state of the cell. An accompaniment data output routine 105 determines the interval of accompaniment data according to the state of the cell obtained by the cell state update routine 104 and a sound input device 102 sends the accompaniment data to an acoustic signal generation device 107 by using the inputted sound volume data to make an automatic accompaniment conforming to the performance of a player. Further, a melody difficulty detection routine 106 uses the frequency of update of the transition rule to detect melody difficulty which is an index showing how easy the understanding of the played melody is.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、伴奏データを自動生成
し演奏者と同期して伴奏を出力することができる自動伴
奏方法および、演奏された曲の旋律を分析して旋律難易
度を検出する旋律難易度検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic accompaniment method capable of automatically generating accompaniment data and outputting an accompaniment in synchronization with a performer, and analyzing the melody of a played music to detect the melody difficulty level. Melody difficulty detection method.

【0002】[0002]

【従来の技術】特開昭57-8596において論じられている
ように、従来の自動伴奏方法はあらかじめ入力された伴
奏パターンを随時読みだし、演奏に合わせて出力すると
いう方法である。
2. Description of the Related Art As discussed in Japanese Patent Laid-Open No. 57-8596, a conventional automatic accompaniment method is a method in which an accompaniment pattern input in advance is read out at any time and is output in accordance with a performance.

【0003】また、特開昭59-58485において論じられて
いるように、従来の旋律難易度検出方法は、演奏された
音の符長および音に対応する鍵が白鍵か黒鍵であるかを
用いることにより旋律難易度を検知するという方法であ
る。
Further, as discussed in Japanese Patent Laid-Open No. 59-58485, in the conventional melody difficulty level detecting method, whether the key corresponding to the note length and the note played is a white key or a black key. Is a method of detecting the melody difficulty level by using.

【0004】[0004]

【発明が解決しようとする課題】上記従来の自動伴奏方
法ではあらかじめ入力されている伴奏パターンを読み出
して用いるため、単調な伴奏出力しか得られず、多彩な
自動伴奏システムを実現できないといった問題があっ
た。
In the above-mentioned conventional automatic accompaniment method, since the accompaniment pattern input in advance is read and used, there is a problem that only a monotone accompaniment output can be obtained and a variety of automatic accompaniment systems cannot be realized. It was

【0005】また、従来の旋律難易度検出方法では、演
奏の難易度のみを検出し、音楽を聞くときの理解の難易
度を示す指標とはなっていなかった。
Further, in the conventional melody difficulty level detecting method, only the difficulty level of performance is detected and it is not an index showing the difficulty level of understanding when listening to music.

【0006】本発明の目的は、多彩な伴奏データを自動
生成することができる自動伴奏方法を提供することであ
る。
An object of the present invention is to provide an automatic accompaniment method capable of automatically generating various accompaniment data.

【0007】本発明の他の目的は、演奏するときの難易
度のみならず、音楽を聞くときの理解の難易度を示す指
標を得ることができる旋律難易度検出方法を提供するこ
とである。
Another object of the present invention is to provide a melody difficulty level detecting method capable of obtaining not only a difficulty level at the time of playing but also an index indicating a difficulty level at the time of listening to music.

【0008】[0008]

【課題を解決するための手段】鍵盤の一つ一つに対応す
るセルを設定し、それぞれの状態を1または0の二値で
表現する。音の入力信号が中央処理装置に送られる毎
に、その音程に対応するセルが1、このセルからある一
定の距離隔たったセルが0となるようにセルの状態の遷
移規則を決定する。さらに、この遷移規則に従ってセル
の状態を更新し、全てのセルの状態の履歴から持続して
1の値をとるセルが示す音程を用いて伴奏データを自動
生成する。また、該遷移規則が前回の音入力時に決定さ
れた遷移規則と異なる場合の数を用いて旋律難易度を判
定する、といった処理を繰り返すことにより上記の目的
が達成される。
[Means for Solving the Problems] A cell corresponding to each keyboard is set and each state is represented by a binary value of 1 or 0. Each time a sound input signal is sent to the central processing unit, the cell state transition rule is determined so that the cell corresponding to the pitch becomes 1 and the cell separated by a certain distance from this cell becomes 0. Furthermore, the state of the cell is updated according to this transition rule, and accompaniment data is automatically generated using the pitch indicated by the cell that continuously takes a value of 1 from the history of the states of all cells. Further, the above object is achieved by repeating the processing of determining the melody difficulty level by using the number when the transition rule is different from the transition rule determined at the time of the previous sound input.

【0009】[0009]

【作用】人間の脳内の情報処理の過程を簡単な形で模倣
し、音の入力毎に脳内の神経細胞に相当するセルの状態
の遷移規則を決定し、この遷移規則を用いて全てのセル
の状態を更新する。また、この遷移規則に従って更新さ
れるセルの状態の履歴を用いて伴奏データを生成するよ
うにする。これによって、セル・オートマトンの性質に
より、演奏された旋律の上行・下行などの動的性質を反
映した伴奏を演奏者と同期して出力することができ、多
彩な自動伴奏システムを実現することができる。また、
音入力時に決定された遷移規則が前回の音入力時に決定
された遷移規則と異なる頻度を用いることにより、音楽
の旋律の解釈の難易度を脳内の神経細胞レベルで模倣す
ることができ、演奏された旋律の難易度を判定すること
ができる。
[Function] By imitating the process of information processing in the human brain in a simple manner, the transition rule of the state of cells corresponding to nerve cells in the brain is determined for each sound input, and this transition rule is used for all Update the cell state of. In addition, accompaniment data is generated using the history of cell states updated according to this transition rule. As a result, due to the nature of the cellular automaton, it is possible to output an accompaniment that reflects the dynamic characteristics of the played melody ascending / descending, in synchronization with the performer, realizing a variety of automatic accompaniment systems. it can. Also,
By using a different frequency for the transition rule determined at the time of sound input and the transition rule determined at the time of the previous sound input, the difficulty of interpreting the melody of music can be imitated at the nerve cell level in the brain. It is possible to determine the difficulty level of the tuned melody.

【0010】[0010]

【実施例】音が発せられると、音波の振動は鼓膜と耳小
骨を経て、進行波として内耳の蝸牛管の内部にある基底
膜の振動を引き起こす。音の周波数により進行波の基底
膜に及ぶ距離が異なり、高い音は蝸牛管の入口付近にと
どまり、低い音は上部まで達する。また、基底膜の各位
置には有毛細胞が接しており、電気信号に変換されて大
脳の聴覚野に伝わる。大脳のそれぞれの神経細胞は、互
いに影響を及ぼしながら常にその状態を変化していると
いわれている。また、神経細胞の状態変化の遷移規則も
常に更新している。以上のような生物内の挙動を神経細
胞の状態には数値、状態変化の遷移規則には簡単な代数
を用いることにより、音楽を聞くときの脳内の状態を模
倣することができる。これにより、心地良い伴奏データ
を自動生成し、音楽の理解の難易度を得ることができ
る。
[Example] When sound is emitted, the vibration of the sound wave causes the vibration of the basement membrane inside the cochlear duct of the inner ear as a traveling wave through the eardrum and the ossicle. The distance that the traveling wave reaches the basilar membrane differs depending on the frequency of the sound, with high sounds remaining near the entrance to the cochlear canal and low sounds reaching the upper part. Hair cells are in contact with each position of the basement membrane and are converted into an electric signal and transmitted to the auditory cortex of the cerebrum. It is said that each nerve cell of the cerebrum constantly changes its state while affecting each other. In addition, the transition rules for state changes of nerve cells are constantly updated. By using numerical values for the state of nerve cells and simple algebra for the transition rules of state changes, it is possible to mimic the state of the brain when listening to music. This makes it possible to automatically generate comfortable accompaniment data and obtain the degree of difficulty in understanding music.

【0011】以下本発明の一実施例を図により説明す
る。図1において、101、102、107、108 は装置、104、
105、106 は計算機に内蔵されたプログラムである。楽
器(101)において演奏された音を、マイクロフォンなど
から取り込む場合には音入力装置(102)を介して周波数
解析を行った結果を、鍵盤楽器などの場合には押鍵位置
および押鍵速度を、音程および音量データに変換して中
央処理装置(103)に取り込む。セル状態更新ルーチン(10
4)では、セルの状態変化の遷移規則を決定し、この遷移
規則に従ってセルの全ての状態を更新する。伴奏データ
出力ルーチン(105)において、セル状態更新ルーチン(10
4)で得られたセルの状態をもとに決定される伴奏データ
の音程と、音入力装置(102)によって取り込まれた音量
データを用いて得られる伴奏データの音量を音響信号発
生装置(107)に送ることにより、演奏者の演奏に即した
自動伴奏を行なう。また、旋律難易度検出ルーチン(10
6)において、セル状態更新ルーチン(104)において決定
された遷移規則が前回の音入力時において決定されたも
のと異なる場合の数を用いて遷移規則更新頻度を得、こ
れを演奏された旋律の理解し易さを示す指標である旋律
難易度として用いる。さらにこれを計算機の画面、プリ
ンターなどといった旋律難易度出力装置 (108) に出力
する。
An embodiment of the present invention will be described below with reference to the drawings. In FIG. 1, 101, 102, 107, 108 are devices, 104,
105 and 106 are programs built into the computer. When the sound played on the instrument (101) is taken in from a microphone, the result of frequency analysis via the sound input device (102) is used, and in the case of a keyboard instrument, the key pressing position and key pressing speed are displayed. , Pitch and volume data, and fetched in the central processing unit (103). Cell status update routine (10
In 4), the transition rule of the state change of the cell is determined, and all the states of the cell are updated according to this transition rule. In the accompaniment data output routine (105), the cell state update routine (10
The pitch of the accompaniment data determined based on the state of the cell obtained in 4) and the volume of the accompaniment data obtained by using the volume data captured by the sound input device (102) are compared to the acoustic signal generator (107 ) To perform automatic accompaniment according to the performance of the performer. Also, the melody difficulty detection routine (10
In 6), the transition rule update frequency is obtained using the number of cases where the transition rule determined in the cell state update routine (104) is different from the one determined at the time of the previous sound input, and the transition rule update frequency is obtained. It is used as the melody difficulty, which is an index showing the ease of understanding. Further, this is output to a melody difficulty output device (108) such as a computer screen or a printer.

【0012】次に、本実施例の中心部分をなす、セル状
態更新ルーチン(104)、伴奏データ出力ルーチン(105)、
および旋律難易度検出ルーチン(106)の処理手順の説明
を行なう。以下では、簡単のため、演奏は単音で行なわ
れるものとする。
Next, a cell state update routine (104), an accompaniment data output routine (105), which form the central part of this embodiment,
The processing procedure of the melody difficulty detection routine (106) will be described. In the following, for simplicity, it is assumed that the performance is performed by a single note.

【0013】まず、以下の処理で用いられるセルとその
状態、および遷移規則について述べる。鍵盤の一つ一つ
に対応するN個のセルを設定し、それぞれの状態を1ま
たは0の二値で表現する。各セルの状態は前回の音入力
時における自分自身と両隣のセルの状態から、ある遷移
規則に従って変化していくものとする。Ct(i)∈{0, 1}
(i = 0, 1, ... , N-1)を、t回目に音入力があった時
点におけるi番目のセルの状態とする。また、Rt をセ
ルの状態の遷移規則とする。t+1回目に音入力があっ
た時点におけるi番目のセルの状態Ct+1(i) は、Ct(i-
1), Ct(i), Ct(i+1) を用いて以下のように決定され
る。
First, a cell used in the following process, its state, and a transition rule will be described. N cells corresponding to each keyboard are set, and each state is represented by a binary value of 1 or 0. It is assumed that the state of each cell changes from the state of itself and the cells on both sides at the time of the previous sound input according to a certain transition rule. Ct (i) ∈ {0, 1}
Let (i = 0, 1, ..., N-1) be the state of the i-th cell at the time of the sound input at the t-th time. Also, let Rt be the transition rule of the cell state. The state Ct + 1 (i) of the i-th cell at the time of sound input for the (t + 1) th time is Ct (i-
1), Ct (i), Ct (i + 1) are used to determine as follows.

【0014】[0014]

【数1】 [Equation 1]

【0015】Rt の取る引数は0か1で表される3つの
変数であることから、Rt を決定することは、8種類の
引数の組に対する値(0か1)を決定することに等し
い。これらをAk ∈{0, 1} (k = 0, 1, ... , 7) として
次式のように定義する。
Since the argument that Rt takes is three variables represented by 0 or 1, determining Rt is equivalent to determining the value (0 or 1) for a set of 8 types of arguments. These are defined as Ak ∈ {0, 1} (k = 0, 1, ..., 7) as follows.

【0016】[0016]

【数2】 [Equation 2]

【0017】以下ではセルの状態をセル状態テーブルに
格納し、遷移規則をAk (k= 0, 1, ... , 7) の形で遷移
規則テーブルに格納するものとする。また、演奏開始時
におけるこれらの初期設定として、遷移規則テーブルを
Ak = 0 (k = 0, 1, ... , 7)とし、セルの状態の初期値
C1(i) (i = 0, 1, ... , N-1) を、一小節目に演奏さ
れた音 Pj (j = 1, 2, ..., Jmax; Jmax は一小節目に
演奏された音の数) を用いて以下のように設定する。全
ての i (i = 0, 1, ... , N-1) について、
In the following, the cell state is stored in the cell state table, and the transition rule is stored in the transition rule table in the form of Ak (k = 0, 1, ..., 7). In addition, the transition rule table is set as these initial settings at the start of performance.
Ak = 0 (k = 0, 1, ..., 7) and the initial state of the cell
C1 (i) (i = 0, 1, ..., N-1) is played in the first measure Pj (j = 1, 2, ..., Jmax; Jmax is played in the first measure The number of sounds that are played) is set as follows. For all i (i = 0, 1, ..., N-1),

【0018】[0018]

【数3】 [Equation 3]

【0019】以下、図1における処理104について述
べる。図2に示すように、音が入力される毎に遷移規則
を決定し(ステップ201から204)、セルの状態を更新す
る(ステップ205から210)。
The process 104 in FIG. 1 will be described below. As shown in FIG. 2, each time a sound is input, a transition rule is determined (steps 201 to 204) and the cell state is updated (steps 205 to 210).

【0020】ステップ201において、t回目に演奏され
た音の周波数に対応するセルの位置を g (g = 0, 1,
... , N-1) に格納する。図5に示すように、g 番目の
セルは1(292-2)、両隣のセルは0(292-1、292-3)と
なるように遷移規則を更新するため、以下のステップ20
2から204の処理を行なう。
In step 201, the position of the cell corresponding to the frequency of the sound played at the t-th time is set to g (g = 0, 1,
..., N-1). As shown in FIG. 5, the transition rule is updated so that the g-th cell is 1 (292-2) and the cells on both sides are 0 (292-1, 292-3).
Perform steps 2 to 204.

【0021】g-2, g-1, g 番目のセルの状態をセル状態
テーブル1(ステップ292)から参照し、それぞれCt(g-
2), Ct(g-1), Ct(g) に格納する(ステップ202-1)。x を
次式のように定義し、
The state of the g-2, g-1, g-th cell is referred to from the cell state table 1 (step 292), and Ct (g-
2), Ct (g-1), and Ct (g) are stored (step 202-1). Define x as

【0022】[0022]

【数4】 [Equation 4]

【0023】Ax = 0 となるように遷移規則テーブル1
(291)を書き換える(ステップ202-2)。同様に、g, g+1,
g+2 番目のセルの状態をセル状態テーブル1(292)から
参照し、それぞれCt(g), Ct(g+1), Ct(g+2) に格納する
(ステップ203-1)。z を次式のように定義し、
Transition rule table 1 so that Ax = 0
Rewrite (291) (step 202-2). Similarly, g, g + 1,
The state of the g + 2nd cell is referred from the cell state table 1 (292) and stored in Ct (g), Ct (g + 1), Ct (g + 2), respectively.
(Step 203-1). Define z as

【0024】[0024]

【数5】 [Equation 5]

【0025】Az = 0 となるように遷移規則テーブル1
(291)を書き換える(ステップ203-2)。さらに、g-1, g,
g+1 番目のセルの状態をセル状態テーブル1(292)から
参照し、それぞれCt(g-1), Ct(g), Ct(g+1) に格納する
(ステップ204-1)。y を次式のように定義し、
Transition rule table 1 so that Az = 0
Rewrite (291) (step 203-2). Furthermore, g-1, g,
The state of the g + 1th cell is referenced from the cell state table 1 (292) and stored in Ct (g-1), Ct (g), Ct (g + 1), respectively.
(Step 204-1). Define y as

【0026】[0026]

【数6】 [Equation 6]

【0027】Ay = 1 となるように遷移規則テーブル1
(291)を書き換える(ステップ204-2)。以上により、t回
目の音入力の時点における遷移規則の更新を行なうこと
ができる。
Transition rule table 1 so that Ay = 1
Rewrite (291) (step 204-2). As described above, the transition rule can be updated at the time of the t-th sound input.

【0028】次にセル状態の更新方法(ステップ205か
ら210)について述べる。まず、前回の音入力時に更新
されたセルの状態が格納されているセル状態テーブル1
(292)の内容の全てを、セル状態テーブル2(29
3)にコピーする(ステップ205)。カウンター i に1を
代入したあと(ステップ206)、i が N-1 以上になるまで
(ステップ210)、以下のステップ207, 208, 209 の操作
を繰り返す。
Next, the cell state updating method (steps 205 to 210) will be described. First, the cell state table 1 storing the cell states updated at the time of the previous sound input.
All the contents of (292) are set in the cell state table 2 (29
3) is copied (step 205). After substituting 1 for counter i (step 206), until i becomes N-1 or more
(Step 210), the following steps 207, 208 and 209 are repeated.

【0029】ステップ207において、i-1, i, i+1 番目
のセルの状態をセル状態テーブル2(293)から参照し、
それぞれ Ct(i-1), Ct(i), Ct(i+1) に格納する。w を
次式のように定義し、
In step 207, the state of the i-1, i, i + 1th cell is referred to from the cell state table 2 (293),
Store them in Ct (i-1), Ct (i), and Ct (i + 1), respectively. Define w as

【0030】[0030]

【数7】 [Equation 7]

【0031】Aw を遷移規則テーブル1(291)から参照し
て、これを i 番目のセルの状態Ct+1(i) としてセル状
態テーブル2(293)を書き換える(ステップ208)。i をカ
ウントアップし(ステップ209)、i が N-1 より小さけれ
ばステップ207に戻って操作を繰り返す。これらの操作
によって iが N-1 以上になった時点で、全てのセルの
状態が、セル状態テーブル1(292)に書き込まれたこと
になる。
The cell state table 2 (293) is rewritten by referring to Aw from the transition rule table 1 (291) as the state Ct + 1 (i) of the i-th cell (step 208). The i is counted up (step 209), and if i is smaller than N-1, the process returns to step 207 and the operation is repeated. When i becomes N-1 or more by these operations, the states of all cells are written in the cell state table 1 (292).

【0032】次に図1の処理105における伴奏データの
音程を生成する方法について、図3に従って述べる。カ
ウンター i に0を代入したあと(ステップ301)、i が N
以上になるまで(ステップ306)、以下のステップ302, 3
03, 304, 305 の操作を繰り返す。まず、前回と今回の
音入力時に更新された i 番目のセルの状態を2つのセ
ル状態テーブル(292(今回の音入力時のセルの状態),
293(前回の音入力時のセルの状態))から読み込み、
それぞれ Ct+1(i), Ct(i) に格納する(ステップ302)。
ステップ303において Ct(i)=1 かつ Ct+1(i)=1 であっ
た場合には次のステップ304-1の操作を、そうでない場
合にはステップ304-2の操作を行なう。ステップ304-1で
は、i 番目のセル発火持続時間 S(i) をカウントアップ
してセル発火持続時間テーブル(391)を書き換える。ス
テップ304-2では、i 番目のセル発火持続時間 S(i) に
0を代入して、セル発火持続時間テーブル(391)を書き
換える。さらに i をカウントアップし(ステップ305)、
i が N より小さければステップ302に戻って以上の操作
を繰り返す(ステップ306)。
Next, a method of generating the pitch of the accompaniment data in the processing 105 of FIG. 1 will be described with reference to FIG. After substituting 0 for counter i (step 301), i is N
Until the above (step 306), the following steps 302, 3
Repeat steps 03, 304, and 305. First, the state of the i-th cell updated at the time of the previous and current sound input is stored in two cell state tables (292 (cell state at the time of this sound input),
Read from 293 (cell state at the time of the last sound input),
They are stored in Ct + 1 (i) and Ct (i), respectively (step 302).
When Ct (i) = 1 and Ct + 1 (i) = 1 in step 303, the operation of the next step 304-1 is performed, and otherwise, the operation of step 304-2 is performed. In step 304-1, the i-th cell firing duration S (i) is counted up and the cell firing duration table (391) is rewritten. In step 304-2, 0 is substituted for the i-th cell firing duration S (i) to rewrite the cell firing duration table (391). Count up i (step 305),
If i is smaller than N, the process returns to step 302 and the above operation is repeated (step 306).

【0033】ステップ307において、セル発火持続時間
テーブル(391)を参照して、S(i) のうち大きい値をとる
セルを Gp 個選択し、これらを伴奏データの音程として
用いる。ここで Gp は、一つの音入力に対して伴奏音を
いくつ出力するかを示す値である。ステップ308におい
て、音入力装置(図1:102)から読み込まれていた音
入力データのうち、音量データを Vin に格納する。こ
れを用いて、伴奏データの音量を次式のように設定する
(ステップ309)。
In step 307, referring to the cell firing duration table (391), Gp cells having a large value among S (i) are selected and used as pitches of accompaniment data. Here, Gp is a value indicating how many accompaniment sounds are output for one sound input. In step 308, of the sound input data read from the sound input device (FIG. 1: 102), the volume data is stored in Vin. Using this, set the volume of accompaniment data as follows:
(Step 309).

【0034】[0034]

【数8】 [Equation 8]

【0035】但し、w (0≦w, 実数) はあらかじめ設定
される係数である。上式は入力の音量に比例した伴奏の
音量を出力することを意味し、これにより、例えば静か
な演奏に対しては静かな伴奏を出力することができ、演
奏の性質に即した伴奏を得ることができる。
However, w (0 ≦ w, real number) is a preset coefficient. The above expression means that the accompaniment volume is output in proportion to the volume of the input, so that, for example, a quiet accompaniment can be output for a quiet performance, and an accompaniment that matches the nature of the performance is obtained. be able to.

【0036】以上より、ステップ307および309 で得ら
れた音程・音量の伴奏データを音響信号発生装置(図
1:107)に出力することにより(ステップ310)、自動伴
奏を実現する。
As described above, by outputting the pitch / volume accompaniment data obtained in steps 307 and 309 to the acoustic signal generator (FIG. 1: 107) (step 310), automatic accompaniment is realized.

【0037】次に図1の処理106における旋律の難易度
の判定方法について、図4に従って述べる。まず、ステ
ップ401においてセル状態更新ルーチン(図1:104 お
よび図2)で更新された遷移規則テーブル1(291)の
内容と、前回の音入力時に更新された遷移規則テーブル
2(491)の内容を照合する。この結果、前回の音入力時
の遷移規則と一致しなかった場合(ステップ402)、次の
ステップ403および404の操作を行なう。
Next, a method of determining the difficulty level of the melody in the process 106 of FIG. 1 will be described with reference to FIG. First, in step 401, the contents of the transition rule table 1 (291) updated by the cell state update routine (FIG. 1: 104 and FIG. 2) and the contents of the transition rule table 2 (491) updated at the last sound input. To match. As a result, when the transition rule at the previous sound input does not match (step 402), the following steps 403 and 404 are performed.

【0038】ステップ403において遷移規則更新回数カ
ウンター(Ms, 492)をカウントアップし、ステップ404に
おいて遷移規則テーブル1(291)の全ての内容を、遷
移規則テーブル2(491)にコピーする。次にステップ405
において、音入力回数カウンター(Mt, 493)をカウント
アップする。さらにステップ406において、遷移規則更
新回数カウンター(Ms, 492)および音入力回数カウンタ
ー(Mt, 493)を参照して、遷移規則更新頻度 Q を次式の
ように算出し、
In step 403, the transition rule update number counter (Ms, 492) is counted up, and in step 404, all the contents of the transition rule table 1 (291) are copied to the transition rule table 2 (491). Then step 405
In, the sound input number counter (Mt, 493) is incremented. Further, in step 406, the transition rule update frequency Q is calculated by the following equation with reference to the transition rule update frequency counter (Ms, 492) and the sound input frequency counter (Mt, 493),

【0039】[0039]

【数9】 [Equation 9]

【0040】Q を旋律難易度として、旋律難易度出力装
置(図1:108)に出力する(ステップ407)。これは脳内
の神経細胞の状態の遷移規則を制御する頻度を模倣した
ものである。
Q is output as the melody difficulty level to the melody difficulty level output device (FIG. 1: 108) (step 407). This mimics the frequency of controlling the state transition rules of nerve cells in the brain.

【0041】以上の処理を繰り返すことにより、伴奏デ
ータを随時生成し、多彩な伴奏データを自動生成するこ
とができる。また、演奏された旋律について演奏された
旋律の難易度 Q(数9)を随時判定することができ、音
楽の難易度を示す指標を得ることができる。
By repeating the above processing, accompaniment data can be generated at any time, and various accompaniment data can be automatically generated. Further, the difficulty level Q (Equation 9) of the played melody can be determined at any time for the played melody, and an index indicating the difficulty level of the music can be obtained.

【0042】本発明によれば、演奏された旋律を用いて
旋律を理解する難易度を判定し、伴奏データを自動生成
することができるので、演奏者との自動伴奏をはじめ多
彩な機能を実現することができる。また、音楽教育にお
いて、音楽の旋律を用いて旋律を理解する難易度を判定
し、器楽もしくは声楽を練習する場合の指標として、旋
律難易度を用いることができる。
According to the present invention, it is possible to determine the difficulty level of understanding a melody using the played melody and automatically generate accompaniment data, so that various functions including automatic accompaniment with the performer are realized. can do. Further, in music education, the melody difficulty level can be used as an index when practicing instrumental or vocal music by determining the difficulty level of understanding the melody using the melody of music.

【0043】また、本発明によれば、処理量が少なく簡
単な回路で上記機能を実現することができるので、マイ
クロコンピュータを使った装置に組み込むことができ、
演奏者とリアルタイムに同期して動作する自動伴奏シス
テムを実現することができる。
Further, according to the present invention, since the above functions can be realized by a simple circuit with a small processing amount, it can be incorporated in a device using a microcomputer.
It is possible to realize an automatic accompaniment system that operates in synchronization with the performer in real time.

【0044】[0044]

【発明の効果】本発明によれば、演奏された旋律を用い
て、旋律を理解する難易度を判定し、伴奏データを自動
生成することができるので、演奏者との自動伴奏をはじ
め多彩な機能を実現することができる。
According to the present invention, it is possible to determine the difficulty level of understanding a melody using the played melody and automatically generate accompaniment data. Function can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の自動伴奏方法の一実施例のブロック図FIG. 1 is a block diagram of an embodiment of an automatic accompaniment method of the present invention.

【図2】本発明の実施例のセル状態更新ルーチンの流れ
FIG. 2 is a flowchart of a cell state update routine according to the embodiment of this invention.

【図3】本発明の実施例の伴奏データ出力ルーチンの流
れ図
FIG. 3 is a flowchart of an accompaniment data output routine according to the embodiment of this invention.

【図4】本発明の実施例の旋律難易度検出ルーチンの流
れ図
FIG. 4 is a flow chart of a melody difficulty detection routine according to the embodiment of the present invention.

【図5】本発明の実施例の遷移規則更新方法の概念図FIG. 5 is a conceptual diagram of a transition rule updating method according to the embodiment of this invention.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】鍵盤の一つ一つに対応するセルを設定し、
音入力信号が中央処理装置に取り込まれる毎に押鍵され
た位置データを用いてセルの状態の遷移規則を決定し、
この遷移規則に従って全てのセルの状態を更新し、セル
の状態の履歴を用いて伴奏の音階データを生成すること
を特徴とする自動伴奏方法。
1. A cell corresponding to each keyboard is set,
Each time the sound input signal is taken into the central processing unit, the position data pressed is used to determine the transition rule of the cell state,
An automatic accompaniment method characterized in that the states of all cells are updated in accordance with this transition rule, and accompaniment scale data is generated using the history of cell states.
【請求項2】鍵盤の一つ一つに対応するセルの状態を0
か1の二値で表し、押鍵された位置に対応するセルの状
態が1、このセルからある一定の距離隔たったセルの状
態が0となるように、セルの状態の遷移規則を決定し、
この遷移規則に従って全てのセルの状態を更新し、セル
の状態の履歴を用いて伴奏の音階データを生成すること
を特徴とする自動伴奏方法。
2. The state of the cell corresponding to each keyboard is set to 0.
It is represented by a binary value of 1 or 1, and the transition rule of the cell state is determined so that the state of the cell corresponding to the depressed position is 1 and the state of the cell at a certain distance from this cell is 0. ,
An automatic accompaniment method characterized in that the states of all cells are updated in accordance with this transition rule, and accompaniment scale data is generated using the history of cell states.
【請求項3】音入力信号が中央処理装置に取り込まれる
毎に、鍵盤の一つ一つに対応する0か1の二値で表わさ
れるセルの状態の遷移規則を決定し、この遷移規則に従
って更新されたセルの状態の履歴のうち、持続して1の
値を取るセルに対応する音程を伴奏データに用いること
を特徴とする自動伴奏方法。
3. Each time a sound input signal is taken into the central processing unit, a transition rule of the state of a cell represented by a binary value of 0 or 1 corresponding to each keyboard is determined, and according to this transition rule. An automatic accompaniment method, characterized in that a pitch corresponding to a cell that continuously takes a value of 1 is used as accompaniment data in the updated history of cell states.
【請求項4】伴奏データを音響信号に変換するシステム
と組み合わせることにより、鍵盤の一つ一つに対応した
音入力毎に更新されるセルの状態の履歴を用いて得られ
る伴奏データを、演奏と同期して出力することを特徴と
する特許請求項1記載の自動伴奏方法。
4. Playing accompaniment data obtained by using a history of cell states updated for each sound input corresponding to each keyboard by combining with a system for converting accompaniment data into an acoustic signal. 2. The automatic accompaniment method according to claim 1, wherein the automatic accompaniment method is performed in synchronization with the output.
【請求項5】鍵盤の一つ一つに対応するセルを設定し、
音入力信号が取り込まれる毎に押鍵された位置データを
用いてセルの状態の遷移規則を決定し、この遷移規則が
前回の音入力の時点で決定された遷移規則と等しいかど
うかを判定し、遷移規則の更新頻度を得、これから旋律
の理解の難易度求めることを特徴とする旋律難易度検出
方法。
5. A cell corresponding to each keyboard is set,
Each time a sound input signal is captured, the key position data is used to determine the transition rule of the cell state, and it is determined whether this transition rule is equal to the transition rule determined at the time of the previous sound input. A method for detecting melody difficulty, which comprises obtaining the update frequency of a transition rule and then determining the difficulty level of understanding the melody.
JP3186105A 1991-07-25 1991-07-25 Automatic accompaniment method Pending JPH0527750A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3186105A JPH0527750A (en) 1991-07-25 1991-07-25 Automatic accompaniment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3186105A JPH0527750A (en) 1991-07-25 1991-07-25 Automatic accompaniment method

Publications (1)

Publication Number Publication Date
JPH0527750A true JPH0527750A (en) 1993-02-05

Family

ID=16182452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3186105A Pending JPH0527750A (en) 1991-07-25 1991-07-25 Automatic accompaniment method

Country Status (1)

Country Link
JP (1) JPH0527750A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171664A (en) * 2004-12-16 2006-06-29 Samsung Electronics Co Ltd Electronic music of portable and communicable device
WO2014003273A1 (en) * 2012-06-28 2014-01-03 현대제철 주식회사 Method for controlling edge masks of cooling device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006171664A (en) * 2004-12-16 2006-06-29 Samsung Electronics Co Ltd Electronic music of portable and communicable device
US7709725B2 (en) 2004-12-16 2010-05-04 Samsung Electronics Co., Ltd. Electronic music on hand portable and communication enabled devices
US8044289B2 (en) 2004-12-16 2011-10-25 Samsung Electronics Co., Ltd Electronic music on hand portable and communication enabled devices
WO2014003273A1 (en) * 2012-06-28 2014-01-03 현대제철 주식회사 Method for controlling edge masks of cooling device

Similar Documents

Publication Publication Date Title
Bresin Articulation rules for automatic music performance
US20220238089A1 (en) Performance analysis method and performance analysis device
JPH0535273A (en) Automatic accompaniment device
JPH0527750A (en) Automatic accompaniment method
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP2605885B2 (en) Tone generator
US20080000345A1 (en) Apparatus and method for interactive
JP2961867B2 (en) Music signal generator
JP2819722B2 (en) Tone generator
JP7184218B1 (en) AUDIO DEVICE AND PARAMETER OUTPUT METHOD OF THE AUDIO DEVICE
Bavister Artificial intelligence and the generation of emotional response to sound and space
JP3933070B2 (en) Arpeggio generator and program
JP4094441B2 (en) Electronic musical instruments
JPH06242781A (en) Electronic musical instrument
Mazurkiewicz Softcomputing Approach to Music Generation Check for updates
JP3567297B2 (en) Sound source assigner device
JP3026699B2 (en) Electronic musical instrument
JP2894204B2 (en) Electronic musical sound control device
JP3561983B2 (en) Electronic musical instrument
JP2671889B2 (en) Electronic musical instrument
JP3231896B2 (en) Electronic musical instrument
JP3231895B2 (en) Electronic musical instrument
CN114141218A (en) Electronic musical instrument and playing method thereof
JP3012135B2 (en) Electronic musical instrument
JPH06250650A (en) Electronic musical instrument