JP2518056B2 - Music data processor - Google Patents

Music data processor

Info

Publication number
JP2518056B2
JP2518056B2 JP1232492A JP23249289A JP2518056B2 JP 2518056 B2 JP2518056 B2 JP 2518056B2 JP 1232492 A JP1232492 A JP 1232492A JP 23249289 A JP23249289 A JP 23249289A JP 2518056 B2 JP2518056 B2 JP 2518056B2
Authority
JP
Japan
Prior art keywords
data
tone data
musical tone
musical
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1232492A
Other languages
Japanese (ja)
Other versions
JPH0394297A (en
Inventor
博文 向野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP1232492A priority Critical patent/JP2518056B2/en
Publication of JPH0394297A publication Critical patent/JPH0394297A/en
Application granted granted Critical
Publication of JP2518056B2 publication Critical patent/JP2518056B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】 (a)産業上の利用分野 この発明は電子楽器の音源装置を動作させる楽音デー
タを処理記憶する、たとえばシーケンサ等の、楽音デー
タ処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (a) Field of Industrial Application The present invention relates to a musical tone data processing device such as a sequencer for processing and storing musical tone data for operating a tone generator of an electronic musical instrument.

(b)従来の技術 電子楽器は、演奏時に操作させる演奏装置と、楽音を
生成する音源装置とを有している。演奏装置は演奏者の
操作(演奏)内容をコード化して楽音データを生成する
機能を有し、音源装置はこの楽音データに基づく楽音を
生成する機能を有している。また、音源装置はコード化
された楽音データに基づいて楽音を生成するものである
ため、演奏装置以外から楽音データを受信した場合でも
同様に楽音を発生することができる。
(B) Conventional Technique An electronic musical instrument has a performance device to be operated at the time of performance and a tone generator device to generate a musical sound. The musical performance device has a function of generating musical tone data by coding the content of the player's operation (performance), and the tone generator device has a function of generating musical tone based on this musical tone data. Further, since the sound source device generates a musical tone based on the coded musical tone data, the musical tone can be similarly generated even when the musical tone data is received from a device other than the playing device.

この特性を利用して電子楽器の自動演奏が実用化され
ている。すなわち、演奏装置に代えて、あらかじめ記憶
している楽音データを順次読み出して音源装置に送信す
る楽音データ処理装置(シーケンサ)を備えれば電子楽
器を自動演奏することができる。
Utilizing this characteristic, automatic performance of electronic musical instruments has been put to practical use. That is, an electronic musical instrument can be automatically played if a musical tone data processing device (sequencer) that sequentially reads musical tone data stored in advance and transmits it to the tone generator device is provided instead of the musical instrument.

シーケンサに楽音データを記録する方式としては、鍵
盤等の演奏装置を実際に演奏し、演奏に伴って生成され
た楽音データを入力・記録してゆくリアルタイム入力方
式と、各楽音の音高,発音レベルおよび発音タイミング
を各々数値キー等から入力・記録してゆくステップ入力
方式とが実用化されている。
As a method of recording musical sound data in a sequencer, a real-time input method in which a musical instrument such as a keyboard is actually played and the musical sound data generated along with the performance is input and recorded, and the pitch and pronunciation of each musical sound are recorded. A step input method has been put into practical use, in which the level and the sounding timing are respectively input and recorded using numerical keys and the like.

(c)発明が解決しようとする課題 自動演奏のためにシーケンサに記録される楽音データ
は、音高,発音レベル,発音タイミング等であるが、リ
アルタイム入力方式では実際の演奏装置の操作(演奏)
によって入力されるため、発音レベルや発音タイミング
に演奏者の意志どおりの微妙なゆらぎをもたせて表現
(設定)させることが容易である反面、ミスタッチ等に
より誤った音高が入力されてしまう欠点があり、また、
楽器を演奏できなければこの入力方式を採用することが
できない欠点があった。一方、ステップ入力方式では各
楽音の音高,発音レベル,発音タイミング等のデータを
それぞれ数値として入力するため誤りは殆どないが、発
音レベルや発音タイミングに微妙なゆらぎをもたせて表
現することが難しいうえ、入力に極めて時間が掛かる欠
点があった。
(C) Problem to be Solved by the Invention Although the musical tone data recorded in the sequencer for automatic performance is pitch, sounding level, sounding timing, etc., in the real-time input method, actual operation of the playing device (playing) is performed.
Since it is input by, it is easy to express (set) with slight fluctuations according to the performer's will in the pronunciation level and timing, but the disadvantage is that incorrect pitches are input due to mistaken touch etc. Yes, again
There was a drawback that this input method could not be adopted unless the instrument could be played. On the other hand, in the step input method, since data such as pitch, pronunciation level, and pronunciation timing of each musical tone are input as numerical values, there are few errors, but it is difficult to express with slight fluctuations in the pronunciation level and timing. Besides, there is a drawback that the input is extremely time-consuming.

この発明はリアルタイム方式で入力された楽音データ
とステップ方式で入力された楽音データとのそれぞれ良
い部分を合成して一つの楽音データを生成することによ
り上記課題を解決した楽音データ処理装置を提供するこ
とを目的とする。
The present invention provides a tone data processing apparatus that solves the above problems by synthesizing good parts of the tone data input by the real-time method and the tone data input by the step method to generate one tone data. The purpose is to

(d)課題を解決するための手段 この発明は、演奏装置の操作による演奏によって入力
された複数の楽音データからなるリアルタイム楽音デー
タ列を記憶するリアルタイム楽音データ記憶手段と、デ
ータ入力器の操作による入力操作によって入力された複
数の楽音データからなるステップ楽音データ列を記憶す
るステップ楽音データ記憶手段と、前記リアルタイム楽
音データ記憶手段に記憶されているリアルタイム楽音デ
ータ列および前記ステップ楽音データ記憶手段に記憶さ
れているステップ楽音データ列の対応する楽音データ同
士を組み合わせ、リアルタイム楽音データ列の楽音デー
タの一部要素とステップ楽音データ列の楽音データの一
部要素を組み合わせることにより新たな楽音データ列を
生成する楽音データ合成手段とを設けたことを特徴とす
る。
(D) Means for Solving the Problem The present invention is based on the operation of a real-time musical tone data storage means for storing a real-time musical tone data string composed of a plurality of musical tone data input by a performance by operating a musical performance device, and a data input device. Step tone data storage means for storing a step tone data sequence consisting of a plurality of tone data input by an input operation, real-time tone data sequence stored in the real-time tone data storage means and the step tone data storage means Generates a new musical tone data string by combining the corresponding musical tone data of the step musical tone data sequence that is already created, and combining some elements of the musical tone data of the real-time musical tone data sequence and some elements of the musical tone data of the step musical tone data sequence. Music data synthesizing means for And are characterized.

また、この発明は、前記楽音データ合成装置を、少な
くとも、リアルタイム楽音データ列の楽音データの実行
タイミングデータ、および、ステップ楽音データ列の楽
音データの音高データを組み合わせることにより新たな
楽音データ列を生成する手段としたことを特徴とする。
Further, the present invention provides a new musical tone data sequence by combining the musical tone data synthesizer with at least the execution timing data of the musical tone data of the real-time musical tone data sequence and the pitch data of the musical tone data of the step musical tone data sequence. It is characterized in that it is a means for generating.

(e)発明の作用 この発明の楽音データ処理装置では、リアルタイム入
力方式で入力された楽音データ(リアルタイム楽音デー
タ列)とステップ入力方式で入力された楽音データ(ス
テップ楽音データ列)とを比較する。この比較におい
て、ステップ方式で入力された楽音データの音高はミス
タッチがないことから常に正しいと考えられる。一方リ
アルタイム方式で入力された楽音データの発音レベルお
よび発音タイミングは実際に演奏されたものであるため
充分なニュアンスを含んでいるものであると考えられ
る。したがって、たとえばステップ方式で入力された楽
音データの音程にリアルタイム方式で入力された発音レ
ベルおよび発音タイミングを合成することによって新た
な楽音データを生成すれば常に正しい音程で表現の豊か
な楽音データを構成することができる。また、新たな楽
音データを生成する方式としては、楽音データの要素
(音高,発音レベル,発音タイミングなど)を、リアル
タイム楽音データ,ステップ楽音データの両方の要素に
基づいて割り出す方式(中間値をとるなど)もある。
(E) Action of the Invention In the musical sound data processing apparatus of the present invention, the musical sound data input by the real-time input method (real-time musical sound data string) is compared with the musical sound data input by the step input method (step musical sound data string). . In this comparison, the pitch of the tone data input by the step method is always considered to be correct because there is no mistouch. On the other hand, the tone generation level and tone generation timing of the musical tone data input by the real-time method are considered to include sufficient nuances because they are actually played. Therefore, for example, if new tone data is generated by synthesizing the tone level and tone timing input in the real-time method with the tone data of the step tone input, it will always be possible to compose rich tone data with a correct tone. can do. As a method for generating new musical tone data, a method for determining elements (tone pitch, pronunciation level, pronunciation timing, etc.) of the musical tone data based on both elements of real-time musical tone data and step musical tone data (intermediate value There is also).

また、鍵盤ではワンキー(1音高)にて音量,発音タ
イミングのみを入力し、ステップ入力では音高のシーケ
ンスのみ入力するようにすれば、1つの指で鍵操作する
だけできわめて複雑て曲の楽音データでも容易に作成す
ることができる。
Also, if only the volume and sounding timing are input with one key (one pitch) on the keyboard and only the pitch sequence is input with step input, the key operation with one finger is extremely complicated. Music data can be easily created.

この比較において、音高の誤りが少ないステップデー
タと、発音レベル,発音タイミングに微妙なゆれがあり
表情が豊かなリアルタイムデータとを合成することによ
り、音高が確実で表情が豊かな楽音データ列(自動演奏
データ)を容易に編集・作成することができる。さら
に、リアルタイム楽音データ列およびステップ楽音デー
タ列をそれぞれリアルタイム楽音データ記憶手段および
ステップ楽音データ記憶手段に記憶したのち合成を行う
ため、一方の楽音データの入力を失敗してもその一方の
みを入力し直して楽音データの合成を行うことができ、
また、楽音データの合成がうまくいかなかった場合には
何度もやり直すことができる。これにより、最適な楽音
データを生成することができる。
In this comparison, by combining step data with few pitch errors and real-time data with rich facial expressions with slight fluctuations in pronunciation level and timing, musical tone data strings with reliable pitches and rich facial expressions (Automatic performance data) can be easily edited and created. Furthermore, since the real-time tone data sequence and the step tone data sequence are respectively stored in the real-time tone data storage means and the step tone data storage means and then synthesized, only one of the tone data can be input even if the input of one tone data fails. You can fix it and synthesize music data,
Also, if the synthesis of the musical sound data is not successful, it can be redone many times. This makes it possible to generate optimum musical sound data.

(f)実施例 第1図はこの発明の実施例である楽音データ処理装置
のブロック図である。この楽音データ処理装置はいわゆ
るシーケンサであり、鍵盤または入力用スイッチから入
力された楽音データを記憶し、さらに、順次読み出して
電子楽器(音源装置)に出力することができる。この装
置はCPU10がその全体の動作を制御する。このCPU10がバ
ス11を介して他の機器と接続されている。バス11にはRO
M12,RAM13,表示器14,テンポクロック15,鍵盤回路16,ス
イッチ群17およびMIDIインターフェイス18が接続されて
いる。ROM12にはこの装置の動作を制御するための制御
プログラム等が記憶されている。RAM13には種々のレジ
スタ群やシーケンスデータを記憶する楽音データテーブ
ルが設定されている。表示器14は入力された楽音データ
等を表示する。テンポクロック15は指定されたテンポで
パルスを発生する回路であり、リアルタイム入力時やデ
ータ読出時のテンポを規定する。鍵盤回路16は5オクタ
ーブ程度の音域を有する鍵盤と各キー毎のオンオフ検出
回路,発音レベル検出回路とを有し、演奏者がオンした
音高,発音レベルを検出する。また、鍵盤に代えて管楽
器または弦楽器型の演奏装置を設けてもよく、また、マ
イクとピーク検出回路とを組み合わせて演奏者のハミン
グからから発音タイミング,音量等を抽出するものを設
けてもよい。スイッチ群17はステップ入力用の設定スイ
ッチおよび読込モード,読出モード等のモード設定スイ
ッチを有している。MIDIインターフェイス18は音源装置
に接続されており、楽音データテーブルから読み出され
た楽音データを出力する。
(F) Embodiment FIG. 1 is a block diagram of a musical sound data processing apparatus which is an embodiment of the present invention. This tone data processing device is a so-called sequencer, which can store tone data input from a keyboard or an input switch, and further sequentially read and output the tone data to an electronic musical instrument (sound source device). In this device, the CPU 10 controls the entire operation. This CPU 10 is connected to other devices via a bus 11. RO on bus 11
M12, RAM13, indicator 14, tempo clock 15, keyboard circuit 16, switch group 17 and MIDI interface 18 are connected. The ROM 12 stores a control program and the like for controlling the operation of this device. A tone data table for storing various register groups and sequence data is set in the RAM 13. The display 14 displays the inputted musical sound data and the like. The tempo clock 15 is a circuit that generates a pulse at a specified tempo, and defines the tempo at the time of real-time input or data read. The keyboard circuit 16 has a keyboard having a tone range of about 5 octaves, an on / off detection circuit for each key, and a sounding level detecting circuit, and detects the pitch and sounding level at which the performer has turned on. Further, a wind instrument or string instrument type performance device may be provided in place of the keyboard, and a combination of a microphone and a peak detection circuit may be provided to extract sounding timing, volume, etc. from the humming of the performer. . The switch group 17 has a step input setting switch and mode setting switches such as a read mode and a read mode. The MIDI interface 18 is connected to the tone generator and outputs the musical tone data read from the musical tone data table.

第2図は前記RAMに設定される楽音データテーブルを
示す図である。同図(A)は通常の楽音データテーブル
(リアルタイムデータテーブル,ステップデータテーブ
ル)を示している。このテーブルには先に読み出される
(発音される)楽音から順に音高,音量および発音タイ
ミングが記憶される。リアルタイム入力のときは鍵盤の
演奏内容をテンポクロック15のテンポに基づいて順次記
憶してゆき、ステップ入力のときは、スイッチ群17等か
ら入力されるデータを各々の記憶エリアに記憶してゆ
く。
FIG. 2 is a diagram showing a tone data table set in the RAM. FIG. 1A shows a normal tone data table (real time data table, step data table). In this table, the pitch, the volume, and the sounding timing are stored in order from the musical sound that is read (pronounced) first. In the case of real-time input, the performance content of the keyboard is sequentially stored based on the tempo of the tempo clock 15, and in the case of step input, the data input from the switch group 17 etc. is stored in each storage area.

同図(B)は比較テーブルを示している。この比較テ
ーブルは、同じ曲について記憶された2個の入力方式の
異なる楽音データ列を比較合成して、新たな1個の楽音
データ列を生成するとき用いられるテーブルである。こ
のため、同図(A)に示した楽音データテーブルが二つ
並列に設けられており、別々に記憶された楽音データテ
ーブルを比較して対応するものを並べて記憶できるよう
になっている。
FIG. 6B shows a comparison table. This comparison table is a table used when two musical tone data strings of different input methods stored for the same song are compared and synthesized to generate a new musical tone data string. For this reason, two tone data tables shown in FIG. 7A are provided in parallel, and the tone data tables stored separately can be compared and the corresponding ones can be stored side by side.

第3図のフローチャートおよび第4図の比較テーブル
の内容を示す図を参照してこの楽音データ処理装置の動
作を説明する。第3図のフローチャートは装置の比較モ
ード時の動作である。まず、リアルタイムデータとステ
ップデータとを比較し、対応するものを並べて同じ欄に
記憶する(n1)。この量データの比較,対応づけは、よ
く知られているUNIXのDiffプログラムのように両データ
列の最大マッチングを発見し対応させるものであればよ
い。比較テーブルのこのような状態を第4図(A),
(B)に示す。このように音高が同一で発音タイミング
のずれが数ms以内のものは対応するとして並べて記憶す
る。また、この実施例では発音タイミングが近くても発
音される音高が異なっているものは対応がつかなかった
ものとして別々に記憶する。この比較テーブルの内容は
表示器14に表示され(n2)、スクロールすることにより
全データを見ることができる。また、表示内容を見なが
らデータの修正・合成等のエデットを可能することも可
能である(n3)。
The operation of the tone data processing apparatus will be described with reference to the flow chart of FIG. 3 and the content of the comparison table of FIG. The flowchart of FIG. 3 shows the operation of the device in the comparison mode. First, the real-time data and the step data are compared, and the corresponding ones are arranged and stored in the same column (n1). The comparison and correspondence of the quantity data may be performed by finding and matching the maximum matching of both data strings like the well-known UNIX Diff program. Such a state of the comparison table is shown in FIG.
It shows in (B). In this way, if the pitches are the same and the sound generation timing deviation is within a few ms, they are stored side by side as corresponding. Further, in this embodiment, if the pitches to be sounded are different even if the sounding timings are close, they are separately stored as uncorresponding ones. The contents of this comparison table are displayed on the display 14 (n2), and all data can be viewed by scrolling. It is also possible to edit data such as correction and composition while looking at the displayed contents (n3).

ここで、第4図(A)〜(E)、第5図(A)〜
(C)によりエディットの方式を説明する。この図では
リアルタイムデータを参照してステップデータをエディ
ットし、新たな楽音データ列を生成している。ここでは
ステップデータは音高指定に間違いがなく発音タイミン
グも極めて正確であるとして、エディットの基礎とした
例を示す。
Here, FIGS. 4 (A) to (E) and FIG. 5 (A) to
The editing method will be described with reference to (C). In this figure, the step data is edited with reference to the real-time data to generate a new musical tone data sequence. Here, assuming that the step data is correct in the pitch designation and the sound generation timing is extremely accurate, an example based on the edit will be shown.

まず同図(C)のように発音レベルをエディットす
る。ステップ方式入力では第4図(B)に示すように発
音レベルが全て60にセットされている。これは、ステッ
プ入力方式で音量の情報をつけることが困難だからであ
る。一方、第4図(A)に示すリアルタイム入力方式で
は実際に鍵盤を演奏した結果の発音レベルが設定されて
おり、この音量レベルの変化によって自然な表情がつけ
られる。まず、第4図(C)ではこの発音レベルデータ
をステップデータテーブルにそのままコピーして発音レ
ベルデータとして用いる。なお対応がつかなかったデー
タに関してはその直前のデータと直後のデータとの中間
値をとって補間している。また音量データの変更の方式
はリアルタイム方式による楽音データをそのままコピー
する方式以外に、リアルタイムデータとステップデータ
との平均値を新たなデータとする方式や、リアルタイム
データを2倍したものとステップデータとを加算して3
で割って求める方式等を用いることも可能である。
First, the sound level is edited as shown in FIG. In the step type input, the tone generation levels are all set to 60 as shown in FIG. 4 (B). This is because it is difficult to add volume information by the step input method. On the other hand, in the real-time input method shown in FIG. 4 (A), the sounding level as a result of actually playing the keyboard is set, and a natural expression is given by the change in the volume level. First, in FIG. 4 (C), this tone generation level data is directly copied to the step data table and used as tone generation level data. For data that cannot be matched, the intermediate value between the data immediately before and the data immediately after is taken and interpolated. In addition to the method of changing the tone data by the real-time method as it is, the method of changing the volume data is a method of using the average value of the real-time data and the step data as new data, or a method of doubling the real-time data and the step data. And add 3
It is also possible to use a method such as dividing by.

また発音タイミングのエディットも同図(D)に示す
ように発音レベルと同様に対応する同士でデータを比較
して行われる。ここで、リアルタイムデータの発音タイ
ミングとステップデータの発音タイミングとの平均をと
って新たな発音タイミングとしている。また対応がとれ
なかったデータに関しては直前のデータと直後のデータ
との中間値をとって発音タイミングとしている。
Further, the editing of the tone generation timing is also performed by comparing the data corresponding to each other as in the tone generation level as shown in FIG. Here, a new sounding timing is obtained by averaging the sounding timing of the real-time data and the sounding timing of the step data. In addition, regarding the data that cannot be dealt with, the intermediate value between the immediately preceding data and the immediately following data is taken as the sound generation timing.

第4図(E)および第5図は、リアルタイムデータ本
来のニュアンスのある音量,発音タイミングを採用して
ミックスダウンデータを作成した例である。第5図
(A)において、リアルタイムデータの入力者(演奏
者)は曲の旋律(音高の変化)を無視し、鍵盤のC3の音
高の鍵のみを操作して発音タイミングと音量のみを入力
している。この場合、音高にあわせた指の移動が不要で
あるため発音タイミングと音量のみに注意すればよく、
入力は容易である。
FIGS. 4 (E) and 5 are examples in which mixdown data is created by adopting the volume and tone generation timing with the original nuances of the real-time data. In FIG. 5 (A), the real-time data inputter (performer) ignores the melody (pitch change) of the song and operates only the C3 pitch key on the keyboard to control only the sounding timing and volume. You are typing. In this case, it is not necessary to move your finger according to the pitch, so you only have to pay attention to the pronunciation timing and volume.
Input is easy.

また、第5図(B)ではステップ入力方式によって旋
律(音高)のみが入力されている。ただし、機械的に音
量=60が入力されている。これはもちろんミックスダウ
ンデータに採用されないためどんな値を入力しておいて
もよいし、また、ブランクデータであってもよい。発音
タイミングに関しても全く同様である。
Further, in FIG. 5B, only the melody (pitch) is input by the step input method. However, the volume = 60 is mechanically input. You may be allowed to enter any value because of course not employed in the mixdown data, or may be a blank data. The same applies to the timing of pronunciation.

上述したリアルタイムデータから音量,発音タイミン
グを、ステップ入力データから音高を採用して演奏デー
タとしたのが第5図(C)のミックスダウンダータ4で
ある。
The mixdown data 4 in FIG. 5C is the performance data obtained by adopting the volume and tone generation timing from the above real-time data and the pitch from the step input data.

第5図の場合は、リアルタイムデータのどのデータ
が、ステップ入力データのどのデータに対応しているか
判断する材料がデータの並び順しかないため、データ入
力には注意が必要であるが、それぞれの入力操作は従来
のものでは考えられないほど簡単で、しかも、出来上が
ったデータは第5図(C)に示されるように、従来、余
程手間をかけるか、または余程演奏が上手な人でなけれ
ば得られなかったものが得られるといった利点がある。
In the case of FIG. 5, it is necessary to pay attention to the data input because the only material for determining which data of the real-time data corresponds to which data of the step input data is the data arrangement order. The input operation is as easy as the conventional one can't think of, and, as shown in Fig. 5 (C), the completed data is conventionally taken by a person who takes a lot of time, or who is very good at playing. There is an advantage that you can get what you could not get.

また、第5図(A)のリアルタイムデータは音高を入
力する必要がないため、演奏者がドラムパッドを曲のメ
ロディに合わせて叩くことからも作成できるし、ハミン
グまたは歌唱で曲の流れを口ずさみ、それをマイク等で
音量のピーク出現タイミング,振幅を測ることによって
も容易に作成できる。
In addition, since the real-time data of FIG. 5 (A) does not need to input the pitch, it can be created by the player hitting the drum pad according to the melody of the song, and the flow of the song can be hummed or sung. It can be easily created by humming and measuring the peak appearance timing and amplitude of the volume with a microphone.

このようにしてエデットされた新たな楽音データを新
データとして別の新たな楽音データテーブルにセーブし
て(n4)動作を終える。この楽音データは演奏モード時
に読み出され音源装置において楽音として発音される。
The new musical tone data thus edited is saved as new data in another new musical tone data table (n4), and the operation is completed. This tone data is read in the performance mode and is sounded as a tone in the tone generator.

(g)発明の効果 以上のようにこの発明の楽音データ処理装置によれ
ば、リアルタイム方式で入力された楽音データの長所で
ある微妙なニュアンスが表現されている音量および発音
タイミングとステップ入力による楽音データの長所であ
る正確な音程とを組み合わせて新たな楽音データを作成
することができるため、正確で且つ表情が豊かな自動演
奏用楽音データを生成することができ、シーケンサの機
能向上に起用することができる。更に、面倒やステップ
入力では音程のみを入力しておき、リアルタイム入力に
よって他のデータを入力するようにすれば最低限の手間
で表情豊かな楽音データを正確に入力することができ
る。また、リアルタイム入力の楽音データもステップ入
力の楽音データもそれぞれ記憶手段に記憶されるため、
楽音データの入力や楽音データの合成を所望の楽音デー
タが得られるまで何度もやり直すことができる。
(G) Effects of the Invention As described above, according to the musical sound data processing apparatus of the present invention, the musical tone data by the step input and the volume and sounding timing in which the delicate nuance which is an advantage of the musical sound data inputted in the real time system is expressed. Since it is possible to create new musical tone data by combining it with accurate pitch, which is an advantage of data, it is possible to generate accurate and expressive musical tone data for automatic performance, which is used to improve the function of the sequencer. be able to. Further, by inputting only the pitch in the troublesome or step input and inputting other data by the real-time input, it is possible to accurately input the expressive musical tone data with minimum effort. Further, since the real-time input musical tone data and the step input musical tone data are respectively stored in the storage means,
It is possible to repeat the input of musical tone data and the synthesis of musical tone data many times until the desired musical tone data is obtained.

さらに、リアルタイム楽音データの実行タイミングデ
ータとステップ楽音データの音高データを組み合わせて
新たな楽音データ列を生成するようにしたことにより、
リアルタイム入力によるゆらぎを含み、ステップ入力に
よる正確な音高の楽音データ列を生成することができ
る。
Furthermore, by combining the execution timing data of the real-time tone data and the pitch data of the step tone data to generate a new tone data string,
It is possible to generate a musical tone data string of accurate pitch by step input including fluctuations by real-time input.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の実施例であるシーケンサの制御部の
ブロック図、第2図(A),(B)は同制御部のRAMに
設定される楽音データテーブルを示す図、第3図は同制
御部の動作を示すフローチャート、第4図,第5図は前
記楽音テーブルの記憶内容および楽音データのエディッ
ト手順を示す図である。 13−RAM、16−鍵盤回路、17−スイッチ群。
FIG. 1 is a block diagram of a control unit of a sequencer which is an embodiment of the present invention, FIGS. 2 (A) and 2 (B) are diagrams showing a tone data table set in the RAM of the control unit, and FIG. 4 and 5 are flowcharts showing the operation of the control section, showing the stored contents of the musical tone table and the procedure for editing musical tone data. 13-RAM, 16-keyboard circuit, 17-switch group.

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】演奏装置の操作による演奏によって入力さ
れた複数の楽音データからなるリアルタイム楽音データ
列を記憶するリアルタイム楽音データ記憶手段と、 データ入力器の操作による入力操作によって入力された
複数の楽音データからなるステップ楽音データ列を記憶
するステップ楽音データ記憶手段と、 前記リアルタイム楽音データ記憶手段に記憶されている
リアルタイム楽音データ列および前記ステップ楽音デー
タ記憶手段に記憶されているステップ楽音データ列の対
応する楽音データ同士を組み合わせ、リアルタイム楽音
データ列の楽音データの一部要素とステップ楽音データ
列の楽音データの一部要素を組み合わせることにより新
たな楽音データ列を生成する楽音データ合成手段と、 を設けたことを特徴とする楽音データ処理装置。
1. Real-time musical tone data storage means for storing a real-time musical tone data string consisting of a plurality of musical tone data input by a performance of a performance device, and a plurality of musical tones input by an input operation of a data input device. Correspondence between step tone data storage means for storing a step tone data sequence consisting of data, real time tone data sequence stored in the real time tone data storage means and step tone data sequence stored in the step tone data storage means Musical tone data synthesizing means for generating a new musical tone data sequence by combining musical tone data to be combined with each other and combining some of the musical tone data of the real-time musical tone data sequence and some of the musical tone data of the step musical tone data sequence. Music data processing characterized by Apparatus.
【請求項2】前記楽音データ合成装置は、少なくとも、
リアルタイム楽音データ列の楽音データの実行タイミン
グデータ、および、ステップ楽音データ列の楽音データ
の音高データを組み合わせることにより新たな楽音デー
タ列を生成する手段である請求項1に記載の楽音データ
処理装置。
2. The musical sound data synthesizer at least,
The musical tone data processing apparatus according to claim 1, which is means for generating a new musical tone data sequence by combining execution timing data of the musical tone data of the real-time musical tone data sequence and pitch data of the musical tone data of the step musical tone data sequence. .
JP1232492A 1989-09-06 1989-09-06 Music data processor Expired - Fee Related JP2518056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1232492A JP2518056B2 (en) 1989-09-06 1989-09-06 Music data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1232492A JP2518056B2 (en) 1989-09-06 1989-09-06 Music data processor

Publications (2)

Publication Number Publication Date
JPH0394297A JPH0394297A (en) 1991-04-19
JP2518056B2 true JP2518056B2 (en) 1996-07-24

Family

ID=16940168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1232492A Expired - Fee Related JP2518056B2 (en) 1989-09-06 1989-09-06 Music data processor

Country Status (1)

Country Link
JP (1) JP2518056B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2630166B2 (en) * 1992-05-18 1997-07-16 ヤマハ株式会社 Automatic performance device
KR100322558B1 (en) * 1998-03-06 2002-06-26 윤종용 Norpar filtering apparatus for wet type electrophotographic printer
JP2012215620A (en) * 2011-03-31 2012-11-08 Masakata Eckhert Kaneko Performance system and computer program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59125786A (en) * 1982-12-24 1984-07-20 カシオ計算機株式会社 Automatic performer
JP2715412B2 (en) * 1987-06-15 1998-02-18 カシオ計算機株式会社 Music device with melody analysis function and automatic composer

Also Published As

Publication number Publication date
JPH0394297A (en) 1991-04-19

Similar Documents

Publication Publication Date Title
JP3718919B2 (en) Karaoke equipment
US6294720B1 (en) Apparatus and method for creating melody and rhythm by extracting characteristic features from given motif
JP3915807B2 (en) Automatic performance determination device and program
JP3489503B2 (en) Sound signal analyzer, sound signal analysis method, and storage medium
JP2518056B2 (en) Music data processor
JP3430814B2 (en) Karaoke equipment
JP2006126710A (en) Playing style determining device and program
JPH1039863A (en) Automatic accompaniment device
JP3724347B2 (en) Automatic composition apparatus and method, and storage medium
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP2660462B2 (en) Automatic performance device
JP3654227B2 (en) Music data editing apparatus and program
JP3296182B2 (en) Automatic accompaniment device
JP2000181471A (en) Karaoke sing-along grading apparatus
JP3661963B2 (en) Electronic musical instruments
JP4186802B2 (en) Automatic accompaniment generator and program
JPH04274297A (en) Automatic musical performance device
JP2623175B2 (en) Automatic performance device
JPH10254448A (en) Automatic accompaniment device and medium recorded with automatic accompaniment control program
JP3279170B2 (en) Automatic accompaniment device
JPH1078779A (en) Automatic playing device, automatic playing method and recording medium
JP3800947B2 (en) Performance data processing apparatus and method, and storage medium
JP3632551B2 (en) Performance data creation device and performance data creation method
JP2000029466A (en) Electronic keyboard instrument
JP2572317B2 (en) Automatic performance device

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090517

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees