JP3412769B2 - Performance data processing method for electronic musical instruments - Google Patents

Performance data processing method for electronic musical instruments

Info

Publication number
JP3412769B2
JP3412769B2 JP06206294A JP6206294A JP3412769B2 JP 3412769 B2 JP3412769 B2 JP 3412769B2 JP 06206294 A JP06206294 A JP 06206294A JP 6206294 A JP6206294 A JP 6206294A JP 3412769 B2 JP3412769 B2 JP 3412769B2
Authority
JP
Japan
Prior art keywords
data
sound
performance data
key
predetermined number
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06206294A
Other languages
Japanese (ja)
Other versions
JPH07244480A (en
Inventor
茂弘 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawai Musical Instrument Manufacturing Co Ltd
Original Assignee
Kawai Musical Instrument Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawai Musical Instrument Manufacturing Co Ltd filed Critical Kawai Musical Instrument Manufacturing Co Ltd
Priority to JP06206294A priority Critical patent/JP3412769B2/en
Publication of JPH07244480A publication Critical patent/JPH07244480A/en
Application granted granted Critical
Publication of JP3412769B2 publication Critical patent/JP3412769B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、既に録音してある演奏
データに同期させて他の演奏データを多重録音するため
に用いて好適な電子楽器の演奏データ処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a performance data processing method for an electronic musical instrument which is suitable for use in multiple recording of other performance data in synchronization with performance data that has already been recorded.

【0002】[0002]

【従来の技術】近年、生演奏された楽器音や人の歌声等
に伴奏を付加したり、あるいは、例えば街角で録音して
きた環境音等を所定のリズムで演奏される曲に取り入れ
て、曲を作ったり演奏するということが行われている。
かかる曲作りや演奏のために、同期多重録音という手法
が用いられている。
2. Description of the Related Art In recent years, accompaniment has been added to lively played musical instrument sounds or human voices, or environmental sounds recorded at street corners, for example, have been incorporated into a song played at a predetermined rhythm. Making and playing are performed.
A method called synchronous multi-recording is used for such music composition and performance.

【0003】例えば、上述したような楽器音、歌声、環
境音等といったアナログ音を電気信号に変換して得られ
るアナログ信号を、例えばサンプラーでサンプリングし
てPCM(パルスコードモジュレーション)データとし
てメモリに記憶せしめておき、例えばMIDIフォーマ
ットで作成してMTR(マルチトラックレコーダ)等に
録音されている伴奏音に同期させて、上記メモリの内容
をMTRに多重に録音することにより作曲を行い、又は
多重録音された楽器音等と伴奏音とを同時に再生するこ
とにより演奏を行わせるということが行われている。
For example, an analog signal obtained by converting an analog sound such as the above-described musical instrument sound, singing voice, or environmental sound into an electric signal is sampled by, for example, a sampler and stored in a memory as PCM (pulse code modulation) data. At the very least, it is possible to compose or multiplex-record by recording the contents of the above-mentioned memory in multiplex in MTR in synchronization with the accompaniment sound recorded in, for example, MIDI format and recorded in MTR (multitrack recorder). A performance is performed by simultaneously reproducing the played musical instrument sound and the accompaniment sound.

【0004】しかしながら、アナログ信号をサンプラー
でサンプリングして得られたPCMデータと、これとは
別途作成された伴奏音用のMIDIデータとはテンポが
一致していないのが普通である。従って、かかる複数の
データの同期をとって多重録音するために、従来、次の
ような手法が用いられている。
However, it is usual that the PCM data obtained by sampling an analog signal with a sampler and the MIDI data for accompaniment tones that are separately prepared do not match in tempo. Therefore, in order to synchronize and record such a plurality of pieces of data, the following method has been conventionally used.

【0005】第1の手法は、アナログ信号をサンプラー
等でサンプリングして得られたPCMデータに所定の処
理を施してMIDIデータに変換し、この変換されたM
IDIデータと予め作成されている伴奏音等のMIDI
データとが同期するようにMIDIデータの編集を行っ
て同期多重録音を行う方法である。
In the first method, PCM data obtained by sampling an analog signal with a sampler or the like is subjected to a predetermined process to be converted into MIDI data, and this converted M
MIDI of IDI data and accompaniment sounds created in advance
In this method, MIDI data is edited so as to be synchronized with the data, and synchronous multiple recording is performed.

【0006】第2の手法は、タップ・テンポを用いて同
期多重録音を行う方法である。これは、例えばアナログ
信号をサンプラーでサンプリングして得られたPCMデ
ータ等をメモリに取り込み、伴奏音として予め用意され
たMIDIデータのテンポを、タップ・テンポ等を用い
て調整することにより、上記メモリ内のPCMデータと
同期するようにMIDIデータのテンポを変更しながら
録音していく方法である。この場合、録音された楽器音
等に伴奏音としてのMIDIデータのテンポを合わせな
がら同期多重録音を行うことになる。
The second method is a method of performing synchronous multiple recording using tap tempo. For example, the PCM data obtained by sampling an analog signal with a sampler is loaded into a memory, and the tempo of MIDI data prepared in advance as an accompaniment sound is adjusted by using tap tempo or the like. This is a method of recording while changing the tempo of MIDI data so as to be synchronized with the PCM data in. In this case, synchronous multiplex recording is performed while matching the tempo of MIDI data as an accompaniment sound with the recorded musical instrument sound or the like.

【0007】第3の手法は、所謂ハードディスクレコー
ディング手法を用いるものである。即ち、例えばコンピ
ュータのハードディスクを利用し、例えばアナログ信号
をサンプラー等でサンプリングして得られたPCMデー
タ等を直接ハードディスクに書き込んでおく。そして、
予め作成してMTR等に記録されている伴奏音等のMI
DIデータのテンポに同期してハードディスクからPC
Mデータを読み出し、これを時間軸上で移動、カットア
ンドペースト等の編集を行って順次録音することにより
同期多重録音を行うものである。より具体的には、ハー
ドディスクから読み出したPCMデータ(波形データ)
にパッチを割り当てる。そして、各パッチの波形読出開
始アドレス及び読出終了アドレスを設定することにより
所望の波形データを特定し、更に各パッチのキーゾーン
を設定するという各ステップを踏んで演奏データを作成
し、これを同期多重録音のデータとして使用する。
The third method uses a so-called hard disk recording method. That is, for example, using a hard disk of a computer, PCM data obtained by sampling an analog signal with a sampler or the like is directly written in the hard disk. And
MIs such as accompaniment sounds that are created in advance and recorded in the MTR, etc.
PC from hard disk in sync with tempo of DI data
Synchronous multi-recording is performed by reading M data, moving it on the time axis, editing by cutting and pasting, and sequentially recording. More specifically, PCM data (waveform data) read from the hard disk
Assign a patch to. Then, the desired waveform data is specified by setting the waveform read start address and the read end address of each patch, and the performance data is created by following the steps of setting the key zone of each patch and synchronizing it. Used as overdubbing data.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上記第
1の方法では、アナログ信号をMIDIデータに変換す
る際に音質劣化や変換誤差等が発生して信頼性に劣ると
いう問題があった。また、上記複数のMIDIデータを
同期させるための編集作業が困難を極めるという問題が
あった。更には、アナログ信号をMIDIデータに変換
する処理及び編集処理を行うために複数の機器を必要と
し、機器の準備や接続に多大の労力を必要とするので手
軽に同期多重録音を行うことができないという問題もあ
った。
However, the above-mentioned first method has a problem that when converting an analog signal into MIDI data, sound quality deterioration or conversion error occurs and the reliability is poor. Further, there is a problem that editing work for synchronizing the plurality of MIDI data is extremely difficult. Furthermore, a plurality of devices are required to perform the process of converting an analog signal into MIDI data and the editing process, and a great deal of labor is required to prepare and connect the devices, so that synchronous multiplex recording cannot be easily performed. There was also a problem.

【0009】また、上記第2の手法では、特にリズム楽
器の種類が多い曲を録音する場合では、アナログ信号に
応じたPCMデータと、伴奏音として予め用意されたM
IDIデータとを同期させることが非常に困難であると
いう問題があった。また、テンポを規定するMIDIデ
ータを変更して同期をとるので、録音された曲のテンポ
が元の楽器音等のテンポに支配され、作曲者の意図とは
異なる場合が発生するという問題があった。
Further, in the second method, particularly when recording a song having many types of rhythm instruments, PCM data corresponding to an analog signal and M prepared in advance as an accompaniment sound are used.
There is a problem that it is very difficult to synchronize with the IDI data. Moreover, since MIDI data that defines the tempo is changed and synchronized, there is a problem that the tempo of the recorded song is dominated by the tempo of the original musical instrument sound, which may be different from the intention of the composer. It was

【0010】また、上記第3の方法では、アナログ信号
をサンプラー等でサンプリングして得られたPCMデー
タ等を直接ハードディスクに書き込むので、膨大な量の
PCMデータを記憶する大容量のハードディスクが必要
であり、同期多重録音のためのシステムが高価になると
いう問題があった。また、PCMデータを時間軸上で移
動したり、カットアンドペースト等の緻密な編集を行う
ために時間と労力を有するという問題もあった。
In the third method, the PCM data obtained by sampling the analog signal with a sampler or the like is directly written to the hard disk, so that a large capacity hard disk for storing a huge amount of PCM data is required. However, there is a problem that the system for synchronous multi-recording becomes expensive. Further, there is a problem that it takes time and labor to move the PCM data on the time axis and to perform precise editing such as cut and paste.

【0011】本発明は、上記諸問題点を解決し、同期多
重録音に使用する演奏データの作成のプロセスを簡素化
することのできる電子楽器の演奏データ処理方法を提供
することを目的とする。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a performance data processing method for an electronic musical instrument which can solve the above problems and simplify the process of creating performance data used for synchronous multi-recording.

【0012】[0012]

【課題を解決するための手段】上記の目的を達成するた
めに、請求項1に記載の本発明の電子楽器の演奏データ
処理方法は、キーナンバを発生するキーナンバ発生手段
と、演奏データを記憶するための記憶手段とを有する電
子楽器において、所定時間内に発生された音の演奏デー
タを順次前記記憶手段に記憶し、この記憶手段に記憶さ
れた演奏データを時間軸上で所定数に分割してブロック
化し、このブロック化された演奏データを前記キーナン
バ発生手段で発生される各キーナンバに割り当てること
を特徴とする。
In order to achieve the above object, a method of processing performance data of an electronic musical instrument according to a first aspect of the present invention stores key number generation means for generating a key number and performance data. In the electronic musical instrument having a storage means for storing the performance data of sounds generated within a predetermined time, the performance data is sequentially stored in the storage means, and the performance data stored in the storage means is divided into a predetermined number on the time axis. It is characterized in that it is divided into blocks, and the blocked performance data is assigned to each key number generated by the key number generating means.

【0013】また、同様の目的で、請求項2に記載の本
発明の電子楽器の演奏データ処理方法は、キーナンバを
発生するキーナンバ発生手段と、演奏データを記憶する
ための記憶手段とを有する電子楽器において、所定時間
内に発生された音の演奏データを順次前記記憶手段に記
憶し、この記憶手段に記憶された演奏データを時間軸上
で所定の数に分割してブロック化し、このブロック化さ
れた演奏データを前記キーナンバ発生手段で発生される
各キーナンバに割り当て、前記キーナンバ発生手段でキ
ーナンバが発生された場合に、該キーナンバに対応する
ブロックの演奏データに基づき発音することを特徴とす
る。
For the same purpose, an electronic musical instrument performance data processing method according to a second aspect of the present invention is an electronic device having a key number generating means for generating a key number and a storage means for storing performance data. In a musical instrument, performance data of sounds generated within a predetermined time is sequentially stored in the storage means, and the performance data stored in the storage means is divided into a predetermined number on the time axis to be divided into blocks, which are then divided into blocks. The generated performance data is assigned to each key number generated by the key number generating means, and when a key number is generated by the key number generating means, a sound is generated based on the performance data of the block corresponding to the key number.

【0014】また、同様の目的で、請求項3に記載の本
発明の電子楽器の演奏データ処理方法は、キーナンバを
発生するキーナンバ発生手段と、演奏データを記憶する
ための記憶手段とを有する電子楽器において、所定時間
内に発生された音の演奏データを順次前記記憶手段に記
憶し、この記憶手段に記憶された演奏データを時間軸上
で所定の数に分割してブロック化し、このブロック化さ
れた演奏データを前記キーナンバ発生手段で発生される
各キーナンバに割り当て、前記キーナンバ発生手段でキ
ーナンバが発生された場合に、該キーナンバに対応する
ブロックの演奏データを同期多重録音すべき同期演奏デ
ータとして出力することを特徴とする。
For the same purpose, an electronic musical instrument performance data processing method according to a third aspect of the present invention is an electronic device having a key number generating means for generating a key number and a storage means for storing performance data. In a musical instrument, performance data of sounds generated within a predetermined time is sequentially stored in the storage means, and the performance data stored in the storage means is divided into a predetermined number on the time axis to be divided into blocks, which are then divided into blocks. The generated performance data is assigned to each key number generated by the key number generating means, and when the key number is generated by the key number generating means, the performance data of the block corresponding to the key number is used as the synchronous performance data to be synchronously over-recorded. It is characterized by outputting.

【0015】[0015]

【作用】請求項1に記載されている本発明の電子楽器の
演奏データ処理方法は、先ず、例えば楽器音、歌声、環
境音等といった音を、例えばサンプラー等でサンプリン
グして得られるPCMデータ(波形データ)を所定時間
分だけ演奏データとして記憶手段に記憶する。次いで、
この記憶手段に記憶された演奏データを、時間軸上で所
定数に分割してブロック化する。即ち、上記記憶手段に
記憶された所定時間分の演奏データは時間経過に応じて
記憶されているので、これを例えばそれぞれが等容量に
なるように分割してブロック化する。次いで、ブロック
化された各演奏データをキーナンバ発生手段、例えば鍵
盤で発生されるキーナンバ又はMIDIデータのノート
オン又はノートオフメッセージに含まれるキーナンバ等
に割り当てるようにしている。
According to the method of processing performance data of an electronic musical instrument of the present invention as set forth in claim 1, first, PCM data (for example, sampled sound such as musical instrument sound, singing voice, or environmental sound) is sampled. Waveform data) is stored in the storage means as performance data for a predetermined time. Then
The performance data stored in this storage means is divided into blocks on the time axis into a predetermined number. That is, since the performance data for the predetermined time stored in the storage means is stored according to the passage of time, it is divided into blocks, for example, so that each has the same capacity. Next, each of the blocked performance data is assigned to a key number generating means, for example, a key number generated on a keyboard or a key number included in a note-on or note-off message of MIDI data.

【0016】かかる構成により、例えば鍵盤が押鍵され
た場合に、その鍵に対応するキーナンバに割り当てられ
たブロックの演奏データが指定される。従って、押鍵の
順番を適宜選択することにより種々の演奏データの指定
を行うことができる。例えば、分割された各ブロックを
指定する順番が記憶手段に記憶された順番となるように
押鍵すれば、元の楽器音、歌声、環境音等の演奏データ
を再生できる。また、所定のブロックを繰り返し指定す
るように押鍵すれば、元の楽器音、歌声、環境音等の演
奏データとは違う演奏データを再生することができる。
かかる動作は、MIDIデータのノートオンメッセージ
のキーナンバを適宜選択する場合も同様である。この構
成は、後述するように、同期多重録音に用いて好適であ
る。
With this configuration, when a keyboard is pressed, for example, the performance data of the block assigned to the key number corresponding to the key is designated. Therefore, various performance data can be designated by appropriately selecting the key pressing order. For example, if the keys are pressed so that the order of designating each divided block is the order stored in the storage means, the performance data such as the original instrument sound, singing voice, and environmental sound can be reproduced. Also, by pressing a key to repeatedly designate a predetermined block, it is possible to reproduce performance data different from the performance data such as the original musical instrument sound, singing voice, and environmental sound.
This operation is the same when the key number of the note-on message of MIDI data is appropriately selected. This configuration is suitable for use in synchronous multiple recording, as will be described later.

【0017】また、請求項2に記載されている本発明の
電子楽器の演奏データ処理方法は、上記請求項1に記載
の発明の構成に加え、キーナンバ発生手段でキーナンバ
が発生された場合に、このキーナンバに対応するブロッ
クの演奏データに基づき発音するようにしている。
According to the method of processing performance data of an electronic musical instrument of the present invention as defined in claim 2, in addition to the configuration of the invention as defined in claim 1, when a key number is generated by the key number generating means, The sound is generated based on the performance data of the block corresponding to this key number.

【0018】かかる構成により、例えば鍵盤が押鍵され
た場合に、その鍵に対応するキーナンバに割り当てられ
たブロックの演奏データに基づく発音がなされる。即
ち、例えばサンプラーでサンプリングされた楽器音、歌
声、環境音等が部分的に(1ブロック分だけ)発音され
ることになる。従って、押鍵の順番を適宜選択すること
により種々の発音を行わせることができる。例えば、分
割された各ブロックを指定する順番が記憶手段に記憶さ
れた順番となるように押鍵すれば、元の楽器音、歌声、
環境音等を発音することができる。また、所定のブロッ
クを繰り返し指定するように押鍵すれば、元の楽器音、
歌声、環境音等の一部を繰り返し発音することができ
る。かかる動作は、MIDIデータのノートオンメッセ
ージにより所定のキーナンバを順次与える場合も同様で
ある。
With this configuration, when a keyboard is pressed, for example, sound is produced based on the performance data of the block assigned to the key number corresponding to the key. That is, for example, instrument sounds, singing voices, environmental sounds, etc. sampled by the sampler are partially (only for one block) sounded. Therefore, various sounds can be produced by appropriately selecting the order of key depression. For example, if the keys are pressed so that the order of designating each divided block is the order stored in the storage means, the original musical instrument sound, singing voice,
Environmental sounds can be pronounced. In addition, if you press the key to repeatedly specify a predetermined block, the original instrument sound,
A part of singing voice, environmental sound, etc. can be repeatedly pronounced. This operation is the same when the predetermined key number is sequentially given by the note-on message of MIDI data.

【0019】また、請求項3に記載されている本発明の
電子楽器の演奏データ処理方法は、上記請求項1に記載
の発明の構成に加え、キーナンバ発生手段でキーナンバ
が発生された場合に、このキーナンバに対応するブロッ
クの演奏データを同期多重録音すべき同期演奏データと
して出力するようにしている。
According to a third aspect of the present invention, there is provided a musical performance data processing method for an electronic musical instrument, wherein the key number generating means generates a key number in addition to the configuration of the first aspect of the invention. The performance data of the block corresponding to this key number is output as synchronous performance data to be synchronously over-recorded.

【0020】かかる構成により、例えば鍵盤が押鍵され
た場合に、その鍵に対応するキーナンバに割り当てられ
たブロックの演奏データが同期演奏データとして外部に
出力される。即ち、例えばサンプラーでサンプリングさ
れた楽器音、歌声、環境音等の演奏データが部分的に
(1ブロック分だけ)外部に出力される。従って、押鍵
の順番を適宜選択することにより種々の演奏データを同
期演奏データとして外部に出力することができる。例え
ば、分割された各ブロックを指定する順番が記憶手段に
記憶された順番となるように押鍵すれば、元の楽器音、
歌声、環境音等を構成する演奏データを同期演奏データ
として外部に出力することができる。また、所定のブロ
ックを繰り返し指定するように押鍵すれば、元の楽器
音、歌声、環境音等の一部を繰り返し発音する演奏デー
タを同期演奏データとして外部に出力することができ
る。かかる動作は、MIDIデータのノートオンメッセ
ージにより所定のキーナンバを順次与える場合も同様で
ある。
With this configuration, when a keyboard is pressed, for example, the performance data of the block assigned to the key number corresponding to the key is output to the outside as synchronous performance data. That is, performance data such as musical instrument sounds, singing voices, and environmental sounds sampled by the sampler is partially output (for one block) to the outside. Therefore, various performance data can be output to the outside as synchronous performance data by appropriately selecting the order of key depression. For example, if the keys are pressed so that the order of designating each divided block is the order stored in the storage means, the original instrument sound,
Performance data that constitutes a singing voice, environmental sounds, etc. can be output to the outside as synchronized performance data. Further, by pressing a key to repeatedly designate a predetermined block, performance data in which a part of the original musical instrument sound, singing voice, environmental sound or the like is repeatedly generated can be externally output as synchronous performance data. This operation is the same when the predetermined key number is sequentially given by the note-on message of MIDI data.

【0021】この発明を用いて同期多重録音を行う場合
は、例えば、予め作成してMTR等に記録されているM
IDIデータに基づく伴奏音を発音させる。作曲又は演
奏をする者は、この伴奏音を聴きながら伴奏音にタイミ
ングを合わせて押鍵する。かかる押鍵を、分割された各
ブロックを順番に指定するように行えば、元の楽器音、
歌声、環境音等の順番となるように演奏データが生成さ
れ、これに基づく発音が行われる。従って、元の楽器
音、歌声、環境音等と伴奏音との同期がとれることにな
る。同時に、上記演奏データを同期演奏データとして外
部に出力し、例えばMTRの伴奏音が記録されているト
ラックとは別のトラックに記録すれば、同期多重録音が
実現される。
When synchronous multi-recording is performed by using the present invention, for example, M recorded in advance and recorded in the MTR or the like is recorded.
An accompaniment sound based on IDI data is generated. A person who composes or plays the musical composition, while listening to the accompaniment sound, presses a key in synchronization with the accompaniment sound. If such key depression is performed so as to sequentially specify each divided block, the original instrument sound,
Performance data is generated in the order of singing voice, environmental sound, etc., and sound is generated based on the performance data. Therefore, the original instrument sound, singing voice, environmental sound, etc. can be synchronized with the accompaniment sound. At the same time, if the above performance data is output to the outside as synchronous performance data and recorded on a track other than the track on which the accompaniment sound of the MTR is recorded, for example, synchronous multiple recording can be realized.

【0022】従って、従来のように同期多重録音を行う
ために、種々の機器を用意して緻密な編集作業を行う必
要がないので、同期多重録音に使用する演奏データの作
成プロセスが簡単になる。また、特別の機器を用意する
ことなく電子楽器に備えられている機能を用いて同期多
重録音ができるので応用範囲が広がり、より付加価値の
高い電子楽器を実現することもできる。
Therefore, since it is not necessary to prepare various devices and perform detailed editing work in order to perform the synchronous multi-recording as in the conventional case, the process of creating the performance data used for the synchronous multi-recording is simplified. . In addition, since synchronous multi-recording can be performed by using the functions provided in the electronic musical instrument without preparing a special device, the range of application is widened, and an electronic musical instrument with higher added value can be realized.

【0023】[0023]

【実施例】以下、本発明の電子楽器の演奏データ処理方
法の実施例につき、図面を参照しながら詳細に説明す
る。なお、本実施例を実現するために、少なくともキー
ナンバ発生手段としての鍵盤又はMIDIインタフェー
スを有し、且つ記憶手段としての波形メモリを備えてい
る電子楽器が用いられる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a performance data processing method for an electronic musical instrument according to the present invention will be described in detail below with reference to the drawings. In order to realize this embodiment, an electronic musical instrument having at least a keyboard or MIDI interface as a key number generating means and a waveform memory as a storing means is used.

【0024】図1は、本発明の電子楽器の演奏データ処
理方法を説明するための図である。本実施例では、先
ず、演奏データとして、図1(A)に示すような所定量
のサンプルデータを用意する。このサンプルデータとし
ては、例えばサンプラーを用いて原音(楽器音、歌声、
環境音等)を所定時間(例えば30秒程度)だけサンプ
リングしてパルスコード変調された波形データ(PCM
データ)を用いることができる。サンプラーを用いたP
CMデータの作成方法は周知であるので説明は省略す
る。なお、サンプルデータとしてはPCMデータに限定
されず、原音を記録・再生できるものであれば種々のデ
ータを用いることができる。
FIG. 1 is a diagram for explaining a performance data processing method for an electronic musical instrument according to the present invention. In this embodiment, first, as performance data, a predetermined amount of sample data as shown in FIG. 1A is prepared. As this sample data, for example, using a sampler, the original sound (instrument sound, singing voice,
Waveform data (PCM) that is pulse code modulated by sampling environmental sound) for a predetermined time (for example, about 30 seconds)
Data) can be used. P using sampler
Since the method of creating CM data is well known, its explanation is omitted. Note that the sample data is not limited to PCM data, and various data can be used as long as the original sound can be recorded and reproduced.

【0025】このようにして作成されたPCMデータ
は、例えばランダムアクセスメモリ(RAM)で構成さ
れる波形メモリにロードされる。この波形メモリにロー
ドされたPCMデータは上記所定時間分の波形データで
あり、図1(A)に示すように経過時間(時間軸)に沿
って記憶されることになる。
The PCM data created in this way is loaded into a waveform memory composed of, for example, a random access memory (RAM). The PCM data loaded in this waveform memory is the waveform data for the above-mentioned predetermined time, and will be stored along the elapsed time (time axis) as shown in FIG.

【0026】次いで、この波形メモリに記憶されたサン
プルデータは、図1(B)に示すように、複数(S1、
S2、S3、…)に等分割されてブロック化される。こ
の分割処理は、例えば電子楽器に含まれる中央処理装置
(CPU)の処理によって実現することができる。各ブ
ロックの大きさは、サンプリングの対象となった原音の
特性、又は伴奏音のテンポ(後述する)に応じて任意に
決定することができる。このブロック化においては、ブ
ロック化されたPCMデータの読出開始アドレス、読出
終了アドレス、読み出し速度(周波数ナンバ)等が決定
される。
Next, as shown in FIG. 1B, the sample data stored in this waveform memory is a plurality of (S1,
S2, S3, ...) Are equally divided into blocks. This division processing can be realized by, for example, the processing of a central processing unit (CPU) included in the electronic musical instrument. The size of each block can be arbitrarily determined according to the characteristics of the original sound to be sampled or the tempo (described later) of the accompaniment sound. In this block formation, the read start address, read end address, read speed (frequency number), etc. of the blocked PCM data are determined.

【0027】また、この各ブロックの大きさは、電子楽
器に設けられる操作パネルからオペレータが指定するよ
うに構成することもできる。かかる構成によれば、オペ
レータが試行錯誤で最適なブロックの大きさを決定する
ことができるという利点がある。
The size of each block may be specified by an operator from an operation panel provided on the electronic musical instrument. According to such a configuration, there is an advantage that the operator can determine the optimum block size by trial and error.

【0028】次いで、必要があれば、ブロック化された
PCMデータのピッチを調整し、また読み出し位置の修
正を行う。ピッチの調整は原音の音程を変更する場合に
行われる。このピッチの調整は、具体的には、上記周波
数ナンバを変更することにより実現される。また、読み
出し位置の修正は、上記読出アドレス及び読出終了アド
レスを変更する処理である。この処理は、ブロック化さ
れたPCMデータの区切りが好ましくない場合に行われ
る。
Next, if necessary, the pitch of the blocked PCM data is adjusted and the read position is corrected. The pitch adjustment is performed when changing the pitch of the original sound. This pitch adjustment is specifically realized by changing the frequency number. The correction of the read position is a process of changing the read address and the read end address. This process is performed when the block of PCM data is not preferable.

【0029】次いで、上記分割された各ブロックを、例
えば図1(C)に示すように、鍵盤の各鍵に割り当て
る。図1(C)ではキーナンバC1の鍵にブロックS1
が、キーナンバD1の鍵にブロックS2が、キーナンバ
E1の鍵にブロックS3が、…というように、各ブロッ
クが鍵盤のそれぞれの鍵に順番に割り当てられている状
態を示している。なお、上記図1(C)に示す例では、
白鍵のみにブロックを割り当てるように構成している
が、黒鍵のみ又は白鍵と黒鍵との双方に割り当てるよう
に構成しても良い。
Next, each of the divided blocks is assigned to each key of the keyboard as shown in FIG. 1 (C), for example. In FIG. 1C, the key S1 is added to the key of the key number C1.
, The block S2 is assigned to the key of the key number D1, the block S3 is assigned to the key of the key number E1, and so on, so that each block is sequentially assigned to each key of the keyboard. In the example shown in FIG. 1 (C),
Although the block is assigned only to the white key, it may be assigned to only the black key or both the white key and the black key.

【0030】このような各ブロックに対する鍵の割り当
ては、例えばキーナンバとブロック番号(各ブロックに
付された番号)との対応をテーブルに記憶することによ
り実現できる。各ブロックに鍵が割り当てられた状態に
おいては、所定の鍵の押鍵があると、電子楽器は、その
時点で選択されている音色に対応する波形データ(予め
電子楽器内部に記憶されている)を読み出すのではな
く、当該鍵に割り当てられたブロックのPCMデータを
読み出すように動作する。かかる動作は、例えば電子楽
器に内蔵されるCPUの処理により行うことができる。
The key assignment to each block can be realized by storing the correspondence between the key number and the block number (number given to each block) in the table. When a key is pressed in a state where a key is assigned to each block, the electronic musical instrument causes the waveform data corresponding to the tone color selected at that time (stored in the electronic musical instrument in advance). , Instead of reading out the PCM data of the block assigned to the key. Such an operation can be performed by, for example, the processing of the CPU incorporated in the electronic musical instrument.

【0031】このような構成により、鍵盤の押鍵があっ
た場合に、押下された鍵に割り当てられた原音の一部
(1ブロックに対応する分)を発音することが可能とな
る。従って、鍵C1、D1、E1、…と順番に所定時間
間隔で押鍵すれば、ブロックS1、S2、S3、…と順
番にPCMデータが読み出され、楽音が発生される。な
お、PCMデータに基づく発音開始は、通常の演奏時の
ように、オペレータの押鍵タイミングに依存して決ま
る。
With this configuration, when a key is pressed on the keyboard, a part of the original sound assigned to the pressed key (corresponding to one block) can be pronounced. Therefore, if the keys C1, D1, E1, ... Are pressed at predetermined time intervals, the PCM data is read in the order of blocks S1, S2, S3 ,. It should be noted that the start of sound generation based on the PCM data is determined depending on the key depression timing of the operator, as in a normal performance.

【0032】また、本実施例が適用される電子楽器で
は、押鍵により読み出されたブロックのPCMデータ
は、上記のように発音に供されると共に、外部に出力す
ることができるように構成されている。
Further, in the electronic musical instrument to which the present embodiment is applied, the PCM data of the block read by pressing the key is provided for the sound generation as described above and can be output to the outside. Has been done.

【0033】次に、上記のように構成される電子楽器を
用いて同期多重録音する方法について説明する。
Next, a method of synchronous multi-recording using the electronic musical instrument constructed as described above will be described.

【0034】同期多重録音には、例えばMTRが使用さ
れる。このMTRの所定のトラックには、予め所定のテ
ンポを有する伴奏音を例えばMIDIデータで記憶して
おく。そして、同期多重録音を行う際は、このMTRに
記憶されている伴奏音を再生し、オペレータは、図1
(D)に示すように、再生された伴奏音を聴きながらそ
のテンポに合わせて、鍵盤の鍵C1、D1、E1、…を
順番に押鍵する。これにより、原音と伴奏音とが同時に
発音されるとともに、原音の波形データ(PCMデー
タ)がMTRの他のトラックに順次記録される。
MTR, for example, is used for the synchronous multiple recording. An accompaniment sound having a predetermined tempo is stored in advance in a predetermined track of the MTR as MIDI data, for example. When performing synchronous multi-recording, the accompaniment sound stored in this MTR is reproduced, and the operator
As shown in (D), while listening to the reproduced accompaniment sound, the keys C1, D1, E1, ... On the keyboard are pressed in order according to the tempo. As a result, the original sound and the accompaniment sound are sounded at the same time, and the waveform data (PCM data) of the original sound is sequentially recorded on the other tracks of the MTR.

【0035】この場合、オペレータが伴奏音に正確に同
期させて押鍵すれば、伴奏音と原音とが正確に同期した
多重録音が可能となる。また、図1(D)の鍵E1又は
F1に示すように、故意に押鍵タイミングをずらせば、
所謂「ノリ」を変更した多重録音が可能となる。
In this case, if the operator presses the key in synchronization with the accompaniment sound, it is possible to perform multi-recording in which the accompaniment sound and the original sound are accurately synchronized. Further, as shown by the key E1 or F1 in FIG. 1D, if the key depression timing is intentionally shifted,
It becomes possible to perform overdubbing by changing the so-called "Nori".

【0036】以上のようにしてMTRに録音した原音の
波形データを、伴奏音と同時に再生することにより、原
音のテンポと伴奏音のテンポとが同期した楽音が得られ
ることになる。
By reproducing the waveform data of the original sound recorded in the MTR at the same time as the accompaniment sound as described above, a musical sound in which the tempo of the original sound and the tempo of the accompaniment sound are synchronized can be obtained.

【0037】なお、上記実施例では、サンプルデータと
して、原音をサンプラーでサンプリングして得られたP
CMデータを用いたが、既に完成された複数チャンネル
のMIDIデータで構成された曲データを用いることも
できる。この場合は、サンプルデータを新たに作成する
必要がなく、既に存在する曲を所定の伴奏音に同期させ
て多重録音することが可能となる。
In the above embodiment, as the sample data, P obtained by sampling the original sound with the sampler is used.
Although the CM data is used, it is also possible to use song data composed of MIDI data of a plurality of channels that have already been completed. In this case, it is not necessary to newly create sample data, and it is possible to perform overdubbing of an existing music piece in synchronization with a predetermined accompaniment sound.

【0038】[0038]

【発明の効果】以上詳述したように、本発明によれば、
同期多重録音に使用する演奏データの作成のプロセスを
簡素化することのできる電子楽器の演奏データ処理方法
を提供できる。
As described in detail above, according to the present invention,
It is possible to provide a performance data processing method for an electronic musical instrument that can simplify the process of creating performance data used for synchronous multi-recording.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の演奏データ処理方法を説明す
るための図である。
FIG. 1 is a diagram for explaining a performance data processing method according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

S1、S2、S3、… ブロック C1、D1、E1、… 鍵盤 S1, S2, S3, ... Block C1, D1, E1, ... Keyboard

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】任意に入力される所定時間分の音の音デー
タを時間軸上で所定数に分割してブロック化するステッ
プと、 前記音データの前記所定数のブロックを前記所定数のキ
ーにそれぞれ対応付けて割り当て記憶手段に記憶するス
テップと、 前記所定数のキーのいずれかの操作に応答して、前記音
データの対応するブロックを前記記憶手段から読出して
音を発生するステップとを具備する電子楽器の演奏デー
タ処理方法。
[Claim 1, further comprising the steps of blocks is divided into a predetermined number of audio data on the time axis of the predetermined time of the sound to be input optionally, the predetermined number of blocks of the sound data of the predetermined number of keys in a step you stored in assignment storage unit in association respectively, in response to one of the predetermined number of keys, the sound
A step of reading a corresponding block of data from the storage means to generate a sound.
【請求項2】入力される所定時間分の連続音の演奏デー
タを記憶手段に記憶し、 前記記憶手段に記憶された前記演奏データを時間軸上で
定数に分割してブロック化し、前記 所定数のキーを順番に操作することにより前記連続
音の再生が可能なように、前記演奏データの前記所定数
のブロックを前記所定数のキーにそれぞれ対応付けて
り当て記憶する電子楽器の演奏データ処理方法。
2. A stored in the storage unit performance data for predetermined period of time continuous sound input, divided into <br/> office constant the performance data stored in the storage unit on the time axis block However, the to allow reproduction of the continuous tone by operating the predetermined number of keys in that order, split <br/> associates each said predetermined number of blocks of said performance data to said predetermined number of keys Ri rely on performance data processing method of the electronic musical instrument that be stored.
【請求項3】任意に入力される所定時間分の連続音の音
データを時間軸上で所定数に分割してブロック化するス
テップと、 前記音データの前記所定数のブロックを前記所定数のキ
ーにそれぞれ対応付けて割り当て記憶するステップと、 伴奏データに基づいて操作される前記キーに応答して、
前記音データの対応するブロックを前記記憶手段から読
出して前記音データを発生するステップとを具備する電
子楽器の演奏データ処理方法。
A step of 3. A blocking divided to a predetermined constant sound data on the time axis of the predetermined period of time continuous sound inputted optionally, the predetermined number of blocks of the sound data of the predetermined number a step you assigned in association respectively with the key, in response to the key operated on the basis of accompaniment data,
The corresponding block of the sound data is read from the storage means.
And outputting the sound data to process the performance data of the electronic musical instrument.
JP06206294A 1994-03-07 1994-03-07 Performance data processing method for electronic musical instruments Expired - Fee Related JP3412769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06206294A JP3412769B2 (en) 1994-03-07 1994-03-07 Performance data processing method for electronic musical instruments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06206294A JP3412769B2 (en) 1994-03-07 1994-03-07 Performance data processing method for electronic musical instruments

Publications (2)

Publication Number Publication Date
JPH07244480A JPH07244480A (en) 1995-09-19
JP3412769B2 true JP3412769B2 (en) 2003-06-03

Family

ID=13189266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06206294A Expired - Fee Related JP3412769B2 (en) 1994-03-07 1994-03-07 Performance data processing method for electronic musical instruments

Country Status (1)

Country Link
JP (1) JP3412769B2 (en)

Also Published As

Publication number Publication date
JPH07244480A (en) 1995-09-19

Similar Documents

Publication Publication Date Title
US5805545A (en) Midi standards recorded information reproducing device with repetitive reproduction capacity
KR101136974B1 (en) Playback apparatus and playback method
DE69008943T2 (en) Device for automatic music playing.
US5834670A (en) Karaoke apparatus, speech reproducing apparatus, and recorded medium used therefor
JPS6024591A (en) Music performer
JP2004212473A (en) Karaoke machine and karaoke reproducing method
JP3885587B2 (en) Performance control apparatus, performance control program, and recording medium
US5159141A (en) Apparatus for controlling reproduction states of audio signals recorded in recording medium and generation states of musical sound signals
JPS6252391B2 (en)
JPH05297867A (en) Synchronous playing device
JP3412769B2 (en) Performance data processing method for electronic musical instruments
JP3214623B2 (en) Electronic music playback device
JPH11305772A (en) Electronic instrument
US4177708A (en) Combined computer and recorder for musical sound reproduction
US20040182228A1 (en) Method for teaching individual parts in a musical ensemble
JP2797644B2 (en) Karaoke device with vocalization function
JP3903492B2 (en) Karaoke equipment
JPH06325560A (en) Midi editorial system
JP3171192B2 (en) Music player
KR930001700B1 (en) Apparatus for reproducing audio signal
JPH0546071A (en) Recorded information reproducing device
KR20000017872A (en) The device and method for replacing words of music files
JPH0546072A (en) Recorded information reproducing device
JPH053676B2 (en)
JPH021734Y2 (en)

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030313

LAPS Cancellation because of no payment of annual fees