JP2002304175A - Waveform-generating method, performance data processing method and waveform-selecting device - Google Patents

Waveform-generating method, performance data processing method and waveform-selecting device

Info

Publication number
JP2002304175A
JP2002304175A JP2002025100A JP2002025100A JP2002304175A JP 2002304175 A JP2002304175 A JP 2002304175A JP 2002025100 A JP2002025100 A JP 2002025100A JP 2002025100 A JP2002025100 A JP 2002025100A JP 2002304175 A JP2002304175 A JP 2002304175A
Authority
JP
Japan
Prior art keywords
waveform
data
sound
partial
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002025100A
Other languages
Japanese (ja)
Other versions
JP3879524B2 (en
Inventor
Masahiro Shimizu
正宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002025100A priority Critical patent/JP3879524B2/en
Priority to US10/067,458 priority patent/US6740804B2/en
Publication of JP2002304175A publication Critical patent/JP2002304175A/en
Application granted granted Critical
Publication of JP3879524B2 publication Critical patent/JP3879524B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate music sound having full of expressions. SOLUTION: Partial waveforms and their attribute information are stored in an HDD 23. When music sound waveforms are to be generated, based on sounding control information, attribute information corresponding to the sounding control information is detected by a reproducing circuit 24, and partial waveforms having the attribute information are read from the HDD 23. Then, a comparison is made for the sounding control information and the attribute information and a processing is made for the read partial waveforms according to the difference between the two information to generate waveforms having full of expression. These waveforms are outputted as sounds from a sound system 19 via a mixer 17 and a DAC 18.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明が属する技術分野】本発明は、録音された楽器音
や歌唱音を用いて演奏する際の波形生成方法、演奏デー
タ処理方法、波形選択装置およびその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a waveform generation method, a performance data processing method, a waveform selection device, and a waveform selection method when performing using recorded musical instrument sounds or singing sounds.

【0002】[0002]

【従来の技術】従来、波形メモリ音源が知られている。
波形メモリ音源は、ノートオンやノートオフ等のイベン
トデータに応じて波形メモリに記憶されている波形デー
タを読み出して楽音を生成している。この際に、ノート
オンに含まれる音高情報やタッチ情報に応じて波形メモ
リから異なる波形データが選択されるようになされてい
る。一方、サンプラーと称される電子楽器が従来から知
られている。サンプラーでは、演奏された単音の波形を
サンプリング(例えば、C3の音高を5秒間等)して収
録し、収録した波形データを用いて楽音を生成してい
る。この場合、サンプリングされた各波形データに対し
て、該波形データの音高を示すオリジナルキーはユーザ
が設定し、そのオリジナルキーに基づいてその波形デー
タを使用する音域や、所定の音高で発音する際にピッチ
シフトする量などを決定している。オリジナルキーの決
定方式に関しては、サンプリングされた波形データから
ピッチを抽出し、該波形データに対し抽出されたピッチ
に対応したオリジナルキーを自動設定することが行われ
ている(例えば、特開平7−325579号参照)。ま
た、演奏されたフレーズ波形をサンプリングし、サンプ
リングされたフレーズ波形データを、該フレーズ波形デ
ータから抽出されたエンベロープレベルに基づいて複数
の部分波形データに分割し、各部分波形データのタイミ
ングやピッチを変更しながら演奏を行なうフレーズサン
プラーも提案されている。
2. Description of the Related Art Conventionally, a waveform memory sound source has been known.
The waveform memory sound source reads out the waveform data stored in the waveform memory according to event data such as note-on and note-off to generate a musical tone. At this time, different waveform data is selected from the waveform memory according to the pitch information and the touch information included in the note-on. On the other hand, an electronic musical instrument called a sampler has been conventionally known. In the sampler, the waveform of a played single tone is sampled (for example, the pitch of C3 is set to 5 seconds) and recorded, and a musical tone is generated using the recorded waveform data. In this case, for each sampled waveform data, an original key indicating the pitch of the waveform data is set by the user, and based on the original key, a sound range in which the waveform data is used or a predetermined pitch is generated. The pitch shift amount and the like are determined. With respect to the method of determining the original key, a pitch is extracted from the sampled waveform data, and an original key corresponding to the extracted pitch is automatically set for the waveform data (for example, Japanese Patent Laid-Open No. 325579). Further, the played phrase waveform is sampled, and the sampled phrase waveform data is divided into a plurality of partial waveform data based on an envelope level extracted from the phrase waveform data, and the timing and pitch of each partial waveform data are determined. A phrase sampler that performs while changing has also been proposed.

【0003】[0003]

【発明が解決しようとする課題】従来のサンプラーのよ
うに、実際に演奏された音をサンプリングして収録し、
収録された波形データを用いて楽音を生成しても、実際
の楽器の演奏音より貧しい表情の音しか得ることができ
ないという問題点があった。この場合、音高情報やタッ
チ情報に基づいて波形データを選択するようにしてもリ
アルな楽音を得ることができなかった。
As in a conventional sampler, the sound actually played is sampled and recorded.
Even if a musical tone is generated using the recorded waveform data, there is a problem that only a sound with a poorer expression than an actual musical instrument can be obtained. In this case, even if waveform data is selected based on pitch information or touch information, a real musical tone cannot be obtained.

【0004】そこで、本発明は表情に富んだ楽音を生成
することができる波形生成方法、演奏データ処理方法、
波形選択装置およびその方法を提供することを目的とし
ている。
Accordingly, the present invention provides a waveform generation method, a performance data processing method, and a performance data generation method capable of generating a musical tone rich in expression.
It is an object of the present invention to provide a waveform selection device and a method thereof.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明の波形生成方法は、複数の部分波形を部分波
形メモリに記憶し、該部分波形メモリに記憶されている
各部分波形の属性情報を属性情報メモリに記憶し、入力
された発音制御情報により前記属性情報メモリを参照し
て、前記発音制御情報に対応する属性情報を有する部分
波形を前記部分波形メモリから読み出し、該読み出され
た部分波形をその属性情報と前記発音制御情報とに基づ
いて加工することにより、前記発音制御情報に対応する
波形を生成するようにしている。
In order to achieve the above object, a waveform generating method according to the present invention stores a plurality of partial waveforms in a partial waveform memory, and stores a plurality of partial waveforms stored in the partial waveform memory. Attribute information is stored in an attribute information memory, and a partial waveform having attribute information corresponding to the tone generation control information is read out from the partial waveform memory by referring to the attribute information memory based on the input tone generation control information. By processing the obtained partial waveform based on the attribute information and the sound control information, a waveform corresponding to the sound control information is generated.

【0006】また、上記目的を達成することのできる本
発明の演奏データ処理方法は、各部分波形の属性情報が
属性情報メモリに記憶されており、処理を行う演奏デー
タに含まれる各音符の特徴と、前記属性情報メモリに記
憶されている属性情報を対比することにより、当該音符
の特徴に最適の部分波形を検出し、検出された部分波形
を当該音符に指定する指定データを前記演奏データ中の
音符に付与し、該指定データが付与された演奏データを
記憶するようにしている。さらに、上記目的を達成する
ことのできる本発明の他の波形生成方法は、上記演奏デ
ータ処理方法により記憶された指定データが付与されて
いる演奏データを再生する際の波形生成方法であって、
部分波形メモリに複数の部分波形が記憶されており、前
記演奏データに基づいて指定データの付与された音符を
再生する際に、再生される音符に付与されている指定デ
ータに基づいて、前記部分波形メモリから部分波形を読
み出すことにより、前記音符に対応する波形を生成する
ようにしている。さらにまた、上記目的を達成すること
のできる本発明のさらに他の波形生成方法は、リアルタ
イム演奏に対応する演奏情報が記憶されており、発生さ
れたテンポクロックに応じて自動演奏あるいは自動伴奏
を行うことにより伴奏音を発生すると共に、該テンポク
ロックに応じて演奏情報を再生し、前記伴奏音に合わせ
てリアルタイム演奏された演奏イベントと前記再生され
た演奏情報とに基づいて、前記演奏イベントに対応する
波形を生成するようにしている。
Further, according to the performance data processing method of the present invention which can achieve the above object, attribute information of each partial waveform is stored in an attribute information memory, and the characteristic of each note included in the performance data to be processed. And the attribute information stored in the attribute information memory, thereby detecting a partial waveform that is optimal for the feature of the note, and specifying data specifying the detected partial waveform as the note in the performance data. , And the performance data to which the designated data is added is stored. Further, another waveform generating method of the present invention capable of achieving the above object is a waveform generating method for reproducing performance data to which designated data stored by the performance data processing method is added,
A plurality of partial waveforms are stored in a partial waveform memory, and when a note to which designated data is assigned based on the performance data is reproduced, the partial waveform is stored based on the designated data assigned to the note to be reproduced. By reading a partial waveform from the waveform memory, a waveform corresponding to the musical note is generated. According to still another waveform generating method of the present invention capable of achieving the above object, performance information corresponding to a real-time performance is stored, and automatic performance or automatic accompaniment is performed according to a generated tempo clock. In addition to generating the accompaniment sound, the performance information is reproduced in accordance with the tempo clock, and the performance event corresponding to the performance event is performed based on the performance event played in real time in accordance with the accompaniment sound and the reproduced performance information. To generate a waveform.

【0007】次に、上記目的を達成することのできる本
発明の波形選択装置は、部分波形メモリに記憶された複
数部分波形から1ないし複数の部分波形を選択するため
の波形選択装置であって、各部分波形毎に、当該部分波
形に対応する音とその音の前の音の2音の特性を示す属
性データを記憶するデータベースと、入力された演奏す
る音とその前に演奏する音の2音の特性データにより、
前記データベースを参照して、入力された2音の特性デ
ータに近い属性データを有する1ないし複数の部分波形
を、前記演奏する音を発音するための部分波形として抽
出する検索手段とを備えるように備えている。
Next, a waveform selecting apparatus of the present invention capable of achieving the above object is a waveform selecting apparatus for selecting one or more partial waveforms from a plurality of partial waveforms stored in a partial waveform memory. A database for storing, for each partial waveform, attribute data indicating characteristics of two sounds, a sound corresponding to the partial waveform and a sound preceding the sound, a sound to be played and a sound to be played before the inputted sound. By the characteristic data of two sounds,
A search unit that extracts one or a plurality of partial waveforms having attribute data close to the input characteristic data of the two sounds as a partial waveform for generating the sound to be played, with reference to the database. Have.

【0008】また、上記目的を達成することのできる本
発明の他の波形選択装置は、部分波形メモリに記憶され
た複数部分波形から1ないし複数の部分波形を選択する
ための波形選択装置であって、各部分波形毎に、当該部
分波形に対応する音とその音の次の音の2音の特性を示
す属性データを記憶するデータベースと、入力された演
奏する音とその前に演奏する音の2音の特性データによ
り、前記データベースを参照して、入力された2音の特
性データに近い属性データを有する1ないし複数の部分
波形を、前記演奏する音を発音するための部分波形とし
て抽出する検索手段とを備えるようにしている。
According to another aspect of the present invention, there is provided a waveform selecting apparatus for selecting one or more partial waveforms from a plurality of partial waveforms stored in a partial waveform memory. For each partial waveform, a database storing attribute data indicating characteristics of two sounds, a sound corresponding to the partial waveform and the next sound, a sound to be played and a sound to play before With reference to the database, one or more partial waveforms having attribute data close to the input characteristic data of two sounds are extracted as partial waveforms for generating the sound to be played, by referring to the database. Search means for performing the search.

【0009】このような本発明の波形生成方法によれ
ば、発音制御情報に対応して最適の部分波形を用いて波
形を生成することができ、表情に富んだ楽音を生成する
ことができるようになる。また、本発明の演奏データ処
理方法によれば、演奏データ中の各音符の特徴に最適の
部分波形データを、予め選択して演奏データの各音符に
付与することができる。従って、この演奏データを用い
ることにより、自動演奏を行なう際の処理装置の負荷を
増加させることなく、自動演奏における波形生成で最適
の部分波形データを選択できるようになる。さらに、本
発明の波形生成方法によれば、リアルタイム演奏により
楽音を生成する場合でも、リアルタイム演奏に対応する
演奏情報を利用することにより、未来に行う演奏に応じ
て、現在の演奏により生成する楽音の特性を制御するこ
とができる。さらにまた、演奏する音とその前に演奏す
る音、あるいはその次に演奏する音の2音の特性データ
に近い属性データを有する1ないし複数の部分波形を選
択するようにすると、演奏する音の楽音を生成するため
の部分波形として最適の部分波形を選択することができ
るようになる。
According to such a waveform generation method of the present invention, a waveform can be generated using an optimum partial waveform in accordance with the tone generation control information, and a musical tone rich in expression can be generated. become. Further, according to the performance data processing method of the present invention, it is possible to select in advance the partial waveform data most suitable for the characteristics of each note in the performance data and to add the partial waveform data to each note of the performance data. Therefore, by using the performance data, it is possible to select the optimum partial waveform data in the waveform generation in the automatic performance without increasing the load on the processing device when performing the automatic performance. Further, according to the waveform generation method of the present invention, even when a musical tone is generated by a real-time performance, the musical tone generated by the current performance according to a performance to be performed in the future by using performance information corresponding to the real-time performance. Characteristics can be controlled. Furthermore, if one or a plurality of partial waveforms having attribute data close to the characteristic data of the sound to be played and the sound to be played before or the sound to be played next are selected, the sound to be played is An optimal partial waveform can be selected as a partial waveform for generating a musical tone.

【0010】[0010]

【発明の実施の形態】本発明の波形生成方法および演奏
データ処理方法を備える波形データ録音再生装置のハー
ドウェア構成を図1に示す。図1に示す波形データ録音
再生装置1おいて、CPU10は各種プログラムを実行
することにより波形データ録音再生装置1における録音
や再生の動作を制御する中央処理装置(Central Proces
sing Unit)であり、タイマ11は動作時の経過時間を
示したり、特定の間隔でタイマ割込を発生するタイマで
あり、自動演奏の時間管理等に使用される。ROM12
は、CPU10が収録時に実行する分割処理および属性
情報付与処理のプログラムや、再生時に実行する演奏デ
ータ加工処理、ノートオンイベント処理等のプログラム
が格納されていると共に、各種データが格納されている
ROM(Read Only Memory)である。RAM13は波形
データ録音再生装置1におけるメインメモリであり、C
PU10のワークエリア等が設定されるRAM(Random
Access Memory)である。
FIG. 1 shows a hardware configuration of a waveform data recording / reproducing apparatus provided with a waveform generating method and a performance data processing method according to the present invention. In the waveform data recording / reproducing apparatus 1 shown in FIG. 1, the CPU 10 executes various programs to control the recording and reproducing operations in the waveform data recording / reproducing apparatus 1 (Central Processes).
sing unit), and the timer 11 is a timer that indicates the elapsed time during operation or generates a timer interrupt at a specific interval, and is used for time management of automatic performance and the like. ROM12
Is a ROM that stores a program for a dividing process and an attribute information adding process executed by the CPU 10 at the time of recording, a program for performance data processing and a note-on event process executed at the time of reproduction, and various data. (Read Only Memory). The RAM 13 is a main memory in the waveform data recording / reproducing apparatus 1 and has a C
RAM (Random) where the work area of PU10 is set
Access Memory).

【0011】また、表示器14は収録時や再生時に各種
情報が表示されるディスプレイであり、操作子15は収
録時や再生時に各種の操作を行う際に操作される操作子
であり、鍵盤を含んでいてもよい。音源16は、収録時
に自動演奏される複数のフレーズの演奏データに基づく
楽音を生成する音源であり、FM音源やPCM音源ある
いは高調波合成音源等のいずれの音源でもよい。ミキサ
17は、音源16で生成された楽音や後述する再生回路
24で再生された楽音をミキシングしてDAC18に送
るミキサであり、DAC18はミキサ17から供給された
楽音データをアナログの楽音信号に変換してサウンドシ
ステム19に送るデジタル−アナログ変換器である。サ
ウンドシステム19は、DAC18から供給された楽音
信号を増幅して放音している。
The display 14 is a display on which various information is displayed at the time of recording or reproduction, and the operation device 15 is an operation device operated at the time of performing various operations at the time of recording or reproduction. May be included. The sound source 16 is a sound source that generates a musical tone based on performance data of a plurality of phrases that are automatically played at the time of recording, and may be any sound source such as an FM sound source, a PCM sound source, or a harmonic sound source. The mixer 17 is a mixer that mixes a musical tone generated by the sound source 16 and a musical tone reproduced by the reproducing circuit 24 to be described later and sends it to the DAC 18. The DAC 18 converts musical tone data supplied from the mixer 17 into an analog musical tone signal. A digital-to-analog converter that sends the digital signal to the sound system 19. The sound system 19 amplifies and emits the tone signal supplied from the DAC 18.

【0012】マイクロフォン20は、演奏者が演奏した
楽器音や歌唱した歌唱音が入力され、入力された楽器音
や歌唱音のフレーズ波形信号はADC21に送られる。
ADC21は、供給された音の波形信号をディジタルの
フレーズ波形データに変換するアナログ−ディジタル変
換器であり、変換されたフレーズ波形データは録音回路
22の制御の基でHDD(Hard Disk Drive)23に録
音される。録音されたフレーズ波形データは、後述する
ように音源16で収録時に再生された演奏データに基づ
いて部分波形データに分割され、分割された部分波形デ
ータには属性情報が付与される。この分割処理や属性情
報付与処理は、CPU10が分割処理や属性情報付与処
理のプログラムを実行することにより行われる。さら
に、部分波形データの内の使用する部分波形データを選
択して、選択された部分波形データに付与されている属
性情報から演奏用の音色セットが作成されている。再生
回路24は、音色セットの指定された音色における部分
波形管理データベースを検索し、属性情報から最適の部
分波形データを検索して演奏波形データを生成してい
る。生成された演奏波形データは、ミキサ17、DAC
18を介してサウンドシステム19から放音される。
The microphone 20 receives an instrumental sound played by a player or a singing sound sung by the player, and a phrase waveform signal of the input instrumental sound or singing sound is sent to the ADC 21.
The ADC 21 is an analog-digital converter that converts the supplied sound waveform signal into digital phrase waveform data. The converted phrase waveform data is transmitted to an HDD (Hard Disk Drive) 23 under the control of the recording circuit 22. Will be recorded. The recorded phrase waveform data is divided into partial waveform data based on performance data reproduced at the time of recording by the sound source 16 as described later, and the divided partial waveform data is provided with attribute information. The division processing and the attribute information provision processing are performed by the CPU 10 executing a program of the division processing and the attribute information provision processing. Further, partial waveform data to be used is selected from the partial waveform data, and a tone color set for performance is created from the attribute information added to the selected partial waveform data. The reproduction circuit 24 searches the partial waveform management database for the designated timbre of the timbre set, retrieves the optimal partial waveform data from the attribute information, and generates performance waveform data. The generated performance waveform data is supplied to the mixer 17, the DAC
The sound is emitted from the sound system 19 via.

【0013】MIDIインタフェース25には、MID
I鍵盤等のMIDI対応機器から出力されるMIDI信
号が入力され、MIDI信号中のイベントデータに基づ
いて再生回路24が上述したように演奏波形データを生
成し、サウンドシステム19から演奏音が放音されるよ
うになされている。その他のインタフェース26は、L
AN(Local Area Network)や公衆電話網、インターネ
ット等の通信ネットワーク用の通信インタフェースであ
って、通信ネットワークを介してサーバコンピュータと
接続され、サーバコンピュータから所望の演奏データ等
をダウンロードすることができる。なお、27は各デバ
イス間で信号を送受信するためのバスラインである。
The MIDI interface 25 has an MID
A MIDI signal output from a MIDI-compatible device such as an I-key is input, and the reproduction circuit 24 generates performance waveform data based on the event data in the MIDI signal as described above, and the performance sound is emitted from the sound system 19. It has been made to be. Other interfaces 26 are L
A communication interface for a communication network such as an AN (Local Area Network), a public telephone network, or the Internet. The communication interface is connected to a server computer via the communication network, and can download desired performance data and the like from the server computer. Reference numeral 27 denotes a bus line for transmitting and receiving signals between the devices.

【0014】次に、本発明にかかる波形データ録音再生
装置1においてフレーズ波形データを録音して部分波形
データに分割する処理を図2ないし図6を参照しながら
以下に説明する。本発明にかかる波形データ録音再生装
置1においてフレーズ波形データを録音する際には、図
3(a)に示すように自動演奏手段31に複数のフレー
ズからなる演奏データ30を供給して自動演奏させる。
フレーズには録音したい音高等の特徴情報を有する音符
が含まれている。この自動演奏手段31は、図1に示す
CPU10および音源16により主に構成されている。
そして、CPU10が自動演奏プログラムを実行するこ
とにより、ROM12あるいはRAM13から読み出し
た演奏データに基づいて音源パラメータを生成し、この
音源パラメータを音源16に供給することにより、音源
16において生成された演奏波形データは、ミキサ1
7、DAC18を介してサウンドシステム19に接続さ
れているヘッドフォン36から放音される。ヘッドフォ
ン36は演奏者32が装着しており、演奏者32は演奏
音を聴取することができる。なお、録音したいパートの
演奏データやその他のパートの演奏データを含む、例え
ばSMF(Standard MIDI File)等の形式とされた1な
いし複数パートのフレーズのシーケンスデータが予め作
成されており、これが演奏データとしてRAM13等に
格納されている。
Next, the process of recording phrase waveform data and dividing it into partial waveform data in the waveform data recording / reproducing apparatus 1 according to the present invention will be described below with reference to FIGS. When recording the phrase waveform data in the waveform data recording / reproducing apparatus 1 according to the present invention, as shown in FIG. 3 (a), the performance data 30 composed of a plurality of phrases is supplied to the automatic performance means 31 for automatic performance. .
The phrase includes a note having characteristic information such as a pitch to be recorded. The automatic performance means 31 is mainly constituted by the CPU 10 and the sound source 16 shown in FIG.
Then, the CPU 10 executes the automatic performance program to generate sound source parameters based on the performance data read from the ROM 12 or the RAM 13, and supplies the sound source parameters to the sound source 16, whereby the performance waveform generated by the sound source 16 is generated. Data is in mixer 1
7. Sound is output from a headphone 36 connected to the sound system 19 via the DAC 18. The headphone 36 is worn by the player 32, and the player 32 can hear the performance sound. It should be noted that sequence data of one or more parts in the form of, for example, SMF (Standard MIDI File), including performance data of a part to be recorded and performance data of other parts, is created in advance. Is stored in the RAM 13 or the like.

【0015】そして、演奏者32はその演奏データに基
づく演奏音を聴取しながら、演奏音に従って図示しない
楽器を演奏したり、あるいは歌唱する。この演奏者32
による演奏音あるいは歌唱音は、演奏音を聴取しながら
行われるため、その演奏音あるいは歌唱音は自然な音に
なる。この演奏音あるいは歌唱音のフレーズ波形はマイ
クロフォン20を介して波形録音手段33に供給され、
フレーズ波形はサンプリングされてディジタルのフレー
ズ波形データ34とされてフレーズ毎に録音されるよう
になる。この場合、自動演奏手段31と波形録音手段3
3とのクロックはクロック同期ライン35により同期化
されており、演奏タイミングに同期化されてフレーズ波
形データが録音されるようになる。この同期化では、波
形録音手段33のサンプリングクロックと自動演奏手段
31の動作クロックとを共通化すると共に、自動演奏開
始と録音開始とのタイミングを一致させる、あるいは、
両タイミングの差を記憶するようにしている。これによ
り、録音したフレーズ波形データ34と自動演奏される
演奏データの全区間にわたる同期が保証されるようにな
る。したがって、演奏データのテンポが途中で変更され
ていたとしても、同期化には全く影響を与えないように
なる。
The player 32 plays a musical instrument (not shown) or sings according to the performance sound while listening to the performance sound based on the performance data. This player 32
Is performed while listening to the performance sound, so that the performance sound or singing sound becomes a natural sound. The phrase waveform of the performance sound or the singing sound is supplied to the waveform recording means 33 via the microphone 20.
The phrase waveform is sampled to be digital phrase waveform data 34 and recorded for each phrase. In this case, the automatic performance means 31 and the waveform recording means 3
3 is synchronized by a clock synchronization line 35, and the phrase waveform data is recorded in synchronization with the performance timing. In this synchronization, the sampling clock of the waveform recording means 33 and the operation clock of the automatic performance means 31 are made common, and the timing of the start of the automatic performance and the timing of the recording start are matched, or
The difference between the two timings is stored. As a result, the synchronization of the recorded phrase waveform data 34 and the performance data to be automatically played over the entire section is guaranteed. Therefore, even if the tempo of the performance data is changed in the middle, synchronization is not affected at all.

【0016】ここで、自動演奏される演奏データとフレ
ーズ波形データとの関係の概略を図2に示す。この場合
の演奏データは、図2(a)に示すように五線譜上の音
譜で表されており、この演奏データによる自動演奏音を
ヘッドフォン36から聴取しながら、その演奏音に合わ
せて演奏あるいは歌唱して録音されたフレーズ波形は図
2(b)に示すような波形となっている。この場合、演
奏データの四分音符「E(ミ)」は波形aに対応し、同
様に演奏データの四分音符「A(ラ)」は波形bに対応
し、演奏データの八分音符「F(ファ)」は波形cに対
応し、演奏データの八分音符「E(ミ)」は波形dに対
応し、演奏データの四分音符「C(ド)」は波形eに対
応し、演奏データの音符「F(ファ)」は波形fに対応
している。上述したように同期化されているため、各波
形は演奏データの演奏タイミングに合致していると共
に、音符に対応した音の長さの波形となっている。さら
に、波形からはわからないが、演奏データに基づく演奏
音を聴きながら演奏しているため、その音色も自然な音
色とされた波形となっている。
FIG. 2 schematically shows the relationship between the performance data to be automatically played and the phrase waveform data. The performance data in this case is represented by a musical score on a staff as shown in FIG. 2A. While listening to the automatic performance sound based on the performance data from the headphones 36, the performance or singing is performed in accordance with the performance sound. The phrase waveform recorded as described above has a waveform as shown in FIG. In this case, the quarter note "E (mi)" of the performance data corresponds to the waveform a, and the quarter note "A (la)" of the performance data similarly corresponds to the waveform b, and the eighth note "E" of the performance data. F (fa) "corresponds to waveform c, eighth note" E (mi) "of performance data corresponds to waveform d, quarter note" C (do) "of performance data corresponds to waveform e, The musical note "F (fa)" of the performance data corresponds to the waveform f. Since the synchronization is performed as described above, each waveform matches the performance timing of the performance data and has a sound length corresponding to the note. Further, although it is not known from the waveform, since the performance is performed while listening to the performance sound based on the performance data, the timbre is also a natural timbre.

【0017】また、波形録音手段33は、図1に示すC
PU10、ADC21、録音回路22、HDD23によ
り構成されている。そして、CPU10の制御の基でマ
イクロフォン20から入力された演奏音あるいは歌唱音
であるフレーズ波形をADC21においてサンプリング
してディジタルのフレーズ波形データ34に変換してい
る。このフレーズ波形データ34は録音回路22により
HDD23の所定の記憶領域に書き込まれて録音され
る。なお、自動演奏の態様は、次に示すいずれの態様で
もよい。第1の自動演奏の態様は、当該フレーズの録音
したいパート(録音パート)だけの演奏データからなる
ソロパート演奏である。第2の自動演奏の態様は、当該
フレーズの録音したいパートを含む複数パートの演奏デ
ータからなる全パート演奏である。第3の自動演奏の態
様は、当該フレーズの録音したいパートを除く1ないし
複数パートの演奏データ、あるいは上記その他のパート
の演奏データからなるマイナスワン演奏である。
Further, the waveform recording means 33 is provided with the C shown in FIG.
It comprises a PU 10, an ADC 21, a recording circuit 22, and an HDD 23. Under the control of the CPU 10, the ADC 21 samples the phrase waveform, which is a performance sound or a singing sound input from the microphone 20, and converts the sampled waveform into digital phrase waveform data. The phrase waveform data 34 is written and recorded in a predetermined storage area of the HDD 23 by the recording circuit 22. The mode of the automatic performance may be any of the following modes. The first automatic performance mode is a solo part performance including performance data of only the part (recording part) of the phrase that the user wants to record. The second automatic performance mode is an all-part performance composed of performance data of a plurality of parts including the part of the phrase to be recorded. The third automatic performance mode is a minus one performance composed of performance data of one or a plurality of parts excluding the part of the phrase desired to be recorded, or performance data of the other parts.

【0018】本発明にかかる波形データ録音再生装置1
においてフレーズ波形を録音する際に、図3(b)に示
すようにして録音してもよい。図3(b)に示す構成で
は、ヘッドフォン36に代えてスピーカ37から自動演
奏音を演奏者32に聴取させている。ここで、図3
(b)に示す構成のうち、図3(a)に示す構成と異な
る部分だけ説明すると、図3(b)に示す構成では、自
動演奏手段31から出力される自動演奏音をスピーカ3
7から放音して演奏者32に聴取させている。この場
合、スピーカ37からの自動演奏音はマイクロフォン2
0で拾われるようになるので、スピーカ音除去処理手段
38によりマイクロフォン20で拾われた自動演奏音を
除去している。なお、スピーカ音除去処理手段38には
自動演奏手段31から自動演奏音が供給されており、こ
の自動演奏音の位相を反転すると共に、時間調整・振幅
調整を行うことにより自動演奏音を除去するようにして
いる。
Waveform data recording / reproducing apparatus 1 according to the present invention
In recording the phrase waveform in the above, the recording may be performed as shown in FIG. In the configuration shown in FIG. 3B, the player 32 listens to the automatic performance sound from the speaker 37 instead of the headphones 36. Here, FIG.
In the configuration shown in FIG. 3B, only the portions different from the configuration shown in FIG. 3A will be described. In the configuration shown in FIG.
The sound is emitted from 7 and the performer 32 listens. In this case, the automatic performance sound from the speaker 37 is the microphone 2
0, the automatic performance sound picked up by the microphone 20 is removed by the speaker sound removal processing means 38. The automatic performance sound is supplied from the automatic performance means 31 to the speaker sound removal processing means 38, and the automatic performance sound is removed by inverting the phase of the automatic performance sound and adjusting the time and amplitude. Like that.

【0019】自動演奏手段31において自動演奏を、上
述したいずれかの態様の演奏として、演奏者32による
演奏音あるいは歌唱音のサンプリングを波形録音手段3
3において行なっているため、録音されたフレーズ波形
データには録音したいパート(録音パート)に対応する
波形分割のための演奏データ(対応演奏データ)が必ず
存在することになる。そこで、図4に示すように分割処
理手段41において、自動演奏された演奏データ44に
従って、フレーズ波形データ40を演奏データ44の各
音符に対応するノートの部分波形データ43に分割す
る。次いで、属性情報付与処理手段42において、分割
された部分波形データ43に、その音高、音長や強度等
の属性を示す属性情報を対応する演奏データ44の各音
符の特徴情報を参照して付与する。このように、フレー
ズ波形データ40を部分波形データ43に分割する分割
処理手段41、および、分割された部分波形データ43
に属性情報を付与する属性情報付与処理手段42は、C
PU10が分割処理プログラムや属性情報付与処理プロ
グラムを実行することにより行われる。
In the automatic performance means 31, the automatic performance is performed in any of the above-described modes, and the sampling of the performance sound or singing sound of the performer 32 is performed by the waveform recording means 3.
3, the performance data (corresponding performance data) for waveform division corresponding to the part (recording part) to be recorded always exists in the recorded phrase waveform data. Therefore, as shown in FIG. 4, the division processing means 41 divides the phrase waveform data 40 into partial waveform data 43 of a note corresponding to each note of the performance data 44 in accordance with the performance data 44 automatically played. Next, the attribute information adding processing means 42 refers to the characteristic information of each note in the performance data 44 corresponding to the divided partial waveform data 43 with the attribute information indicating the attributes such as the pitch, the pitch and the intensity. Give. Thus, the division processing means 41 for dividing the phrase waveform data 40 into the partial waveform data 43, and the divided partial waveform data 43
Attribute information processing means 42 for giving attribute information to
This is performed by the PU 10 executing the division processing program and the attribute information addition processing program.

【0020】この場合、演奏データ44にフレーズ波形
データ40は同期しているため、演奏データ44の発音
タイミング等だけでも部分波形データ43へ分割するこ
とができる。また、フレーズ波形データ40を周波数分
析(フォルマント分析)してその分割位置を補正するよ
うにしてもよい。すなわち、演奏データ44に従って仮
決定された仮の分割位置を基準にして、その近傍で部分
波形データ43のフォルマントの開始位置をサーチし、
検出された開始位置を分割位置として決定することがで
きる。このようにすると、フレーズ波形データ40の分
析結果だけに基づいて分割するのに比べて、音楽的に正
確な位置での分割が可能になる。
In this case, since the phrase waveform data 40 is synchronized with the performance data 44, the phrase data can be divided into partial waveform data 43 only by the sounding timing of the performance data 44. Alternatively, the phrase waveform data 40 may be subjected to frequency analysis (formant analysis) to correct the division position. That is, based on the temporary division position provisionally determined according to the performance data 44, a search is made for a formant start position of the partial waveform data 43 in the vicinity thereof,
The detected start position can be determined as the division position. In this way, it is possible to perform division at a musically accurate position, as compared to division based on only the analysis result of the phrase waveform data 40.

【0021】さらに説明すると、演奏データ44だけに
よる分割手法では、自動演奏される演奏データ44とフ
レーズ波形データ40は、完全に同期がとれた状態とさ
れていることを利用して分割している。このため、録音
パートの演奏データ44に含まれる各音符のデータに従
って、各音符に対応する時間範囲(音符に対応する音の
スタートタイミング(ノートオン)からリリース開始
(ノートオフ)後の音の減衰するまで、または、次の音
符の音が始まるまでの時間範囲)のフレーズ波形データ
40を部分波形データ43として切り出すことができ
る。しかし、フレーズ波形データ40は人間が行なった
演奏をサンプリングしたものであるため、録音パートの
演奏データ44の音符のスタートタイミングと、フレー
ズ波形データ40のその音符に対応する波形のスタート
タイミングとは必ずしもあっておらず、ずれている場合
もある。そこで、録音パートの演奏データ44の各音符
の開始タイミングを基準に、フレーズ波形データ40の
その前後区間(例えば開始タイミングの前後数秒)の波
形を分析し、フレーズ波形データ40における音符の開
始タイミングを検出して分割位置を補正するようにする
と、部分波形データ43を正確に切り出すことができる
ようになる。
More specifically, in the division method using only the performance data 44, the performance data 44 to be automatically played and the phrase waveform data 40 are divided using the fact that they are completely synchronized. . Therefore, according to the data of each note included in the performance data 44 of the recording part, the time range corresponding to each note (from the start timing (note on) of the note corresponding to the note to the release of the sound after the start of release (note off) attenuates). , Or a time range up to the start of the sound of the next note) can be extracted as partial waveform data 43. However, since the phrase waveform data 40 is obtained by sampling a performance performed by a human, the start timing of the note in the performance data 44 of the recording part and the start timing of the waveform corresponding to the note in the phrase waveform data 40 are not always present. There are times when it is not. Therefore, based on the start timing of each note in the performance data 44 of the recording part, the waveform of the section before and after the phrase waveform data 40 (for example, several seconds before and after the start timing) is analyzed, and the start timing of the note in the phrase waveform data 40 is determined. If the division position is detected and corrected, the partial waveform data 43 can be cut out accurately.

【0022】分割位置を補正する際に用いる波形分析手
法としては、フォルマント分析およびFFT分析を採用
することができる。このフォルマント分析では、まず、
録音パートの演奏データ44の各音符の開始タイミング
を基準に、フレーズ波形データ40の前後区間の波形デ
ータの相関関数からLPC(Linear Prediction Codin
g)係数を算出する。次いで、LPC係数をフォルマン
トパラメータに変換してフレーズ波形データ40におけ
るフォルマントを求める。そして、当該音符に対応する
フォルマントの立上がり位置からその音符の開始タイミ
ングを検出する。これにより、音楽的に正確な位置で部
分波形データ43を切り出して、ノート毎の部分波形デ
ータ43に分割することができる。また、FFT分析で
は、まず、録音パートの演奏データ44の各音符の開始
タイミングを基準に、フレーズ波形データ40の前後区
間について時間窓を移動しながらフレーズ波形データ4
0の高速フーリエ変換を行う。次いで、当該音符に対応
する基音および複数倍音の軌跡を検出し、検出された基
音および倍音の軌跡における立上がり位置から開始タイ
ミングを検出する。この手法によっても、音楽的に正確
な位置で部分波形データ43を切り出して、ノート毎の
部分波形データ43に分割することができる。ここで
は、フォルマント分析とFFT分析について説明した
が、分割位置を補正するための分析には、その他のピッ
チ分析やエンベロープ分析等の分析方法を用いてもよ
い。
As a waveform analysis technique used for correcting the division position, a formant analysis and an FFT analysis can be adopted. In this formant analysis,
On the basis of the start timing of each note in the performance data 44 of the recording part, an LPC (Linear Prediction Code) is obtained from the correlation function of the waveform data before and after the phrase waveform data 40.
g) Calculate the coefficient. Next, the LPC coefficient is converted into a formant parameter, and a formant in the phrase waveform data 40 is obtained. Then, the start timing of the note is detected from the rising position of the formant corresponding to the note. Thus, the partial waveform data 43 can be cut out at musically accurate positions and divided into partial waveform data 43 for each note. In the FFT analysis, first, the phrase waveform data 4 is moved while moving the time window for the section before and after the phrase waveform data 40 based on the start timing of each note in the performance data 44 of the recording part.
Perform a fast Fourier transform of 0. Next, the trajectory of the fundamental tone and the plurality of overtones corresponding to the note are detected, and the start timing is detected from the rising position in the detected trajectories of the fundamental tone and the overtones. According to this method as well, the partial waveform data 43 can be cut out at musically accurate positions and divided into partial waveform data 43 for each note. Here, the formant analysis and the FFT analysis have been described, but other analysis methods such as pitch analysis and envelope analysis may be used for the analysis for correcting the division position.

【0023】分割処理が終了すると、分割された各部分
波形データに対して属性情報が付与される属性情報付与
処理が行われる。この属性情報付与処理では、演奏デー
タ44の各音符に対応する部分波形データ43に、その
音符の特徴情報に対応する属性情報が付与される。この
属性情報には、オリジナルキーとして使用される音高情
報、オリジナル強度として使用される強度情報、オリジ
ナル音長として使用される音長情報、部分波形データを
選択するのに使用される前音情報および後音情報のいず
れか1つの情報ないし複数の情報が含まれている。すな
わち、音高情報、強度情報、音長情報は、それぞれ、演
奏データ44の当該部分波形データが切り出された位置
に対応する音符(現音と呼ぶ)のイベントの音高、強
度、音長の値を有する。また、前音情報とは、前音の音
高が現音より上か下かの情報、または前音との音高差の
情報、前音の強度が現音より大か小かの情報、または前
音との強度差の情報、および、前音の音長が現音より長
いか短いか同じかの情報、または前音との音長差の情報
やその他前音と現音との関係に関する情報などである。
この場合、これらの情報の値は、演奏データ44におけ
る現音とその前の1ないし複数の音符のイベントに基づ
いて決定することができる。また、後音情報とは、前音
情報における前音を後音に置き換えた際の後音と現音と
の関係に関する情報である。これらの情報の値も、同様
に、演奏データ44における現音とその後の1ないし複
数の音符のイベントに基づいて決定することができる。
さらに、演奏データ44が、スラー、トリル、クレッシ
ェンド等の音楽記号を含む演奏データとされている場合
は、その音楽記号を属性情報に含ませてもよい。この属
性情報は、当該部分波形データを選択する基準として使
用されたり、当該部分波形データを加工するときのパラ
メータとして使用される情報とされる。なお、所望の属
性情報に対応した音符を演奏データに含めて録音を行な
うことにより、所望の属性情報に対応した部分波形デー
タを得ることができる。
When the division process is completed, an attribute information adding process for adding attribute information to each of the divided partial waveform data is performed. In this attribute information adding process, attribute information corresponding to the characteristic information of the note is added to the partial waveform data 43 corresponding to each note in the performance data 44. The attribute information includes pitch information used as an original key, intensity information used as an original intensity, pitch information used as an original pitch, and preceding sound information used to select partial waveform data. And one or more pieces of post-sound information. That is, the pitch information, the intensity information, and the pitch information are respectively the pitch, the intensity, and the pitch of the event of the note (referred to as the current tone) corresponding to the position where the partial waveform data of the performance data 44 is cut out. Has a value. The preceding sound information is information on whether the pitch of the preceding sound is higher or lower than the current sound, or information on the pitch difference from the preceding sound, information on whether the intensity of the preceding sound is higher or lower than the present sound, Or information on the intensity difference from the previous sound, and information on whether the length of the previous sound is longer or shorter than the current sound, or information on the length difference from the previous sound, and other relationships between the previous sound and the current sound Etc.
In this case, the values of these pieces of information can be determined based on the events of the current sound in the performance data 44 and one or more notes before it. Further, the post-sound information is information on the relationship between the post-sound and the current sound when the pre-sound in the pre-sound information is replaced by the post-sound. Similarly, the values of these pieces of information can be determined based on the current sound in the performance data 44 and one or more subsequent note events.
Further, when the performance data 44 is performance data including music symbols such as slurs, trills, and crescendos, the music symbols may be included in the attribute information. This attribute information is used as a reference for selecting the partial waveform data or as information used as a parameter when processing the partial waveform data. It should be noted that, by recording a musical note corresponding to the desired attribute information in the performance data, partial waveform data corresponding to the desired attribute information can be obtained.

【0024】図4に示すように分割処理手段41におい
て部分波形データ43に分割され、分割された部分波形
データ43に属性情報付与処理手段42において属性情
報が付与される。分割処理された部分波形データ43や
付与された属性情報は、HDD23に演奏データ等と共
に1つの収録データとして記憶されている。フレーズ波
形データ40は、楽器種類やボーカル音色毎に録音され
ることから、収録データは音色毎に記録されることにな
る。この収録データのデータ構成を図5に示す。図5に
示すように、収録データは自動演奏された複数フレーズ
とされている演奏データと、各フレーズの演奏データに
対応するフレーズ波形データが記憶領域のどこの位置に
記憶されているかを管理するフレーズ波形管理情報と、
フレーズ波形データを分割した部分波形データの記憶領
域におけるスタート位置や終了位置およびその部分波形
データの属性情報からなる部分波形管理情報と、各フレ
ーズの演奏データに対応するフレーズ波形1,フレーズ
波形2,・・・・から構成されている。なお、このフレ
ーズ波形iに付けられている番号iは、後述するフレー
ズ波形IDである。各フレーズ波形の各フレーズ波形の
データは、前述したような方法で複数の部分波形データ
に分割されるが、その分割された態様がフレーズ波形1
に例示されている。すなわち、フレーズ波形1は、部分
波形1−1,部分波形1−2,・・・,部分波形1−6
の6つの部分波形データに分割されている。なお、この
部分波形データi−jに付けられている番号i−jは、
後述する部分波形IDである。
As shown in FIG. 4, the division processing means 41 divides the data into partial waveform data 43, and the divided partial waveform data 43 is given attribute information by the attribute information provision processing means 42. The divided partial waveform data 43 and the attribute information provided are stored in the HDD 23 together with the performance data and the like as one piece of recorded data. Since the phrase waveform data 40 is recorded for each instrument type and vocal timbre, the recorded data is recorded for each timbre. FIG. 5 shows the data structure of the recorded data. As shown in FIG. 5, the recorded data manages performance data, which is a plurality of phrases automatically played, and where in the storage area the phrase waveform data corresponding to the performance data of each phrase is stored. Phrase waveform management information,
Partial waveform management information including a start position and an end position in a partial waveform data storage area obtained by dividing the phrase waveform data and attribute information of the partial waveform data, and a phrase waveform 1, a phrase waveform 2, and a phrase waveform 2 corresponding to performance data of each phrase. ... Note that the number i assigned to the phrase waveform i is a phrase waveform ID described later. The data of each phrase waveform of each phrase waveform is divided into a plurality of partial waveform data by the method described above.
Is exemplified. That is, the phrase waveform 1 has a partial waveform 1-1, a partial waveform 1-2,..., A partial waveform 1-6.
Are divided into six partial waveform data. The numbers ij given to the partial waveform data ij are as follows:
This is a partial waveform ID to be described later.

【0025】図5に示す収録データは、演奏データ毎に
収録されたフレーズ波形データを分割処理して属性の付
与処理を行った結果のデータとされており、フレーズ波
形データは楽器種類やボーカル音色毎に録音される。す
なわち、収録データは音色毎に作成されることになるこ
とから、演奏イベントデータに応じて収録データから対
応する部分波形データ読み出して用いることにより、そ
の音色の演奏波形データを得ることができる。しかし、
図5に示す収録データにおける複数の部分波形データに
は属性情報の音高等が重複した部分波形データや不要な
部分波形データも記録されている。そこで、収録データ
のうちから使用する部分波形データを選択し、選択され
た部分波形データにより演奏用の音色セットを作成して
いる。音色セットを作成する際に、いずれの部分波形デ
ータを選択するかの選択情報、音色パラメータ等が音色
管理情報として収録データ中に記録されており、この音
色管理情報に従って音色セットが作成されるようにな
る。このことから、図5に示す収録データを音色セット
作成ツールと称することができる。なお、音色管理情報
は、ユーザの所望に応じて選択された部分波形データを
選択する選択情報、ユーザにより設定された音色パラメ
ータ等を含んでいる。
The recorded data shown in FIG. 5 is data obtained as a result of dividing the phrase waveform data recorded for each piece of performance data and performing an attribute assigning process, and the phrase waveform data is composed of an instrument type and a vocal tone. Recorded every time. That is, the recorded data is created for each timbre, so that by reading and using the corresponding partial waveform data from the recorded data in accordance with the performance event data, the performance waveform data of the timbre can be obtained. But,
In a plurality of partial waveform data in the recorded data shown in FIG. 5, partial waveform data in which the pitch of attribute information and the like overlap and unnecessary partial waveform data are also recorded. Therefore, the partial waveform data to be used is selected from the recorded data, and a tone color set for performance is created based on the selected partial waveform data. When creating a timbre set, selection information as to which partial waveform data to select, timbre parameters, and the like are recorded in the recorded data as timbre management information, and the timbre set is created according to the timbre management information. become. For this reason, the recorded data shown in FIG. 5 can be called a tone color set creation tool. The timbre management information includes selection information for selecting the partial waveform data selected as desired by the user, timbre parameters set by the user, and the like.

【0026】この音色セットのデータ構成を図6に示
す。図6に示す演奏用の音色セットは、「バイオリン
1」,「男声4」,「トランペット2」,・・・等の音
色毎の音色データから構成されている。各音色データの
データ構成は同様とされており、例として「男声4」の
データ構成が図6に示されている。図6に示すように、
音色データは、ヘッダ、部分波形管理データベース、音
色パラメータおよび部分波形プールから構成されてい
る。部分波形プールには、図5に示す収録データにおけ
る音色管理情報に従って複数のフレーズ波形データの中
から選択した部分波形のデータが図6に示すように部分
波形1,部分波形2,部分波形3,・・・としてプール
されている。この場合、音色管理情報により多くの音高
に対応する部分波形データが選択されると、部分波形デ
ータを割り当てる音域を細かく設定することができるよ
うになる。また、音高情報が同じでも音長情報や強度情
報が異なっていたり、前音との音高差や前音の音高が上
か下か等の情報が異なっている部分波形データも選択さ
れる音色管理情報とされていてもよい。
FIG. 6 shows the data structure of this tone color set. The tone color set for performance shown in FIG. 6 is composed of tone color data for each tone color such as “violin 1”, “male voice 4”, “trumpet 2”,. The data structure of each tone color data is the same, and the data structure of “male voice 4” is shown in FIG. 6 as an example. As shown in FIG.
The timbre data includes a header, a partial waveform management database, a timbre parameter, and a partial waveform pool. The partial waveform pool stores partial waveform data selected from a plurality of phrase waveform data in accordance with the tone color management information in the recorded data shown in FIG. 5, as shown in FIG. ... pooled. In this case, when partial waveform data corresponding to many pitches is selected according to the tone color management information, the range to which the partial waveform data is assigned can be finely set. In addition, even when the pitch information is the same, the partial waveform data in which the pitch information and the intensity information are different, and the partial waveform data in which the information such as the pitch difference from the preceding sound and the pitch of the preceding sound is higher or lower are different are also selected. Timbre management information.

【0027】このようにして作成された音色セットにお
ける部分波形管理データベースには、上記音色管理情報
に従って選択された部分波形データにおける、前記部分
波形プールにおける記憶領域のスタート位置や終了位置
およびその部分波形データの属性情報が記録されてい
る。また、上記音色管理情報に含まれていた音色パラメ
ータがそのまま音色パラメータの記憶領域に記憶されて
おり、該音色パラメータには、その音色におけるエンベ
ロープパラメータやフィルタ係数が記録されている。音
色セットにおける音色毎に作成されている音色データ
は、図5に示す収録データから異なる組み合わせで部分
波形データを選択するようにすると、1つの収録データ
から複数の音色データを作成することができる。そし
て、本発明にかかる波形データ録音再生装置1では、こ
のようにして作成された音色セットを用いて自動演奏や
リアルタイム演奏を行うことができるようにされてい
る。
The partial waveform management database in the tone color set thus created includes the start position and the end position of the storage area in the partial waveform pool and the partial waveform in the partial waveform data selected according to the tone color management information. Data attribute information is recorded. The timbre parameters included in the timbre management information are stored in the timbre parameter storage area as they are, and the timbre parameters record the envelope parameters and filter coefficients of the timbre. For the tone color data created for each tone color in the tone color set, a plurality of tone color data can be created from one piece of recorded data by selecting partial waveform data in a different combination from the recorded data shown in FIG. In the waveform data recording / reproducing apparatus 1 according to the present invention, an automatic performance or a real-time performance can be performed using the tone color set thus created.

【0028】前記部分波形プールに記憶されている音色
管理情報に従って選択された部分波形の属性情報等が記
録されている部分波形管理データベースのデータ構成を
図7に示す。部分波形管理データベースは、部分波形プ
ールに記憶されている部分波形1,部分波形2,部分波
形3,部分波形4・・・の部分波形毎の特性を示す部分
波形1レコード,部分波形2レコード,部分波形3レコ
ード,部分波形4レコード・・・・のレコード情報から
構成されている。各レコード情報のデータ構成は同様と
されており、部分波形3レコードのデータ構成の詳細が
図7に示されている。すなわち、部分波形3レコードで
代表されるレコード情報は、部分波形のID(PWI
D)、部分波形の名前(PWNAM)、部分波形の作成
日(PWDAT)、部分波形の作成者(PWAUT)を
含んでいる。この、部分波形のIDは図8に示すように
フレーズ波形ID(上位10ビット)と部分波形ID
(下位6ビット)とから構成されている。なお、フレー
ズ波形IDは、部分波形を切り出した切り出し元のフレ
ーズ波形のフレーズ波形IDであり、部分波形ナンバ
は、そのフレーズ波形から何番目に切り出した部分波形
かを示す番号とされている。このような構成の部分波形
のID(PWID)とすることにより、当該部分波形の
切り出し元であるフレーズ波形を特定することができる
ようになり、ユーザが部分波形を選択する時に、その切
り出し元のフレーズ波形を聴いてどういう素性の部分波
形であるかを確認することができるようになる。
FIG. 7 shows a data structure of a partial waveform management database in which attribute information and the like of a partial waveform selected according to the tone color management information stored in the partial waveform pool are recorded. The partial waveform management database stores a partial waveform 1 record, a partial waveform 2 record, and a partial waveform showing characteristics of each partial waveform of the partial waveform 1, the partial waveform 2, the partial waveform 3, the partial waveform 4,... It is composed of record information of three partial waveform records, four partial waveform records,.... The data structure of each record information is the same, and the details of the data structure of three partial waveform records are shown in FIG. That is, the record information represented by the three partial waveform records is the ID of the partial waveform (PWI
D), the partial waveform name (PWNAM), the partial waveform creation date (PWDAT), and the partial waveform creator (PWAUT). The IDs of the partial waveforms are the phrase waveform ID (upper 10 bits) and the partial waveform ID as shown in FIG.
(Lower 6 bits). Note that the phrase waveform ID is the phrase waveform ID of the phrase waveform from which the partial waveform was cut out, and the partial waveform number is a number indicating the order of the partial waveform cut out from the phrase waveform. By using the ID (PWID) of the partial waveform having such a configuration, the phrase waveform from which the partial waveform is extracted can be specified. When the user selects the partial waveform, the source of the partial waveform is selected. By listening to the phrase waveform, it becomes possible to confirm what kind of characteristic partial waveform is.

【0029】さらに、各レコード情報は、部分波形デー
タにおけるその音の音高(PWPIT)、強度(PWI
NT)、音長(PWLEN)の各情報と、その音と次音
との2音の関係を示す次音の音高比(PWFPR)、次
音の強度比(PWFIR)、次音の音長比(PWFL
R)と、その音と前音との2音の関係を示す前音の音高
比(PWBPR)、前音の強度比(PWBIR)、前音
の音長比(PWBLR)の各情報を含んでいる。なお、
これらの情報の内の比の情報は、比に限るものではなく
差の情報としてもよい。ところで、これらのレコード情
報における各情報は、属性付与情報処理で付与される属
性情報における各情報と対応している。その対応関係は
次の通りである。レ コ ー ド 情 報 属 性 情 報 音高(PWPIT) 音高情報 強度(PWINT) 強度情報 音長(PWLEN) 音長情報 次音の音高比(PWFPR) 後音情報 次音の強度比(PWFIR) 後音情報 次音の音長比(PWFLR) 後音情報 前音の音高比(PWBPR) 前音情報 前音の強度比(PWBIR) 前音情報 前音の音長比(PWBLR) 前音情報 前述したように、これらの情報の値は、各部分波形デー
タの切り出し後に、その切り出し元であるフレーズ波形
データに対応する演奏データのその切り出し位置に対応
する音符のイベント、および、その前後の音符のイベン
トに基づいて自動決定されている。しかしながら、ユー
ザが各情報の値を個別に入力したり、その自動決定され
た各情報の値を変更できるようにしてもよい。
Further, each record information includes a pitch (PWPIT) and an intensity (PWI) of the sound in the partial waveform data.
NT), pitch (PWLEN), the pitch ratio of the next note (PWFPR), the intensity ratio of the next note (PWFIR), and the pitch of the next note indicating the relationship between the two notes of the note and the next note Ratio (PWFL
R) and information on the pitch ratio of the preceding sound (PWBPR), the intensity ratio of the preceding sound (PWBIR), and the pitch ratio of the preceding sound (PWBLR), which indicate the relationship between the two sounds of the preceding sound and the preceding sound. In. In addition,
The information of the ratio among these pieces of information is not limited to the ratio, and may be difference information. By the way, each piece of information in these pieces of record information corresponds to each piece of information in the attribute information added in the attribute assignment information processing. The correspondence is as follows. Les code information attribute information pitch (PWPIT) pitch information strength (PWINT) intensity information tone length (PWLEN) pitch ratio of the sound length information Tsugion (PWFPR) following tone information Tsugion intensity ratio ( PWFIR) Back sound information Next sound pitch ratio (PWFLR) Back sound information Previous sound pitch ratio (PWBPR) Previous sound information Previous sound intensity ratio (PWBIR) Previous sound information Previous sound pitch ratio (PWBLR) Previous Sound information As described above, the values of these information are, after clipping of each partial waveform data, the event of the note corresponding to the cut position of the performance data corresponding to the phrase waveform data from which the partial waveform data is cut, and the before and after events. The note is automatically determined based on the event. However, a configuration may be adopted in which the user can individually input the value of each piece of information or change the value of each piece of information automatically determined.

【0030】さらに、部分波形プールの記憶領域におけ
る当該部分波形が保存されているスタートアドレス(P
WSA)、エンドアドレス(PWEA)、ビートアドレ
ス(PWBA)、ループアドレス(PWLA)の各情報
が含まれている。この場合、スタートアドレスとエンド
アドレスは必須の情報であるが、ビートアドレス、ルー
プアドレスはなくてもよい。なお、ビートアドレスは、
部分波形におけるビート位置(拍を感じる位置)を示し
ており、部分波形データを使用する時は、このビート位
置を、演奏データの音符のタイミングに合わせるように
する。このビートアドレスは、例えばソフトに演奏され
た演奏データとされて、演奏された各音符のスタート位
置が明確でない場合に好適な情報となる。さらに、ルー
プアドレスは、部分波形中の変化の少ない定常的な部分
をループ波形の繰り返しに置き換えた場合における、そ
のループ波形のアドレスである。なお、ループにより部
分波形を短縮した場合でも、部分波形の音長(PWLE
N)情報は変化しない。このように、音長(PWLE
N)情報は波形データの長さではなく、その音が演奏さ
れたときの音符の長さを示す情報とされている。
Further, a start address (P) in the storage area of the partial waveform pool where the partial waveform is stored.
WSA), end address (PWEA), beat address (PWBA), and loop address (PWLA). In this case, the start address and the end address are essential information, but the beat address and the loop address may not be provided. The beat address is
A beat position (a position at which a beat is felt) in the partial waveform is shown. When the partial waveform data is used, the beat position is set to the timing of the musical note in the performance data. The beat address is, for example, performance data played by software, and is suitable information when the start position of each played note is not clear. Further, the loop address is the address of the loop waveform when a steady portion having little change in the partial waveform is replaced with the repetition of the loop waveform. Even when the partial waveform is shortened by the loop, the sound duration (PWLE) of the partial waveform is
N) Information does not change. Thus, the sound duration (PWLE)
N) The information is not the length of the waveform data but information indicating the length of the note when the sound is played.

【0031】さらにまた、部分波形管理データベースに
はスラーの程度(PWSLR)、ビブラート深さ(PW
VIB)およびその他の情報が含まれている。ここで、
スラーの程度の値は、前音のノートオンと現音のノート
オンが重なっており、その重なりが小さく、かつ、前音
と現音の強度差が小さいほど大きくなる。また、ビブラ
ートの深さは、部分波形データのピッチの揺れ幅の同部
分波形データの基本ピッチに対する比である。なお、上
述した部分波形管理データベースを、部分波形のスター
トアドレス、エンドアドレス等のアドレス情報を記憶す
るデータベースと、部分波形を検索するための部分波形
の残りの情報を記憶するデータベースの2つに分離して
もよい。この場合、部分波形の選択に必要なのは、後者
の検索用のデータベースのみとなり、前者のアドレス情
報のデータベースを音源16に内蔵するようにすれば、
CPU10の行うべき処理を軽減することができる。
Further, the degree of slur (PWSLR) and the vibrato depth (PW
VIB) and other information. here,
The value of the degree of the slur is such that the note-on of the previous sound and the note-on of the current sound overlap, and the overlap is small and the intensity difference between the previous sound and the current sound is small. The vibrato depth is the ratio of the fluctuation width of the pitch of the partial waveform data to the basic pitch of the same partial waveform data. The above-described partial waveform management database is divided into two databases: a database that stores address information such as a start address and an end address of the partial waveform, and a database that stores the remaining information of the partial waveform for searching for the partial waveform. May be. In this case, only the latter search database is required to select the partial waveform, and if the former address information database is incorporated in the sound source 16,
The processing to be performed by the CPU 10 can be reduced.

【0032】ここで、図5のようなデータ構成を有する
音色セット作成ツールにおいて、図6ないし図8に示す
演奏用の音色セットを作成する手順を示す図9のフロー
チャートに従って、その手順をまとめて説明する。な
お、この手順は音色セットを作成するユーザが行う手順
である。まず、音色セットを作成するユーザは、録音パ
ートに必要な音高の音符を少なくとも含む複数フレーズ
の演奏データを図5の演奏データ記憶領域に用意する
(ステップS1)。この場合、録音に必要な特徴情報を
有する音符としては、音高に加えて音長、ベロシティ、
前音情報、前音との音高差等の特徴情報を有する音符を
含むフレーズの演奏データとしてもよい。次いで、用意
した複数フレーズの演奏データに基づいて波形データ録
音再生装置1において自動演奏された楽音を演奏者に供
給しながら、演奏者が演奏あるいは歌唱したフレーズ波
形を波形データ録音再生装置1の図5のいずれかのフレ
ーズ波形記憶領域に収録する(ステップS2)。
Here, in the tone color set creation tool having the data configuration as shown in FIG. 5, the procedure is summarized in accordance with the flowchart of FIG. 9 showing the procedure for creating the tone color set for performance shown in FIGS. explain. This procedure is performed by a user who creates a tone color set. First, a user who creates a tone color set prepares performance data of a plurality of phrases including at least a note having a pitch required for a recording part in a performance data storage area of FIG. 5 (step S1). In this case, notes having characteristic information necessary for recording include pitch, velocity, velocity,
Performance data of a phrase including a note having characteristic information such as preceding sound information and a pitch difference from the preceding sound may be used. Next, while the musical tone automatically played by the waveform data recording / reproducing apparatus 1 is supplied to the player based on the prepared performance data of a plurality of phrases, the phrase waveform played or sung by the player is displayed on the waveform data recording / reproducing apparatus 1. 5 is recorded in any one of the phrase waveform storage areas (step S2).

【0033】この収録されたフレーズ波形データに対し
て、波形データ録音再生装置1において、収録データに
おける演奏データに基づいて、フレーズ波形データに分
割処理が施されて部分波形データに分割されると共に、
分割された部分波形データに対応する音符に関連した属
性情報が付与される。分割された各部分波形データのス
タート位置、終了位置、および各部分波形に付与された
属性情報は、各部分波形の部分波形管理情報として図5
の部分波形管理情報記憶領域に記憶される(ステップS
3)。次いで、ユーザの操作子操作に応じて、部分波形
データを選択的に組み合わせると共に、エンベロープパ
ラメータ等の音色パラメータを用意し、選択された部分
波形データを示す選択情報と用意された音色パラメータ
を音色管理情報として図5の音色管理情報記憶領域に記
憶する(ステップS4)。
The recorded phrase waveform data is divided by the waveform data recording / reproducing apparatus 1 into partial waveform data based on the performance data in the recorded data, so that the phrase waveform data is divided into partial waveform data.
Attribute information related to a note corresponding to the divided partial waveform data is added. The start position and end position of each of the divided partial waveform data and the attribute information given to each of the partial waveforms are used as partial waveform management information of each of the partial waveforms in FIG.
Is stored in the partial waveform management information storage area (step S
3). Next, the partial waveform data is selectively combined according to the operation of the user, and tone parameters such as an envelope parameter are prepared, and the selection information indicating the selected partial waveform data and the prepared tone parameters are stored in the tone management. The information is stored in the tone color management information storage area of FIG. 5 (step S4).

【0034】以上のステップS1ないしステップS4の
手順によって完成した1音色分の音色データに基づい
て、次のようにして図6の音色セットの1音色分の音色
データが記憶領域に用意される。まず、図5のフレーズ
波形記憶領域に記憶された複数の部分波形データのう
ち、音色管理情報中の選択情報により選択された部分波
形データが図6の当該音色の部分波形プールにコピーさ
れ、そのコピー後の各部分波形データのスタート位置と
終了位置、および、コピーされた各部分波形データのI
Dや名前、作成者等を含む属性情報が図6の部分波形管
理データベースに記憶される。次に、図5の音色管理情
報中の音色パラメータが、図6の当該音色の音色パラメ
ータ記憶領域にコピーされる。最後に、当該音色のタイ
プ、音色名、音色データ容量等を示すヘッダ情報が図6
のヘッダ領域に記憶され、音色セット中の演奏用の音色
データが完成する。なお、ステップS3において、フレ
ーズ波形データの部分波形データへの分割位置や付与さ
れる属性情報を自動的に決定した後、その分割位置や属
性情報をユーザが任意に修正できるようにしてもよい。
Based on the timbre data for one timbre completed by the above steps S1 to S4, timbre data for one timbre of the timbre set of FIG. 6 is prepared in the storage area as follows. First, among the plurality of partial waveform data stored in the phrase waveform storage area of FIG. 5, the partial waveform data selected by the selection information in the timbre management information is copied to the partial waveform pool of the timbre of FIG. Start position and end position of each partial waveform data after copying, and I of each copied partial waveform data
Attribute information including D, name, creator, etc. is stored in the partial waveform management database of FIG. Next, the timbre parameters in the timbre management information of FIG. 5 are copied to the timbre parameter storage area of the timbre of FIG. Finally, header information indicating the type of the timbre, the timbre name, the timbre data capacity, and the like is shown in FIG.
And the tone color data for performance in the tone color set is completed. In step S3, after automatically determining the division position of the phrase waveform data into the partial waveform data and the attribute information to be added, the user may be able to arbitrarily modify the division position and the attribute information.

【0035】次に、本発明にかかる波形データ録音再生
装置1において図6に示す演奏用の音色セットを自動演
奏に適用するには、自動演奏する前に予め演奏データを
加工するようにする。この演奏データは、自動演奏をユ
ーザが所望する任意の演奏データである。そこで、音色
セットを自動演奏に適用した際の演奏データ加工処理の
フローチャートを図10に示し、その説明を以下に行
う。図10に示す演奏データ加工処理が起動されると、
ステップS10にて処理したい演奏データが指定され
る。この指定は、ユーザがROM12あるいはRAM1
3内に記憶されている演奏データの内の自動演奏したい
演奏データを指定する。ここでは、簡単化のため該演奏
データは1パート構成の単旋律の演奏データとする。次
いで、ステップS11にてポインタを指定された演奏デ
ータの先頭の音符に設定する。そして、ステップS12
にてポインタが指し示す音符(この場合は演奏データの
先頭の音符)における、音高、強度(ベロシティ)、音
長、前音/次音の音高比、前音/次音の強度比、前音/
次音の音長比等の特徴情報により、音色セットにおける
指定されている音色の部分波形管理データベースにおけ
る検索用の情報を検索して、最適の部分波形データを検
出する。
Next, to apply the performance timbre set shown in FIG. 6 to the automatic performance in the waveform data recording / reproducing apparatus 1 according to the present invention, the performance data is processed in advance before the automatic performance. The performance data is arbitrary performance data desired by the user for automatic performance. Accordingly, a flowchart of performance data processing when a tone color set is applied to an automatic performance is shown in FIG. 10, and the description thereof will be given below. When the performance data processing shown in FIG. 10 is started,
In step S10, performance data to be processed is specified. This designation is made by the user in the ROM 12 or RAM 1
3 designates the performance data to be automatically played out of the performance data stored in the memory 3. Here, for the sake of simplicity, the performance data is a single-melody performance data having a one-part configuration. Next, in step S11, the pointer is set to the first note of the specified performance data. Then, step S12
At the note indicated by the pointer (in this case, the first note of the performance data), pitch, intensity (velocity), pitch, previous / next note pitch ratio, previous / next note intensity ratio, previous note sound/
Based on the characteristic information such as the sound length ratio of the next sound, information for search in the partial waveform management database of the specified timbre in the timbre set is searched, and optimal partial waveform data is detected.

【0036】次いで、ステップS13にてポインタが指
し示す音符に対応して検出された最適の部分波形データ
を指定する指定情報を、演奏データに埋め込む。具体的
には、その音符に対応する演奏イベントデータの直前
に、メタイベントやシステムエクスクルーシブメッセー
ジとされた部分波形データの指定情報を挿入するように
する。続いて、ステップS14にて次の音符にポインタ
が移動され、ステップS15にて移動先に音符があるか
否かが判定され、音符があればステップS12に戻る。
このように音符があれば、ステップS12ないしステッ
プS15の処理が繰り返し行われるようになり、その処
理毎に1つの音符に対応する最適の部分波形データの指
定情報が演奏データ中に埋め込まれるようになる。そし
て、演奏データの最後の音符に対する部分波形データの
指定情報の埋め込みが終了すると、ステップS15にて
音符がないと判定されて、ステップS16に進む。ステ
ップS16では、このようにして部分波形データの指定
情報の埋め込まれた演奏データを別の名前で保存する処
理が行われる。以上の処理が終了すると、演奏データ加
工処理は終了する。加工後の演奏データを指定して、波
形データ録音再生装置1で自動演奏すると、演奏データ
中の各音符の開始タイミング(ノートオンタイミング)
毎に、そのノートオンイベントの直前に埋め込まれた指
定情報で指定された部分波形データがHDD23から読
み出され、ノートオンに対応した音色パラメータと共に
再生回路24に送られる。このようにして、演奏データ
中の各音符に対応した楽音が、指定された部分波形デー
タに基づいて生成され自動演奏されるようになる。
Next, in step S13, designating information for designating the optimum partial waveform data detected corresponding to the note indicated by the pointer is embedded in the performance data. Specifically, immediately before the performance event data corresponding to the note, the designation information of the partial waveform data which is a meta event or a system exclusive message is inserted. Subsequently, in step S14, the pointer is moved to the next note. In step S15, it is determined whether or not there is a note at the movement destination. If there is a note, the process returns to step S12.
If there is a note in this way, the processes of steps S12 to S15 are repeatedly performed, and the designation information of the optimum partial waveform data corresponding to one note is embedded in the performance data for each process. Become. When the embedding of the specification information of the partial waveform data into the last note of the performance data is completed, it is determined in step S15 that there is no note, and the process proceeds to step S16. In step S16, a process of storing the performance data, in which the designation information of the partial waveform data is embedded, under another name is performed. When the above processing ends, the performance data processing processing ends. When the performance data after processing is designated and the waveform data recording / reproducing apparatus 1 automatically performs, the start timing (note-on timing) of each note in the performance data
Each time, the partial waveform data specified by the specification information embedded immediately before the note-on event is read from the HDD 23 and sent to the reproduction circuit 24 together with the tone color parameter corresponding to the note-on. In this way, a musical tone corresponding to each note in the performance data is generated based on the specified partial waveform data and automatically played.

【0037】なお、ステップS13において部分波形デ
ータの指定情報をメタイベントやシステムエクスクルー
シブとして埋め込むようにしたが、それに限らず、該指
定情報をこれ以外のイベントとして埋め込むようにして
もよい。また、自動演奏したい演奏データが複数パート
の演奏データである場合には、図10の処理をその中の
所望の1つのパートだけに対して行ってもよいし、ある
いは、その中の任意の複数のパートに対して行ってもよ
い。さらに、図10の処理は、単旋律の演奏データだけ
でなく、同時に複数の音符が重なるような演奏データで
もよい。ただし、前音、後音が上か下か、前音/後音と
の音高差等の特徴情報に基づいて部分波形データを選択
したい場合には、処理される演奏データは、全て単旋律
の演奏データである必要がある。
In step S13, the designation information of the partial waveform data is embedded as a meta event or a system exclusive. However, the present invention is not limited to this, and the designation information may be embedded as other events. If the performance data to be automatically played is performance data of a plurality of parts, the processing of FIG. 10 may be performed only on a desired one of the parts, or an arbitrary plurality of the parts may be performed. It may be performed for the part of. Further, the processing in FIG. 10 may be not only performance data of a single melody but also performance data in which a plurality of notes are simultaneously overlapped. However, if it is desired to select partial waveform data based on characteristic information such as whether the preceding sound or the succeeding sound is upper or lower, or the pitch difference between the preceding sound and the succeeding sound, the performance data to be processed is all monophonic. Must be performance data.

【0038】ここで、図10に示す演奏データ加工処理
におけるステップS12で行われる部分波形選択処理の
詳細を示すフローチャートを図11に示す。図11に示
す部分波形選択処理では、ステップS30にて現音の音
高(PPIT)、現音の強度(PINT)、現音の音長
(PLEN)の現音データが取得される。次いで、ステ
ップS31にて次音の音高(FPIT)、次音の強度
(FINT)、次音の音長(FLEN)の次音データが
取得される。さらに、ステップS32にて前音の音高
(BPIT)、前音の強度(BINT)、前音の音長
(BLEN)の前音データが取得される。次いで、取得
されたデータを用いてステップS33にて次音の音高比
(FPR)と前音の音高比(BPR)が、次に示す
(1)式および(2)式により算出される。 FPR=(FPIT−PPIT)/PPIT (1) BPR=(BPIT−PPIT)/PPIT (2)
FIG. 11 is a flowchart showing the details of the partial waveform selection process performed in step S12 in the performance data processing process shown in FIG. In the partial waveform selection processing shown in FIG. 11, in step S30, current sound data of the current sound pitch (PPIT), the current sound intensity (PINT), and the current sound pitch (PLEN) are obtained. Next, in step S31, next sound data of the next sound pitch (FPIT), the next sound intensity (FINT), and the next sound pitch (FLEN) are obtained. Further, in step S32, preceding sound data of the pitch of the preceding sound (BPIT), the intensity of the preceding sound (BINT), and the length of the preceding sound (BLEN) are obtained. Next, in step S33, the pitch ratio of the next sound (FPR) and the pitch ratio of the previous sound (BPR) are calculated using the acquired data by the following equations (1) and (2). . FPR = (FPIT-PPIT) / PPIT (1) BPR = (BPIT-PPIT) / PPIT (2)

【0039】さらに、取得されたデータを用いてステッ
プS34にて次音の強度比(FIR)と前音の強度比
(BIR)が、次に示す(3)式および(4)式により
算出される。 FIR=(FINT−PINT)/PINT (3) BIR=(BINT−PINT)/PINT (4) さらにまた、取得されたデータを用いてステップS35
にて次音の音長比(FLR)と前音の音長比(BLR)
が、次に示す(5)式および(6)式により算出され
る。 FLR=(FLEN−PLEN)/PLEN (5) BLR=(BLEN−PLEN)/PLEN (6) さらにまた、ステップS36にてその他の検出が行われ
るが、この検出では、次音との重なり時間、前後複数音
での強度のばらつき等に基づいて、スラーの程度を検出
したり、ピッチベンドデータの揺れ幅を、ビブラート深
さとして検出する。
Further, the intensity ratio of the next sound (FIR) and the intensity ratio of the preceding sound (BIR) are calculated by the following equations (3) and (4) at step S34 using the acquired data. You. FIR = (FINT-PINT) / PINT (3) BIR = (BINT-PINT) / PINT (4) Furthermore, using the acquired data, step S35 is performed.
At the pitch ratio of the next sound (FLR) and the pitch ratio of the previous sound (BLR)
Is calculated by the following equations (5) and (6). FLR = (FLEN-PLEN) / PLEN (5) BLR = (BLEN-PLEN) / PLEN (6) Further, other detections are performed in step S36. The degree of slur is detected on the basis of the variation in the intensity of a plurality of preceding and succeeding sounds, and the swing width of the pitch bend data is detected as the vibrato depth.

【0040】ステップS30において取得された現音の
音高(PPIT)、現音の強度(PINT)、現音の音
長(PLEN)と、ステップS33ないしステップS3
5にて算出された次音の音高比(FPR)、前音の音高
比(BPR)、次音の強度比(FIR)、前音の強度比
(BIR)、次音の音長比(FLR)、前音の音長比
(BLR)の比の情報と、ステップS36で検出された
情報は、ポインタが指し示している音符の音の特徴情報
となる。そこで、ステップS37にてこの特徴情報と各
部分波形の特徴情報とのパターン比較を行うことによ
り、両者の特徴情報が最も合致する部分波形を選択す
る。この選択された部分波形のIDをSPWIDレジス
タに保存する。これにより、ステップS12における部
分波形選択処理は終了する。
The pitch of the current sound (PPIT), the intensity of the current sound (PINT), the length of the current sound (PLEN) obtained in step S30, and steps S33 to S3
5, the pitch ratio of the next sound (FPR), the pitch ratio of the previous sound (BPR), the intensity ratio of the next sound (FIR), the intensity ratio of the previous sound (BIR), the pitch ratio of the next sound (FLR), the information of the ratio of the length ratio of the preceding sound (BLR), and the information detected in step S36 become characteristic information of the sound of the note indicated by the pointer. Then, in step S37, a pattern comparison between the characteristic information and the characteristic information of each partial waveform is performed to select a partial waveform that has the best matching characteristic information of both. The ID of the selected partial waveform is stored in the SPWID register. Thus, the partial waveform selection processing in step S12 ends.

【0041】ところで、ステップS37にて実行される
パターン比較の処理は、図12に示すフローチャートの
ようになる。このパターン比較の処理では、ステップS
40にてポインタが指し示している音符に対応する現音
の音高(PPIT)、現音の強度(PINT)、現音の
音長(PLEN)を、各部分波形における音の音高(P
WPIT)、強度(PWINT)、音長(PWLEN)
とそれぞれ比較し、その比較結果に基づいて計算量を削
減するために候補となる部分波形を絞り込む。絞り込み
方法の一例を上げると、まず、部分波形の音の音高(P
WPIT)と現音の音高(PPIT)の差が範囲ΔP
に、部分波形の音の強度(PWINT)と現音の強度
(PINT)の差が範囲ΔIに、部分波形の音の音長
(PWLEN)と現音の音長(PWLEN)の差が範囲
ΔLに、それぞれ含まれる部分波形を選択する。この場
合、選択された部分波形数が少なすぎる場合は、範囲Δ
P,ΔI,ΔLを広げて(条件を緩和して)、その範囲
に従い部分波形の選択を再び実行する。ただし、選択さ
れた部分波形の数として十分な部分波形数が得られてい
る場合は、絞り込み処理を終了する。また、次のような
絞り込み方法としてもよい。まず、全ての部分波形につ
いて、音高、強度、音長に関しての各部分波形と現音と
の類似度を調べるために、両者の離れ具合を示す後述す
る距離(PND)を算出する。ついで、類似する順であ
る距離(PND)の小さい順に、n個の部分波形を選択
する。
The pattern comparison process executed in step S37 is as shown in the flowchart of FIG. In this pattern comparison process, step S
The pitch (PPIT), intensity (PINT), and duration (PLEN) of the current sound corresponding to the note indicated by the pointer at 40 are represented by the pitch (P) of the sound in each partial waveform.
WPIT), intensity (PWINT), duration (PWLEN)
Are compared with each other, and based on the comparison result, candidate partial waveforms are narrowed down in order to reduce the amount of calculation. As an example of a narrowing-down method, first, the pitch (P
WPIT) and the pitch of the current sound (PPIT) are in the range ΔP
The difference between the sound intensity of the partial waveform (PWINT) and the intensity of the current sound (PINT) is in the range ΔI, and the difference between the sound length of the partial waveform sound (PWLEN) and the sound length of the current sound (PWLEN) is in the range ΔL. Then, the partial waveforms respectively included are selected. In this case, if the number of selected partial waveforms is too small, the range Δ
P, ΔI, and ΔL are expanded (the conditions are relaxed), and the selection of the partial waveform is executed again according to the range. However, if a sufficient number of partial waveforms has been obtained as the number of selected partial waveforms, the narrowing-down process ends. Further, the following narrowing method may be used. First, for all partial waveforms, a distance (PND), which will be described later, indicating the degree of separation between each partial waveform and the current sound is calculated in order to check the similarity between each partial waveform regarding pitch, intensity, and duration. Next, n partial waveforms are selected in ascending order of distance (PND), which is a similar order.

【0042】このようにして部分波形を絞り込んだら、
ステップS41にて絞り込まれた各部分波形とポインタ
が指し示している音符の音における音高、強度、音長に
関しての距離(PND)を、次に示す(7)式により算
出する。ただし、ステップS40にて(7)式を用いて
距離(PND)を算出している場合は、このステップは
スキップする。 PND2=ap(PPIT−PWPIT)2+bp(PINT−PWINT)2 +cp(PLEN−PWLEN)2 (7) ただし、(7)式においてap,bp,cpは、PND
算出用の係数である。また、ステップS42にて絞り込
まれた各部分波形における次音の音高比、強度比、音長
比と、ポインタが指し示している音符の音における次音
の音高比、強度比、音長比とに関しての距離(FND)
を、次に示す(8)式により算出する。 FND2=af(FPR−PWFPR)2+bf(FIR−PWFIR)2 +cf(FLR−PWFLR)2 (8) ただし、(8)式においてaf,bf,cfは、FND
算出用の係数である。
After narrowing down the partial waveform in this way,
The distance (PND) regarding the pitch, intensity, and duration of each of the partial waveforms narrowed down in step S41 and the note indicated by the pointer is calculated by the following equation (7). However, if the distance (PND) is calculated using the equation (7) in step S40, this step is skipped. PND 2 = ap (PPIT-PWPIT) 2 + bp (PINT-PWINT) 2 + cp (PLEN-PWLEN) 2 (7) where ap, bp and cp are PND
This is a coefficient for calculation. Also, the pitch ratio, intensity ratio, and pitch ratio of the next note in each partial waveform narrowed down in step S42, and the pitch ratio, intensity ratio, and pitch ratio of the next note in the note of the note indicated by the pointer Distance to (FND)
Is calculated by the following equation (8). FND 2 = af (FPR-PWFPR) 2 + bf (FIR-PWFIR) 2 + cf (FLR-PWFLR) 2 (8) where af, bf, cf are FND
This is a coefficient for calculation.

【0043】さらに、ステップS43にて絞り込まれた
各部分波形における前音の音高比、強度比、音長比と、
ポインタが指し示している音符の音における前音の音高
比、強度比、音長比とに関しての距離(BND)を、次
に示す(9)式により算出する。 BND2=ab(BPR−PWBPR)2+bb(BIR−PWBIR)2 +cb(BLR−PWBLR)2 (9) ただし、(9)式においてab,bb,cbは、BND
算出用の係数である。次いで、ステップS41ないしス
テップS43にて算出された距離(PND)、距離(F
ND)、距離(BND)を用いて次に示す式(10)に
より部分波形とポインタが指し示している音符との全体
としての類似度を示す総合距離(TOTALD)をステ
ップS44にて算出する。 TOTALD=at・PND+bt・FND+ct・BND (10) ただし、(10)式においてat,bt,ctは、TO
TALD算出用の係数であり、これらの係数の傾向とし
てはat>ct>btの順の大きさとされる。以上説明
した、PND算出用の係数、FND算出用の係数、BN
D算出用の係数、TOTALD算出用の係数は、任意の
1つないし複数をゼロとすることにより、対応する要素
を距離の計算に組み入れないようにすることができる。
Further, the pitch ratio, intensity ratio, length ratio of the preceding sound in each partial waveform narrowed down in step S43, and
The distance (BND) with respect to the pitch ratio, intensity ratio, and length ratio of the preceding sound in the sound of the note indicated by the pointer is calculated by the following equation (9). BND 2 = ab (BPR-PWBPR) 2 + bb (BIR-PWBIR) 2 + cb (BLR-PWBLR) 2 (9) where ab, bb and cb are BND
This is a coefficient for calculation. Next, the distance (PND) and the distance (F) calculated in steps S41 to S43 are calculated.
Using ND) and distance (BND), the total distance (TOTALD) indicating the overall similarity between the partial waveform and the note pointed to by the pointer is calculated in step S44 by the following equation (10). TOTALD = at · PND + bt · FND + ct · BND (10) where at, bt, ct are TO
These are coefficients for calculating TALD, and the tendency of these coefficients is in the order of at>ct> bt. As described above, the coefficients for calculating the PND, the coefficients for calculating the FND, and the BN
By setting any one or more of the coefficients for calculating D and the coefficient for calculating TOTALD to zero, the corresponding element can be prevented from being included in the distance calculation.

【0044】ステップS44にて絞り込まれた各部分波
形について総合距離(TOTALD)が算出されたら、
ステップS45にて算出された総合距離(TOTAL
D)が一番小さい部分波形を選択して、そのIDをSP
WIDレジスタに保存する。これにより、パターン比較
処理は終了する。なお、演奏データ加工処理におけるス
テップS12においては、演奏データにおけるポインタ
が指し示す音符の現時点データが如何なる状態とされて
いても、いずれかの部分波形を1つ選択するようにされ
ている。ただし、現時点データと属性データとの合致度
に最低条件を設けて、いずれの部分波形の属性データも
離れ過ぎて類似していないときは、”該当する部分波形
なし”という判断ができるようにしてもよい。そして、
部分波形なしと判断された場合には、ユーザに警告した
り、部分波形の代りに通常の波形メモリ音源で発音した
りするのが好適である。さらに、部分波形を1つだけ選
択するのではなく、2番目の候補、3番目の候補・・・
を自動選択しておき、ユーザの指示に応じてその候補中
から1つの部分波形を選択できるようにしてもよい。
When the total distance (TOTALD) is calculated for each of the narrowed partial waveforms in step S44,
The total distance (TOTAL calculated in step S45)
D) Select the partial waveform with the smallest value and set its ID to SP
Save in WID register. Thus, the pattern comparison processing ends. In step S12 in the performance data processing, one of the partial waveforms is selected regardless of the state of the current data of the note indicated by the pointer in the performance data. However, a minimum condition is set for the matching degree between the current data and the attribute data, and when the attribute data of any of the partial waveforms are too far apart and are not similar, it can be determined that “there is no corresponding partial waveform”. Is also good. And
When it is determined that there is no partial waveform, it is preferable to warn the user or to generate a sound with a normal waveform memory sound source instead of the partial waveform. Further, instead of selecting only one partial waveform, a second candidate, a third candidate,...
May be automatically selected, and one partial waveform can be selected from the candidates in accordance with a user's instruction.

【0045】次に、本発明にかかる波形データ録音再生
装置1において音色セットをリアルタイム演奏に適用し
た際のノートオンイベント処理のフローチャートを図1
3に示し、その説明を以下に行う。操作子15に含まれ
ている鍵盤を押鍵してノートオンイベントが発生した
り、MIDIインタフェース25を介してノートオンイ
ベントが供給されると、ノートオンイベント処理が起動
され、ステップS20にて発生されたノートオンイベン
トにおける音高や強度等の情報に基づいて音色セットに
おける指定されている音色の部分波形管理データベース
の属性情報を検索して、最適の部分波形データが選択さ
れる。この場合の部分波形データの選択基準を、(1)
当該ノートオンの音高、(2)当該ノートオンの音高と
強度、(3)当該ノートオンの音高、および、前音の音
高が上か下かの情報、(4)当該ノートオンの音高、お
よび、前音の音高との音高差、(5)その他、当該ノー
トオンと前音の強度等の情報の組合せ、としてもよい。
FIG. 1 is a flowchart of a note-on event process when a timbre set is applied to a real-time performance in the waveform data recording / reproducing apparatus 1 according to the present invention.
3 and the description is given below. When a note-on event is generated by pressing a key included in the operation unit 15 or a note-on event is supplied via the MIDI interface 25, a note-on event process is started and generated in step S20. The attribute information of the partial waveform management database of the designated timbre in the timbre set is searched based on the information such as the pitch and the intensity in the note-on event, and the optimal partial waveform data is selected. The selection criterion for the partial waveform data in this case is (1)
(2) the pitch and intensity of the note-on, (3) the pitch of the note-on, and information on whether the pitch of the previous note is up or down, (4) the note-on (5) Other combinations of information such as the note-on and the intensity of the previous sound, and the like.

【0046】ノートオンイベントに対応する最適の部分
波形データが選択されると、ステップS21にて再生回
路24において発音するチャンネルが割り当てられ、ス
テップS22にて割り当てられた発音チャンネルに選択
された部分波形データの情報や音色パラメータ等が設定
される。この場合、ノートオンイベントにおける音高と
選択された部分波形データの音高との音高差に基づいて
ピッチシフト量も設定される。次いで、ステップS23
にて割り当てられた発音チャンネルにノートオンが送出
され、再生回路24は設定された部分波形データおよび
音色パラメータやピッチシフト量に基づいて楽音波形を
再生する。ノートオンイベントに対応する楽音波形が再
生されたらノートオンイベント処理は終了し、リアルタ
イム演奏に基づくノートオンイベントが再度発生する
と、ノートオンイベント処理が再度起動されて上記した
ノートオンイベントに対応する楽音波形を再生する処理
が繰り返し行われるようになる。
When the optimum partial waveform data corresponding to the note-on event is selected, a channel to be sounded by the reproducing circuit 24 is assigned in step S21, and the selected partial waveform is assigned to the sound channel assigned in step S22. Data information and tone parameters are set. In this case, the pitch shift amount is also set based on the pitch difference between the pitch at the note-on event and the pitch of the selected partial waveform data. Next, step S23
The note-on is transmitted to the tone generation channel assigned by, and the reproduction circuit 24 reproduces the tone waveform based on the set partial waveform data, the tone color parameter, and the pitch shift amount. When the musical tone waveform corresponding to the note-on event is reproduced, the note-on event process ends, and when a note-on event based on the real-time performance occurs again, the note-on event process is activated again and the tone corresponding to the note-on event described above is activated. The process of reproducing the waveform is repeatedly performed.

【0047】なお、リアルタイム演奏では、演奏する音
の長さは対応するノートオフが来るまで判明しないの
で、音長に応じて部分波形データの時間軸制御を行なう
ことはできない。そこで、リアルタイム演奏用の部分波
形データでは、通常の波形メモリ音源と同様に、楽音波
形のアタック以降の定常部にループ再生を行なうループ
部を設定し、ループ再生+ノートオフに応じた減衰エン
ベロープ付与による楽音音長の制御を行なうようにす
る。また、音色セットをリアルタイム演奏に適用した際
の変形例として、ノートオンイベントの発生から発音ま
でに数秒〜数十秒の発音遅れが許されるなら、その間の
演奏イベントをバッファに記憶しておくことにより、部
分波形データを選択する際に当該ノートオンの音長や後
音の情報等も用いることができるようになる。
In the real-time performance, the length of the sound to be played is not known until the corresponding note-off, so that it is not possible to control the time axis of the partial waveform data according to the sound length. Therefore, in the partial waveform data for real-time performance, a loop portion for performing loop playback is set in the steady portion after the attack of the musical tone waveform as in the case of a normal waveform memory sound source, and an attenuation envelope is provided in accordance with the loop playback and note-off. The control of the musical tone length is performed according to. Also, as a modified example of applying the tone set to real-time performance, if a sound delay of several seconds to several tens of seconds is allowed from the occurrence of a note-on event to the sound generation, the performance event during that time should be stored in a buffer. Accordingly, when selecting the partial waveform data, information on the note length of the note-on, the subsequent sound, and the like can be used.

【0048】ここで、ノートオンイベント処理における
ステップS20で実行される部分波形選択処理のフロー
チャートを図14に示す。ステップS20の部分波形選
択処理では、ステップS51にてノートオンされた現音
の音高(PPIT)、現音の強度(PINT)が取得さ
れる。ただし、現音の音長(PLEN)はノートオン中
なので取得することはできない。次いで、ステップS5
2にて前回のノートオンにおける前音の音高(BPI
T)、前音の強度(BINT)、前音の音長(BLE
N)の前音データが取得される。次いで、ステップS5
3にて取得された現音の音高(PPIT)と前音の音高
(BPIT)との音高比(BPR)が、前記した(2)
式により算出される。さらに、ステップS54にて取得
された現音の強度(PINT)と前音の強度(BIN
T)との強度比(BIR)が、前記した(4)式により
算出される。さらにまた、ステップS55にてその他の
検出が行われるが、この検出では、前音との重なり時
間、強度のばらつき等に基づいて、スラーの程度を検出
したり、ピッチベンドデータの揺れ幅を、ビブラート深
さとして検出する。
FIG. 14 shows a flowchart of the partial waveform selection processing executed in step S20 in the note-on event processing. In the partial waveform selection process of step S20, the pitch (PPIT) and the intensity of the current sound (PINT) of which the note-on is performed in step S51 are acquired. However, the pitch of the current sound (PLEN) cannot be acquired because the note is on. Next, step S5
At 2 the pitch of the previous note (BPI
T), previous sound intensity (BINT), previous sound duration (BLE)
N) is obtained. Next, step S5
The pitch ratio (BPR) between the pitch of the current sound (PPIT) and the pitch of the previous sound (BPIT) obtained in step (3) is as described in (2) above.
It is calculated by the formula. Further, the intensity of the current sound (PINT) and the intensity of the previous sound (BIN) acquired in step S54.
The intensity ratio (BIR) with respect to T) is calculated by the above equation (4). Further, other detections are performed in step S55. In this detection, the degree of slur is detected based on the overlap time with the previous sound, the variation of the intensity, and the like, and the fluctuation width of the pitch bend data is determined by the vibrato. Detect as depth.

【0049】次いで、ステップS51ないしステップS
55にて取得されたノートオンの現音の音高(PPI
T)、現音の強度(PINT)や、算出された前音の音
高比(BPR)、前音の強度比(BIR)の特徴データ
と、各部分波形の特徴データとのパターン比較を行うこ
とにより、これらの特徴データが最も合致する部分波形
をステップS56にて選択する。この選択された部分波
形のIDをSPWIDレジスタに保存する。これによ
り、ステップS20における部分波形選択処理は終了す
る。なお、パターン比較処理は前述した図12に示すパ
ターン比較処理と同様に行うことができる。ただし、次
音のデータは存在しないので現音と前音に関するデータ
に基づいてパターン比較を行う。具体的には、次音に関
しての距離(FND)は算出しないと共に、係数cpを
ゼロとして現音に関しての距離(PND)を算出する。
また、前音に関しての距離(BND)の計算では、
(9)式における第3項の音長比(BLR)の代わりに
前音の音長(BLEN)を、同音長比(PWBLR)の
代わりに前音の音長(=PWBLR×PWLEN)を使
用する。そして、算出された距離(PND)と距離(B
ND)とに基づいて、総合距離(TOTALD)を算出
して、算出された総合距離(TOTALD)が一番小さ
い部分波形を選択して、そのIDをSPWIDレジスタ
に保存するようにする。
Next, from step S51 to step S51
The pitch (PPI) of the current note-on note acquired at 55
T), pattern comparison is performed between the characteristic data of the current sound intensity (PINT), the calculated pitch ratio of the previous sound (BPR), and the intensity ratio of the previous sound (BIR), and the characteristic data of each partial waveform. Thus, a partial waveform that best matches these feature data is selected in step S56. The ID of the selected partial waveform is stored in the SPWID register. Thus, the partial waveform selection processing in step S20 ends. Note that the pattern comparison processing can be performed in the same manner as the above-described pattern comparison processing shown in FIG. However, since there is no data of the next sound, a pattern comparison is performed based on data on the current sound and the previous sound. Specifically, the distance (FND) for the next sound is not calculated, and the distance (PND) for the current sound is calculated with the coefficient cp set to zero.
In the calculation of the distance (BND) for the preceding sound,
In the equation (9), the pitch of the preceding sound (BLEN) is used in place of the pitch ratio (BLR) of the third term, and the pitch of the preceding sound (= PWBLR × PWLEN) is used instead of the pitch ratio (PWBLR). I do. Then, the calculated distance (PND) and the distance (B
ND), the total distance (TOTALD) is calculated, the partial waveform having the smallest total distance (TOTALD) is selected, and its ID is stored in the SPWID register.

【0050】ところで、本発明にかかる波形データ録音
再生装置1において音色セットを自動演奏とリアルタイ
ム演奏の組み合わせに適用することもできる。この際の
自動演奏では、例えば16パートの演奏データに基づく
自動演奏が行なわれ、そのうちの何れかのパートがリア
ルタイム演奏パートに指定される。第1パートがリアル
タイム演奏パートだとすると、自動演奏により第2パー
ト〜第16パートの楽音が生成される。その自動演奏さ
れた楽音に合わせて演奏者が演奏するリアルタイム演奏
では、図13に示すノートオンイベント処理が実行され
ることにより楽音波形が生成されるようになる。このよ
うな自動リズム、自動伴奏、伴奏パート等の何らかの自
動演奏に合わせてリアルタイム演奏している場合は、自
動演奏からテンポクロックを得ることができる。従っ
て、この場合に、演奏者が行なうリアルタイム演奏パー
トの演奏データを用意しておくと、演奏者は、大体その
リアルタイム演奏パートの通りに演奏することから、リ
アルタイム演奏におけるノートオンイベントやノートオ
フイベント等のイベントの未来の状況を検知することが
できるようになる。したがって、図13に示すノートオ
ンイベント処理のステップS20における部分波形を選
択する処理において、現ノートオンの音長情報や次に演
奏される音の情報も使用して部分波形を選択することが
できるようになる。なお、自動演奏する演奏データとし
て、図10の演奏データ加工処理で加工された演奏デー
タを使用してもよい。
Incidentally, in the waveform data recording / reproducing apparatus 1 according to the present invention, the timbre set can be applied to a combination of the automatic performance and the real-time performance. In the automatic performance at this time, an automatic performance based on performance data of, for example, 16 parts is performed, and any of the parts is designated as a real-time performance part. If the first part is a real-time performance part, musical tones of the second part to the sixteenth part are generated by automatic performance. In a real-time performance performed by a player in accordance with the automatically played musical tone, a musical tone waveform is generated by executing the note-on event processing shown in FIG. When performing in real time in accordance with any automatic performance such as such automatic rhythm, automatic accompaniment, and accompaniment part, a tempo clock can be obtained from the automatic performance. Therefore, in this case, if the performance data of the real-time performance part performed by the player is prepared, the performer generally performs the performance according to the real-time performance part, so that the note-on event and the note-off event in the real-time performance are performed. Etc., the future situation of the event can be detected. Therefore, in the process of selecting a partial waveform in step S20 of the note-on event process shown in FIG. 13, a partial waveform can be selected using the note length information of the current note-on and the information of the sound to be played next. Become like Note that the performance data processed in the performance data processing process of FIG. 10 may be used as the performance data for automatic performance.

【0051】前記したように、自動演奏している場合
は、自動演奏からテンポクロックを得ることができる。
すなわち、自動演奏中のみテンポタイマにより、テンポ
に応じた時間間隔でテンポ割込が発生するようになる。
このテンポ割込の度に、テンポカウンタは所定値ずつカ
ウントアップする。このテンポカウンタの現在カウント
値POSは、演奏データにおける自動演奏の進行位置を
示している。ただし、この位置は演奏データのメモリ上
のアドレス位置ではなく、何小節目の何拍目の何クロッ
ク目というようなテンポクロックを基準とした位置とさ
れている。また、演奏データには、演奏者の演奏してい
るリアルタイム演奏のパートも含まれており、その他の
パートの自動演奏に同期して、該リアルタイム演奏のパ
ートも現在位置が確定されるようになる。
As described above, when performing an automatic performance, a tempo clock can be obtained from the automatic performance.
That is, the tempo timer generates the tempo interrupt only at the time of the automatic performance at the time interval corresponding to the tempo.
Each time this tempo interrupt occurs, the tempo counter counts up by a predetermined value. The current count value POS of the tempo counter indicates the progress position of the automatic performance in the performance data. However, this position is not an address position on the memory of the performance data, but a position based on a tempo clock such as what bar, what beat, what clock, and so on. The performance data also includes a real-time performance part played by the player, and the current position of the real-time performance part is determined in synchronization with the automatic performance of the other parts. .

【0052】このようなテンポカウンタの初期設定が行
われる自動演奏開始処理のフローチャートを図15に示
す。この自動演奏開始処理が開始されると、ステップS
60にて自動演奏される演奏データが特定される。次い
で、ステップS61にてテンポカウンタの値POSが初
期値に設定される。次いで、ステップS62にて特定さ
れた演奏データにおける最初のイベント位置が確定さ
れ、ステップS63にてテンポタイマがスタートされ
る。これにより、テンポタイマによる一定時間おきのテ
ンポ割込が発生するようになり、そのテンポ割込処理の
なかで、確定されたイベントから演奏データのイベント
が順次再生されるようになる。
FIG. 15 is a flowchart of an automatic performance start process in which the tempo counter is initialized. When the automatic performance start process is started, step S
At 60, performance data to be automatically played is specified. Next, in step S61, the value POS of the tempo counter is set to an initial value. Next, the first event position in the performance data specified in step S62 is determined, and the tempo timer is started in step S63. As a result, a tempo interrupt is generated at regular intervals by the tempo timer, and in the tempo interrupt processing, the events of the performance data are sequentially reproduced from the determined event.

【0053】次に、テンポカウンタを更新させるテンポ
割込処理のフローチャートを図16に示す。テンポ割込
が生じると、テンポ割込処理が開始されてステップS7
0にてテンポ割込の度に、テンポカウンタの値POSは
所定値ずつカウントアップされて更新される。次いで、
ステップS71にて現時点がイベント位置か否かが判断
される。ここで、イベント位置と判断されるとステップ
S72に分岐し、該位置のイベントが再生され、この再
生処理が終了するとステップS73にて次のイベントの
位置が確定されて、ステップS74に進む。この場合、
イベントがリアルタイム演奏パートのイベントの場合
は、当該イベントに応じた楽音の生成や制御は行われ
ず、それ以外の演奏パートのイベントである場合は、当
該イベントに応じた楽音の生成や制御等が行なわれる。
また、ステップS71にてイベント位置でないと判断さ
れた場合は、そのままステップS74に進み現時点が終
了位置か否かが判断される。ここで、終了位置と判断さ
れると、ステップS75に分岐しテンポタイマを停止さ
せてテンポ割込処理を終了させる。この場合、自動演奏
は終了するようになる。また、ステップS74にて終了
位置でないと判断された場合は、そのままテンポ割込処
理は終了する。
FIG. 16 is a flowchart of a tempo interrupt process for updating the tempo counter. When a tempo interrupt occurs, a tempo interrupt process is started and a step S7 is executed.
When the tempo is interrupted at 0, the value POS of the tempo counter is counted up and updated by a predetermined value. Then
In step S71, it is determined whether the current time is the event position. Here, if it is determined that the event is at the event position, the process branches to step S72, where the event at that position is reproduced. When the reproduction process ends, the position of the next event is determined at step S73, and the process proceeds to step S74. in this case,
If the event is a real-time performance part event, generation and control of musical tones in accordance with the event are not performed. If the event is an event of another performance part, generation and control of musical sounds in accordance with the event are performed. It is.
If it is determined in step S71 that the current position is not the event position, the process directly proceeds to step S74 to determine whether the current time is the end position. If the end position is determined, the process branches to step S75 to stop the tempo timer and end the tempo interrupt process. In this case, the automatic performance ends. If it is determined in step S74 that the current position is not the end position, the tempo interrupt processing ends.

【0054】次に、自動演奏と組み合わされて演奏され
るリアルタイム演奏のノートオン処理のフローチャート
を図17に示す。リアルタイム演奏のノートオンが検出
されると、リアルタイム演奏のノートオン処理が開始さ
れ、ステップS80にて検出されたノートオンのノート
ナンバがPPITレジスタに格納されると共に、ベロシ
ティがPINTレジスタに格納される。次いで、ステッ
プS81にてリアルタイム演奏から前音の音高(BPI
T)、前音の強度(BINT)、前音の音長(BLE
N)の前音データが取得される。さらに、現在の演奏位
置を示すテンポカウンタの値POSの前後の近傍の範囲
において、検出されたノートナンバ(PPIT)および
ベロシティ(PINT)に対応する演奏データ中のリア
ルタイム演奏パートの演奏データにおけるイベントがス
テップS82にて検出される。続いて、ステップS83
にて検出されたイベントの音に基づいてノートオンの音
の音長(PLEN)データが取得される。この場合、そ
のイベント(ノートオンイベント)に対応するノートオ
フイベントを、リアルタイム演奏パートの演奏データか
ら検出することにより音長情報を得るようにする。
Next, FIG. 17 shows a flowchart of a note-on process of a real-time performance performed in combination with an automatic performance. When the note-on of the real-time performance is detected, the note-on process of the real-time performance is started, and the note number of the note-on detected in step S80 is stored in the PPIT register, and the velocity is stored in the PINT register. . Next, in step S81, the pitch of the previous sound (BPI
T), previous sound intensity (BINT), previous sound duration (BLE)
N) is obtained. Furthermore, in a range around the value POS of the tempo counter indicating the current performance position, an event in the performance data of the real-time performance part in the performance data corresponding to the detected note number (PPIT) and velocity (PINT) is determined. It is detected in step S82. Subsequently, step S83
The pitch length (PLEN) data of the note-on sound is acquired based on the sound of the event detected at. In this case, note length information is obtained by detecting a note-off event corresponding to the event (note-on event) from the performance data of the real-time performance part.

【0055】さらに、ステップS84にて検出されたイ
ベントの演奏データにおける次音に基づいて次音の音高
(FPIT)、次音の強度(FINT)、次音の音長
(FLEN)の次音データが取得される。次いで、ステ
ップS85にて取得されたノートオンのデータ、およ
び、このノートオンのデータに基づいて演奏データから
取得したデータに基づいて部分波形の選択処理が行われ
る。この部分波形の選択処理では、図11に示す部分波
形選択処理におけるステップS33ないしステップS3
7の処理が行われる。これにより、ノートオンされた音
の特徴データに最も合致する特徴データを備える部分波
形が選択される。ノートオンされた音に対応する最適の
部分波形が選択されると、ステップS86にて再生回路
24において発音するチャンネルが割り当てられ、ステ
ップS87にて割り当てられた発音チャンネルに選択さ
れた部分波形データの情報や音色パラメータ等が設定さ
れる。この場合、検出されたノートオンのノートナンバ
(PPIT)と選択された部分波形の音高との音高差に
基づいてピッチシフト量も設定される。
Further, based on the next sound in the performance data of the event detected in step S84, the next sound of the next sound pitch (FPIT), the next sound intensity (FINT), and the next sound pitch (FLEN) Data is obtained. Next, a partial waveform selection process is performed based on the note-on data obtained in step S85 and data obtained from the performance data based on the note-on data. In this partial waveform selection process, steps S33 to S3 in the partial waveform selection process shown in FIG.
7 is performed. As a result, a partial waveform having feature data most matching the feature data of the note-on sound is selected. When the optimum partial waveform corresponding to the note-on sound is selected, a channel to be sounded by the reproduction circuit 24 is assigned in step S86, and the selected partial waveform data of the selected sound channel is assigned to the tone generation channel assigned in step S87. Information and tone parameters are set. In this case, the pitch shift amount is also set based on the pitch difference between the detected note-on note number (PPIT) and the pitch of the selected partial waveform.

【0056】次いで、ステップS88にて割り当てられ
た発音チャンネルにノートオンが送出され、再生回路2
4は設定された部分波形および音色パラメータやピッチ
シフト量に基づいて楽音波形を再生する。ノートオンに
対応する楽音波形が再生されたらリアルタイム演奏のノ
ートオン処理は終了し、リアルタイム演奏のノートオン
が再度発生すると、ノートオン処理が再度起動されて上
記したノートオンイベントに対応する楽音波形を再生す
る処理が繰り返し行われるようになる。なお、図17に
示すリアルタイム演奏のノートオン処理では、リアルタ
イム演奏から音高(PPIT),強度(PINT),前
音の音高(BPIT),前音の強度(BINT),前音
の音長(BLEN)を取得するようにしたが、部分波形
選択に使用するこれらのデータとしてリアルタイム演奏
パートの演奏データから得たデータを使用するようにし
てもよい。このようにすると、リアルタイム演奏の各ノ
ートオンで選択すべき部分波形を、該リアルタイム演奏
に先立って予め選択しておくことができる。ただし、発
音用パラメータの制御に関してはリアルタイム演奏のデ
ータをそのまま使用する。
Next, note-on is sent to the tone generation channel assigned in step S88, and the reproduction circuit 2
Reference numeral 4 reproduces a musical tone waveform based on the set partial waveform, tone color parameter, and pitch shift amount. When the musical sound waveform corresponding to the note-on is reproduced, the note-on processing of the real-time performance ends, and when the note-on of the real-time performance occurs again, the note-on processing is restarted to generate the musical sound waveform corresponding to the above-described note-on event. Playback processing is repeatedly performed. In the note-on processing of the real-time performance shown in FIG. 17, the pitch (PPIT), the intensity (PINT), the pitch of the previous sound (BPIT), the intensity of the previous sound (BINT), the pitch of the previous sound are calculated from the real-time performance. Although (BLEN) is acquired, data obtained from performance data of a real-time performance part may be used as these data used for selecting a partial waveform. In this way, a partial waveform to be selected at each note-on of the real-time performance can be selected in advance before the real-time performance. However, the data of the real-time performance is used as it is for controlling the parameters for sound generation.

【0057】なお、鍵域を所定の音域毎に区切り、区切
った音域毎にサンプリング波形を割り当てるマルチサン
プリングにおいて必要となる音高の音符を、図3のフレ
ーズ波形録音における録音したいパートの演奏データの
フレーズ中に全て含めておくと、必要となる音高の部分
波形データは全て収録データに収録されるようになる。
従って、この場合は、フレーズの演奏が完了したら直ち
にマルチサンプリングされた部分波形データによる演奏
を行なうことができるようになる。この際に、必要とな
る音長や演奏強度の音符を演奏データのフレーズ中に全
て含めておくようにしてもよい。また、フレーズ波形デ
ータを分割した部分波形データを、音色セットとして全
部使うように設定しておけば、選択された音色セットを
作る手順を省略して直ちに演奏をすることができるよう
になる。
Note that the key range is divided into predetermined ranges, and a note having a pitch required for multi-sampling in which a sampling waveform is allocated to each divided range, is used to record the performance data of the part to be recorded in the phrase waveform recording shown in FIG. If all of them are included in the phrase, all the necessary partial waveform data of the pitch will be recorded in the recorded data.
Therefore, in this case, the performance based on the multi-sampled partial waveform data can be performed immediately after the performance of the phrase is completed. At this time, all the notes of the required pitch and performance intensity may be included in the phrase of the performance data. Further, if the partial waveform data obtained by dividing the phrase waveform data is set so as to be used as a tone color set, the procedure for creating the selected tone color set can be omitted and the performance can be immediately performed.

【0058】さらに、各情報をその本来の目的以外の目
的で使用してもよい。例えば、歌声をサンプリングした
場合に「強度情報」を音声の音素を判別する「音素情
報」として使用してもよい。具体的には、例えば、音素
「あ〜あ〜あ〜」を示す情報として強度=60を割り当
て、音素「ら〜ら〜ら〜」を示す情報として強度=61
を割り当て、音素「どぅ〜どぅ〜どぅ〜」を示す情報と
して強度=62を割り当てる。このように、「強度情
報」を「音素情報」として使用した場合、「強度情報」
でグループ分けすれば、同じ音素に対応した部分波形デ
ータを集めることができるようになる。さらにまた、演
奏データ加工処理において処理したい演奏データを、そ
のまま、録音に使用する演奏データである対応演奏デー
タとして使用してもよい。このようにすると、収録した
波形データを部分波形データに分割処理した後に、得ら
れた分割波形データをそのまま演奏データに張り付ける
ことができるようになり、最適の部分波形データを検出
する処理を簡略化することができる。さらにまた、部分
波形データを貼り付けられた演奏データの各音符をエデ
ィットすることにより、録音されたフレーズ波形データ
を間接的にエディットすることができる。さらにまた、
フレーズ波形録音後に、フレーズ波形に対応する演奏デ
ータを人間が入力して、その演奏データに基づいて属性
情報を作成するようにしてもよい。さらにまた、録音し
たフレーズ波形を周波数分析し、対応する演奏データを
自動生成して、その演奏データに基づいて属性情報を作
成するようにしてもよい。
Further, each information may be used for a purpose other than its original purpose. For example, when singing voice is sampled, “strength information” may be used as “phoneme information” for determining a phoneme of a voice. Specifically, for example, strength = 60 is assigned as information indicating the phoneme “Ah-ah-ah-”, and strength = 61 is used as the information indicating the phoneme “La-La-La-”.
Is assigned, and strength = 62 is assigned as the information indicating the phoneme “d ぅ -d ぅ -d ぅ-”. As described above, when “strength information” is used as “phoneme information”, “strength information”
, It becomes possible to collect partial waveform data corresponding to the same phoneme. Furthermore, the performance data to be processed in the performance data processing may be used as it is as the corresponding performance data that is the performance data used for recording. In this way, after the recorded waveform data is divided into partial waveform data, the obtained divided waveform data can be pasted directly to the performance data, simplifying the process of detecting the optimal partial waveform data. Can be Furthermore, by editing each note of the performance data to which the partial waveform data is pasted, it is possible to indirectly edit the recorded phrase waveform data. Furthermore,
After recording the phrase waveform, a person may input performance data corresponding to the phrase waveform and create attribute information based on the performance data. Furthermore, the recorded phrase waveform may be frequency-analyzed, the corresponding performance data may be automatically generated, and attribute information may be created based on the performance data.

【0059】[0059]

【発明の効果】本発明は以上のように構成されているの
で、本発明の波形生成方法によれば、発音制御情報に対
応して最適の部分波形を用いて波形を生成することがで
き、表情に富んだ楽音を生成することができるようにな
る。また、本発明の演奏データ処理方法によれば、演奏
データ中の各音符の特徴に最適の部分波形データを、予
め選択して演奏データの各音符に付与することができ
る。従って、この演奏データを用いることにより、自動
演奏を行なう際のCPU10の負荷を増加させることな
く、自動演奏における波形生成で最適の部分波形データ
を選択できるようになる。さらに、本発明の波形生成方
法によれば、リアルタイム演奏により楽音を生成する場
合でも、リアルタイム演奏に対応する演奏情報を利用す
ることにより、未来に行う演奏に応じて、現在の演奏に
より生成する楽音の特性を制御することができる。さら
にまた、演奏する音とその前に演奏する音、あるいはそ
の次に演奏する音の2音の特性データに近い属性データ
を有する1ないし複数の部分波形を選択するようにする
と、演奏する音の楽音を生成するための部分波形として
最適の部分波形を選択することができるようになる。
Since the present invention is configured as described above, according to the waveform generating method of the present invention, it is possible to generate a waveform by using an optimum partial waveform corresponding to the tone generation control information. It is possible to generate a musical tone with a rich expression. Further, according to the performance data processing method of the present invention, it is possible to select in advance the partial waveform data most suitable for the characteristics of each note in the performance data, and to add the partial waveform data to each note of the performance data. Therefore, by using the performance data, it is possible to select the optimal partial waveform data in the waveform generation in the automatic performance without increasing the load on the CPU 10 when performing the automatic performance. Further, according to the waveform generation method of the present invention, even when a musical tone is generated by a real-time performance, the musical tone generated by the current performance according to a performance to be performed in the future by using performance information corresponding to the real-time performance. Characteristics can be controlled. Furthermore, if one or a plurality of partial waveforms having attribute data close to the characteristic data of the sound to be played and the sound to be played before or the sound to be played next are selected, the sound to be played is An optimal partial waveform can be selected as a partial waveform for generating a musical tone.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の波形生成方法および演奏データ処理
方法を備える波形データ録音再生装置のハードウェア構
成を示す図である。
FIG. 1 is a diagram illustrating a hardware configuration of a waveform data recording / reproducing apparatus including a waveform generation method and a performance data processing method according to the present invention.

【図2】 本発明にかかる波形データ録音再生装置にお
ける同期化されている自動演奏される演奏データとフレ
ーズ波形データとの関係を示す図である。
FIG. 2 is a diagram showing a relationship between synchronized performance data and phrase waveform data in a waveform data recording / reproducing apparatus according to the present invention.

【図3】 本発明にかかる波形データ録音再生装置にお
いて波形データを録音する際の態様を示す図である。
FIG. 3 is a diagram showing an aspect when recording waveform data in the waveform data recording / reproducing apparatus according to the present invention.

【図4】 本発明にかかる波形データ録音再生装置にお
いて、フレーズ波形データの分割処理および属性情報付
与処理を行う構成の概要を示す図である。
FIG. 4 is a diagram showing an outline of a configuration for performing a process of dividing phrase waveform data and a process of providing attribute information in the waveform data recording / reproducing apparatus according to the present invention.

【図5】 本発明にかかる波形データ録音再生装置にお
ける収録データの構成を示す図である。
FIG. 5 is a diagram showing a configuration of recorded data in the waveform data recording / reproducing apparatus according to the present invention.

【図6】 本発明にかかる波形データ録音再生装置にお
ける演奏用の音色セットの構成を示す図である。
FIG. 6 is a diagram showing a configuration of a performance timbre set in the waveform data recording / reproducing apparatus according to the present invention.

【図7】 本発明にかかる波形データ録音再生装置にお
ける演奏用の音色セットにおける部分波形レコードの詳
細構成を示す図である。
FIG. 7 is a diagram showing a detailed configuration of a partial waveform record in a performance timbre set in the waveform data recording / reproducing apparatus according to the present invention.

【図8】 本発明にかかる波形データ録音再生装置にお
ける演奏用の音色セットにおける部分波形レコードの部
分波形IDの構成を示す図である。
FIG. 8 is a diagram showing a configuration of a partial waveform ID of a partial waveform record in a performance timbre set in the waveform data recording / reproducing apparatus according to the present invention.

【図9】 本発明にかかる波形データ録音再生装置にお
ける音色セット作成手順を示すフローチャートである。
FIG. 9 is a flowchart showing a procedure for creating a timbre set in the waveform data recording / reproducing apparatus according to the present invention.

【図10】 本発明にかかる波形データ録音再生装置で
実行される演奏データ加工処理のフローチャートであ
る。
FIG. 10 is a flowchart of performance data processing performed by the waveform data recording / reproducing apparatus according to the present invention.

【図11】 本発明にかかる波形データ録音再生装置で
実行される演奏データ加工処理のフローチャートにおけ
るステップS12の処理を示すフローチャートである。
FIG. 11 is a flowchart showing the processing of step S12 in the flowchart of the performance data processing executed by the waveform data recording / reproducing apparatus according to the present invention.

【図12】 図11に示すフローチャートにおけるパタ
ーン比較処理のフローチャートである。
FIG. 12 is a flowchart of a pattern comparison process in the flowchart shown in FIG. 11;

【図13】 本発明にかかる波形データ録音再生装置で
実行されるノートオンイベント処理のフローチャートで
ある。
FIG. 13 is a flowchart of a note-on event process executed by the waveform data recording / reproducing apparatus according to the present invention.

【図14】 本発明にかかる波形データ録音再生装置で
実行されるノートオンイベント処理におけるステップS
20の処理を示すフローチャートである。
FIG. 14 shows a step S in a note-on event process executed by the waveform data recording / reproducing apparatus according to the present invention.
20 is a flowchart showing a process 20.

【図15】 本発明にかかる波形データ録音再生装置で
実行される自動演奏開始処理のフローチャートである。
FIG. 15 is a flowchart of an automatic performance start process executed by the waveform data recording / reproducing apparatus according to the present invention.

【図16】 本発明にかかる波形データ録音再生装置の
自動演奏時に実行されるテンポ割込処理のフローチャー
トである。
FIG. 16 is a flowchart of a tempo interruption process executed during automatic performance of the waveform data recording / reproducing apparatus according to the present invention.

【図17】 本発明にかかる波形データ録音再生装置の
自動演奏と組み合わされて演奏されるリアルタイム演奏
におけるノートオン処理のフローチャートである。
FIG. 17 is a flowchart of note-on processing in a real-time performance performed in combination with an automatic performance of the waveform data recording / reproducing apparatus according to the present invention.

【符号の説明】[Explanation of symbols]

1 波形データ録音再生装置、10 CPU、11 タ
イマ、12 ROM、13 RAM、14 表示器、1
5 操作子、16 音源、17 ミキサ、18DAC、
19 サウンドシステム、20 マイクロフォン、21
ADC、22録音回路、23 HDD、24 再生回
路、25 MIDIインタフェース、26 その他イン
タフェース、30 演奏データ、31 自動演奏手段、
32演奏者、33 波形録音手段、34 フレーズ波形
データ、35 クロック同期ライン、36 ヘッドフォ
ン、37 スピーカ、38 スピーカ音除去処理手段、
40 フレーズ波形データ、41 分割処理手段、42
属性情報付与処理手段、43 部分波形データ、44
演奏データ
1 waveform data recording / reproducing device, 10 CPU, 11 timer, 12 ROM, 13 RAM, 14 display, 1
5 controls, 16 sound sources, 17 mixers, 18 DACs,
19 sound system, 20 microphone, 21
ADC, 22 recording circuit, 23 HDD, 24 reproduction circuit, 25 MIDI interface, 26 other interfaces, 30 performance data, 31 automatic performance means,
32 player, 33 waveform recording means, 34 phrase waveform data, 35 clock synchronization line, 36 headphones, 37 speakers, 38 speaker sound removal processing means,
40 phrase waveform data, 41 division processing means, 42
Attribute information adding processing means, 43 partial waveform data, 44
Performance data

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 複数の部分波形を部分波形メモリに記憶
し、 該部分波形メモリに記憶されている各部分波形の属性情
報を属性情報メモリに記憶し、 入力された発音制御情報により前記属性情報メモリを参
照して、前記発音制御情報に対応する属性情報を有する
部分波形を前記部分波形メモリから読み出し、該読み出
された部分波形をその属性情報と前記発音制御情報とに
基づいて加工することにより、前記発音制御情報に対応
する波形を生成するようにしたことを特徴とする波形生
成方法。
1. A plurality of partial waveforms are stored in a partial waveform memory, and attribute information of each partial waveform stored in the partial waveform memory is stored in an attribute information memory. Referring to a memory, reading a partial waveform having attribute information corresponding to the sound control information from the partial waveform memory, and processing the read partial waveform based on the attribute information and the sound control information. A waveform corresponding to the sounding control information.
【請求項2】 各部分波形の属性情報が属性情報メモリ
に記憶されており、 処理を行う演奏データに含まれる各音符の特徴と、前記
属性情報メモリに記憶されている属性情報を対比するこ
とにより、当該音符の特徴に最適の部分波形を検出し、
検出された部分波形を当該音符に指定する指定データを
前記演奏データ中の音符に付与し、該指定データが付与
された演奏データを記憶するようにしたことを特徴とす
る演奏データ処理方法。
2. The attribute information of each partial waveform is stored in an attribute information memory, and a characteristic of each note included in performance data to be processed is compared with the attribute information stored in the attribute information memory. By this, the optimal partial waveform for the feature of the note concerned is detected,
A performance data processing method, wherein specified data for designating a detected partial waveform to the note is assigned to a note in the performance data, and the performance data to which the specified data is assigned is stored.
【請求項3】 請求項2記載の演奏データ処理方法によ
り記憶された指定データが付与されている演奏データを
再生する際の波形生成方法であって、 部分波形メモリに複数の部分波形が記憶されており、前
記演奏データに基づいて指定データの付与された音符を
再生する際に、再生される音符に付与されている指定デ
ータに基づいて、前記部分波形メモリから部分波形を読
み出すことにより、前記音符に対応する波形を生成する
ようにしたことを特徴とする波形生成方法。
3. A waveform generating method for reproducing performance data provided with designated data stored by the performance data processing method according to claim 2, wherein a plurality of partial waveforms are stored in a partial waveform memory. When playing a note to which designated data is assigned based on the performance data, by reading a partial waveform from the partial waveform memory based on the designated data assigned to the note to be played back, A waveform generating method, wherein a waveform corresponding to a note is generated.
【請求項4】 リアルタイム演奏に対応する演奏情報が
記憶されており、 発生されたテンポクロックに応じて自動演奏あるいは自
動伴奏を行うことにより伴奏音を発生すると共に、該テ
ンポクロックに応じて演奏情報を再生し、前記伴奏音に
合わせてリアルタイム演奏された演奏イベントと前記再
生された演奏情報とに基づいて、前記演奏イベントに対
応する波形を生成するようにしたことを特徴とする波形
生成方法。
4. Performance information corresponding to a real-time performance is stored, an automatic performance or an automatic accompaniment is performed in accordance with the generated tempo clock to generate an accompaniment sound, and the performance information is controlled in accordance with the tempo clock. A waveform corresponding to the performance event is generated based on the performance event played in real time in accordance with the accompaniment sound and the played performance information.
【請求項5】 部分波形メモリに記憶された複数部分波
形から1ないし複数の部分波形を選択するための波形選
択装置であって、 各部分波形毎に、当該部分波形に対応する音とその音の
前の音の2音の特性を示す属性データを記憶するデータ
ベースと、 入力された演奏する音とその前に演奏する音の2音の特
性データにより、前記データベースを参照して、入力さ
れた2音の特性データに近い属性データを有する1ない
し複数の部分波形を、前記演奏する音を発音するための
部分波形として抽出する検索手段と、 を備えるようにしたことを特徴とする波形選択装置。
5. A waveform selecting apparatus for selecting one or a plurality of partial waveforms from a plurality of partial waveforms stored in a partial waveform memory, wherein for each partial waveform, a sound corresponding to the partial waveform and a sound thereof A database storing attribute data indicating characteristics of two tones of the preceding sound, and a characteristic data of two sounds to be played and a preceding sound to be played are referred to by referring to the database. A search means for extracting one or a plurality of partial waveforms having attribute data close to characteristic data of two sounds as a partial waveform for generating the sound to be played, characterized by comprising: .
【請求項6】 部分波形メモリに記憶された複数部分波
形から1ないし複数の部分波形を選択するための波形選
択装置であって、 各部分波形毎に、当該部分波形に対応する音とその音の
次の音の2音の特性を示す属性データを記憶するデータ
ベースと、 入力された演奏する音とその前に演奏する音の2音の特
性データにより、前記データベースを参照して、入力さ
れた2音の特性データに近い属性データを有する1ない
し複数の部分波形を、前記演奏する音を発音するための
部分波形として抽出する検索手段と、 を備えるようにしたことを特徴とする波形選択装置。
6. A waveform selecting apparatus for selecting one or more partial waveforms from a plurality of partial waveforms stored in a partial waveform memory, and for each partial waveform, a sound corresponding to the partial waveform and a sound corresponding to the sound A database that stores attribute data indicating the characteristics of the two tones of the next sound, and the characteristic data of the two tones to be played and the sound to be played before that are referred to the database. A search means for extracting one or a plurality of partial waveforms having attribute data close to characteristic data of two sounds as a partial waveform for generating the sound to be played, characterized by comprising: .
JP2002025100A 2001-02-05 2002-02-01 Waveform generation method, performance data processing method, and waveform selection device Expired - Fee Related JP3879524B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002025100A JP3879524B2 (en) 2001-02-05 2002-02-01 Waveform generation method, performance data processing method, and waveform selection device
US10/067,458 US6740804B2 (en) 2001-02-05 2002-02-04 Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001027988 2001-02-05
JP2001-27988 2001-02-05
JP2002025100A JP3879524B2 (en) 2001-02-05 2002-02-01 Waveform generation method, performance data processing method, and waveform selection device

Publications (2)

Publication Number Publication Date
JP2002304175A true JP2002304175A (en) 2002-10-18
JP3879524B2 JP3879524B2 (en) 2007-02-14

Family

ID=26608905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002025100A Expired - Fee Related JP3879524B2 (en) 2001-02-05 2002-02-01 Waveform generation method, performance data processing method, and waveform selection device

Country Status (1)

Country Link
JP (1) JP3879524B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058796A (en) * 2006-09-01 2008-03-13 Yamaha Corp Playing style deciding device and program
JP2009025406A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program
JP2009168911A (en) * 2008-01-11 2009-07-30 Yamaha Corp Keyboard instrument, piano, and automatic player piano
JP2009237072A (en) * 2008-03-26 2009-10-15 Casio Comput Co Ltd Electronic musical instrument
JP2012037722A (en) * 2010-08-06 2012-02-23 Yamaha Corp Data generator for sound synthesis and pitch locus generator

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058796A (en) * 2006-09-01 2008-03-13 Yamaha Corp Playing style deciding device and program
JP2009025406A (en) * 2007-07-17 2009-02-05 Yamaha Corp Music piece processing apparatus and program
JP2009168911A (en) * 2008-01-11 2009-07-30 Yamaha Corp Keyboard instrument, piano, and automatic player piano
JP2009237072A (en) * 2008-03-26 2009-10-15 Casio Comput Co Ltd Electronic musical instrument
JP2012037722A (en) * 2010-08-06 2012-02-23 Yamaha Corp Data generator for sound synthesis and pitch locus generator

Also Published As

Publication number Publication date
JP3879524B2 (en) 2007-02-14

Similar Documents

Publication Publication Date Title
US6740804B2 (en) Waveform generating method, performance data processing method, waveform selection apparatus, waveform data recording apparatus, and waveform data recording and reproducing apparatus
JPH1074093A (en) Karaoke machine
JP2000514571A (en) Automatic improvisation system and method
JP4274272B2 (en) Arpeggio performance device
JP3915807B2 (en) Automatic performance determination device and program
JP3407610B2 (en) Musical sound generation method and storage medium
JP3750533B2 (en) Waveform data recording device and recorded waveform data reproducing device
JP3577561B2 (en) Performance analysis apparatus and performance analysis method
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JP4089447B2 (en) Performance data processing apparatus and performance data processing program
JP5418525B2 (en) Karaoke equipment
JP3613062B2 (en) Musical sound data creation method and storage medium
JP4802947B2 (en) Performance method determining device and program
JP2000330580A (en) Karaoke apparatus
JPH1078750A (en) Karaoke sing-along machine
JP3807333B2 (en) Melody search device and melody search program
JP3620396B2 (en) Information correction apparatus and medium storing information correction program
JP6424907B2 (en) Program for realizing performance information search method, performance information search method and performance information search apparatus
JP6981239B2 (en) Equipment, methods and programs
JP4067007B2 (en) Arpeggio performance device and program
JP3637782B2 (en) Data generating apparatus and recording medium
JP2003114680A (en) Apparatus and program for musical sound information editing
JP4186802B2 (en) Automatic accompaniment generator and program
JP6183002B2 (en) Program for realizing performance information analysis method, performance information analysis method and performance information analysis apparatus
JP3832147B2 (en) Song data processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061030

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111117

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121117

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131117

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees