JP2000122664A - Vibrato generating device and method - Google Patents

Vibrato generating device and method

Info

Publication number
JP2000122664A
JP2000122664A JP10278307A JP27830798A JP2000122664A JP 2000122664 A JP2000122664 A JP 2000122664A JP 10278307 A JP10278307 A JP 10278307A JP 27830798 A JP27830798 A JP 27830798A JP 2000122664 A JP2000122664 A JP 2000122664A
Authority
JP
Japan
Prior art keywords
data
waveform
vibrato
template
articulation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10278307A
Other languages
Japanese (ja)
Other versions
JP3669177B2 (en
Inventor
Hideo Suzuki
秀雄 鈴木
Masao Sakama
真雄 坂間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP27830798A priority Critical patent/JP3669177B2/en
Publication of JP2000122664A publication Critical patent/JP2000122664A/en
Application granted granted Critical
Publication of JP3669177B2 publication Critical patent/JP3669177B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate a vibrato sound of high quality with a low storing capacity. SOLUTION: Plural waveform data taken out dispersedly from an original waveform A imparted with a vibrato are stored, one of the wave form data is read out repeatedly with prescribed intervals and the wave form data to be read out is switched in order to conduct a prescribed reading-out sequence, and the reading-out sequence is repeated to realize a vibrato ranging over plural periods. Plural dispersed waveform data are stored corresponding to the plural periods of the vibrato, vibrato priodic positions to which the respective waveform data belong are changed, while keeping relative time position within one period of the vibrato of each waveform data, to optionally variably set an order for reading out respective data ranging over the plural periods of the vibrato, the waveform data is repeatedly read out in a prescribed interval, and the waveform data to be read out are switched in order according to a set read-out order, so as to realize the vibrato ranging over the plural periods.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、ビブラート発生
装置及び方法に関し、例えばアーティキュレーションを
有する高品質な楽音波形の合成を行なうことができる技
術に関連するものであり、電子楽器に限らず、ゲーム機
やパーソナルコンピュータその他マルチ・メディア機器
等、各種の用途の楽音又はサウンド発生機器におけるビ
ブラート発生装置及び/又は方法として広範囲に応用で
きるものである。なお、この明細書において、「楽音」
とは、音楽の音に限られるものではなく、人声音や各種
効果音、自然界にある音など、音(サウンド)一般を含
む広義の概念で用いるものとする。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vibrato generating apparatus and method, and more particularly to a technique capable of synthesizing a high-quality musical sound waveform having articulation, and is not limited to electronic musical instruments. The present invention can be widely applied as a vibrato generator and / or method for a musical sound or sound generator for various uses such as a game machine, a personal computer, and other multimedia devices. In this specification, "musical sound"
The term is not limited to the sound of music, but is used in a broad sense including general sounds, such as human voices, various sound effects, and sounds in the natural world.

【0002】[0002]

【従来の技術】電子楽器などに用いられている波形メモ
リ読み出し方式(PCM:パルス符号変調方式)の音源
においては、所定の音色に対応する1又は複数周期の波
形のデータをメモリに記憶しておき、この波形データを
発生しようとする楽音の所望の音高(ピッチ)に対応す
る所望の読出し速度で繰返し読み出すことにより、持続
的な楽音波形を生成することが行われている。また、楽
音の発音開始から終了までの全波形のデータをメモリに
記憶しておき、この波形データを発生しようとする楽音
の所望の音高(ピッチ)に対応する所望の読出し速度で
読み出すことにより、1つの音を発音生成することも行
われている。この種のPCM音源において、メモリに記
憶した波形を単にそのまま読み出したものを楽音として
発生するだけではなく、何らかの変更を加えて、発生楽
音に表現力を持たせようとする場合、音高、音量、音色
という3つのカテゴリの楽音要素に関して制御を行うこ
とが従来より為されている。音高に関しては、任意のピ
ッチエンベロープに従って読み出し速度を適宜変調する
ことにより、ビブラートやアタックピッチ等のピッチ変
調効果を付与することが為される。音量に関しては、読
み出した波形データに対して所要のエンベロープ波形に
従う音量振幅エンベロープを付与することや、読み出し
た波形データの音量振幅を周期的に変調制御することに
よりトレモロ効果等を付与することなどが為される。ま
た、音色に関しては、読み出した波形データをフィルタ
処理することにより、適当な音色制御がなされる。
2. Description of the Related Art In a sound source of a waveform memory readout system (PCM: pulse code modulation system) used in electronic musical instruments and the like, one or a plurality of cycles of waveform data corresponding to a predetermined tone color are stored in a memory. A continuous tone waveform is generated by repeatedly reading the waveform data at a desired reading speed corresponding to a desired pitch (pitch) of the tone to be generated. Also, by storing data of all the waveforms from the start to the end of the tone generation in the memory and reading out the waveform data at a desired read speed corresponding to a desired pitch (pitch) of the tone to be generated. One tone is also generated. In this type of PCM tone generator, when a waveform stored in a memory is simply read out as it is to generate not only a musical tone but also a certain change to make the generated musical tone expressive, the pitch, volume, etc. , And tone colors. As for the pitch, by modulating the readout speed appropriately according to an arbitrary pitch envelope, a pitch modulation effect such as vibrato or attack pitch is provided. Regarding the volume, it is possible to add a volume amplitude envelope according to a required envelope waveform to the read waveform data, or to apply a tremolo effect or the like by periodically modulating the volume amplitude of the read waveform data. Done. As for the timbre, appropriate timbre control is performed by filtering the read waveform data.

【0003】また、実際に生演奏された連続的な演奏音
(フレーズ)を一括してサンプリングして1つの記録ト
ラックに貼り付け(記録し)、こうして複数のトラック
に貼り付けた各フレーズ波形を、別途記録したシーケン
ス演奏データに基づく自動演奏音と共に組み合わせて再
生発音するようにしたマルチトラックシーケンサも知ら
れている。また、実際に生演奏された1曲の楽音波形デ
ータ全部をPCMデータにて記録し、これを単純に再生
するものは、CD(コンパクトディスク)における音楽
記録方式としてよく知られている。
In addition, continuous performance sounds (phrases) actually played live are collectively sampled and pasted (recorded) on one recording track, and the phrase waveforms pasted on a plurality of tracks are collected. There is also known a multi-track sequencer that reproduces and sounds in combination with an automatic performance sound based on separately recorded sequence performance data. Also, a method of recording all musical tone waveform data of one tune actually played live as PCM data and simply reproducing the data is well known as a music recording method for a CD (compact disc).

【0004】[0004]

【発明が解決しようとする課題】ところで、ピアノ、バ
イオリン、サックス等の任意の自然楽器についての熟練
した演奏家が該楽器によって一連の楽曲フレーズを演奏
する場合、その演奏音の内容は、たとえ同じ楽器で演奏
されているとはいえ、一様なものではなく、各音毎に、
あるいは音と音のつながりにおいて、あるいは音の立上
り部や持続部または立下り部等の部分において、曲想に
応じてあるいは演奏家の感性等に応じて、微妙に異なる
“アーティキュレーション”で演奏される。そのような
“アーティキュレーション”の存在が、聴者に本当に良
い音としての印象を与える。CDにおける音楽記録方式
のように、熟練した演奏家が行った音楽演奏を全部そっ
くりPCM波形データとして記録する方式は、生演奏の
リアルで高品質な再生が可能であるから、演奏家が演奏
した通りの“アーティキュレーション”をリアルに再現
することができる。しかし、決まった曲(記録した通り
の曲)の単なる再生装置としてしか利用することができ
ないものであるため、電子楽器やマルチメディア機器等
においてユーザーの自由な音作りや編集操作を許容する
インタラクティブな楽音作成技術としては利用すること
ができない。
By the way, when a skilled performer of an arbitrary natural musical instrument such as a piano, a violin, a saxophone or the like plays a series of musical phrases with the musical instrument, the contents of the performance sounds are the same. Despite being played on musical instruments, it is not uniform,
Alternatively, in the connection between sounds, or at the rising, sustaining, or falling parts of a sound, the music is played with a slightly different "articulation" depending on the musical composition or the sensitivity of the performer. You. The existence of such "articulations" gives the listener the impression of a really good sound. The method of recording all the music performances performed by a skilled player as PCM waveform data, like the music recording method on a CD, is capable of real and high-quality reproduction of a live performance. You can realistically reproduce street articulations. However, since it can be used only as a mere reproduction device for a fixed song (song as recorded), an interactive musical instrument or multimedia device that allows the user to freely create and edit sounds. It cannot be used as music creation technology.

【0005】これに対して、電子楽器等で公知のPCM
音源技術においては、上述のように、ユーザーによる音
作りを許容するものであり、発生楽音に或る程度の表現
力を持たせることができるものである。しかし、音質と
表現力の両面において、自然な“アーティキュレーショ
ン”を実現するには、不十分なものであった。例えば、
一般にこの種のPCM音源技術においては、メモリに記
憶する波形データは、自然楽器で演奏した単音をサンプ
リングしたものを記憶するだけであるので、発生楽音の
音質に限度があった。特に、演奏時における音と音のつ
ながりのアーティキュレーション若しくは奏法を高品質
に表現することはできなかった。例えば、先行する音か
らその次の音に滑らかに変化させるようなスラー奏法の
場合、従来の電子楽器等では、単にメモリからの波形デ
ータ読み出し速度を滑らかに変化させたり、発生音に付
与する音量エンべロープを制御する等の手法に頼ってい
るにすぎず、自然楽器の生演奏に匹敵するような音質の
アーティキュレーション若しくは奏法を実現することは
できなかった。また、同じ楽器の同じ音高の音であって
も、曲フレーズの違いに応じて、あるいは同じ曲フレー
ズであっても演奏機会の違い等に応じて、その立上り部
等の部分において異なるアーティキュレーションを示す
ことがあるが、そのような微妙なアーティキュレーショ
ンの違いを表現することも、電子楽器等で公知のPCM
音源技術においては実現することができなかった。
On the other hand, a PCM known in electronic musical instruments and the like is used.
As described above, the sound source technology allows a user to make a sound, and allows the generated musical sound to have a certain expressive power. However, it was insufficient to realize natural "articulation" in both sound quality and expressiveness. For example,
In general, in this type of PCM sound source technology, the waveform data stored in the memory merely stores a sample of a single tone played by a natural musical instrument, and thus the sound quality of generated musical tones is limited. In particular, articulation or playing style of connection between sounds during performance cannot be expressed with high quality. For example, in the case of a slur playing method in which a preceding sound is smoothly changed to the next sound, in a conventional electronic musical instrument or the like, the waveform data reading speed from the memory is simply changed smoothly, or the volume given to the generated sound is changed. It merely relies on techniques such as controlling the envelope, and has not been able to achieve articulation or playing techniques with sound quality comparable to live performance of natural musical instruments. In addition, different articulations such as the rising part of the same musical instrument at the same pitch, depending on the difference in the song phrase, or even on the same song phrase, depending on the difference in performance occasions. However, such subtle differences in articulation can also be expressed by a PCM known in electronic musical instruments.
It could not be realized in sound source technology.

【0006】また、演奏表現に応じた発生楽音の制御
も、従来の電子楽器等においては比較的単調なものであ
り、十分とは言えなかった。例えば、鍵等の演奏タッチ
に応じた楽音制御を行うことが知られているが、その場
合も、タッチに応じて音量の変化特性や音色フィルタの
特性を制御することができる程度にすぎず、例えば楽音
の立ち上がりから立ち下がりまでの全発音区間のうちの
各部分的区間毎に楽音特性の制御を自由に行うようなこ
とはできなかった。また、発生音の音色制御に関して
は、演奏に先立って一旦1つの音色が選択されると、そ
の選択された音色に対応する波形データがメモリから読
み出され、以後、発音中は様々な演奏表現に応じて該音
色に対応する波形データがフィルタ等で可変制御される
だけであったので、演奏表現に応じた音色変化が十分で
はなかった。また、ピッチや音量等の制御エンベロープ
波形は、エンベロープの立ち上がりから立ち下がりまで
の一連のエンベロープを1単位としてその形状等の設定
制御がなされており、部分的にエンベロープを入れ替え
る等の操作が自由に行えるようにはなっていない。
Also, the control of generated musical tones according to performance expressions is relatively monotonous in conventional electronic musical instruments and the like, and cannot be said to be sufficient. For example, it is known to perform musical tone control according to a performance touch such as a key, but also in this case, it is only possible to control a volume change characteristic and a tone filter characteristic according to the touch. For example, it has not been possible to freely control the tone characteristics for each partial section of the entire tone generation section from the rise to the fall of a tone. Regarding the tone color control of the generated tone, once one tone color is selected prior to the performance, waveform data corresponding to the selected tone color is read from the memory, and thereafter, various performance expressions are generated during the tone generation. Therefore, the waveform data corresponding to the timbre is only variably controlled by a filter or the like, so that the timbre change according to the performance expression is not sufficient. In addition, the control envelope waveforms such as pitch and volume are set and controlled in terms of the shape, etc., of a series of envelopes from the rise to the fall of the envelope as one unit. It has not been made available.

【0007】一方、上記マルチトラックシーケンサのよ
うな方式では、生演奏のフレーズ波形データを貼り付け
るだけであったので、フレーズ波形の部分的な編集処理
(部分的差し替えや特性制御など)を行うことは全くで
きず、これも、電子楽器やマルチメディア機器等におい
てユーザーの自由な音作りを許容するインタラクティブ
な楽音作成技術としては利用することができなかった。
また、音楽的な演奏音に限らず、自然界に存在する一般
的な音も、その時間的経過等に従って、繊細な“アーテ
ィキュレーション”を豊富に含んでいるが、従来の技術
では、自然界に存在する音の“アーティキュレーショ
ン”を制御可能に巧みに再現することはできなかった。
On the other hand, in a system such as the above-described multi-track sequencer, only the live performance phrase waveform data is pasted. This method cannot be used at all as an interactive musical sound creation technology that allows a user to freely create sounds in electronic musical instruments and multimedia devices.
Not only musical performance sounds, but also general sounds that exist in the natural world are rich in delicate “articulations” according to their lapse of time. The "articulation" of existing sounds could not be controllably reproduced.

【0008】また、従来の典型的なビブラート付与技術
は、波形メモリから楽音波形を読み出す速度をビブラー
ト周波数に従って周期的に変調するようにしたものであ
り、単調なビブラート音しか発生することができなかっ
た。他方、元々ビブラートが付与された原波形をメモリ
に記録し、これを再生読出することも考えられるが、そ
れでは、再生時の制御性に乏しかった。また、メモリの
記録容量も増してしまう。
Further, the conventional typical vibrato imparting technique is such that the speed at which a musical tone waveform is read from a waveform memory is periodically modulated in accordance with a vibrato frequency, and only a monotonous vibrato sound can be generated. Was. On the other hand, it is conceivable to record the original waveform to which vibrato was originally added in a memory and read and read it, but this has poor controllability during reproduction. In addition, the recording capacity of the memory also increases.

【0009】この発明は上述の点に鑑みてなされたもの
で、高品質なビブラート音を制御性豊かに発生すること
ができ、かつ、データ記憶容量も節約することのできる
ビブラート発生装置及び方法を提供しようとするもので
ある。また、電子楽器や電子的装置を用いて楽音(前述
の通り音楽的な音に限らずその他の一般的な音をも含
む)を発生する場合において、“アーティキュレーショ
ン”のリアルな再現を実現すると共にその制御を容易に
し、電子楽器やマルチメディア機器等においてユーザー
の自由な音作りと編集操作を許容するインタラクティブ
な高品質楽音作成技術を提供し、そのような技術に基づ
く波形生成の際に、高品質なビブラート音を効率的に発
生することができるビブラート発生装置及び方法を提供
しようとするものである。
The present invention has been made in view of the above points, and provides a vibrato generating apparatus and method capable of generating a high-quality vibrato sound with good controllability and saving data storage capacity. It is something to offer. In addition, when musical sounds (including not only musical sounds but also other general sounds) are generated using electronic musical instruments and electronic devices, "articulation" is realistically reproduced. It provides interactive high-quality musical sound creation technology that allows the user to freely create and edit sounds in electronic musical instruments and multimedia devices, etc. It is an object of the present invention to provide a vibrato generating apparatus and method capable of efficiently generating a high-quality vibrato sound.

【0010】なお、本明細書において“アーティキュレ
ーション”(articulation)の語は、通常知られている
意味で用いるものとし、例えば、「音節」、「音と音の
つながり」、「複数の音のかたまり(フレーズ)」、
「音の部分的な特徴」、「発音の手法」、「奏法」、
「演奏表現」等の概念を全て含む広い概念で用いるもの
とする。
In this specification, the term "articulation" is used in a generally known meaning, and includes, for example, "syllable", "connection between sounds", "several sounds". Lump (phrase) ",
"Partial characteristics of sound", "pronunciation method", "playing method",
It shall be used in a wide concept including all the concepts such as "performance expression".

【0011】[0011]

【課題を解決するための手段】この発明に係るビブラー
ト発生装置は、ビブラートが付与された原波形から分散
的に取り出された複数の波形データを記憶した記憶手段
と、前記波形データの1つを所定の間で繰返し読み出し
し、かつ読み出すべき波形データを順番に切り替えるこ
とで、所定の読み出しシーケンスを実行し、かつこの読
み出しシーケンスを繰返すことで複数周期にわたるビブ
ラートを実現する読出手段とを備えるものである。
According to the present invention, there is provided a vibrato generating apparatus for storing a plurality of waveform data which are dispersedly extracted from an original waveform to which vibrato is added, and storing one of the waveform data. Reading means for repeatedly reading out data during a predetermined time and sequentially switching waveform data to be read out, thereby executing a predetermined reading sequence, and realizing vibrato over a plurality of cycles by repeating this reading sequence. is there.

【0012】これにより、原波形のビブラート1周期又
は複数周期あるいは1周期未満等適宜の範囲から複数の
波形データを分散的に取り出して記憶することで、原波
形を全部記憶する場合に比べて、記憶手段に記憶する波
形データの記憶容量を節約することができ、かつ、分散
的な取り出しによって、原波形におけるビブラートの特
徴をできる限り反映している高品質なビブラート用の波
形データを得ることができる。そして、この波形データ
の1つを所定の間で繰返し読み出しし、かつ読み出すべ
き波形データを順番に切り替えることで、所定の読み出
しシーケンスを実行し、かつこの読み出しシーケンスを
繰返すことで複数周期にわたるビブラートを実現するこ
とができる。分散的に取り出された各波形データは、原
波形におけるビブラートの特徴を反映しているものであ
るので、これらの繰り返しと組合せによって得られる楽
音波形は、原波形におけるビブラートに匹敵する高品質
なビブラートを含むものとなる。ここで、記憶手段から
の各波形データの読み出し方を種々可変制御することに
より、ビブラート周期等種々のビブラート要素の制御を
多様に行なうことができる。従って、この発明によれ
ば、高品質なビブラート音を制御性豊かに発生すること
ができ、かつ、データ記憶容量も節約することができ
る、という優れた効果を奏する。
With this arrangement, a plurality of waveform data are dispersedly taken out from an appropriate range such as one or more periods of vibrato or less than one period of the original waveform, and stored. It is possible to save the storage capacity of the waveform data stored in the storage means, and to obtain high-quality vibrato waveform data that reflects vibrato characteristics in the original waveform as much as possible by distributed extraction. it can. Then, one of the waveform data is repeatedly read out in a predetermined interval, and the waveform data to be read out is sequentially switched to execute a predetermined readout sequence. By repeating this readout sequence, vibrato over a plurality of cycles is obtained. Can be realized. Since each waveform data extracted in a dispersed manner reflects the characteristics of vibrato in the original waveform, the tone waveform obtained by repeating and combining these waveforms has a high-quality vibrato comparable to the vibrato in the original waveform. Is included. Here, by variously controlling how to read each waveform data from the storage means, it is possible to variously control various vibrato elements such as a vibrato cycle. Therefore, according to the present invention, there is an excellent effect that high-quality vibrato sound can be generated with rich controllability and the data storage capacity can be saved.

【0013】一実施態様として、読み出しシーケンスに
対応してピッチの時間的変化を示す制御データを発生す
る制御データ発生手段を更に備え、前記読出手段では、
この制御データに応じて前記波形データの読み出し速度
を時間的に変化するようにしてもよい。また、読み出し
シーケンスに対応して振幅の時間的変化を示す制御デー
タを発生する制御データ発生手段と、前記読出手段によ
って読み出された波形データの振幅をこの制御データに
応じて時間的に制御する振幅制御手段とを更に備えても
よい。これによって、ビブラートの深さやそれに伴う振
幅変動を制御することができる。また、ビブラート1周
期の時間を制御する時間制御データを発生する制御デー
タ発生手段を更に具備し、読出手段において1つの波形
データを繰返し読み出しする時間をこの記時間制御デー
タにより可変制御することで、読み出しシーケンスの時
間を制御し、ビブラート周期を可変制御するようにして
もよい。また、先行する波形データと後続する波形デー
タとをそれぞれ所定の間で繰返し読み出ししつつ両者を
クロスフェード合成するクロスフェード合成手段を具備
してもよい。
In one embodiment, the apparatus further comprises control data generating means for generating control data indicating a temporal change in pitch in response to a read sequence, wherein the read means comprises:
The reading speed of the waveform data may be temporally changed according to the control data. A control data generating means for generating control data indicating a temporal change of the amplitude in accordance with the read sequence; and controlling the amplitude of the waveform data read by the read means temporally in accordance with the control data. An amplitude control means may be further provided. As a result, it is possible to control the vibrato depth and the accompanying amplitude fluctuation. Further, the apparatus further comprises control data generating means for generating time control data for controlling the time of one cycle of vibrato, and the time for repeatedly reading out one waveform data in the reading means is variably controlled by the time control data. The time of the read sequence may be controlled to variably control the vibrato cycle. Further, a cross-fade synthesizing means for cross-fade synthesizing the preceding waveform data and the succeeding waveform data while repeatedly reading each of them at predetermined intervals may be provided.

【0014】この発明の別の観点に従うビブラート発生
装置は、ビブラートの複数周期に対応して、複数の分散
的な波形データを記憶した記憶手段と、前記各波形デー
タのビブラート1周期内における相対的時間位置を保ち
つつ、各波形データの属するビブラート周期位置を入れ
替えることにより、ビブラートの複数周期にわたる各波
形データの読み出し順序を任意に可変設定する設定手段
と、前記記憶手段から波形データを所定の間で繰返し読
み出しし、かつ読み出すべき波形データを前記設定され
た読み出し順序で順番に切り替えることで、複数周期に
わたるビブラートを実現する読出手段とを備えるもので
ある。このように、各波形データのビブラート1周期内
における相対的時間位置を保ちつつ、各波形データの属
するビブラート周期位置を入れ替えることにより、違和
感を与えることなく、多様な組合せでビブラート音の合
成を行なうことができる。
According to another aspect of the present invention, there is provided a vibrato generating apparatus which stores a plurality of dispersed waveform data corresponding to a plurality of cycles of vibrato, and stores a plurality of pieces of waveform data relative to each other within one vibrato cycle. Setting means for arbitrarily setting the reading order of each waveform data over a plurality of cycles of vibrato by changing the vibrato cycle position to which each waveform data belongs while maintaining the time position; and And a read means for realizing vibrato over a plurality of cycles by repeatedly switching waveform data to be read in the set reading order. As described above, the vibrato sound is synthesized in various combinations without giving a sense of incongruity by replacing the vibrato cycle position to which each waveform data belongs while maintaining the relative time position within one vibrato cycle of each waveform data. be able to.

【0015】この発明に係る楽音データ作成及び楽音合
成の技術は、音のアーティキュレーションを分析し、ア
ーティキュレーションエレメントを単位として楽音編集
及び合成処理を行うことにより、音のアーティキュレー
ションをモデルして楽音合成を行うものである。従っ
て、この技術をSAEM(Sound Articulation Element
Modeling)技術と呼ぶことにする。この発明は、方法発
明として構成し、実施することができるのみならず、装
置発明として構成し、実施することもできる。また、こ
の発明は、コンピュータプログラムの形態で実施するこ
とができるし、そのようなコンピュータプログラムを記
憶した記録媒体の形態で実施することもできる。更に、
この発明は、新規なデータ構造からなる波形又は楽音デ
ータを記憶した記録媒体の形態で実施することもでき
る。なお、この発明で提案するビブラート音の発生技術
は、アーティキュレーションを含む高品質な波形に限ら
ず、その他の一般的な波形からなる楽音波形に対しても
適用することができる。
The art of musical sound data creation and musical sound synthesis according to the present invention analyzes sound articulation and performs musical sound editing and synthesizing processing in units of articulation elements to model sound articulation. To perform musical tone synthesis. Therefore, this technology is called SAEM (Sound Articulation Element).
Modeling) technology. The present invention can be constructed and implemented not only as a method invention, but also as an apparatus invention. Further, the present invention can be implemented in the form of a computer program, or can be implemented in the form of a recording medium storing such a computer program. Furthermore,
The present invention can be embodied in the form of a recording medium storing waveforms or musical sound data having a novel data structure. The technique of generating a vibrato sound proposed in the present invention can be applied not only to high-quality waveforms including articulations but also to musical sound waveforms having other general waveforms.

【0016】[0016]

【発明の実施の形態】以下、添付図面を参照してこの発
明の実施の形態を詳細に説明しよう。 〔楽音データベースの作成例〕前述の通り、ピアノ、バ
イオリン、サックス等の任意の自然楽器についての熟練
した演奏家が該楽器によって一連の楽曲フレーズを演奏
する場合、その演奏音の内容は、例えば同じ楽器で演奏
されているとはいえ、一様なものではなく、各音毎に、
あるいは音と音のつながりにおいて、あるいは音の立上
り部や持続部または立下り部等の部分において、曲想に
応じてあるいは演奏家の感性等に応じて、微妙に異なる
“アーティキュレーション”で演奏される。そのような
“アーティキュレーション”の存在が、聴者に本当に良
い音としての印象を与える。楽器演奏の場合、一般に、
“アーティキュレーション”は、演奏家による「奏法」
若しくは「演奏表現」の反映として顕れる。従って、以
下の説明では、「奏法」若しくは「演奏表現」と“アー
ティキュレーション”の語がどちらも実質的に同義のこ
とを指して使用されることがあることを予めことわって
おく。たとえば、「奏法」には、スタカート、テヌー
ト、スラー、ビブラート、トレモロ、クレッシェンド、
デクレッシェンドなど、その他様々なものがある。演奏
家が楽器によって一連の楽曲フレーズを演奏する場合、
楽譜の指示に従って、あるいは自らの感性に従って、各
演奏局面で様々な奏法が使用され、それぞれの奏法に応
じた“アーティキュレーション”を生み出す。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. [Example of Creating Musical Tone Database] As described above, when a skilled performer of an arbitrary natural musical instrument such as a piano, violin, or saxophone plays a series of musical phrases with the musical instrument, the contents of the musical sounds are the same, for example. Despite being played on musical instruments, it is not uniform,
Alternatively, in the connection between sounds, or at the rising, sustaining, or falling parts of a sound, the music is played with a slightly different "articulation" depending on the musical composition or the sensitivity of the performer. You. The existence of such "articulations" gives the listener the impression of a really good sound. When playing an instrument,
"Articulation" is a "playing technique" by a performer
Or, it appears as a reflection of "performance expression". Therefore, in the following description, it is to be noted in advance that the terms "playing style" or "performance expression" and "articulation" are sometimes used to indicate substantially the same meaning. For example, "playing techniques" include stakart, tenuto, slur, vibrato, tremolo, crescendo,
There are various other things such as decrescendo. When a performer plays a series of musical phrases with musical instruments,
Various playing styles are used in each performance phase according to the instructions in the score or according to one's own sensibility, producing "articulations" corresponding to each playing style.

【0017】この発明に従う楽音データベースの作成手
順の一例が図1に示されている。最初のステップS1
は、1又は複数の楽音からなる一連の演奏音をサンプリ
ングするステップである。ここでは、例えば、或る特定
の自然楽器についての熟練した演奏家が、該楽器によっ
て所定の一連の楽曲フレーズを演奏する。この一連の演
奏音をマイクロフォンでピックアップし、所定のサンプ
リング周波数にしたがってサンプリングし、該演奏フレ
ーズ全体についてのPCM符号化された波形データを得
る。この波形データは、音楽的にも優れた、高品質なデ
ータである。説明のために、このステップS1でのサン
プリングのために演奏される一連の楽曲フレーズの楽譜
例を、図2(a)に示す。図2(a)の楽譜の上側に付
記された「奏法記号」は、この楽譜に示された楽曲フレ
ーズがどのような奏法で演奏されるかを例示的に示すも
のである。このような「奏法記号」付きの楽譜は、この
ステップS1でのサンプリングの際に不可欠なものでは
ない。通常の楽譜に従って演奏家が該楽曲フレーズを演
奏し、その後での、サンプリングした波形データの分析
によって、時間経過に従う各演奏局面での奏法を判断
し、このような奏法記号付きの楽譜を作成するようにし
てよい。追って説明するように、このような奏法記号付
きの楽譜は、ステップS1でのサンプリングの際に役立
つというよりは、むしろ、ここでサンプリングしたデー
タに基づいて作成されたデータベースから一般のユーザ
ーが所望のデータを引き出しそれらを接続して所望の演
奏音を作成する際に、該一般ユーザーにとって大いに手
助けとなると思われるものである。しかし、図2(a)
の楽譜で示すフレーズがどのように演奏されたかを例示
的に説明するために、同図において例示された奏法記号
の意味についてここで説明しておく。
FIG. 1 shows an example of a procedure for creating a tone database according to the present invention. First step S1
Is a step of sampling a series of performance sounds composed of one or more musical tones. Here, for example, a skilled performer of a certain natural musical instrument plays a predetermined series of music phrases with the musical instrument. This series of performance sounds is picked up by a microphone, sampled according to a predetermined sampling frequency, and PCM-encoded waveform data for the entire performance phrase is obtained. This waveform data is high quality data excellent in music. For the purpose of explanation, FIG. 2A shows an example of a musical score of a series of music phrases played for sampling in step S1. The “playing style symbol” added above the musical score in FIG. 2A exemplarily shows the playing style of the music phrase shown in the musical score. Such a musical score with a “playing style symbol” is not indispensable at the time of sampling in this step S1. A musician plays the music phrase in accordance with a normal music score, and then analyzes the sampled waveform data to determine a performance style in each performance phase according to the passage of time, and creates a music score with such performance style symbols. You may do so. As will be described later, the score with such a rendition style symbol is not useful for sampling in step S1, but rather, a general user can obtain a desired score from a database created based on the data sampled here. It is thought that it will greatly assist the general user in extracting data and connecting them to create a desired performance sound. However, FIG.
In order to exemplify how the phrase shown in the musical score is played, the meaning of the rendition style symbols illustrated in the figure will be described here.

【0018】最初の小節における3つの音符に対応して
描かれた黒丸の奏法記号は「スタカート」奏法を示し、
黒丸の大きさは音量の程度を示している。その次の音符
に対応して「Atack-Mid, No-Vib」の文字と共に描かれ
た奏法記号は、「中程度のアタックで、ビブラートはつ
けない」奏法を記述している。2小節目の後半のスラー
で結ばれた音符に対応して「Atk-Fast, Vib-Soon-Fast,
Release-Smoothly」の文字で描かれた奏法記号は、
「アタックは素速く立上り、ビブラートはすぐに速く
し、リリースはスムーズに」という奏法を記述してい
る。3小節目における楕円の黒丸からなる奏法記号は
「テヌート」奏法を示す。また、3小節目には音量を徐
々に小さくすることを示す奏法記号や、音の末尾にビブ
ラートをつけることを指示する奏法記号も記載されてい
る。このように、3小節程度の長さの楽曲フレーズにあ
っても、多様な奏法若しくは演奏表現すなわちアーティ
キュレーションが用いられることが理解できる。なお、
これらの奏法記号の表わし方は、これに限るものではな
く、要するに奏法を何らかの形で表現しうるものであれ
ばよい。或る程度の奏法を表現する記号は従来の楽譜表
記においても用いられているが、この発明の実施にあた
っては、従来にないより精密な奏法記号を採用すること
が望ましい。
The performance symbol of a black circle drawn corresponding to the three notes in the first bar indicates the "star cart" performance style.
The size of the black circle indicates the volume level. The playing style symbol drawn with the letters "Atack-Mid, No-Vib" corresponding to the next note describes the playing style "medium attack, no vibrato". "Atk-Fast, Vib-Soon-Fast,
Release-Smoothly ''
"The attack rises quickly, the vibrato goes fast, and the release goes smoothly." A playing style symbol consisting of an oval black circle in the third measure indicates a “tenuto” playing style. In the third measure, a performance style symbol indicating that the volume is gradually reduced and a performance style symbol indicating that vibrato is added to the end of the sound are also described. As described above, it can be understood that various playing styles or performance expressions, that is, articulations are used even for a musical phrase having a length of about three measures. In addition,
The way of representing these rendition style symbols is not limited to this, but it is sufficient that the rendition style can be expressed in some way. Symbols expressing a certain degree of playing style are also used in conventional music notation, but in practicing the present invention, it is desirable to employ more precise performance style symbols than ever before.

【0019】図1において、次のステップS2は、サン
プリングした一連の演奏音をその演奏表現上の特徴(す
なわちアーティキュレーション)に応じてそれぞれ可変
の長さからなる複数の時間区間に分割するステップであ
る。これは、例えばフーリエ解析で知られているような
規則的な一定の時間フレーム毎に波形データを分割し分
析するようなやり方とは全く異なるものである。すなわ
ち、サンプリングした一連の演奏音の中に存在するアー
ティキュレーションには多様性があるので、個々のアー
ティキュレーションに対応する音の時間的範囲は、一様
な時間長ではなく、任意の可変の長さからなっている。
従って、サンプリングした一連の演奏音をその演奏表現
上の特徴(すなわちアーティキュレーション)に応じて
複数の時間区間に分割することは、その結果分割された
各時間区間の長さは可変的なものとなる。
In FIG. 1, the next step S2 is a step of dividing a series of sampled performance sounds into a plurality of time sections each having a variable length in accordance with the characteristic (ie, articulation) of the performance expression. It is. This is completely different from the method of dividing and analyzing the waveform data at regular regular time frames as known by Fourier analysis, for example. In other words, since the articulations present in a series of sampled performance sounds are diverse, the time range of the sound corresponding to each articulation is not a uniform time length but an arbitrary variable. Of length.
Therefore, dividing a series of sampled performance sounds into a plurality of time sections in accordance with the characteristics (ie, articulation) of the performance expression means that the length of each of the divided time sections is variable. Becomes

【0020】図2の(b),(c),(d)は、そのよ
うな時間区間の分割例を階層的に例示するものである。
図2(b)は、比較的大きなアーティキュレーションの
かたまり(これを便宜上、「アーティキュレーション大
単位」といい、AL#1,AL#2,AL#3,AL#
4なる記号で示す)に分割する例を示している。このよ
うなアーティキュレーション大単位は、例えば大まかな
演奏表現が共通しているフレージングの小単位毎に区分
するとよい。図2(c)は、1つのアーティキュレーシ
ョン大単位(図ではAL#3)を、更にアーティキュレ
ーション中単位(便宜上、AM#1,AM#2なる記号
で示す)に分割する例を示している。このアーティキュ
レーション中単位AM#1,AM#2は、例えば、大ま
かに1つの音を単位として区分する。図2(d)は、1
つのアーティキュレーション中単位(図ではAM#1,
AM#2)を、更にアーティキュレーション最小単位
(便宜上、AS#1〜AS#8なる記号で示す)に分割
する例を示している。このアーティキュレーション最小
単位AS#1〜AS#8は、音の部分であって演奏表現
の異なる個所、典型的にはアタック部、ボディ部(音の
定常的な特徴を示す比較的安定した部分)、リリース
部、音と音のつながりの部分など、に対応している。
FIGS. 2 (b), 2 (c) and 2 (d) show examples of such a division of a time section in a hierarchical manner.
FIG. 2B shows a relatively large lump of articulation (referred to as "articulation large unit" for convenience, AL # 1, AL # 2, AL # 3, AL #
(Indicated by four symbols). Such a large articulation unit may be divided into, for example, small phrasing units having a common rough performance expression. FIG. 2C shows an example in which one large unit of articulation (AL # 3 in the figure) is further divided into units during articulation (for convenience, indicated by symbols AM # 1 and AM # 2). ing. The articulation units AM # 1 and AM # 2 are roughly divided into, for example, one sound. FIG.
One articulation unit (AM # 1, in the figure)
AM # 2) is further divided into minimum articulation units (for convenience, indicated by symbols AS # 1 to AS # 8). The minimum unit of articulation AS # 1 to AS # 8 is a part of a sound which is different in performance expression, typically an attack part, a body part (a relatively stable part showing a steady characteristic of a sound). ), The release section, and the connection between sounds.

【0021】例えば、AS#1,AS#2,AS#3が
アーティキュレーション中単位AM#1を構成する1つ
の音(スラーの先行音)のアタック部、第1のボディ
部、第2のボディ部にそれぞれ対応し、AS#5,AS
#6,AS#7,AS#8が次のアーティキュレーショ
ン中単位AM#2を構成する1つの音(スラーの後続
音)第1のボディ部、第2のボディ部、第3のボディ
部、リリース部にそれぞれ対応している。第1及び第2
のボディ部というように、複数のボディ部がある理由
は、同じ音のボディ部であってもアーティキュレーショ
ンが異なっている(例えばビブラートの速さ等が変化し
ている)場合があり、そのような場合に対応している。
AS#4は、スラー変化による音と音のつながりの部分
に対応している。この部分AS#4は、2つのアーティ
キュレーション中単位AM#1,AM#2の切り出し方
によっていずれか一方(AM#1の終わりの部分又はA
M#2の始まりの部分)から取り出せばよい。あるい
は、このようなスラー変化による音と音のつながりの部
分AS#4は、始めからアーティキュレーション中単位
として取り出すようにしてもよい。その場合は、アーテ
ィキュレーション大単位AL#3は、3つのアーティキ
ュレーション中単位に分割されることになり、真中のア
ーティキュレーション中単位つまり音と音のつながりの
部分は、そのままアーティキュレーション最小単位AS
#4に相当することになる。このようにスラー変化によ
る音と音のつながりの部分AS#4を単独で取り出すよ
うにした場合は、該部分AS#4を他の音と音とをつな
げる部分にも使用することにより、これらの音をスラー
でつなげるようにすることもできる。
For example, AS # 1, AS # 2, and AS # 3 form an attack portion, a first body portion, and a second portion of one sound (preceding sound of a slur) constituting unit AM # 1 during articulation. AS # 5, AS corresponding to each body part
# 6, AS # 7, and AS # 8 constitute one unit sound AM # 2 during the next articulation (sound following the slur). First body part, second body part, and third body part. , And the release section respectively. First and second
The reason why there are multiple body parts, such as the body part, is that even if the body part has the same sound, the articulation may be different (for example, the speed of vibrato etc. may change). It corresponds to such a case.
AS # 4 corresponds to a part of connection between sounds due to a slur change. This part AS # 4 is either one of the two articulation units AM # 1 and AM # 2 (the end part of AM # 1 or A
M # 2). Alternatively, the part AS # 4 of the connection between sounds due to such a slur change may be taken out as a unit during articulation from the beginning. In this case, the large articulation unit AL # 3 is divided into three articulation units, and the middle articulation unit, that is, the part of the connection between sounds, is directly articulated. Minimum unit AS
This corresponds to # 4. When the part AS # 4 of the connection between the sounds due to the slur change is taken out alone, the part AS # 4 is also used as the part connecting the other sounds with the sound, so that these parts AS # 4 are also used. Sounds can be connected by slurs.

【0022】図2(d)に示したようなアーティキュレ
ーション最小単位AS#1〜AS#8が、ステップS2
の処理で分割される複数の時間区間に相当する。以下で
は、このようなアーティキュレーション最小単位をアー
ティキュレーションエレメントとも呼ぶことにする。な
お、アーティキュレーション最小単位の分割の仕方は上
記例に限らないので、アーティキュレーション最小単位
すなわちアーティキュレーションエレメントが必ずしも
音の部分のみに対応しているとは限らない。
The minimum articulation unit AS # 1 to AS # 8 as shown in FIG.
Corresponds to a plurality of time sections divided by the processing of. In the following, such an articulation minimum unit is also referred to as an articulation element. Note that the way of dividing the minimum unit of articulation is not limited to the above example, so the minimum unit of articulation, that is, the articulation element does not always correspond to only the sound part.

【0023】図1において、次のステップS3は、分割
した各時間区間(アーティキュレーション最小単位AS
#1〜AS#8すなわちアーティキュレーションエレメ
ント)毎の波形データを所定の複数の楽音要素について
分析し、分析した各楽音要素の特性を示すデータを生成
するステップである。分析する楽音要素としては、例え
ば、波形(音色)、振幅(音量)、ピッチ(音高)、時
間などの要素がある。これらの楽音要素は、当該時間区
間における波形データの構成要素(エレメント)である
と共に、当該時間区間におけるアーティキュレーション
の構成要素(エレメント)でもある。次のステップS4
では、生成した各要素の特性を示すデータをデータベー
スに蓄積する。データベースでは、蓄積したこれらのデ
ータをテンプレートデータとして、楽音合成に際して、
利用可能にする。これらの楽音要素の分析の仕方の一例
を示すと次のようであり、各楽音要素の特性を示すデー
タ(テンプレートデータ)の一例を示すと図3のようで
ある。また、図2(e)にも、1つのアーティキュレー
ション最小単位から分析される各楽音要素の種類が例示
されている。
In FIG. 1, the next step S3 is a step for each divided time section (minimum articulation unit AS).
In this step, waveform data for each of # 1 to AS # 8, that is, articulation elements) is analyzed for a plurality of predetermined tone elements, and data indicating characteristics of the analyzed tone elements is generated. The musical tone elements to be analyzed include, for example, waveform (tone), amplitude (volume), pitch (pitch), time, and the like. These musical sound elements are components (elements) of the waveform data in the time section and also articulation elements (elements) in the time section. Next step S4
Then, data indicating the characteristics of each generated element is stored in a database. The database uses these accumulated data as template data when synthesizing music.
Make it available. An example of how to analyze these tone elements is as follows, and FIG. 3 shows an example of data (template data) indicating the characteristics of each tone element. FIG. 2E also shows examples of the types of each tone element analyzed from one minimum unit of articulation.

【0024】 波形(音色)要素については、当該時
間区間(アーティキュレーションエレメント)における
オリジナルのPCM波形データをそのまま取り出す。こ
れを波形テンプレート(Timbre テンプレート)として
データベースに記憶する。この波形(音色)要素を示す
記号として、“Timbre”を用いることにする。 振幅(音量)要素については、当該時間区間(アー
ティキュレーションエレメント)におけるオリジナルの
PCM波形データの音量エンベロープ(時間経過に従う
音量振幅変化)を抽出し、振幅エンベロープデータを得
る。これを振幅テンプレート(Amp テンプレート)とし
てデータベースに記憶する。この振幅(音量)要素を示
す記号として、“Amp”(Amplitudeの略)を用いること
にする。 ピッチ(音高)要素については、当該時間区間(ア
ーティキュレーションエレメント)におけるオリジナル
のPCM波形データのピッチエンベロープ(時間経過に
従うピッチ変化)を抽出し、ピッチエンベロープデータ
を得る。これをピッチテンプレート(Pitch テンプレー
ト)としてデータベースに記憶する。このピッチ要素を
示す記号として、“Pitch”を用いることにする。
For the waveform (tone) element, the original PCM waveform data in the time section (articulation element) is taken out as it is. This is stored in the database as a waveform template (Timbre template). “Timbre” will be used as a symbol indicating this waveform (tone color) element. As for the amplitude (volume) element, the volume envelope (volume amplitude change over time) of the original PCM waveform data in the time section (articulation element) is extracted to obtain amplitude envelope data. This is stored in a database as an amplitude template (Amp template). “Amp” (abbreviation of Amplitude) is used as a symbol indicating the amplitude (volume) element. As for the pitch (pitch) element, the pitch envelope (pitch change with time) of the original PCM waveform data in the time section (articulation element) is extracted to obtain pitch envelope data. This is stored in a database as a pitch template (Pitch template). “Pitch” is used as a symbol indicating the pitch element.

【0025】 時間要素については、当該時間区間
(アーティキュレーションエレメント)におけるオリジ
ナルのPCM波形データの時間長をそのまま用いる。従
って、当該区間のオリジナルの時間長(可変値である)
を比「1」で示すこととすれば、データベース作成時に
おいてこの時間長をあえて分析・測定する必要はない。
その場合、時間要素についてのデータすなわち時間テン
プレート(TSCテンプレート)はどの区間(アーティ
キュレーションエレメント)でも同じ値“1”であるか
ら、これをテンプレートデータベースにあえて記憶して
おかなくてもよい。勿論、これに限らず、この実際の時
間長を分析・測定し、これを時間テンプレートデータと
してデータベースに記憶するようにする変形例も実施可
能である。
For the time element, the time length of the original PCM waveform data in the time section (articulation element) is used as it is. Therefore, the original time length of the section (variable value)
Is expressed by the ratio “1”, it is not necessary to analyze and measure this time length when creating the database.
In this case, since the data on the time element, that is, the time template (TSC template) has the same value “1” in any section (articulation element), it is not necessary to store this in the template database. Of course, the present invention is not limited to this, and a modified example in which the actual time length is analyzed and measured, and this is stored in the database as time template data can be implemented.

【0026】ところで、波形データのオリジナルの時間
長を可変制御する技術として、該波形データのピッチに
影響を与えることなく該波形データを時間軸方向に伸張
または圧縮する制御が、未公開ではあるが、「Time Str
etch & Compress」制御(略して「TSC制御」)とし
て本発明者によって既に提案されている。本実施例にお
いてもそのような「TSC制御」を利用するものとして
おり、時間要素の記号として使用するTSCはこの略号
である。楽音合成時において、このTSC値を“1”に
固定せずに、その他の適宜の値に設定することにより、
再生波形信号の時間長を可変制御することができる。そ
の場合、そのTSC値は、時間的に変化する値(例えば
エンベロープ等適宜の時間関数)として与えるようにし
てもよい。なお、このTSC制御は、オリジナル波形に
おけるビブラートやスラー等の特殊な奏法がかけられた
部分の時間長を自在に可変制御する場合などに役立てる
ことができる。
As a technique for variably controlling the original time length of the waveform data, control for expanding or compressing the waveform data in the time axis direction without affecting the pitch of the waveform data is not disclosed. , "Time Str
It has already been proposed by the present inventors as "etch &Compress" control (abbreviated as "TSC control"). In the present embodiment, such “TSC control” is used, and the TSC used as a symbol of the time element is this abbreviation. At the time of musical tone synthesis, this TSC value is not fixed to “1”, but is set to any other appropriate value.
The time length of the reproduced waveform signal can be variably controlled. In this case, the TSC value may be given as a time-varying value (for example, an appropriate time function such as an envelope). Note that this TSC control can be useful when the time length of a portion of the original waveform to which a special playing style such as vibrato or slur is applied is variably controlled.

【0027】以上説明したような処理を、様々な自然楽
器について、様々な奏法で(様々な楽曲フレーズについ
て)、それぞれ行い、各自然楽器毎に多数のアーティキ
ュレーションエレメントについての各楽音要素毎のテン
プレートを作成し、これらをデータベースに蓄積する。
また、自然楽器に限らず、人の声や雷の音など、自然界
に存在する様々な音について、上記のようなサンプリン
グとアーティキュレーション分析の処理を行い、その結
果得られる各要素毎の多様なテンプレートデータをデー
タベースに蓄積するようにしてよい。勿論、サンプリン
グのために生演奏するフレーズは、上記例のような数小
節からなるフレーズに限らず、必要に応じてもっと短い
フレーズ(例えば図2(b)に示したような1つのフレ
ージング小単位)のみであってもよいし、あるいは反対
に1つの曲全部であってもよい。
The above-described processing is performed for various natural musical instruments in various playing styles (for various musical phrases), and for each natural musical instrument, a large number of articulation elements are used for each musical tone element. Create templates and store them in a database.
Not only natural instruments, but also various sounds that exist in the natural world, such as human voices and thunder, perform sampling and articulation analysis as described above. Template data may be stored in a database. Of course, the phrase to be played live for sampling is not limited to a phrase consisting of several measures as in the above example, but may be shorter if necessary (for example, one phrasing small unit as shown in FIG. 2B). ) Alone or, conversely, an entire song.

【0028】データベースDBの構成は、例えば図4に
示すように、テンプレートデータベースTDBとアーテ
ィキュレーションデータベースADBとに大別される。
なお、データベースDBのハードウェアとしては周知の
ようにハードディスク装置や光磁気ディスク装置などの
読み書き可能な記憶媒体(好ましくは大容量媒体)が用
いられる。テンプレートデータベースTDBは、上記の
ようにして作成された多数のテンプレートデータを蓄積
するものである。なお、テンプレートデータベースTD
Bに記憶するテンプレートデータは、必ずしもその全て
が上記のような演奏音又は自然音のサンプリングと分析
に基づくものである必要はなく、要するに、テンプレー
ト(出来合いのデータ)として予め用意されたものであ
ればよく、データ編集作業によって人為的に任意に作成
したものであってもよい。例えば、時間要素についての
TSCテンプレートは、サンプリングした演奏音に基づ
くものである限りは上述のように通常は“1”である
が、自由な変化パターン(エンベロープ)で作成するこ
とができるものであるから、様々なTSC値又はその時
間的変化のエンベロープ波形をTSCテンプレートデー
タとして作成し、データベースに記憶させておくように
してよい。また、テンプレートデータベースTDBに記
憶するテンプレートの種類も、上記のようなオリジナル
波形から分析した特定の要素に対応するものに限らず、
楽音合成の際の便宜を図るためにその他の種類のものを
適宜増加してよい。例えば、楽音合成の際にフィルタを
使用して音色制御を行う場合、フィルタ係数セット(時
変動フィルタ係数セットを含む)をテンプレートデータ
として多数用意し、これをテンプレートデータベースT
DBに記憶しておくようにしてよい。勿論、このような
フィルタ係数セットは、オリジナル波形の分析に基づき
作成するようにしてもよいし、その他適宜の手段で作成
するようにしてもよい。
The structure of the database DB is roughly divided into a template database TDB and an articulation database ADB, for example, as shown in FIG.
As the hardware of the database DB, a readable / writable storage medium (preferably a large-capacity medium) such as a hard disk device or a magneto-optical disk device is used as is well known. The template database TDB stores a large number of template data created as described above. Note that the template database TD
All of the template data stored in B need not necessarily be based on the sampling and analysis of performance sounds or natural sounds as described above. In short, the template data may be prepared in advance as a template (finished data). It may be created arbitrarily and artificially by data editing work. For example, the TSC template for the time element is normally “1” as described above as long as it is based on the sampled performance sound, but can be created with a free change pattern (envelope). From this, various TSC values or envelope waveforms of temporal changes thereof may be created as TSC template data and stored in a database. Further, the types of templates stored in the template database TDB are not limited to those corresponding to the specific elements analyzed from the original waveform as described above.
Other types may be increased as appropriate for convenience in tone synthesis. For example, when tone color control is performed using a filter at the time of musical tone synthesis, a large number of filter coefficient sets (including time-varying filter coefficient sets) are prepared as template data, and these are stored in the template database T.
It may be stored in a DB. Of course, such a filter coefficient set may be created based on the analysis of the original waveform, or may be created by other appropriate means.

【0029】テンプレートデータベースTDBに記憶さ
れた各テンプレートデータのデータ構成は、図3に例示
したような各テンプレートデータの内容そのものを表わ
すデータからなる。例えば、波形(Timbre)テンプレー
トは、PCM波形データそのものである。また、振幅
(Amp)エンベロープやピッチ(Pitch)エンベロープ、
TSCエンベロープなどのエンベロープ波形も、そのエ
ンベロープ形状をPCM符号化したものであってよい。
しかし、テンプレートデータベースTDBにおけるエン
ベロープ波形状のテンプレートのデータ記憶構成を圧縮
するために、エンベロープ波形を折線近似するためのパ
ラメータデータ(公知のように各折線の傾きレートと目
標レベルあるいは時間等を示すデータのセットからな
る)の形式でこれらのテンプレートデータを記憶しても
よい。
The data structure of each template data stored in the template database TDB is composed of data representing the content of each template data as exemplified in FIG. For example, the waveform (Timbre) template is the PCM waveform data itself. In addition, amplitude (Amp) envelope, pitch (Pitch) envelope,
An envelope waveform such as a TSC envelope may be obtained by PCM-encoding the envelope shape.
However, in order to compress the data storage configuration of the template of the envelope waveform shape in the template database TDB, parameter data for approximating the envelope waveform with a polygonal line (data indicating the gradient rate of each polygonal line and a target level or time, etc., as is well known) These template data may be stored in the form of

【0030】また、波形(Timbre)テンプレートも、P
CM波形データ以外の適宜のデータ圧縮された形式で記
憶するようにしてもよい。また、その他の適宜のデータ
形式で波形すなわち音色(Timbre)テンプレートデータ
を記憶するようにしてもよい。すなわち、波形(Timbr
e)テンプレートデータは、例えばDPCM又はADP
CM等、PCM形式以外のデータ圧縮化したコード化形
式からなる波形データであってもよいし、あるいは、波
形サンプル値を直接示していない波形形成用データすな
わち波形合成用のパラメータ、からなるものであってよ
い。その種のパラメータによる波形合成方式としては、
フーリエ合成あるいはFM(周波数変調)合成あるいは
AM(振幅変調)合成あるいは物理モデル音源あるいは
SMS波形合成(確定成分と不確定成分とを用いて波形
合成する技術)など、種々知られているので、これらの
いずれかの波形合成方式を採用し、そのための波形合成
用パラメータを波形(Timbre)テンプレートデータとし
てデータベースに記憶するようにしてよい。その場合、
波形(Timbre)テンプレートデータ、つまり波形合成用
パラメータ、に基づく波形形成処理は、それに対応する
波形合成用の演算装置又はプログラム等によって行われ
るのは勿論である。その場合、所望形状の波形を形成す
るための波形合成用パラメータセットを、1つのアーテ
ィキュレーションエレメント、つまり時間区間、に対応
して複数セット記憶しておき、波形合成に使用するパラ
メータセットを時間経過に従って切り替えることによ
り、1アーティキュレーションエレメント内での波形形
状の時変動を実現するようにしてもよい。
The waveform (Timbre) template is also P
The data may be stored in an appropriate data compressed format other than the CM waveform data. Further, the waveform, that is, the timbre (Timbre) template data may be stored in another appropriate data format. That is, the waveform (Timbr
e) The template data is, for example, DPCM or ADP
The data may be waveform data in a coded format other than the PCM format such as CM or the like, or may be waveform formation data that does not directly indicate a waveform sample value, that is, waveform synthesis parameters. May be. As a waveform synthesis method using such parameters,
Various methods such as Fourier synthesis, FM (frequency modulation) synthesis, AM (amplitude modulation) synthesis, physical model sound source or SMS waveform synthesis (waveform synthesis using a deterministic component and an uncertain component) are known. May be adopted, and the parameters for waveform synthesis for that purpose may be stored in the database as waveform (Timbre) template data. In that case,
The waveform forming process based on the waveform (Timbre) template data, that is, the waveform synthesizing parameter, is of course performed by the corresponding waveform synthesizing arithmetic unit or program. In that case, a plurality of parameter sets for waveform synthesis for forming a waveform of a desired shape are stored in correspondence with one articulation element, that is, a time section, and a parameter set used for waveform synthesis is stored in time. By changing over as time passes, time variation of the waveform shape within one articulation element may be realized.

【0031】また、波形(Timbre)テンプレートを、P
CM波形データで記憶する場合であっても、公知のルー
プ読出し技術を採用できる場合(例えばボディ部のよう
に音色波形が安定していて余り時間変化しないような部
分についての波形データ)は、当該区間の波形を全部記
憶せずにその一部の波形データのみを記憶しておくよう
にしてよい。また、サンプリングと分析の結果得られた
異なる時間区間すなわちアーティキュレーションエレメ
ントについてのテンプレートデータの内容が、同一か似
通っている場合は、それぞれのテンプレートデータをデ
ータベースTDBに記憶することなく、1つだけを記憶
しておき、楽音合成時にこれを共用することにより、デ
ータベースTDBの記憶量を節約することができる。ま
た、テンプレートデータベースTDBの構成は、基本の
データベースの供給者(例えば電子楽器メーカー)が予
め作成したプリセット領域と、ユーザーが自由に追加作
成できるユーザー領域等を含んでいてもよい。
Further, the waveform (Timbre) template is defined as P
Even when the data is stored as the CM waveform data, if a known loop reading technique can be adopted (for example, waveform data of a portion such as a body portion in which the timbre waveform is stable and does not change much over time), Instead of storing the entire waveform of the section, only a part of the waveform data may be stored. If the contents of template data for different time intervals obtained as a result of sampling and analysis, that is, for the articulation elements, are the same or similar, only one template data is stored in the database TDB without being stored. Can be stored and shared at the time of musical tone synthesis, so that the storage amount of the database TDB can be saved. The configuration of the template database TDB may include a preset area created in advance by a supplier of the basic database (for example, an electronic musical instrument maker), a user area that can be freely created by a user, and the like.

【0032】アーティキュレーションデータベースAD
Bは、1又は複数のアーティキュレーションを含む演奏
を構築するために、アーティキュレーションを記述する
データ(すなわち1又は複数のアーティキュレーション
エレメントの組合せによって一連の演奏を記述するデー
タ及び各アーティキュレーションエレメントを記述する
データ)を、多様な演奏ケース及び奏法に対応して、そ
れぞれ記憶しているものである。図4のブロック中に
は、「Instrument 1」と名付けた或る1つ
の楽器音についてのデータベース構成が例示されてい
る。アーティキュレーション・エレメント・シーケンス
AESEQは、1又は複数のアーティキュレーションを
含む演奏フレーズ(すなわちアーティキュレーション演
奏フレーズ)を、1又は複数のアーティキュレーション
エレメントを順次に指示するシーケンスデータの形式で
記述するものである。例えば、このアーティキュレーシ
ョンエレメントシーケンスは、前記サンプリングと分析
の工程において分析された図2(d)に示したようなア
ーティキュレーション最小単位(アーティキュレーショ
ンエレメント)の時系列的順序に相当するものである。
その楽器音を演奏する場合に有り得る様々な奏法を網羅
しうるように、多数のアーティキュレーションエレメン
トシーケンスAESEQを記憶している。なお、1つの
アーティキュレーションエレメントシーケンスAESE
Qは、図2(b)に示したような「フレージングの小単
位」(アーティキュレーション大単位AL#1,AL#
2,AL#3,AL#4)の1つであってもよいし、若
しくはこれらの「フレージングの小単位」(AL#1,
AL#2,AL#3,AL#4)のいくつかからなって
いてもよいし、あるいは図2(c)に示したような「ア
ーティキュレーション中単位」(AM#1,AM#2)
の1つであってもよいし、あるいはこれらの「アーティ
キュレーション中単位」(AM#1,AM#2)のいく
つかに対応していてもよい。
Articulation Database AD
B constructs a performance containing one or more articulations, the data describing the articulation (ie the data describing a series of performances by a combination of one or more articulation elements and each articulation). (Data describing the translation elements) are stored in correspondence with various performance cases and playing styles. The block in FIG. 4 illustrates a database configuration for a certain instrument sound named “Instrument 1”. The articulation element sequence AESEQ describes a performance phrase including one or more articulations (ie, an articulation performance phrase) in the form of sequence data that sequentially indicates one or more articulation elements. Is what you do. For example, the articulation element sequence corresponds to the time-series order of the minimum unit of articulation (articulation element) as shown in FIG. 2D analyzed in the sampling and analysis process. It is.
A large number of articulation element sequences AESEQ are stored so as to cover various possible playing styles when playing the instrument sound. In addition, one articulation element sequence AESE
Q is “a small unit of phrasing” (a large unit of articulation AL # 1 and AL #) as shown in FIG.
2, AL # 3, AL # 4), or these “phrasing small units” (AL # 1,
AL # 2, AL # 3, AL # 4), or “articulation unit” (AM # 1, AM # 2) as shown in FIG. 2 (c).
Or may correspond to some of these “articulation units” (AM # 1, AM # 2).

【0033】アーティキュレーション・エレメント・ベ
クトルAEVQは、その楽器音(Instrument
1)についてテンプレートデータベースTDBで用意
(蓄積)されている全てのアーティキュレーションエレ
メントについての各楽音要素毎のテンプレートデータの
インデックスを、個々のテンプレートを指示するベクト
ルデータの形式で(例えばテンプレートデータベースT
DBから所要のテンプレートを引き出すためのアドレス
データの形式で)、記憶しているものである。例えば、
図2(d)(e)の例に示されるように、或るアーティ
キュレーションエレメントAS#1に対応して、そのア
ーティキュレーションエレメントに相当する部分的楽音
を構成する各要素(波形、振幅、ピッチ、時間)につい
ての4つのテンプレートTimbre, Amp, Pitch, TSCを
それぞれ具体的に指示するベクトルデータ(これをエレ
メントベクトルという)を記憶している。
The articulation element vector AEVQ is the instrument sound (Instrument)
For 1), the index of template data for each musical tone element for all articulation elements prepared (stored) in the template database TDB is provided in the form of vector data designating each template (for example, the template database T
(In the form of address data for extracting a required template from the DB). For example,
As shown in the examples of FIGS. 2D and 2E, corresponding to a certain articulation element AS # 1, each element (waveform, amplitude) constituting a partial musical tone corresponding to the articulation element AS # 1 , Pitch, and time), respectively, which stores vector data (this is referred to as an element vector) that specifically designates four templates Timbre, Amp, Pitch, and TSC.

【0034】1つのアーティキュレーションエレメント
シーケンス(奏法シーケンス)AESEQにおいては、
複数のアーティキュレーションエレメントのインデック
スが演奏順に従って記述されており、そこに記述された
各アーティキュレーションエレメントを構成するテンプ
レートのセットは、アーティキュレーションエレメント
ベクトルAEVQを参照することにより引き出すことが
できるようになっている。図5の(a)は、いくつかの
アーティキュレーションエレメントシーケンスAESE
Q#1〜AESEQ#7の一例を示している。この図の
読み方について説明すると、例えば、AESEQ#1=
(ATT−Nor,BOD−Vib−nor,BOD−
Vib−dep1,BOD−Vib−dep2,REL
−Nor)は、シーケンス番号1のシーケンスAESE
Q#1は、ATT−Nor,BOD−Vib−nor,
BOD−Vib−dep1,BOD−Vib−dep
2,REL−Norという5つのアーティキュレーショ
ンエレメントのシーケンスからなる、ということを示し
ている。各アーティキュレーションエレメントのインデ
ックス記号の意味は次の通りである。
In one articulation element sequence (performance style sequence) AESEQ,
Indexes of a plurality of articulation elements are described in the order of performance, and a set of templates constituting each articulation element described therein can be derived by referring to the articulation element vector AEVQ. It has become. FIG. 5 (a) shows several articulation element sequences AESE
An example of Q # 1 to AESEQ # 7 is shown. Explaining how to read this figure, for example, AESEQ # 1 =
(ATT-Nor, BOD-Vib-nor, BOD-
Vib-dep1, BOD-Vib-dep2, REL
-Nor) is the sequence AESE of sequence number 1
Q # 1 is ATT-Nor, BOD-Vib-nor,
BOD-Vib-dep1, BOD-Vib-dep
2, REL-Nor, which indicates a sequence of five articulation elements. The meaning of the index symbol of each articulation element is as follows.

【0035】ATT−Norは「ノーマルアタック」
(アタック部が標準的に立ち上がる奏法)を示す。BO
D−Vib−norは「ボディ・ノーマルビブラート」
(ボディ部に標準的なビブラートが付けられる奏法)を
示す。BOD−Vib−dep1は「ボディ・ビブラー
トディプス1」(ボディ部に標準よりも1段階深いビブ
ラートが付けられる奏法)を示す。BOD−Vib−d
ep2は「ボディ・ビブラートディプス2」(ボディ部
に標準よりも2段階深いビブラートが付けられる奏法)
を示す。REL−Norは「ノーマルリリース」(リリ
ース部が標準的に立ち下がる奏法)を示す。
ATT-Nor is "Normal Attack"
(The playing style in which the attack part stands up as a standard). BO
D-Vib-nor is "Body Normal Vibrato"
(A playing technique in which a standard vibrato is attached to the body). BOD-Vib-dep1 indicates "Body Vibrato Depth 1" (a playing style in which a vibrato that is one step deeper than the standard is attached to the body part). BOD-Vib-d
ep2 is "Body Vibrato Depth 2" (playing technique in which the body part is given a vibrato two levels deeper than the standard)
Is shown. REL-Nor indicates "normal release" (a playing style in which the release part falls down as standard).

【0036】従って、シーケンスAESEQ#1は、ノ
ーマルアタックで始まり、ボディ部では最初はノーマル
ビブラートがつけられ、次にそのビブラートが少し深く
なり、次いでさらにビブラートが深くなり、最後にリリ
ース部では標準的な音の立ち下がりをみせる、というア
ーティキュレーションからなっている。例示的に示され
た他のシーケンスAESEQ#2〜AESEQ#6につ
いても、同様に、図5(a)におけるアーティキュレー
ションエレメントの記号表現から、そのアーティキュレ
ーションが理解できるであろう。参考のために図5
(a)に示された他のいくつかのアーティキュレーショ
ンエレメントの記号の意味について説明すると次の通り
である。
Therefore, the sequence AESEQ # 1 starts with a normal attack, in which a normal vibrato is applied first in the body portion, then the vibrato is slightly deeper, then the vibrato is further deepened, and finally, a standard vibrato is applied in the release portion. It consists of an articulation that shows a falling sound. The articulation of the other sequences AESEQ # 2 to AESEQ # 6 shown by way of example can be similarly understood from the symbolic representation of the articulation element in FIG. 5A. Figure 5 for reference
The meaning of the symbols of some other articulation elements shown in FIG.

【0037】BOD−Vib−spd1は「ボディ・ビ
ブラートスピード1」(ボディ部に標準よりも1段階速
いビブラートが付けられる奏法)を示す。BOD−Vi
b−spd2は「ボディ・ビブラートスピード2」(ボ
ディ部に標準よりも2段階速いビブラートが付けられる
奏法)を示す。BOD−Vib−d&s1は「ボディ・
ビブラートディプス&スピード1」(ボディ部に付ける
ビブラートの深さと速さをそれぞれ標準より1段階上げ
る奏法)を示す。BOD−Vib−briは「ボディ・
ビブラートブリリアント」(ボディ部にビブラートを付
け、かつその音色を派手にする奏法)を示す。BOD−
Vib−mld1は「ボディ・ビブラートマイルド1」
(ボディ部にビブラートを付け、かつその音色を少しマ
イルドにする奏法)を示す。BOD−Cre−norは
「ボディ・ノーマルクレッシェンド」(ボディ部に標準
的なクレッシェンドを付ける奏法)を示す。BOD−C
re−vol1は「ボディ・クレッシェンドボリューム
1」(ボディ部に付けるクレッシェンドのボリュームを
1段階上げた奏法)を示す。ATT−Bup−norは
「アタック・ベンドアップノーマル」(アタック部のピ
ッチを標準的な深さと速さでベンドアップする奏法)を
示す。REL−Bdw−norは「リリース・ベンドダ
ウンノーマル」(リリース部のピッチを標準的な深さと
速さでベンドダウンする奏法)を示す。
BOD-Vib-spd1 indicates "body vibrato speed 1" (a playing style in which a vibrato one step faster than the standard is attached to the body). BOD-Vi
b-spd2 indicates "Body Vibrato Speed 2" (a playing style in which a vibrato two times faster than the standard is applied to the body part). BOD-Vib-d & s1 is "Body-
Vibrato Depth & Speed 1 "(the playing style in which the depth and speed of the vibrato attached to the body part are each raised by one step from the standard). BOD-Vib-bri is "Body-
Vibrato Brilliant "(playing style with vibrato on the body and flashing its tone). BOD-
Vib-mld1 is "Body Vibrato Mild 1"
(A vibrato is attached to the body and the playing style is slightly milder). BOD-Cre-nor indicates "body normal crescendo" (playing style in which a standard crescendo is attached to the body). BOD-C
re-vol1 indicates "body crescendo volume 1" (a playing style in which the volume of the crescendo attached to the body portion is increased by one level). ATT-Bup-nor indicates "attack / bend-up normal" (playing style in which the pitch of the attack portion is bend-up at a standard depth and speed). REL-Bdw-nor indicates "Release Bend Down Normal" (playing method in which the pitch of the release part is bent down at a standard depth and speed).

【0038】従って、シーケンスAESEQ#2は、ノ
ーマルアタックで始まり、ボディ部では最初はノーマル
ビブラートがつけられ、次にそのビブラートスピードが
少し速くなり、次いでさらにビブラートスピードが速く
なり、最後にリリース部では標準的な音の立ち下がりを
みせる、という変化を示すアーティキュレーション(奏
法)に対応している。また、シーケンスAESEQ#3
は、ビブラートの深さを徐々に深くすると共に、スピー
ドも徐々に速くする、という変化を示すアーティキュレ
ーション(奏法)に対応している。また、シーケンスA
ESEQ#4は、ビブラート時の波形の音質(音色)を
変化させるアーティキュレーション(奏法)に対応して
いる。シーケンスAESEQ#5は、クレッシェンドを
つけるアーティキュレーション(奏法)に対応してい
る。シーケンスAESEQ#6は、アタック部のピッチ
がベッドアップする(ピッチが徐々に上がる)アーティ
キュレーション(奏法)に対応している。シーケンスA
ESEQ#7は、リリース部のピッチがベッドダウンす
る(ピッチが徐々に下がる)アーティキュレーション
(奏法)に対応している。アーティキュレーションエレ
メントシーケンス(奏法シーケンス)には、上記に限ら
ず、更に多数種類有りうるが、特に詳しく図示しない。
Accordingly, the sequence AESEQ # 2 starts with a normal attack, in which a normal vibrato is applied first in the body portion, then the vibrato speed is slightly increased, then the vibrato speed is further increased, and finally in the release portion. It responds to articulations (playing techniques) that show the change of showing a standard falling sound. Also, the sequence AESEQ # 3
Corresponds to an articulation (playing style) that shows a change that gradually increases the depth of the vibrato and gradually increases the speed. Sequence A
ESEQ # 4 corresponds to articulation (playing style) that changes the sound quality (tone color) of the waveform at the time of vibrato. Sequence AESEQ # 5 corresponds to articulation (playing style) with crescendo. The sequence AESEQ # 6 corresponds to an articulation (playing style) in which the pitch of the attack portion rises (the pitch gradually increases). Sequence A
ESEQ # 7 corresponds to an articulation (playing style) in which the pitch of the release section is bed-down (the pitch gradually decreases). The articulation element sequence (reproduction style sequence) is not limited to the above, and may have many more types.

【0039】図5の(b)は、いくつかのアーティキュ
レーションエレメントに関するアーティキュレーション
エレメントベクトルAEVQの構成例を示している。こ
の図の読み方について説明すると、括弧内において、各
要素に対応するテンプレートを指示するベクトルデータ
が記述されている。各ベクトルデータにおいて先頭の記
号はそのテンプレートの種類を示している。すなわち、
Timbは波形(Timbre)テンプレートであることを示
し、Ampは振幅(Amp)テンプレートであることを示
し、Pitはピッチ(Pitch)テンプレートであること
を示し、TSCは時間(TSC)テンプレートであるこ
とを示す。
FIG. 5B shows an example of the configuration of an articulation element vector AEVQ for some articulation elements. Explaining how to read this diagram, vector data indicating a template corresponding to each element is described in parentheses. The leading symbol in each vector data indicates the type of the template. That is,
Timb indicates a waveform (Timbre) template, Amp indicates an amplitude (Amp) template, Pit indicates a pitch (Pitch) template, and TSC indicates a time (TSC) template. Show.

【0040】例えば、ATT−Nor=(Timb−A
−nor,Amp−A−nor,Pit−A−nor,
TSC−A−nor)は、「ノーマルアタック」の意味
を持つアーティキュレーションエレメントATT−No
rは、Timb−A−nor(アタック部の標準的な波
形テンプレート),Amp−A−nor(アタック部の
標準的な振幅テンプレート),Pit−A−nor(ア
タック部の標準的なピッチテンプレート),TSC−A
−nor(アタック部の標準的なTSCテンプレート)
という4つのテンプレートによって波形合成されるもの
である、ということを示している。
For example, ATT-Nor = (Timb-A
-Nor, Amp-A-nor, Pit-A-nor,
TSC-A-nor) is an articulation element ATT-No having a meaning of "normal attack".
r is Timb-A-nor (standard waveform template for attack part), Amp-A-nor (standard amplitude template for attack part), Pit-A-nor (standard pitch template for attack part) , TSC-A
-Nor (standard TSC template for attack part)
Are synthesized by the four templates.

【0041】別の例を示すと、「ボディ・ビブラートデ
ィプス1」の意味を持つアーティキュレーションエレメ
ントBOD−Vib−dep1は、Timb−B−vi
b(ボディ部のビブラート用の波形テンプレート),A
mp−B−dp3(ボディ部のビブラート深さ3用の振
幅テンプレート),Pit−B−dp3(ボディ部のビ
ブラート深さ3用のピッチテンプレート),TSC−B
−vib(ボディ部のビブラート用のTSCテンプレー
ト)という4つのテンプレートによって波形合成され
る。更に別の例を示すと、「リリース・ベンドダウンノ
ーマル」の意味を持つアーティキュレーションエレメン
トREL−Bdw−norは、Timb−R−bdw
(リリース部のベンドダウン用の波形テンプレート),
Amp−R−bdw(リリース部のベンドダウン用の振
幅テンプレート),Pit−R−bdw(リリース部の
ベンドダウン用のピッチテンプレート),TSC−R−
bdw(リリース部のベンドダウン用のTSCテンプレ
ート)という4つのテンプレートによって波形合成され
る。
As another example, the articulation element BOD-Vib-dep1 having the meaning of "body vibrato depth 1" is Timb-B-vi.
b (waveform template for body vibrato), A
mp-B-dp3 (amplitude template for vibrato depth 3 of body part), Pit-B-dp3 (pitch template for vibrato depth 3 of body part), TSC-B
The waveform is synthesized by four templates -vib (TSC template for vibrato of body part). As another example, the articulation element REL-Bdw-nor having the meaning of "release bend down normal" is Timb-R-bdw.
(Waveform template for release section bend down),
Amp-R-bdw (amplitude template for bend down of release section), Pit-R-bdw (pitch template for bend down of release section), TSC-R-
Waveforms are synthesized by four templates bdw (TSC template for bend down of the release section).

【0042】なお、アーティキュレーションの編集を容
易にするために、各アーティキュレーションエレメント
シーケンスの特徴を概略的に説明する属性情報ATR
を、各アーティキュレーションエレメントシーケンスA
ESEQに付属して記憶しておくようにするとよい。同
様に、各アーティキュレーションエレメントの特徴を概
略的に説明する属性情報ATRを、各アーティキュレー
ションエレメントベクトルAEVQに付属して記憶して
おくようにするとよい。要するに、このような属性情報
ATRは、各アーティキュレーションエレメント(図2
(d)に示したようなアーティキュレーション最小単
位)の特徴を説明するものである。アタック部に関連す
るアーティキュレーションエレメントを例にして、その
アーティキュレーションエレメントの記号(インデック
ス)と、それぞれの属性情報ATRの内容、及び各楽音
要素のテンプレートを指示する各ベクトルデータの一例
を図6に示す。
In order to facilitate the editing of the articulation, the attribute information ATR schematically describing the features of each articulation element sequence.
To each articulation element sequence A
It is good to memorize it attached to ESEQ. Similarly, it is preferable to store attribute information ATR which roughly describes the characteristics of each articulation element, attached to each articulation element vector AEVQ. In short, such attribute information ATR is stored in each articulation element (FIG. 2).
(D) is a description of the feature of (the minimum articulation unit as shown in (d)). An example of an articulation element related to an attack part is shown as an example of a symbol (index) of the articulation element, contents of each attribute information ATR, and each vector data indicating a template of each musical tone element. 6 is shown.

【0043】図6の例では、属性情報ATRも階層化さ
れて管理されている。すなわち、アタック部に関連する
アーティキュレーションエレメントにはすべて共通の
「アタック」という属性情報が付与され、そのうちの標
準のエレメントに対しては「ノーマル」という属性情報
が更に付与され、また、そのうちのベンドアップ奏法が
適用されるエレメントに対しては「ベンドアップ」とい
う属性情報が付与され、ベンドダウン奏法が適用される
エレメントに対しては「ベンドダウン」という属性情報
が付与される。更に、ベンドアップ奏法が適用されるエ
レメントのうち、標準的なものに対しては「ノーマル」
という属性情報が付与され、標準よりベンドの深さが浅
いものに対しては「ディプス・浅い」という属性情報が
付与され、標準よりベンドの深さが深いものに対しては
「ディプス・深い」という属性情報が付与され、標準よ
りベンドのスピードが遅いものに対しては「スピード・
遅い」という属性情報が付与され、標準よりベンドのス
ピードが速いものに対しては「スピード・速い」という
属性情報が付与される。図示を省略したが、ベンドダウ
ン奏法が適用されるエレメントに対しても、同様に、更
に細分化された属性情報が付与される。
In the example of FIG. 6, the attribute information ATR is also managed in a hierarchical manner. That is, articulation elements related to the attack portion are all provided with common attribute information of “attack”, of which standard elements are further provided with attribute information of “normal”. The element to which the bend-up performance is applied is provided with attribute information "bend-up", and the element to which the bend-down performance is applied is provided with attribute information "bend-down". Furthermore, among the elements to which the bend-up playing technique is applied, "normal"
Attribute information is given, and for those having a bend depth shallower than the standard, attribute information of "depth / shallow" is given. For those having a bend depth greater than the standard, "depth / deep" Attribute information is added, and if the bend speed is slower than the standard
Attribute information such as "slow" is given, and attribute information "speed / fast" is given to items having a bend speed higher than the standard. Although illustration is omitted, similarly subdivided attribute information is added to the element to which the bend down playing style is applied.

【0044】図6においては、また、異なるアーティキ
ュレーションエレメント間においてテンプレートデータ
が共用されるものがあることが示されている。図6にお
いて、奏法の各インデックス(アーティキュレーション
エレメントインデックス)の欄に記載された4種のテン
プレートのベクトルデータ(換言すればテンプレートイ
ンデックス)が、該アーティキュレーションエレメント
の部分的音を形成するためのテンプレートを指示するベ
クトルデータを示しており、この読み方は図5(b)と
同様である。ここで、ベンドアップの属性を持つエレメ
ントにおいて、=記号を記したものは、そのノーマル時
のテンプレートと同じものを使用することを意味してい
る。例えば、ベンドアップ奏法用の波形(Timbre)テン
プレートは、すべてベンドアップノーマル用の波形テン
プレートTimb−A−bupと同じものを使用する。
また、ベンドアップ奏法用の振幅(Amp)テンプレート
は、すべてベンドアップノーマル用の振幅テンプレート
Amp−A−bupと同じものを使用する。これは、ベ
ンドアップ奏法が微妙に変化してもその波形や振幅エン
ベロープは変えることなく共通のものを使用しても音質
上差し支えないからである。これに対して、ピッチ(Pi
tch)テンプレートは、ベンドアップ奏法におけるディ
プスの程度に合わせて異なるものを使用しなければなら
ない。例えば、「ディプス・浅い」の属性を持つアーテ
ィキュレーションエレメントATT−Bup−dp1に
おいては、それに相応するピッチ(Pitch)テンプレー
ト(浅いベンドアップ特性に対応するピッチエンベロー
プのテンプレート)を指示するために、浅いベンドアッ
プ特性に対応するピッチエンベロープのテンプレートを
指示するベクトルデータPit−A−dp1が使用され
る。
FIG. 6 also shows that some template data is shared between different articulation elements. In FIG. 6, the vector data (in other words, the template index) of the four templates described in the column of each index (articulation element index) of the playing style is used to form a partial sound of the articulation element. 5 shows the vector data indicating the template, and the reading method is the same as in FIG. 5B. Here, in the element having the bend-up attribute, an element with an = sign means that the same template as that in the normal state is used. For example, the waveform (Timbre) template for the bend-up playing technique all uses the same waveform template Timb-A-bup for the bend-up normal.
The amplitude (Amp) template for the bend-up playing technique is all the same as the amplitude template Amp-A-bup for the bend-up normal. This is because, even if the bend-up playing technique is slightly changed, it is possible to use a common waveform without changing the waveform and amplitude envelope, and there is no problem in sound quality. On the other hand, the pitch (Pi
tch) The template must be different depending on the depth of the bend-up playing technique. For example, in the articulation element ATT-Bup-dp1 having the attribute of “depth / shallow”, in order to indicate a pitch template (a pitch envelope template corresponding to a shallow bend-up characteristic) corresponding thereto, Vector data Pit-A-dp1 indicating a pitch envelope template corresponding to shallow bend-up characteristics is used.

【0045】このようにテンプレートデータの共用化を
図ることによりテンプレートデータベースTDBの記憶
量を節約することができる。また、データベース作成時
において、すべての奏法について生演奏を録音する必要
がない。なお、図6を参照すると、ベンドアップ奏法の
スピードは、時間(TSC)テンプレートを異ならせる
ことによって調整されることが理解できる。ピッチベン
ドのスピードは、所定の初期ピッチから目標ピッチまで
到達するのに要する時間に対応しているから、オリジナ
ルの波形データが所定のピッチベンド特性(或る時間内
に所定の初期ピッチから目標ピッチまでベンドするとい
う特性)を持っている場合、そのオリジナルの波形デー
タの時間長をTSC制御によって可変制御すれば、初期
ピッチから目標ピッチまで到達するのに要する時間つま
りベンドのスピードを調整することができる。このよう
な時間(TSC)テンプレートによる波形時間長可変制
御は、楽音立ち上がりのスピードや、スラーのスピー
ド、ビブラートのスピードなど、各種奏法のスピードの
調整に適している。例えば、スラーにおけるピッチの変
化は、ピッチ(Pitch)テンプレートによっても実現す
ることができるが、時間(TSC)テンプレートを用い
てTSC制御を行った方が自然なスラー変化を実現する
ことができる。
By sharing the template data in this way, the storage amount of the template database TDB can be reduced. Also, it is not necessary to record live performances for all playing styles when creating the database. Referring to FIG. 6, it can be understood that the speed of the bend-up playing technique is adjusted by making the time (TSC) template different. Since the pitch bend speed corresponds to the time required to reach from the predetermined initial pitch to the target pitch, the original waveform data has a predetermined pitch bend characteristic (bend from the predetermined initial pitch to the target pitch within a certain time). If the time length of the original waveform data is variably controlled by the TSC control, the time required to reach from the initial pitch to the target pitch, that is, the bend speed can be adjusted. Such variable control of the waveform time length based on the time (TSC) template is suitable for adjusting the speed of various playing styles such as the speed of tone rise, the speed of slurs, and the speed of vibrato. For example, a change in pitch in a slur can be realized by a pitch (Pitch) template, but a natural slur change can be realized by performing TSC control using a time (TSC) template.

【0046】アーティキュレーションデータベースAD
Bにおけるアーティキュレーションエレメントベクトル
AEVQは、アーティキュレーションエレメントインデ
ックスによってアドレッシングされることができるのは
勿論であり、また、属性情報ATRによってアドレッシ
ングされることができるものとする。これによって、所
望の属性情報ATRをキーワードとしてアーティキュレ
ーションデータベースADBに検索をかけることによ
り、該キーワードに該当する属性を持つアーティキュレ
ーションエレメントとしてどのようなものがあるかを検
索することができ、ユーザーによるデータ編集作業に便
利である。このような属性情報ATRは、アーティキュ
レーションエレメントシーケンスAESEQにも付加し
ておくとよい。これによって、所望の属性情報ATRを
キーワードとしてアーティキュレーションデータベース
ADBに検索をかけることにより、該キーワードに該当
する属性を持つアーティキュレーションエレメントを含
んでいるアーティキュレーションエレメントシーケンス
AESEQを検索することができる。なお、アーティキ
ュレーションデータベースADBにおけるアーティキュ
レーションエレメントベクトルAEVQをアドレッシン
グするためのアーティキュレーションエレメントインデ
ックスは、アーティキュレーションエレメントシーケン
スAESEQの読出しに従って与えられるようになって
いるのは勿論であるが、編集作業のためにあるいはリア
ルタイムの自由な音作りのために、所望のアーティキュ
レーションエレメントインデックスを単独でアドレス入
力してもよいようにするのがよい。
Articulation database AD
It is assumed that the articulation element vector AEVQ in B can be addressed by the articulation element index, and can also be addressed by the attribute information ATR. Thus, by performing a search on the articulation database ADB using the desired attribute information ATR as a keyword, it is possible to search for what articulation element having an attribute corresponding to the keyword, It is convenient for data editing work by the user. Such attribute information ATR is preferably added to the articulation element sequence AESEQ. Thus, by searching the articulation database ADB using the desired attribute information ATR as a keyword, an articulation element sequence AESEQ including an articulation element having an attribute corresponding to the keyword can be searched. it can. The articulation element index for addressing the articulation element vector AEVQ in the articulation database ADB is given according to the reading of the articulation element sequence AESEQ. For work or real-time free sound creation, the desired articulation element index may be independently addressable.

【0047】アーティキュレーションデータベースAD
Bにおいては、ユーザーが所望のアーティキュレーショ
ンエレメントシーケンスを作成しこれを記憶保存してお
くことができるように、ユーザーアーティキュレーショ
ンエレメントシーケンスURSEQを記憶するエリアも
有している。このようなユーザーエリアにおいては、ユ
ーザーが作成したアーティキュレーションエレメントベ
クトルデータをも記憶しておくようにしてよい。アーテ
ィキュレーションデータベースADBにおいては、アー
ティキュレーションエレメントベクトルAEVQの下位
のベクトルデータとしてパーシャルベクトルPVQを記
憶している。アーティキュレーションエレメントベクト
ルAEVQで指定されたテンプレートデータが、テンプ
レートデータベースTDBにおいて当該アーティキュレ
ーションエレメントの全時間区間のデータとしてではな
く、一部のデータとして記憶されている場合、この一部
のデータからなるテンプレートデータをループ読出し
(繰り返し読出し)して当該アーティキュレーションエ
レメントの全時間区間のデータを再生するようになって
いる。そのようなループ読出しに必要なデータがパーシ
ャルベクトルPVQとして記憶されている。その場合、
例えば、アーティキュレーションエレメントベクトルA
EVQには、上記各テンプレートデータのほかにパーシ
ャルベクトルPVQを指示するデータを記憶しており、
このパーシャルベクトル指示データによってパーシャル
ベクトルPVQのデータを読み出し、このパーシャルベ
クトルPVQのデータによってループ読出しを制御す
る。従って、パーシャルベクトルPVQは、ループ読出
し制御のために必要なループ開始アドレスやループ終了
アドレス等を指示するデータを含んでいる。
Articulation database AD
In B, there is also an area for storing a user articulation element sequence URSEQ so that a user can create a desired articulation element sequence and store it. In such a user area, articulation element vector data created by the user may also be stored. The articulation database ADB stores a partial vector PVQ as vector data below the articulation element vector AEVQ. If the template data specified by the articulation element vector AEVQ is stored in the template database TDB not as data of the entire time section of the articulation element but as part of the data, The template data is read out in a loop (repeatedly read out) to reproduce the data of all the time sections of the articulation element. The data required for such a loop read is stored as a partial vector PVQ. In that case,
For example, the articulation element vector A
The EVQ stores data designating the partial vector PVQ in addition to the template data.
The data of the partial vector PVQ is read by the partial vector instruction data, and the loop reading is controlled by the data of the partial vector PVQ. Therefore, the partial vector PVQ includes data indicating a loop start address, a loop end address, and the like necessary for loop read control.

【0048】更に、アーティキュレーションデータベー
スADBにおいては、楽音合成時において時間的に隣接
するアーティキュレーションエレメント間での波形デー
タの接続の際のルールを記述したルールデータRULE
を記憶している。例えば、時間的に隣接するアーティキ
ュレーションエレメント間で波形のクロスフェード補間
を行って滑らかに接続するとか、クロスフェード補間を
行わずに直接的に接続するとか、あるいはクロスフェー
ド波形補間をおこう場合にどのようなクロスフェード法
を使用するか、等のルールを、各シーケンスに対応し
て、あるいはシーケンス内の各アーティキュレーション
エレメントに対応して、記憶している。この接続ルール
も、ユーザーによるデータ編集の対象とすることができ
る。アーティキュレーションデータベースADBにおい
ては、以上例示的に説明したようなデータ構成からなる
アーティキュレーションデータベースを各楽器音(自然
楽器音色)毎に設け、また、各種の人声音(若い女性の
声、若い男性の声、バリトン、ソプラノ等)毎に設け、
また、各種の自然音(雷の音、波の音等々)毎に、等
々、各種設ける。
Further, in the articulation database ADB, rule data RULE describing rules for connecting waveform data between temporally adjacent articulation elements at the time of musical sound synthesis.
I remember. For example, to perform smooth cross-fading interpolation between waveform-adjacent articulation elements, connect directly without performing cross-fading interpolation, or perform cross-fading waveform interpolation Are stored for each sequence, or for each articulation element in the sequence. This connection rule can also be targeted for data editing by the user. In the articulation database ADB, an articulation database having a data structure as exemplified above is provided for each instrument sound (natural instrument tone), and various human voices (young female voice, young female voice, Male voice, baritone, soprano, etc.)
In addition, various kinds of natural sounds (thunder sounds, wave sounds, etc.) are provided.

【0049】〔楽音合成の概略〕上記のようにして作成
されたデータベースDBを利用して楽音を合成する手順
の概略を図7に示す。まず、発生しようとする楽音演奏
(複数音からなる演奏フレーズ又は1音でもよい)に対
応する所要の奏法シーケンスを指示する(ステップS1
1)。この奏法シーケンスの指示は、アーティキュレー
ションデータベースADBに記憶されている所望の楽器
音(又は人声音又は自然音等)のアーティキュレーショ
ンエレメントシーケンスAESEQ又はURSEQの1
つを選択的に指示することからなっていてよい。
[Outline of Musical Sound Synthesis] FIG. 7 shows an outline of the procedure for synthesizing musical sounds using the database DB created as described above. First, a required rendition style sequence corresponding to a musical tone performance to be generated (a performance phrase composed of a plurality of tones or one tone) is designated (step S1).
1). The instruction of the rendition style sequence is made of one of the articulation element sequence AESEQ or URSEQ of the desired musical instrument sound (or human voice sound or natural sound) stored in the articulation database ADB.
One may be selectively indicated.

【0050】このような奏法シーケンス(すなわちアー
ティキュレーションエレメントシーケンス)の指示は、
ユーザーによるリアルタイム演奏操作に基づいて与える
ことができるようになっていてもよいし、あるいは自動
演奏データに基づいて与えることができるようになって
いてもよい。前者の場合は、例えば、鍵盤やその他の演
奏操作子に対して各種の奏法シーケンスを予め割り当て
ておき、該操作子の操作に応じてそこに割り当てられて
いる奏法シーケンス指示データを発生するようにするこ
とができる。後者の場合、1つの手法として、図8の
(a)に略示するように、所望の楽曲に対応するMID
I形式等の自動演奏シーケンスデータの中にイベントデ
ータとして奏法シーケンス指示データをそれぞれ組み込
んで記憶しておき、自動演奏再生時に所定の各イベント
再生時点で各奏法シーケンス指示データが読み出される
ようにすることができる。なお、図8で、DURは次の
イベントまでの時間間隔を示すデュレーションデータ、
EVENTはイベントデータ、MIDIは当該イベント
データに付属する演奏データがMIDI形式のデータで
あること、AESEQは当該イベントデータに付属する
演奏データが奏法シーケンス指示データであること、を
示す。この場合は、MIDI形式等の自動演奏データに
基づく自動演奏と本発明に従う奏法シーケンスに基づく
自動演奏とのアンサンブルを行うことができる。その場
合、例えば、メインのソロ若しくはメロディ演奏楽器パ
ートを本発明に従う奏法シーケンスすなわちアーティキ
ュレーションエレメント合成で演奏し、他の楽器パート
をMIDIデータに基づく自動演奏で行う、といった形
態をとることができる。
The instruction of such a rendition style sequence (ie, articulation element sequence)
The information may be provided based on a real-time performance operation by a user, or may be provided based on automatic performance data. In the former case, for example, various rendition style sequences are assigned in advance to a keyboard or other performance operators, and the rendition style instruction data assigned thereto is generated in accordance with the operation of the operators. can do. In the latter case, as one method, as shown schematically in FIG.
Incorporating and storing rendition style instruction data as event data in automatic performance sequence data of the I format or the like, so that each rendition style sequence instruction data is read out at the time of predetermined event reproduction during automatic performance reproduction. Can be. In FIG. 8, DUR is duration data indicating a time interval until the next event,
EVENT indicates event data, MIDI indicates that the performance data attached to the event data is MIDI format data, and AESEQ indicates that the performance data attached to the event data is performance style sequence instruction data. In this case, an ensemble of an automatic performance based on the automatic performance data in the MIDI format or the like and an automatic performance based on the performance style sequence according to the present invention can be performed. In this case, for example, the main solo or melody musical instrument part may be played by a playing style sequence according to the present invention, that is, articulation element synthesis, and the other musical instrument parts may be played by automatic performance based on MIDI data. .

【0051】また、後者の別の手法として、図8の
(b)に略示するように、所望の楽曲に対応して複数の
奏法シーケンス指示データAESEQのみをイベントデ
ータ形式で記憶しておき、これを所定の各イベント再生
時点で読み出すようにしてもよい。これによって、従来
にはなかった、楽曲のアーティキュレーションシーケン
ス自動演奏を行うことができる。更に、後者の別の手法
として、所望の楽曲に対応するMIDI形式等の自動演
奏シーケンスデータのみを記憶しておき、この自動演奏
シーケンスデータを演奏解釈プログラムによって分析す
ることにより、各フレーズ又は音符毎の奏法すなわちア
ーティキュレーションを自動的に解析し、この解析結果
として奏法シーケンス指示データを発生するようにして
もよい。また、奏法シーケンスの別の指示方法として
は、ユーザーが所望の1又は複数の属性情報を入力し、
これをキーワードとしてアーティキュレーションデータ
ベースADBに検索を掛けることにより、1又は複数の
アーティキュレーションエレメントシーケンスAESE
Qを自動的にリストアップし、その中から所望のシーケ
ンスを選択指定するようにしてもよい。
As another method of the latter, as schematically shown in FIG. 8B, only a plurality of performance style instruction data AESEQ are stored in an event data format corresponding to a desired music. This may be read at the time of reproduction of each predetermined event. As a result, it is possible to perform an articulation sequence automatic performance of a music, which has not been available in the past. Furthermore, as another method of the latter, only automatic performance sequence data of a MIDI format or the like corresponding to a desired music piece is stored, and the automatic performance sequence data is analyzed by a performance interpretation program, so that each phrase or note is analyzed. May be automatically analyzed, and the rendition style instruction data may be generated as a result of the analysis. Further, as another method of indicating the rendition style sequence, the user inputs desired one or more pieces of attribute information,
By searching the articulation database ADB using this as a keyword, one or more articulation element sequences AESE
Q may be automatically listed, and a desired sequence may be selected and designated from the list.

【0052】図7において、選択されたアーティキュレ
ーションエレメントシーケンスAESEQ又はURSE
Qにおいては、所定の演奏順序に従ってアーティキュレ
ーションエレメント(AE)インデックスを読み出す
(ステップS12)。そして、読み出されたアーティキ
ュレーションエレメント(AE)インデックスに対応す
るアーティキュレーションエレメントベクトル(AEV
Q)を読み出す(ステップS13)。そして、読み出さ
れたアーティキュレーションエレメントベクトル(AE
VQ)によって指示された各テンプレートデータをテン
プレートデータベースTDBから読み出す(ステップS
14)。
In FIG. 7, the selected articulation element sequence AESEQ or URSE
In Q, an articulation element (AE) index is read out according to a predetermined performance order (step S12). Then, the articulation element vector (AEV) corresponding to the read articulation element (AE) index is read.
Q) is read (step S13). Then, the read articulation element vector (AE
VQ) is read from the template database TDB (step S).
14).

【0053】そして、読み出された各テンプレートデー
タに従って1つのアーティキュレーションエレメント
(AE)の波形データ(部分的音)を合成する(ステッ
プS15)。この波形合成の仕方は、基本的には、波形
(Timbre)テンプレートデータに該当するPCM波形デ
ータをテンプレートデータベースTDBからピッチ(Pi
tch)テンプレートに従う読み出し速度でかつ時間(T
SC)テンプレートに従う時間長で読み出し、読み出し
たPCM波形データの振幅エンベロープを振幅(Amp)
テンプレートに従って制御することからなる。なお、こ
の実施例では、テンプレートデータベースTDBに記憶
する波形(Timbre)テンプレートデータはサンプリング
したオリジナル波形のピッチと振幅エンベロープ及び時
間長をそのまま持っているものとしているので、ピッチ
(Pitch)テンプレート、振幅(Amp)テンプレート、時
間(TSC)テンプレートのそれぞれがサンプリングし
たオリジナル波形のものから変更されていない場合は、
テンプレートデータベースTDBに記憶されている波形
(Timbre)テンプレートデータに対応するPCM波形デ
ータをそのまま読み出したものが当該アーティキュレー
ションエレメントについての波形データとなる。追って
説明するデータ編集等によって、ピッチ(Pitch)テン
プレート、振幅(Amp)テンプレート、時間(TSC)
テンプレートのいずれかが、サンプリングしたオリジナ
ル波形のものから変更された場合は、その変化分に応じ
て、テンプレートデータベースTDBに記憶されている
波形(Timbre)テンプレートデータの読み出し速度が可
変制御されたり(ピッチテンプレートが変更された場
合)、その読み出し時間長が可変制御されたり(時間テ
ンプレートが変更された場合)、読み出し波形に対する
振幅エンベロープが可変制御されたり(振幅テンプレー
トが変更された場合)する。なお、当該アーティキュレ
ーションエレメントAEについて前述のパーシャルベク
トルPVQが適用される場合は、必要なループ読み出し
制御もなされる。
Then, waveform data (partial sound) of one articulation element (AE) is synthesized according to each read template data (step S15). The method of synthesizing the waveform is basically such that the PCM waveform data corresponding to the waveform (Timbre) template data is stored in a pitch (PiPi) from the template database TDB.
tch) read speed and time (T
SC) Read with a time length according to the template, and amplify the amplitude envelope of the read PCM waveform data (Amp)
Control according to the template. In this embodiment, since the waveform (Timbre) template data stored in the template database TDB has the pitch, amplitude envelope and time length of the sampled original waveform as they are, the pitch (Pitch) template and the amplitude ( Amp) template and time (TSC) template, if they have not changed from the original waveform sampled,
The PCM waveform data corresponding to the waveform (Timbre) template data stored in the template database TDB is read out as it is as the waveform data for the articulation element. Pitch (Pitch) template, amplitude (Amp) template, time (TSC)
When any one of the templates is changed from that of the sampled original waveform, the reading speed of the waveform (Timbre) template data stored in the template database TDB is variably controlled (pitch) according to the change. The readout time length is variably controlled (when the template is changed), or the amplitude envelope for the readout waveform is variably controlled (when the amplitude template is changed). When the above-described partial vector PVQ is applied to the articulation element AE, necessary loop read control is also performed.

【0054】次に、以上のように波形合成された各アー
ティキュレーションエレメントの波形データを順次接続
する処理が行われ、その結果、複数のアーティキュレー
ションエレメントの時系列的組み合わせからなる一連の
演奏音が発生される(ステップS16)。ここでの接続
処理は、アーティキュレーションデータベースADBに
記憶されているルールデータRULEに従って制御され
る。例えば、ルールデータRULEが直接接続を指示し
ている場合は、ステップS15で合成された各アーティ
キュレーションエレメントの波形データをただその発生
順序に従って順次切り換えて発音するだけでよい。ま
た、ルールデータRULEが所定のクロスフェード補間
を指示している場合は、指示された補間形式に従って、
先行するアーティキュレーションエレメントの終わりの
部分の波形データと後続するアーティキュレーションエ
レメントの始まりの部分の波形データとをクロスフェー
ド補間合成し、波形が滑らかにつながるようにする。例
えば、サンプリングしたオリジナル波形そのままに接続
される場合は、元々各アーティキュレーションエレメン
ト同士は滑らかにつながることが保証されているので、
ルールデータRULEは直接接続を指示していてよい。
それ以外の場合は、アーティキュレーションエレメント
同士が滑らかにつながることは保証されていないので、
何らかの補間合成を行うのがよい。後述するように、複
数種のクロスフェード補間形式のいずれかをルールデー
タRULEによって任意に選択することができるように
なっている。
Next, processing for sequentially connecting the waveform data of each articulation element synthesized as described above is performed. As a result, a series of performances composed of a time series combination of a plurality of articulation elements is performed. A sound is generated (step S16). The connection process here is controlled according to rule data RULE stored in the articulation database ADB. For example, when the rule data RULE instructs direct connection, the waveform data of each articulation element synthesized in step S15 may be simply switched in sequence according to the order in which they are generated. When the rule data RULE indicates a predetermined cross-fade interpolation,
The waveform data at the end of the preceding articulation element and the waveform data at the beginning of the following articulation element are subjected to cross-fade interpolation synthesis so that the waveforms are smoothly connected. For example, if the sampled original waveform is connected as it is, it is guaranteed that each articulation element is connected smoothly from the beginning, so
The rule data RULE may indicate a direct connection.
Otherwise, there is no guarantee that articulation elements will connect smoothly,
Some kind of interpolation synthesis should be performed. As described later, any of a plurality of types of cross-fade interpolation formats can be arbitrarily selected by the rule data RULE.

【0055】ステップS11〜S16に略示したような
一連の演奏音合成処理は、1つの楽器音(又は人声音又
は自然音)について1つの楽音合成チャンネルで行われ
る。複数の楽器音(又は人声音又は自然音)についての
演奏音合成処理を同時並行的に行う場合は、ステップS
11〜S16に略示したような一連の演奏音合成処理を
複数チャンネルで時分割的に又は並列的に行うようにす
ればよい。なお、後述するように、クロスフェード合成
処理を用いて楽音波形を形成する場合は、1つの楽音合
成チャンネルにつき、2つの波形発生チャンネル(フェ
ードアウトする波形を発生するチャンネルと、フェード
インする波形を発生するチャンネル)を使用する。
A series of performance sound synthesizing processes as schematically shown in steps S11 to S16 are performed for one musical instrument sound (or human voice sound or natural sound) on one musical sound synthesis channel. If the performance sound synthesis processing for a plurality of instrument sounds (or human voice sounds or natural sounds) is to be performed simultaneously and in parallel, step S
A series of performance sound synthesizing processes as schematically shown in 11 to S16 may be performed on a plurality of channels in a time-division or parallel manner. As will be described later, when a musical tone waveform is formed using cross-fade synthesis processing, two waveform generation channels (a channel for generating a fade-out waveform and a waveform for fading in) are generated for one musical sound synthesis channel. Channel).

【0056】図9は、いくつかの奏法シーケンスについ
て、該シーケンスにおけるアーティキュレーションエレ
メントの組合せ例を略示するものである。(a)に示す
奏法シーケンス#1は、最も単純な組合せ例を示してお
り、アタック部のアーティキュレーションエレメントA
#1、ボディ部のアーティキュレーションエレメントB
#1、リリース部のアーティキュレーションエレメント
R#1が順次接続されてなるものであり、各エレメント
間の接続部分はクロスフェード補間されるようになって
いる。(b)に示す奏法シーケンス#2は、主要音の前
に装飾音が付加されるアーティキュレーション組合せ例
を示しており、装飾音用のアタック部のアーティキュレ
ーションエレメントA#2、装飾音用のボディ部のアー
ティキュレーションエレメントB#2、主要音用のアタ
ック部のアーティキュレーションエレメントA#3、主
要音用のボディ部のアーティキュレーションエレメント
B#3、主要音用のリリース部のアーティキュレーショ
ンエレメントR#3が順次接続されてなるものであり、
各エレメント間の接続部分はクロスフェード補間され
る。(c)に示す奏法シーケンス#3は、先行音と後続
音がスラーで結ばれるアーティキュレーション組合せ例
を示しており、先行音用のアタック部のアーティキュレ
ーションエレメントA#4、先行音用のボディ部のアー
ティキュレーションエレメントB#4、スラー用部分音
のボディ部のアーティキュレーションエレメントB#
5、後続音用のボディ部のアーティキュレーションエレ
メントB#6、後続音用のリリース部のアーティキュレ
ーションエレメントR#6が順次接続されてなるもので
あり、各エレメント間の接続部分はクロスフェード補間
される。なお、図において、各アーティキュレーション
エレメントに対応する部分音波形は、便宜上、エンベロ
ープのみで略示されているが、実際は、上述のように波
形(Timbre),振幅(Amp),ピッチ(Pitch),時間
(TSC)の各テンプレートデータに基づいて合成され
た波形データからなっている。
FIG. 9 schematically shows examples of combinations of articulation elements in some rendition style sequences. The rendition style sequence # 1 shown in (a) shows the simplest combination example, and the articulation element A in the attack portion
# 1, body part articulation element B
# 1, an articulation element R # 1 of a release section is sequentially connected, and a connection portion between the elements is cross-fade interpolated. A playing style sequence # 2 shown in (b) shows an example of an articulation combination in which a decoration sound is added before the main sound, and the articulation element A # 2 of the decoration sound attack portion and the decoration sound Articulation element B # 2 in the body part, articulation element A # 3 in the attack part for the main sound, articulation element B # 3 in the body part for the main sound, articulation in the release part for the main sound Curation elements R # 3 are sequentially connected,
The connection between the elements is cross-fade interpolated. A playing style sequence # 3 shown in (c) shows an example of an articulation combination in which the preceding sound and the following sound are connected by a slur. The articulation element A # 4 of the attack part for the preceding sound and the articulation element A # 4 for the preceding sound Articulation element B # 4 in body part, articulation element B # in body part for partial sound for slur
5, the articulation element B # 6 of the body portion for the subsequent sound and the articulation element R # 6 of the release portion for the subsequent sound are connected in order, and the connection between the elements is cross-fade. Interpolated. In the figure, the partial sound waveform corresponding to each articulation element is schematically shown only by an envelope for convenience, but actually, as described above, the waveform (Timbre), the amplitude (Amp), the pitch (Pitch) , And time (TSC) template data.

【0057】図10は、1つの楽音合成チャンネルにお
いて、複数のアーティキュレーションエレメントに対応
する部分音波形を順次発生しクロスフェード接続する処
理の具体例を示すタイムチャートである。1つの楽音合
成チャンネルにつき、2つのエレメント波形をクロスフ
ェード合成するために、具体的には2つの波形発生チャ
ンネルを使用する。図10(a)は第1の波形発生チャ
ンネルでの波形発生例を示し、(b)は第2の波形発生
チャンネルでの波形発生例を示す。(a)及び(b)に
おいて、夫々の上段に示された「合成された波形デー
タ」とは、当該アーティキュレーションエレメントに対
応する部分音波形として上述のように波形(Timbre),
振幅(Amp),ピッチ(Pitch),時間(TSC)等の各
テンプレートデータに基づいて合成された波形データ
(例えば図7のステップS15で合成される波形デー
タ)を示しており、それぞれの下段に示された「クロス
フェード制御波形」とは、各エレメントに対応する部分
音波形同士をクロスフェード接続するために使用される
制御波形を示している。この「クロスフェード制御波
形」は、例えば図7のフローでは、ステップS16の処
理の過程で形成される。それぞれのチャンネルの下段の
クロスフェード制御波形によって上段のエレメント波形
データの振幅を制御し、各チャンネル(第1及び第2の
波形発生チャンネル)のクロスフェード振幅制御済みの
波形データを加算することにより、クロスフェード合成
が完了する。
FIG. 10 is a time chart showing a specific example of processing for sequentially generating partial sound waves corresponding to a plurality of articulation elements and cross-fading them in one musical sound synthesis channel. Specifically, two waveform generation channels are used to cross-fade synthesize two element waveforms per tone synthesis channel. FIG. 10A shows an example of waveform generation in the first waveform generation channel, and FIG. 10B shows an example of waveform generation in the second waveform generation channel. In (a) and (b), the “synthesized waveform data” shown in the upper part of each of the waveforms (Timbre) and (Timbre) as described above as a partial sound waveform corresponding to the articulation element
Waveform data synthesized based on template data such as amplitude (Amp), pitch (Pitch), and time (TSC) (for example, waveform data synthesized in step S15 of FIG. 7) is shown at the bottom of each. The illustrated “cross-fade control waveform” indicates a control waveform used for cross-fading partial sound waveforms corresponding to each element. This “cross-fade control waveform” is formed in the process of step S16 in the flow of FIG. 7, for example. By controlling the amplitude of the upper element waveform data by the lower crossfade control waveform of each channel and adding the crossfade amplitude controlled waveform data of each channel (first and second waveform generation channels), Crossfade synthesis is completed.

【0058】1つの奏法シーケンスを開始するとき、シ
ーケンススタートトリガSSTが与えられ、これに応じ
て該シーケンスの最初のアーティキュレーションエレメ
ント(仮にA#1とする)に対応する部分音波形の合成
が開始される。すなわち、当該アーティキュレーション
エレメントについての波形(Timbre),振幅(Amp),
ピッチ(Pitch),時間(TSC)等の各テンプレート
データに基づいて波形データを合成する。よって、図に
おいて、「合成された波形データ」は単純にブロックで
示されているが、実際は、波形(Timbre)テンプレート
データに対応する波形と、振幅(Amp)テンプレートデ
ータに対応する振幅エンベロープと、ピッチ(Pitch)
テンプレートデータに対応するピッチとその時間的変化
と、時間(TSC)テンプレートデータに対応する時間
長とを有している。クロスフェード制御波形の立ち上が
りは、シーケンスの最初のアーティキュレーションエレ
メント波形については、図示のようにフルレベルですぐ
に立ち上がるようにしてよい。しかし、もし、その前の
シーケンスの演奏音の末尾の波形とクロスフェード合成
したいならば、シーケンスの最初のクロスフェード制御
波形の立ち上がりに適当な傾きのフェードイン特性をも
たせればよい。このフェードインの傾きはフェードイン
レートFIR#1によって設定される。
When one rendition style sequence is started, a sequence start trigger SST is applied, and in response to this, the synthesis of the partial sound waveform corresponding to the first articulation element (provisionally A # 1) of the sequence is performed. Be started. That is, the waveform (Timbre), amplitude (Amp),
Waveform data is synthesized based on template data such as pitch (Pitch) and time (TSC). Therefore, in the figure, “synthesized waveform data” is simply indicated by a block, but actually, a waveform corresponding to the waveform (Timbre) template data, an amplitude envelope corresponding to the amplitude (Amp) template data, and Pitch
It has a pitch corresponding to the template data, its temporal change, and a time length corresponding to the time (TSC) template data. The rising of the crossfade control waveform may be such that the first articulation element waveform of the sequence immediately rises at the full level as shown. However, if it is desired to perform crossfade synthesis with the waveform at the end of the performance sound of the preceding sequence, the rise of the first crossfade control waveform of the sequence may have a fade-in characteristic with an appropriate slope. The gradient of the fade-in is set by the fade-in rate FIR # 1.

【0059】シーケンスの最初のアーティキュレーショ
ンエレメントA#1に対応して、接続制御情報として、
上記フェードインレートFIR#1と、ネクストチャン
ネルスタートポイント情報NCSP#1と、フェードア
ウトスタートポイント情報FOSP#1と、フェードア
ウトレートFOR#1とを有している。ネクストチャン
ネルスタートポイント情報NCSP#1は、次のアーテ
ィキュレーションエレメント(例えばB#1とする)の
波形発生を開始するポイントを指示する。フェードアウ
トスタートポイント情報FOSP#1は、自らの波形の
フェードアウトを開始するポイントを指示する。図示の
ように、クロスフェード制御波形は、フェードアウトス
タートポイントまではフラットにフルレベルを指示して
いるが、フェードアウトスタートポイント以降は、設定
されたフェードアウトレートFOR#1に従う傾きで、
そのレベルが徐々に立ち下がる。なお、このエレメント
A#1に対応する前記ルールデータRULEが、クロス
フェード接続をしない直接接続を指示している場合は、
これらの情報NCSP#1,FOSP#1は、合成され
た当該アーティキュレーションエレメント波形の末尾を
指示するようになっていてよい。しかし、対応するルー
ルデータRULEが、クロスフェード接続をしない直接
接続を指示している場合は、これらの情報NCSP#
1,FOSP#1は、図示のように、当該アーティキュ
レーションエレメント波形の末尾よりも前の適切に設定
されたポイントをそれぞれ指示する。従って、これらの
情報NCSP#1,FOSP#1,FIR#1,FOR
#1が当該エレメントA#1についてのルールデータR
ULEに含まれていると考えてよい。なお、これらの接
続制御情報は、各アーティキュレーションエレメント毎
に夫々設けられている。
In response to the first articulation element A # 1 in the sequence, connection control information
It has the above-mentioned fade-in rate FIR # 1, next channel start point information NCSP # 1, fade-out start point information FOSP # 1, and fade-out rate FOR # 1. Next channel start point information NCSP # 1 indicates a point at which waveform generation of the next articulation element (for example, B # 1) is started. Fade-out start point information FOSP # 1 indicates a point at which fade-out of its own waveform is started. As shown in the figure, the crossfade control waveform indicates a full level flat up to the fadeout start point, but after the fadeout start point, the slope is in accordance with the set fadeout rate FOR # 1.
The level gradually falls. When the rule data RULE corresponding to the element A # 1 indicates direct connection without cross-fade connection,
These pieces of information NCSP # 1 and FOSP # 1 may indicate the end of the synthesized articulation element waveform. However, when the corresponding rule data RULE indicates direct connection without cross-fade connection, the information NCSP #
1, FOSP # 1 respectively designates appropriately set points before the end of the articulation element waveform, as shown in the figure. Therefore, the information NCSP # 1, FOSP # 1, FIR # 1, FOR
# 1 is the rule data R for the element A # 1
It may be considered to be included in ULE. The connection control information is provided for each articulation element.

【0060】図10(a)に示す第1の波形発生チャン
ネルにおけるエレメント波形A#1の発生プロセスが、
ネクストチャンネルスタートポイント情報NCSP#1
で指示されるポイントに到ると、ネクストチャンネルス
タートトリガNCS#1が図10(b)に示す第2の波
形発生チャンネルに対して与えられ、該第2の波形発生
チャンネルにおいて2番目のアーティキュレーションエ
レメントB#1に対応する部分音波形の発生を開始す
る。また、該アーティキュレーションエレメントB#1
に対応するクロスフェード制御波形が、それに対応する
フェードインレートFIR#2によって設定された傾き
でフェードインする(徐々に立ち上がる)。こうして、
先行するアーティキュレーションエレメントA#1のフ
ェードアウト期間と、後続するアーティキュレーション
エレメントB#1のフェードイン期間とが重複し、両者
を加算することによりクロスフェード合成が完成する。
先行するアーティキュレーションエレメントA#1の波
形データがフェードアウトした後は、後続するアーティ
キュレーションエレメントB#1のみとなる。こうし
て、先行するアーティキュレーションエレメントA#1
から後続するアーティキュレーションエレメントB#1
へとクロスフェードされて波形が滑らかに接続される。
The generation process of the element waveform A # 1 in the first waveform generation channel shown in FIG.
Next channel start point information NCSP # 1
When the point indicated by the arrow is reached, a next channel start trigger NCS # 1 is given to the second waveform generation channel shown in FIG. 10 (b), and the second articulation in the second waveform generation channel is performed. The generation of the partial sound waveform corresponding to the translation element B # 1 is started. Further, the articulation element B # 1
The cross-fade control waveform corresponding to (1) fades in (increases gradually) at the gradient set by the corresponding fade-in rate FIR # 2. Thus,
The fade-out period of the preceding articulation element A # 1 and the fade-in period of the following articulation element B # 1 overlap, and the cross-fade synthesis is completed by adding both.
After the waveform data of the preceding articulation element A # 1 fades out, only the succeeding articulation element B # 1 remains. Thus, the preceding articulation element A # 1
From the following articulation element B # 1
Is cross-faded to smoothly connect the waveforms.

【0061】図10(b)に示す第2の波形発生チャン
ネルにおけるエレメント波形B#1の発生プロセスが、
フェードアウトスタートポイント情報FOSP#2で指
示されるポイントに到ると、図示のように、クロスフェ
ード制御波形は、設定されたフェードアウトレートFO
R#2に従う傾きで、そのレベルが徐々に立ち下がる。
また、エレメント波形B#1の発生プロセスが、ネクス
トチャンネルスタートポイント情報NCSP#2で指示
されるポイントに到ると、ネクストチャンネルスタート
トリガNCS#2が図10(a)に示す第1の波形発生
チャンネルに対して与えられ、該第1の波形発生チャン
ネルにおいて3番目のアーティキュレーションエレメン
トR#1に対応する部分音波形の発生を開始する。ま
た、該アーティキュレーションエレメントR#1に対応
するクロスフェード制御波形が、それに対応するフェー
ドインレートFIR#3によって設定された傾きでフェ
ードインする(徐々に立ち上がる)。こうして、先行す
るアーティキュレーションエレメントB#1のフェード
アウト期間と、後続するアーティキュレーションエレメ
ントR#1のフェードイン期間とが重複し、両者を加算
することによりクロスフェード合成が完成する。以下、
同様に、順次クロスフェードしながら、各アーティキュ
レーションエレメントがシーケンスの時系列順に接続さ
れる。
The generation process of the element waveform B # 1 in the second waveform generation channel shown in FIG.
When the point indicated by the fade-out start point information FOSP # 2 is reached, as shown, the cross-fade control waveform changes to the set fade-out rate FO.
With the slope according to R # 2, the level gradually falls.
When the generation process of the element waveform B # 1 reaches a point indicated by the next channel start point information NCSP # 2, the next channel start trigger NCS # 2 generates the first waveform shown in FIG. Given to the channel and starts generating a partial sound waveform corresponding to the third articulation element R # 1 in the first waveform generation channel. Further, the crossfade control waveform corresponding to the articulation element R # 1 fades in (gradually rises) at the gradient set by the corresponding fade-in rate FIR # 3. In this way, the fade-out period of the preceding articulation element B # 1 and the fade-in period of the following articulation element R # 1 overlap, and the cross-fade synthesis is completed by adding both. Less than,
Similarly, each articulation element is connected in chronological order of the sequence while sequentially cross-fading.

【0062】なお、上記の例では、各テンプレートに基
づいて合成したエレメント波形に対してクロスフェード
合成を行うようにしている。しかし、これに限らず、各
テンプレートデータ毎にクロスフェード処理を行い、ク
ロスフェード処理済みのテンプレートデータに基づき各
エレメント波形の合成を行うようにしてもよい。その場
合は、同じエレメントであっても、各テンプレート毎に
異なる接続ルールを適用するようにすることができる。
すなわち、上記の各接続制御情報(フェードインレート
FIR,ネクストチャンネルスタートポイントNCS
P,フェードアウトスタートポイントFOSP,フェー
ドアウトレートFOR)が、当該エレメントの波形(Ti
mbre),振幅(Amp),ピッチ(Pitch),時間(TS
C)等の各楽音要素に対応するテンプレート毎に夫々用
意される。このようにすれば、各テンプレート毎にそれ
に応じた最適の接続ルールに従ってクロスフェード接続
を行うことができ、効果的である。
In the above example, crossfade synthesis is performed on element waveforms synthesized based on each template. However, the present invention is not limited to this, and the crossfade processing may be performed for each template data, and the element waveforms may be synthesized based on the crossfade processed template data. In that case, different connection rules can be applied to each template even for the same element.
That is, each of the above connection control information (fade-in rate FIR, next channel start point NCS
P, fade-out start point FOSP, fade-out rate FOR) correspond to the waveform (Ti
mbre), amplitude (Amp), pitch (Pitch), time (TS
C) is prepared for each template corresponding to each tone element. In this way, crossfade connection can be performed for each template according to the optimum connection rule according to the template, which is effective.

【0063】〔編集〕図11は、データ編集処理の一例
を模式的に示すものである。図11においては、アタッ
ク部の属性を持つ或るアーティキュレーションエレメン
トA#1と、ボディ部の属性を持つ或るアーティキュレ
ーションエレメントB#1と、リリース部の属性を持つ
或るアーティキュレーションエレメントR#1とからな
るアーティキュレーションエレメントシーケンスAES
EQ#xのデータを基にして編集を行う例を示してい
る。勿論、ここで述べるデータ編集を実施するにあたっ
ては、所要の編集プログラムをコンピュータが実行し、
ディスプレイに表示される各種データの状態を見なが
ら、キーボードやマウスによってユーザーが所望の操作
を行う、というような適当な実現手段を用いて実施され
る。基となるシーケンスAESEQ#xは、アーティキ
ュレーションデータベースADBに記憶されている多数
のシーケンスAESEQ(例えば図5(a)参照)から
選択することができる。アーティキュレーションデータ
の編集は、大別すると、シーケンス内におけるアーティ
キュレーションエレメントの差し替えあるいは追加又は
削除と、エレメント内におけるテンプレートの差し替え
あるいは既存テンプレートのデータ値修正による新規テ
ンプレートの作成とを含む。
[Editing] FIG. 11 schematically shows an example of the data editing process. In FIG. 11, a certain articulation element A # 1 having an attribute of an attack part, a certain articulation element B # 1 having an attribute of a body part, and a certain articulation having an attribute of a release part Articulation element sequence AES consisting of element R # 1
An example is shown in which editing is performed based on the data of EQ # x. Of course, in performing the data editing described here, a computer executes a required editing program,
The operation is performed by using an appropriate realizing means such that the user performs a desired operation using a keyboard or a mouse while checking the state of various data displayed on the display. The base sequence AESEQ # x can be selected from a number of sequences AESEQ (for example, see FIG. 5A) stored in the articulation database ADB. Editing of articulation data is roughly divided into replacement, addition or deletion of an articulation element in a sequence, and replacement of a template in an element or creation of a new template by modifying the data value of an existing template.

【0064】図11の編集の欄には、基となるシーケン
スAESEQ#xにおけるリリース部のアーティキュレ
ーションエレメントR#1が比較的なだらかに立ち下が
る振幅エンベロープ特性を持っており、これを比較的素
速く立ち下がる振幅エンベロープ特性を持つエレメント
R#xに差し替える例が示されている。差し替えに限ら
ず、所望のエレメントの追加(例えばボディ部エレメン
トの追加あるいは装飾音用のエレメントの追加など)や
削除(ボディ部が複数ある場合はそのうちいずりかを削
除することなど)も可能である。差し替えに使用するエ
レメントR#xは、アーティキュレーションデータベー
スADBに記憶されている多数のアーティキュレーショ
ンエレメントベクトルAEVQ(例えば図5(b)参
照)から選択することができる。その場合、属性情報A
TRを参照して同じ属性のエレメント群の中から、差し
替えに使用する所望のエレメントR#xを、選択するこ
とができる。
In the edit column of FIG. 11, the articulation element R # 1 of the release part in the base sequence AESEQ # x has a relatively gently falling amplitude envelope characteristic. An example in which an element R # x having a rapidly falling amplitude envelope characteristic is replaced is shown. Not only replacement, but also addition of a desired element (for example, addition of a body part element or addition of an element for a decorative sound) and deletion (if there are a plurality of body parts, any of them can be deleted) is also possible. is there. The element R # x used for replacement can be selected from a large number of articulation element vectors AEVQ (see, for example, FIG. 5B) stored in the articulation database ADB. In that case, attribute information A
A desired element R # x to be used for replacement can be selected from an element group having the same attribute with reference to TR.

【0065】次に、所望のエレメント(例えば差し替え
たエレメントR#x)の中の所望の楽音要素に対応する
テンプレートデータを該楽音要素に関する別のテンプレ
ートデータに差し替える。図11の例では、エレメント
R#xのピッチ(Pitch)テンプレートを別のピッチテ
ンプレートPitch’(例えばピッチベンド特性を持つピ
ッチテンプレート)に差し替えることが示されている。
これにより、作成された新たなリリース部のエレメント
R#x’は、比較的素速く立ち下がる振幅エンベロープ
特性を持つと共にピッチベンドダウン特性を持つものと
なる。なお、テンプレートの差し替えの場合も、属性情
報ATRを参照して、多数のアーティキュレーションエ
レメントベクトルAEVQ(例えば図5(b))におけ
る同じ属性のエレメント群の各テンプレート(ベクトル
データ)の中から、差し替えに使用する所望のテンプレ
ート(ベクトルデータ)を、選択することができる。な
お、一部のテンプレートの差し替えによって作成された
新たなエレメントR#x’は、新たなインデックスと所
要の属性情報を付与して、アーティキュレーションデー
タベースADBのアーティキュレーションエレメントベ
クトルAEVQ(図4参照)のエリアに追加登録すると
よい。
Next, the template data corresponding to the desired tone element in the desired element (for example, the replaced element R # x) is replaced with another template data relating to the tone element. The example of FIG. 11 shows that the pitch (Pitch) template of the element R # x is replaced with another pitch template Pitch ′ (for example, a pitch template having a pitch bend characteristic).
As a result, the created new release element R # x ′ has an amplitude envelope characteristic that falls relatively quickly and a pitch bend-down characteristic. In the case of replacing a template, referring to the attribute information ATR, a template (vector data) of a group of elements having the same attribute in a large number of articulation element vectors AEVQ (for example, FIG. 5B) is selected. A desired template (vector data) to be used for replacement can be selected. The new element R # x ′ created by replacing some of the templates is given an articulation element vector AEVQ (see FIG. 4) of the articulation database ADB by adding a new index and required attribute information. It is advisable to additionally register in the area of).

【0066】所望のテンプレートの具体的データ内容を
修正することも可能である。その場合は、編集中のエレ
メントについての所望のテンプレートの具体的データ内
容をテンプレートデータベースTDBから読み出し、こ
れをディスプレイ等で表示してキーボードやマウス等の
操作によってそのデータ内容を適宜変更する。所望のデ
ータ修正が終了すると、該修正されたテンプレートデー
タに新たなインデックスを付けてテンプレートデータベ
ースTDBに追加登録すると共に、該修正されたテンプ
レートデータに対して新たなベクトルデータを割り当
て、この新たなベクトルデータを含む新たなエレメント
(例えばR#x’)に対して新たなインデックスと所要
の属性情報を付与してアーティキュレーションデータベ
ースADBのアーティキュレーションエレメントベクト
ルAEVQ(図4参照)のエリアに追加登録するように
するとよい。
It is also possible to modify the specific data content of a desired template. In this case, the specific data content of the desired template for the element being edited is read from the template database TDB, displayed on a display or the like, and the data content is appropriately changed by operating a keyboard or mouse. When the desired data correction is completed, the corrected template data is newly registered in the template database TDB with a new index, and new vector data is assigned to the corrected template data. A new index and required attribute information are added to a new element including data (for example, R # x ′) and additionally registered in the area of the articulation element vector AEVQ (see FIG. 4) of the articulation database ADB. It is better to do it.

【0067】以上のようにして、基となるシーケンスA
ESEQ#xの内容を適宜変更して新たなシーケンスデ
ータを作成するデータ編集処理を行うことができる。こ
のようなデータ編集処理によって作成された新たなシー
ケンスデータは、ユーザーアーティキュレーションエレ
メントシーケンスURSEQとして新たなシーケンス番
号(例えばURSEQ#x)と属性情報を付与し、アー
ティキュレーションデータベースADBに登録する。以
後、楽音合成時には、そのシーケンス番号URSEQ#
xを用いてアーティキュレーションデータベースADB
からユーザーアーティキュレーションエレメントシーケ
ンスURSEQのデータを読み出すことができる。な
お、データ編集の形態は図11で例示したものに限ら
ず、種々の形態があり得る。例えば、基となるシーケン
スAESEQを呼び出すことなく、所望のエレメントを
エレメントベクトルAEVQから順次選択し、これによ
ってユーザーシーケンスURSEQを作り上げるように
してもよい。
As described above, the base sequence A
A data editing process for creating new sequence data by appropriately changing the contents of ESEQ # x can be performed. New sequence data created by such a data editing process is given a new sequence number (for example, URSEQ # x) and attribute information as a user articulation element sequence URSEQ, and registered in the articulation database ADB. Thereafter, when synthesizing a tone, the sequence number URSEQ #
Articulation database ADB using x
Can read data of the user articulation element sequence URSEQ. It should be noted that the form of data editing is not limited to the example illustrated in FIG. 11, and there may be various forms. For example, a desired element may be sequentially selected from the element vector AEVQ without calling the base sequence AESEQ, thereby creating the user sequence URSEQ.

【0068】図12は、上述したようなデータ編集処理
を実行しうるコンピュータプログラムの概略を示すフロ
ー図である。ステップS21では、所望の奏法を指定す
る。この指定は、コンピュータのキーボードやマウスを
用いて、シーケンスAESEQ又はURSEQの番号を
直接入力するようにしてもよいし、所望の楽器音色と属
性情報を入力することによって行うようにしてもよい。
次のステップS22では、指定された奏法に一致するシ
ーケンスがアーティキュレーションデータベースADB
内のAESEQ又はURSEQに存在しているかどうか
を検索し、該当するシーケンスAESEQ又はURSE
Qを選択する。この場合、シーケンスAESEQ又はU
RSEQの番号を直接入力した場合は、該当するものが
直接引き出される。属性情報を入力した場合は、該属性
情報に該当するシーケンスAESEQ及び/又はURS
EQが検索される。属性情報は複数入力可能であり、複
数入力した場合は、例えばAND論理で検索することと
すればよい。勿論、これに限らずOR論理で検索しても
よい。検索結果はコンピュータのディスプレイで表示
し、複数のシーケンスAESEQ及び/又はURSEQ
が検索された場合は、そのうち所望のものを選択できる
ようにする。
FIG. 12 is a flowchart showing an outline of a computer program capable of executing the data editing processing as described above. In step S21, a desired performance style is specified. This designation may be made by directly inputting the sequence AESEQ or URSEQ number using a computer keyboard or mouse, or by inputting desired musical instrument timbre and attribute information.
In the next step S22, a sequence matching the specified playing style is stored in the articulation database ADB.
Search for AESEQ or URSEQ in the corresponding sequence AESEQ or URSE
Select Q. In this case, the sequence AESEQ or U
When the RSEQ number is directly input, the corresponding item is directly retrieved. If attribute information is input, the sequence AESEQ and / or URS corresponding to the attribute information
The EQ is searched. A plurality of pieces of attribute information can be input, and when a plurality of pieces of attribute information are input, for example, a search may be performed using AND logic. Of course, the search is not limited to this and may be performed using OR logic. The search results are displayed on a computer display, and a plurality of sequences AESEQ and / or URSEQ
Is searched, a desired one can be selected.

【0069】ステップS23では編集作業を続行するか
否かをユーザーに問い合わせし、NO(続行しない)で
あれば、出口に行き、編集処理を終了する。ステップS
22で選択又は検索されたシーケンスの内容が望み通り
のものであり、編集の必要がない場合は、編集処理を終
了する。編集処理を続行したい場合は、ステップS23
でYESとし、ステップS24に行く。また、ステップ
S22で指定された奏法に該当するものが検索できなか
った場合も、ステップS23で続行YESと判定し、ス
テップS24に行く。属性情報による検索の一例を図5
及び図6のようなデータがアーティキュレーションデー
タベースADBに記憶されている場合を例にして説明す
る。例えば、アーティキュレーションシーケンスの検索
条件の属性として、「アタック・ベンドアップ・ノーマ
ル」と、「ボディ・ノーマル」と、「リリース・ノーマ
ル」が入力されたとする。この場合、図5(a)に示さ
れた6番目のシーケンスAESEQ#6の属性に一致す
るので、ステップS22でシーケンスAESEQ#6が
検索され、選択される。これで満足であれば、ステップ
S23でNOとして、編集処理を終了する。編集処理を
続行したければ、ステップS23でYESとして、ステ
ップS24に行く。
In step S23, the user is inquired whether or not to continue the editing operation. If NO (not to continue), the process goes to the exit and ends the editing process. Step S
If the content of the sequence selected or searched at 22 is as desired and there is no need for editing, the editing process ends. If it is desired to continue the editing process, step S23
Is YES, and the procedure goes to step S24. In addition, if a performance corresponding to the performance style specified in step S22 cannot be retrieved, it is determined that continuation is YES in step S23, and the process proceeds to step S24. Fig. 5 shows an example of retrieval using attribute information
An example in which data as shown in FIG. 6 is stored in the articulation database ADB will be described. For example, assume that “attack bend-up normal”, “body normal”, and “release normal” are input as attributes of the search condition of the articulation sequence. In this case, since the attribute matches the attribute of the sixth sequence AESEQ # 6 shown in FIG. 5A, the sequence AESEQ # 6 is searched and selected in step S22. If satisfied, the result is NO in step S23, and the editing process ends. If the user wants to continue the editing process, YES is determined in the step S23, and the process proceeds to the step S24.

【0070】ステップS24では、ステップS21で指
定した奏法に該当するシーケンスがまだ選択されていな
いならば、それに一番近いシーケンスを選択する。例え
ば、アーティキュレーションシーケンスの検索条件の属
性として、前記ステップS21で「アタック・ベンドア
ップ・ノーマル」と、「ビブラート・ノーマル」と、
「リリース・ノーマル」が入力されたとする。シーケン
スAESEQが図5(a)に示す7種類しかないとする
と、これを満足するシーケンスは検索できず、ステップ
S24でそれに一番近いシーケンスAESEQ#6が選
択される。ステップS25では、選択されたシーケンス
における所望のアーティキュレーションエレメント(A
E)を指示するベクトルデータ(インデックス)を別の
アーティキュレーションエレメントを指示するベクトル
データ(インデックス)に差し替える処理を行う。例え
ば、上記例の場合、ステップS24で一番近いシーケン
スとして選択されたシーケンスAESEQ#6のエレメ
ント構成は、ATT−Nor,BOD−Nor,REL
−Norという3つのエレメントベクトルからなってい
るので(図5(a)参照)、ボディ部用のエレメントB
OD−Nor(ノーマルボディ)をビブラート用のボデ
ィ部のエレメントに差し替えればよい。そのために、ア
ーティキュレーションエレメントベクトルAEVQ(例
えば図5(b))を参照して、BOD−Vib−nor
(ボディ・ノーマルビブラート)のエレメントベクトル
データ(インデックス)を引き出して、これをBOD−
Norと差し替える。
In step S24, if a sequence corresponding to the performance style designated in step S21 has not been selected yet, a sequence closest to it is selected. For example, as the attributes of the search condition of the articulation sequence, "attack bend-up normal" and "vibrato normal" in step S21,
It is assumed that “Release Normal” is input. If there are only seven types of sequence AESEQ as shown in FIG. 5A, a sequence satisfying these conditions cannot be searched, and in step S24, the closest sequence AESEQ # 6 is selected. In step S25, the desired articulation element (A
A process of replacing vector data (index) indicating E) with vector data (index) indicating another articulation element is performed. For example, in the case of the above example, the element configuration of the sequence AESEQ # 6 selected as the closest sequence in step S24 is ATT-Nor, BOD-Nor, REL
-Nor (see FIG. 5A), so that the element B for the body part
OD-Nor (normal body) may be replaced with a vibrato body part element. For this purpose, referring to the articulation element vector AEVQ (for example, FIG. 5B), BOD-Vib-nor
Extract the element vector data (index) of (Body Normal Vibrato) and convert it to BOD-
Replace with Nor.

【0071】必要に応じて、アーティキュレーションエ
レメントの追加及び削除もステップS25で行う。望み
のエレメントベクトルデータの差し替え及び/又は追
加、削除を終えると、新規のアーティキュレーションエ
レメントシーケンスが作成されたことになる(ステップ
S26)。アーティキュレーションエレメントの差し替
え及び/又は追加、削除によって、新規作成されたアー
ティキュレーションエレメントシーケンス内におけるエ
レメント間の波形のつながりが保証されないものとなっ
たので、次のステップS27において、接続ルールデー
タRULEを設定する。次のステップS28では、設定
した接続ルールデータRULEでよいかどうかを確認す
る。OKでなければ、ステップS27に戻り、接続ルー
ルデータRULEを設定し直す。設定した接続ルールデ
ータRULEでOKであれば、ステップS29に行く。
ステップS29では、編集処理を続行するかどうかを問
い合わせる。編集処理を続行しない場合は、ステップS
30に行き、新規作成されたアーティキュレーションエ
レメントシーケンスをユーザーシーケンスURSEQと
してアーティキュレーションデータベースADBに登録
する。編集処理を続行したければ、ステップS29でY
ESとして、ステップS24又はS31に行く。この場
合、アーティキュレーションエレメントの差し替え及び
/又は追加、削除に戻りたい場合はステップS24に戻
るものとし、テンプレートデータの編集に移りたい場合
はステップS31に行く。
As needed, addition and deletion of articulation elements are also performed in step S25. When the replacement, addition, and / or deletion of the desired element vector data is completed, a new articulation element sequence is created (step S26). Since the replacement of the articulation elements and / or the addition or deletion of the articulation elements does not guarantee the connection of the waveforms between the elements in the newly created articulation element sequence, the connection rule data RULE is set in the next step S27. Set. In the next step S28, it is checked whether the set connection rule data RULE is sufficient. If it is not OK, the process returns to step S27, and the connection rule data RULE is set again. If the set connection rule data RULE is OK, the process proceeds to step S29.
In step S29, an inquiry is made as to whether to continue the editing process. If the editing process is not to be continued, step S
In step 30, the newly created articulation element sequence is registered in the articulation database ADB as a user sequence URSEQ. If the user wants to continue the editing process, Y
As ES, the process goes to step S24 or S31. In this case, if it is desired to return to replacement and / or addition / deletion of the articulation element, the process returns to step S24, and if it is desired to proceed to editing of template data, the process proceeds to step S31.

【0072】ステップS31では、テンプレートデータ
を編集したいアーティキュレーションエレメント(A
E)を選択する。次のステップS32では、選択された
アーティキュレーションエレメント(AE)の中の所望
の楽音要素に対応するテンプレートベクトルデータを該
楽音要素に関する別のテンプレートベクトルデータに差
し替える。例えば、アーティキュレーションシーケンス
の検索条件の属性として、「アタック・ベンドアップ・
ノーマル」と、「少し遅いビブラート」と、「リリース
・ノーマル」がステップS21で指定入力され、図5
(a)に示されたシーケンスAESEQのうち一番近い
シーケンスとしてAESEQ#6がステップS24で選
択されたとする。前述の通り、このシーケンスAESE
Q#6のボディ部用のエレメントはBOD−Nor(ノ
ーマルボディ)であるから、これをステップS25でビ
ブラート用のボディ部のエレメント例えばBOD−Vi
b−nor(ボディ・ノーマルビブラート)に差し替え
る。そして、ステップS31で、このBOD−Vib−
nor(ボディ・ノーマルビブラート)のエレメントを
選択し、これを編集の対象とする。そして、望みの「少
し遅いビブラート」を実現するために、ステップS32
において、BOD−Vib−nor(ボディ・ノーマル
ビブラート)の各テンプレートベクトルのうち、時間テ
ンプレートのベクトルTSC−B−vibを、ビブラー
トスピードを少し遅くする時間テンプレートのベクトル
(例えばTSC−B−sp2とする)に差し替える。
In step S31, the articulation element (A
Select E). In the next step S32, the template vector data corresponding to the desired tone element in the selected articulation element (AE) is replaced with another template vector data relating to the tone element. For example, as the attribute of the search condition of the articulation sequence, "attack bend up
"Normal", "Slightly slow vibrato", and "Release normal" are designated and input in step S21, and FIG.
It is assumed that AESEQ # 6 is selected in step S24 as the closest sequence among the sequences AESEQ shown in FIG. As described above, this sequence AESE
Since the element for the body part of Q # 6 is BOD-Nor (normal body), the element of the body part for vibrato, for example, BOD-Vi is used in step S25.
Replace with b-nor (body normal vibrato). Then, in step S31, this BOD-Vib-
Select an element of nor (body normal vibrato) and make it an object of editing. Then, in order to realize the desired “slightly slow vibrato”, step S 32
, Among the template vectors of BOD-Vib-nor (body normal vibrato), the time template vector TSC-B-vib is set to a time template vector (for example, TSC-B-sp2) for slightly lowering the vibrato speed. ).

【0073】こうして、BOD−Vib−nor(ボデ
ィ・ノーマルビブラート)の各テンプレートのうち、時
間テンプレートベクトルをTSC−B−vibからTS
C−B−sp2に差し替えた新たなアーティキュレーシ
ョンエレメントが作成される(ステップS33)。ま
た、シーケンスAESEQ#6のボディ部用のエレメン
トを、この新たに作成されたアーティキュレーションエ
レメントに差し替えてなる、新たなアーティキュレーシ
ョンエレメントシーケンスが作成される(ステップS3
3)。続くステップS34,S35,S36は前述のス
テップS27,S28,S29と同様の処理からなる。
すなわち、差し替えたテンプレートデータによって、新
規作成されたアーティキュレーションエレメントシーケ
ンス内におけるエレメント間の波形のつながりが保証さ
れないものとなったので、前述と同様に接続ルールデー
タRULEを設定し直す。
In this way, among the templates of BOD-Vib-nor (body normal vibrato), the time template vector is converted from TSC-B-vib to TS
A new articulation element replaced with CB-sp2 is created (step S33). Also, a new articulation element sequence is created by replacing the body part element of the sequence AESEQ # 6 with the newly created articulation element (step S3).
3). Subsequent steps S34, S35 and S36 are the same as steps S27, S28 and S29 described above.
That is, the connection of the waveforms between the elements in the newly created articulation element sequence is not guaranteed by the replaced template data, so that the connection rule data RULE is set again as described above.

【0074】ステップS36では、編集処理を続行する
かどうかを問い合わせる。編集処理を続行しない場合
は、ステップS37に行き、新規作成されたアーティキ
ュレーションエレメント(AE)をユーザーアーティキ
ュレーションエレメントベクトル(AEVQ)としてア
ーティキュレーションデータベースADBに登録する。
編集処理を続行したければ、ステップS36でYESと
して、ステップS31又はS38に行く。この場合、テ
ンプレートベクトルの差し替えに戻りたい場合はステッ
プS31に戻るものとし、テンプレートデータの具体的
内容の編集に移りたい場合はステップS38に行く。ス
テップS38では、データ内容を編集したい所要のアー
ティキュレーションエレメント(AE)内のテンプレー
トを選択する。次のステップS39では、選択されたテ
ンプレートのデータをテンプレートデータベースTDB
から読み出し、その具体的データ内容を適宜変更する。
At step S36, an inquiry is made as to whether or not to continue the editing process. If the editing process is not to be continued, the process proceeds to step S37, and the newly created articulation element (AE) is registered in the articulation database ADB as a user articulation element vector (AEVQ).
If the editing process is to be continued, the determination in step S36 is YES, and the process proceeds to step S31 or S38. In this case, if it is desired to return to the replacement of the template vector, the process returns to step S31, and if it is desired to proceed to edit the specific contents of the template data, the process proceeds to step S38. In step S38, a template in a required articulation element (AE) whose data content is to be edited is selected. In a next step S39, the data of the selected template is stored in the template database TDB.
And the specific data contents are appropriately changed.

【0075】例えば、アーティキュレーションシーケン
スの検索条件の属性として、「アタック・ベンドアップ
・ノーマル」と、「かなり遅いビブラート」と、「リリ
ース・ノーマル」がステップS21で指定入力され、図
5(a)に示されたシーケンスAESEQのうち一番近
いシーケンスとしてAESEQ#6がステップS24で
選択されたとする。前述の通り、このシーケンスAES
EQ#6のボディ部用のエレメントはBOD−Nor
(ノーマルボディ)であるから、これをステップS25
でビブラート用のボディ部のエレメント例えばBOD−
Vib−nor(ボディ・ノーマルビブラート)に差し
替える。そして、ステップS31で、このBOD−Vi
b−nor(ボディ・ノーマルビブラート)のエレメン
トを選択し、これを編集の対象とする。そして、望みの
「かなり遅いビブラート」を実現するために、ステップ
S32において、BOD−Vib−nor(ボディ・ノ
ーマルビブラート)の各テンプレートベクトルのうち、
時間テンプレートのベクトルTSC−B−vibを、既
存の時間テンプレートのうちビブラートスピードを最も
遅くする時間テンプレートのベクトル(例えばTSC−
B−sp1とする)に差し替える。しかし、この時間テ
ンプレートベクトルTSC−B−sp1で指示された時
間テンプレートでは、望みの「かなり遅いビブラート」
がまだ実現できない場合、ステップS38でこの時間テ
ンプレートベクトルTSC−B−sp1を選択し、ステ
ップ39でその具体的データ内容を更に遅いビブラート
を実現する内容に変更する。また、変更によって作成さ
れた新たな時間テンプレートに対して新規のベクトルデ
ータ(例えばTSC−B−sp0とする)を割り当て
る。
For example, "attack bend-up normal", "quite slow vibrato", and "release normal" are designated and input in step S21 as attributes of the search condition of the articulation sequence, and FIG. It is assumed that AESEQ # 6 is selected in step S24 as the closest sequence among the sequences AESEQ shown in FIG. As described above, this sequence AES
The element for the body part of EQ # 6 is BOD-Nor
(Normal body), so this is
In the body element for vibrato, for example BOD-
Replaced with Vib-nor (body normal vibrato). Then, in step S31, this BOD-Vi
An element of b-nor (body normal vibrato) is selected, and this is set as an editing target. Then, in order to realize the desired “substantially slow vibrato”, in step S32, among the template vectors of the BOD-Vib-nor (body normal vibrato),
A vector of a time template TSC-B-vib is converted to a vector of a time template (e.g., TSC-
B-sp1). However, in the time template indicated by this time template vector TSC-B-sp1, the desired "quite slow vibrato"
Is not realized yet, the time template vector TSC-B-sp1 is selected in a step S38, and the specific data content is changed to a content realizing a slower vibrato in a step 39. Also, new vector data (for example, TSC-B-sp0) is assigned to a new time template created by the change.

【0076】こうして、新規の時間テンプレートデータ
とそのベクトルデータTSC−B−sp0が作成される
(ステップS40)。また、時間テンプレートベクトル
を新規のベクトルに変更した新たなアーティキュレーシ
ョンエレメント(AE)が作成され、また、シーケンス
AESEQ#6のボディ部用のエレメントを、この新た
に作成されたアーティキュレーションエレメント(A
E)に差し替えてなる、新たなアーティキュレーション
エレメントシーケンスが作成される(ステップS4
0)。続くステップS41,S42,S43は前述のス
テップS27,S28,S29と同様の処理からなる。
すなわち、データ修正したテンプレートデータによっ
て、新規作成されたアーティキュレーションエレメント
シーケンス内におけるエレメント間の波形のつながりが
保証されないものとなったので、前述と同様に接続ルー
ルデータRULEを設定し直す。
Thus, new time template data and its vector data TSC-B-sp0 are created (step S40). Further, a new articulation element (AE) in which the time template vector is changed to a new vector is created, and the element for the body part of the sequence AESEQ # 6 is replaced with the newly created articulation element (AE). A
A new articulation element sequence replaced with E) is created (step S4).
0). Subsequent steps S41, S42, S43 are the same as steps S27, S28, S29 described above.
That is, the connection of the waveforms between the elements in the newly created articulation element sequence is not guaranteed by the corrected template data, so that the connection rule data RULE is set again as described above.

【0077】ステップS43では、編集処理を続行する
かどうかを問い合わせる。編集処理を続行しない場合
は、ステップS44に行き、新規作成されたテンプレー
トデータをテンプレートデータベースTDBに登録す
る。編集処理を続行したければ、ステップS43でYE
Sとして、ステップS38に戻る。ステップS44の
後、ステップS37に行き、新規作成されたアーティキ
ュレーションエレメント(AE)をユーザーアーティキ
ュレーションエレメントベクトル(AEVQ)としてア
ーティキュレーションデータベースADBに登録する。
更に、ステップS30に行き、新規作成されたアーティ
キュレーションエレメントシーケンスをユーザーシーケ
ンスURSEQとしてアーティキュレーションデータベ
ースADBに登録する。編集処理の手順は図12に限定
されるものではなく、適宜別の手順で処理してもよい。
また、前述のように、基となるシーケンスAESEQを
呼び出すことなく、所望のエレメントをエレメントベク
トルAEVQから順次選択し、各エレメント内のテンプ
レートデータを適宜差し替えたりデータ修正したりし
て、これに基づきユーザーシーケンスURSEQを作り
上げるようにしてもよい。また、特に、図示しなかった
が、編集処理の適宜の段階において、編集中のアーティ
キュレーションエレメントの波形に対応する音を発音
し、ユーザーが耳で確認できるようにするとよい。
In step S43, an inquiry is made as to whether or not to continue the editing process. If the editing process is not to be continued, the process proceeds to step S44, and the newly created template data is registered in the template database TDB. If the user wants to continue the editing process,
As S, the process returns to step S38. After step S44, the process proceeds to step S37, where the newly created articulation element (AE) is registered in the articulation database ADB as a user articulation element vector (AEVQ).
Further, the process proceeds to step S30, and the newly created articulation element sequence is registered as a user sequence URSEQ in the articulation database ADB. The procedure of the editing process is not limited to that shown in FIG.
Further, as described above, without calling the base sequence AESEQ, a desired element is sequentially selected from the element vector AEVQ, and the template data in each element is appropriately replaced or data is corrected, and based on this, the user The sequence URSEQ may be created. Although not specifically shown, it is preferable that a sound corresponding to the waveform of the articulation element being edited is generated at an appropriate stage of the editing process so that the user can confirm the sound by ear.

【0078】〔パーシャルベクトルの説明〕図13は、
パーシャルベクトルPVQの考え方を概念的に示すもの
である。図13(a)は、或る区間のアーティキュレー
ションエレメントについて、或る楽音要素(例えば波
形)について分析された全区間のデータ(つまり通常の
テンプレートデータ)を模式的に示したものである。図
13(b)は、(a)に示す全区間のデータから分散的
に取り出した部分的なテンプレートデータPT1,PT
2,PT3,PT4を模式的に示すものである。この部
分的なテンプレートデータPT1,PT2,PT3,P
T4が、当該楽音要素のテンプレートデータとしてテン
プレートデータベースTDBに記憶される。このテンプ
レートデータについてのテンプレートベクトルは、通常
と同様に(全区間のデータをそのままテンプレートデー
タとして記憶する場合と同様に)、1つ割り当てられ
る。例えば、このテンプレートデータについてのテンプ
レートベクトルが「Timb−B−nor」であるとす
ると、各部分的なデータPT1,PT2,PT3,PT
4のテンプレートベクトルは「Timb−B−nor」
であり、共通している。なお、この場合、このテンプレ
ートベクトル「Timb−B−nor」に付属するデー
タとして、パーシャルベクトルPVQを有することを示
す識別データを、登録しておくものとする。
[Description of Partial Vector] FIG.
7 conceptually illustrates the concept of the partial vector PVQ. FIG. 13A schematically shows data (that is, normal template data) of an articulation element of a certain section, which is analyzed for a certain musical tone element (for example, a waveform). FIG. 13B shows partial template data PT1, PT1 distributedly extracted from the data of all sections shown in FIG.
2, PT3 and PT4 are schematically shown. These partial template data PT1, PT2, PT3, P
T4 is stored in the template database TDB as template data of the musical tone element. One template vector is assigned to this template data in the same manner as usual (similar to the case where data of all sections is stored as template data as it is). For example, if the template vector for this template data is “Timb-B-nor”, each partial data PT1, PT2, PT3, PT3
The template vector of No. 4 is “Timb-B-nor”
Is common. In this case, identification data indicating that the partial vector PVQ is included is registered as data attached to the template vector “Timb-B-nor”.

【0079】パーシャルベクトルPVQは、各部分的な
テンプレートデータPT1〜PT4毎に、該データのテ
ンプレートデータベースTDBでの記憶位置を示すデー
タ(例えばループスタートアドレスに相当)と、該デー
タの幅Wを示すデータ(例えばループエンドアドレスに
相当)と、該データを繰返す期間LTを示すデータとを
含んでいる。図では、便宜上、幅Wと期間LTがどの部
分的データPT1〜PT4でも共通しているかのように
図示しているが、これは各データPT1〜PT4毎に任
意である。また、部分的テンプレートデータPT1〜P
T4の数も、4個に限らず、任意である。パーシャルベ
クトルPVQに基づく各部分的テンプレートデータPT
1〜PT4をそれぞれその繰返し期間(LT)の分だけ
ループ読み出しし、読み出された各ループを接続するこ
とにより(a)に示したような全区間のデータを再現す
ることができる。この再現処理をデコード処理というこ
とにする。このデコード処理法としては、一例として、
それぞれの部分的テンプレートデータPT1〜PT4を
その繰返し期間LTの分だけ単純にループ読出しするよ
うにするだけでもよいし、別の例として、相前後する2
つの波形をループ読出しながらクロスフェード合成する
ようにしてもよい。後者の方が各ループのつながりが良
くなるので、好ましい。
The partial vector PVQ indicates, for each of the partial template data PT1 to PT4, data indicating a storage position of the data in the template database TDB (for example, corresponding to a loop start address) and a width W of the data. It includes data (for example, corresponding to a loop end address) and data indicating a period LT in which the data is repeated. In the figure, for convenience, the width W and the period LT are illustrated as if they are common to all the partial data PT1 to PT4, but this is arbitrary for each of the data PT1 to PT4. Further, the partial template data PT1 to PT
The number of T4 is not limited to four and is arbitrary. Each partial template data PT based on the partial vector PVQ
By reading loops 1 to PT4 for the repetition period (LT), respectively, and connecting the read loops, it is possible to reproduce data of all sections as shown in (a). This reproduction process is called a decoding process. As an example of this decoding processing method,
The respective partial template data PT1 to PT4 may simply be read out in a loop for the repetition period LT.
Cross-fade synthesis may be performed while reading two waveforms in a loop. The latter is preferable because the connection between the loops is improved.

【0080】図13(c),(d)は、そのようなクロ
スフェード合成によるデコード処理例を示している。
(c)はクロスフェード合成用の第1のチャンネルにお
けるクロスフェード制御波形例を示し、(d)はクロス
フェード合成用の第2のチャンネルにおけるクロスフェ
ード制御波形例を示す。すなわち、最初の部分的テンプ
レートデータPT1を(c)に示すフェードアウト用制
御波形CF11で期間LTの間にフェードアウトし、同
時に、次の部分的テンプレートデータPT2を(d)に
示すフェードイン用制御波形CF21で期間LTの間に
フェードインする。フェードアウト制御されたデータP
T1とフェードイン制御されたデータPT2とを加算す
ることにより、期間LTの間でデータPT1からデータ
PT2にクロスフェードするループ読出しが行われる。
次に、データPT1をデータPT3に切換える共にその
制御波形をフェードイン波形CF12に切換え、データ
PT2の制御波形をフェードアウト波形CF22に切換
え、クロスフェード合成を行う。以後、図示のように順
次切換えてクロスフェード合成を行う。なお、クロスフ
ェード合成を行うに際しては、2つのループ読出波形の
位相とピッチが適切に合うように処理する。
FIGS. 13 (c) and 13 (d) show examples of decoding processing by such cross-fade synthesis.
(C) shows an example of a crossfade control waveform in the first channel for crossfade synthesis, and (d) shows an example of a crossfade control waveform in the second channel for crossfade synthesis. That is, the first partial template data PT1 is faded out during the period LT with the fade-out control waveform CF11 shown in (c), and at the same time, the next partial template data PT2 is faded out with the fade-in control waveform CF21 shown in (d). Fade in during the period LT. Fade-out controlled data P
By adding T1 and the data PT2 subjected to the fade-in control, a loop read for cross-fading from the data PT1 to the data PT2 during the period LT is performed.
Next, the data PT1 is switched to the data PT3, the control waveform is switched to the fade-in waveform CF12, the control waveform of the data PT2 is switched to the fade-out waveform CF22, and cross-fade synthesis is performed. Thereafter, crossfade synthesis is performed by sequentially switching as shown in the figure. When performing crossfade synthesis, processing is performed so that the phases and pitches of the two loop readout waveforms match appropriately.

【0081】図14は、パーシャルベクトルPVQを考
慮したテンプレート読出し処理の一例を示すフロー図で
ある。ここに示されたステップS13〜S14cは、図
7のステップS13,S14の部分の処理に対応してい
る。ステップS13では、アーティキュレーションエレ
メントベクトルAEVQのデータ群の中から指定された
エレメントに対応する各テンプレートのベクトルデータ
を読み出す。ステップS14aでは、パーシャルベクト
ルPVQを有することを示す識別データに基づきパーシ
ャルベクトルPVQが有るか否かをチェックする。パー
シャルベクトルPVQがなければ、ステップS14bに
行き、テンプレートデータベースTDBから各テンプレ
ートデータを読み出す。パーシャルベクトルPVQが有
れば、ステップS14cに行き、そのパーシャルベクト
ルPVQに基づき上述の「デコード処理」を行う。これ
により、該エレメントについての全区間のテンプレート
データを再現(デコード)する。
FIG. 14 is a flowchart showing an example of the template reading process in consideration of the partial vector PVQ. Steps S13 to S14c shown here correspond to the processing of steps S13 and S14 in FIG. In step S13, vector data of each template corresponding to the specified element is read from the data group of the articulation element vector AEVQ. In step S14a, it is checked whether or not the partial vector PVQ exists based on the identification data indicating that the partial vector PVQ exists. If there is no partial vector PVQ, the procedure goes to step S14b, where each template data is read from the template database TDB. If there is a partial vector PVQ, the process proceeds to step S14c, and the above-described “decoding process” is performed based on the partial vector PVQ. Thereby, the template data of the entire section for the element is reproduced (decoded).

【0082】なお、或るアーティキュレーションエレメ
ントにパーシャルベクトルPVQを適用する場合、その
アーティキュレーションエレメントの全ての楽音要素に
ついてのテンプレートを部分的テンプレートとする必要
はなく、部分的テンプレートとしてループ読出しするの
に適した種類の楽音要素に関してのみ部分的テンプレー
トとすればよい。また、パーシャルベクトルPVQに基
づく、当該エレメントについての全区間のテンプレート
データの再生方法としては、上述のような単純なループ
読出しに限らず、その他適宜の方法を用いてよい。例え
ば、該パーシャルベクトルPVQに対応する所定長の部
分的テンプレートを必要なだけ時間軸伸張する、あるい
は限られた複数の部分的テンプレートをランダムに又は
所定のシーケンスで組み合わせて当該エレメントについ
ての全区間または必要な区間にわたって配置する、など
の方法を用いてよい。
When the partial vector PVQ is applied to a certain articulation element, it is not necessary to set the templates for all the tone elements of the articulation element as partial templates, and loop-read them as partial templates. It is sufficient to use a partial template only for a musical tone element of a type suitable for. In addition, the method of reproducing template data of the entire section of the element based on the partial vector PVQ is not limited to the simple loop reading as described above, and any other appropriate method may be used. For example, a partial template of a predetermined length corresponding to the partial vector PVQ is time-axis-extended as necessary, or a limited plurality of partial templates are combined at random or in a predetermined sequence, or the entire section of the element or A method of arranging over a required section may be used.

【0083】〔ビブラート合成の説明〕ここでは、ビブ
ラート合成の仕方についての新しいアイディアについて
いくつか説明する。図15は、ビブラート成分を持つボ
ディ部の波形データをパーシャルベクトルPVQの考え
方を適用してデータ圧縮する例と、そのデコード例とを
概略的に示す図である。(a)は、ビブラートを含むオ
リジナル波形Aを例示する。このオリジナル波形におい
ては、ビブラートの1周期において波形ピッチが変動し
ているのみならず、振幅も変動している。(b)は
(a)のオリジナル波形から分散的に複数の波形a1,
a2,a3,a4を取り出した状態を例示する。これら
の波形a1〜a4としては、波形形状(音色)がそれぞ
れ異なっているものを選び、また、1波長(波形1周
期)を同じデータサイズ(アドレス数)としてそれぞれ
1又は複数波で取り出す。これらの波形a1〜a4を部
分的テンプレートデータ(つまりループ波形データ)と
してテンプレートデータベースTDBに記憶する。この
読出し法は、各波形a1〜a4を順次ループ読出しする
と共にクロスフェード合成することにより行う。
[Explanation of Vibrato Synthesis] Here, some new ideas on the method of vibrato synthesis will be described. FIG. 15 is a diagram schematically showing an example in which waveform data of a body part having a vibrato component is subjected to data compression by applying the concept of the partial vector PVQ, and a decoding example thereof. (A) illustrates an original waveform A including vibrato. In this original waveform, not only the waveform pitch fluctuates in one cycle of vibrato, but also the amplitude fluctuates. (B) shows a plurality of waveforms a1, dispersed from the original waveform of (a).
A state in which a2, a3, and a4 are taken out is exemplified. As these waveforms a1 to a4, those having different waveform shapes (tone colors) are selected, and one wavelength (one cycle of the waveform) is extracted as one or more waves with the same data size (number of addresses). These waveforms a1 to a4 are stored in the template database TDB as partial template data (that is, loop waveform data). This reading method is performed by sequentially reading out the waveforms a1 to a4 in a loop and performing crossfade synthesis.

【0084】図15(c)はビブラート1周期の間にピ
ッチが変動するピッチテンプレートを示している。な
お、このピッチテンプレートのピッチ変化パターンは図
示では高ピッチから始まって低ピッチに移行し、最後に
高ピッチに戻るパターンであるが、これに限らず、他の
パターン(例えば低ピッチから高ピッチに移行し、低ピ
ッチに戻るパターンや、中間のピッチから始まって高ピ
ッチ→低ピッチ→中間ピッチに戻るパターンなど)であ
ってもよい。
FIG. 15C shows a pitch template whose pitch fluctuates during one vibrato cycle. Note that the pitch change pattern of this pitch template is a pattern which starts from a high pitch, shifts to a low pitch, and finally returns to a high pitch in the drawing, but is not limited to this, and other patterns (for example, from a low pitch to a high pitch) are used. A pattern that shifts and returns to a low pitch, or a pattern that starts from an intermediate pitch and returns to a high pitch → low pitch → intermediate pitch) may be used.

【0085】図15(d)はループ読出した各波形a1
〜a4に対するクロスフェード制御波形を例示してい
る。(c)のピッチテンプレートに従うピッチで最初は
波形a1とa2をそれぞれループ読出し(繰返し読出
し)し、ループ読出した波形a1に対してはフェードア
ウト、ループ読出した波形a2に対してはフェードイン
の振幅制御をして両者を合成する。これにより、波形a
1からa2に向かってその波形形状がクロスフェードし
て順次変化していき、かつそのクロスフェード合成波形
のピッチがピッチテンプレートに従うピッチで順次変化
する。以下、同様に波形を順次切換えて、a2とa3と
で、次にa3とa4とで、次にa4とa1とで、クロス
フェード合成をそれぞれ行う。
FIG. 15D shows each waveform a1 read out from the loop.
6 illustrates crossfade control waveforms for. At first, the waveforms a1 and a2 are loop-read (repeatedly read) at a pitch according to the pitch template of (c), and the amplitude control of fade-out is performed for the loop-read waveform a1 and fade-in is performed for the loop-read waveform a2. To combine the two. Thereby, the waveform a
From 1 to a2, the waveform shape cross-fades and changes sequentially, and the pitch of the cross-fade composite waveform changes sequentially at a pitch according to the pitch template. Thereafter, the waveforms are sequentially switched in the same manner, and crossfade synthesis is performed at a2 and a3, then at a3 and a4, and then at a4 and a1.

【0086】図15(e)は合成された波形データA’
を示す。この波形データA’は、ビブラート1周期の間
で、その波形形状が波形a1から順にa4まで滑らかに
クロスフェードされて変化していき、かつ、そのピッチ
はピッチテンプレートに従って変化していくことにより
ビブラートが付けられたものである。上記のようなビブ
ラート1周期分の波形データA’の合成処理を繰り返す
ことにより、複数のビブラート周期にわたる波形データ
を合成することができる。その場合、(c)に示すよう
なビブラート1周期分のピッチテンプレートを必要なビ
ブラート周期数分だけループさせればよい。そのため
に、パーシャルベクトルPVQの構造が階層的になって
いてよい。すなわち、ビブラート1周期分の波形合成の
ために波形a1〜a4が上記のように個々にループ読出
しされると共に、その全体(ビブラート1周期分)がピ
ッチテンプレートのルーピングに従って更に繰り返され
るような階層構造となっていてよい。なお、ビブラート
合成のためにオリジナル波形から分散的に取り出す波形
の数は図15(b)のような4個に限らず、何個でもよ
い。また、その各波形の取り出し間隔は等間隔でなくて
もよい。更に、図15(b)のようにビブラート1周期
の範囲から取り出すことに限らず、複数ビブラート周期
あるいはビブラート1周期未満の範囲から適宜分散的に
取り出すようにしてもよい。
FIG. 15E shows the synthesized waveform data A ′.
Is shown. The waveform data A ′ is changed by smoothly cross-fading the waveform shape from the waveform a1 to a4 in order during one period of the vibrato, and the pitch changes according to the pitch template. Is attached. By repeating the process of synthesizing the waveform data A 'for one vibrato cycle as described above, waveform data over a plurality of vibrato cycles can be synthesized. In such a case, the pitch template for one cycle of vibrato as shown in (c) may be looped by the required number of vibrato cycles. Therefore, the structure of the partial vector PVQ may be hierarchical. That is, the hierarchical structure in which the waveforms a1 to a4 are individually read out in a loop as described above for synthesizing the waveform for one cycle of vibrato, and the whole (for one cycle of vibrato) is further repeated according to the looping of the pitch template. It may be. Note that the number of waveforms to be dispersedly extracted from the original waveform for vibrato synthesis is not limited to four as shown in FIG. 15B, and may be any number. In addition, the extraction intervals of each waveform need not be equal intervals. Further, the present invention is not limited to extracting from a range of one vibrato cycle as shown in FIG. 15B, and may be appropriately dispersedly extracted from a range of a plurality of vibrato cycles or a range of less than one vibrato cycle.

【0087】図16は別のビブラート合成の別の例を示
す図である。この例では、ビブラートを含むオリジナル
波形の複数のビブラート周期にわたる区間A,B,Cか
ら分散的に複数の波形a1〜a4,b1〜b4,c1〜
c4を取り出す。これらの波形a1〜a4,b1〜b
4,c1〜c4は、前述と同様に、波形形状(音色)が
異なっているものを選び、また、1波長(波形1周期)
を同じデータサイズ(アドレス数)としてそれぞれ1又
は複数波で取り出す。これらの波形a1〜a4,b1〜
b4,c1〜c4を部分的テンプレートデータとしてテ
ンプレートデータベースTDBに記憶する。この読出し
法は、基本的には、上記例と同様に、各波形a1〜a
4,b1〜b4,c1〜c4を順次ループ読出しすると
共にクロスフェード合成するものであるが、上記例と異
なるのは、図16の例では各波形a1〜a4,b1〜b
4,c1〜c4の時間的位置を入れ替えて、クロスフェ
ード合成の対象となる波形を任意に組み合わせることに
より、ビブラートにおける波形音色変化のバリエーショ
ンを多様な組合せで得ることができるようにしている点
である。
FIG. 16 is a diagram showing another example of another vibrato synthesis. In this example, a plurality of waveforms a1 to a4, b1 to b4, and c1 to c4 are distributed from sections A, B, and C over a plurality of vibrato periods of an original waveform including vibrato.
Take out c4. These waveforms a1 to a4, b1 to b
4, c1 to c4 select ones having different waveform shapes (tone colors) in the same manner as described above, and one wavelength (one cycle of the waveform).
Are extracted as one or more waves with the same data size (number of addresses). These waveforms a1 to a4, b1 to
b4, c1 to c4 are stored in the template database TDB as partial template data. This reading method is basically similar to the above-described example, in which each of the waveforms a1 to a
4, b1 to b4, c1 to c4 are sequentially read out in a loop, and cross-fade synthesis is performed. The difference from the above example is that the waveforms a1 to a4, b1 to b4 in the example of FIG.
4, c1 to c4 are interchanged with each other and the waveforms to be subjected to crossfade synthesis are arbitrarily combined so that various variations of the waveform timbre change in vibrato can be obtained in various combinations. is there.

【0088】例えば、各波形a1〜a4,b1〜b4,
c1〜c4の1ビブラート周期内における相対的時間位
置は変えずに、これらの波形の位置の入れ替えを行う
と、例えば、a1→b2→c3→a4→b1→c2→a
3→b4→c1→a2→b3→c4というような波形位
置の入れ替えパターンを得ることができる。このような
波形位置の入れ替えパターンに従って上記図15と同様
のクロスフェード合成によるビブラート合成処理を行え
ば、オリジナルの波形位置パターンに従うクロスフェー
ド合成によるビブラート合成処理によって得られるビブ
ラートとは異なる音色変化からなるビブラートを得るこ
とができる。なお、各波形a1〜a4,b1〜b4,c
1〜c4の1ビブラート周期内における相対的時間位置
は変えずに、これらの波形の位置の入れ替えを行うよう
にした理由は、入れ替えによる不自然さが生じないよう
にするためである。このような波形位置の入れ替えパタ
ーンは、図16に示した12個の波形a1〜a4,b1
〜b4,c1〜c4の場合、ビブラート1周期につき3
の4乗=81通りの組合せがあり、ビブラート3周期で
は、81の3乗の組合せがある。従って、ビブラートに
おける波形音色変化のバリエーションが極めて多様なも
のとなる。どの組合せパターンを採用するかはランダム
選択するようにすればよい。
For example, the waveforms a1 to a4, b1 to b4,
If the positions of these waveforms are exchanged without changing the relative time positions within one vibrato cycle of c1 to c4, for example, a1 → b2 → c3 → a4 → b1 → c2 → a
It is possible to obtain a replacement pattern of waveform positions such as 3 → b4 → c1 → a2 → b3 → c4. If vibrato synthesis processing by cross-fade synthesis similar to that of FIG. 15 is performed according to such a pattern of replacement of waveform positions, tone color changes different from vibrato obtained by vibrato synthesis processing by cross-fade synthesis according to the original waveform position pattern. You can get vibrato. The waveforms a1 to a4, b1 to b4, c
The reason why the positions of these waveforms are exchanged without changing the relative time positions within one vibrato cycle of 1 to c4 is to prevent unnaturalness due to the exchange. Such a replacement pattern of the waveform positions includes the twelve waveforms a1 to a4 and b1 shown in FIG.
B4, c1 to c4, 3 per vibrato cycle
There are 81 combinations of the fourth power, and there are 81 third power combinations in three cycles of vibrato. Therefore, the variation of the waveform timbre change in vibrato becomes extremely diverse. Which combination pattern is to be adopted may be selected at random.

【0089】図15又は図16に示すような手法で作成
されたビブラート特性を持つ波形(例えば図15(e)
のA’)あるいはその他の手法で作成されたビブラート
特性を持つ波形に対しては、ピッチ(Pitch)テンプレ
ート、振幅(Amp)テンプレート、時間(TSC)テン
プレートによって、そのビブラート特性を可変制御する
ことができる。例えば、ピッチ(Pitch)テンプレート
によってビブラートの深さを制御することができ、振幅
(Amp)テンプレートによってビブラートと共に付加さ
れる振幅変調の深さを制御することができ、時間(TS
C)テンプレートによってビブラート1周期を構成する
波形の時間長を伸縮制御することによりビブラートの速
さを制御する(ビブラート周期を制御する)ことができ
る。
A waveform having a vibrato characteristic created by the method shown in FIG. 15 or FIG. 16 (for example, FIG.
A ′) or a waveform having a vibrato characteristic created by another method, the vibrato characteristic can be variably controlled by a pitch (Pitch) template, an amplitude (Amp) template, and a time (TSC) template. it can. For example, the pitch template can control the depth of the vibrato, the amplitude template can control the depth of the amplitude modulation added with the vibrato, and the time (TS
C) Vibrato speed can be controlled (vibrato cycle can be controlled) by controlling the expansion and contraction of the time length of the waveform constituting one vibrato cycle using the template.

【0090】例えば図15においては、(d)に示す各
クロスフェード区間の時間長を所望の時間(TSC)テ
ンプレートに応じて時間軸伸縮制御(TSC制御)する
ことにより、楽音再生ピッチ(波形読出アドレスの変化
レート)を変化させずに該TSC制御を行なった場合
は、ビブラート1周期の時間長を伸縮制御することがで
き、これにより、ビブラート周波数の制御が行なえる。
なお、その場合、TSCテンプレートを、(c)に示す
ようようなピッチテンプレートと同様にビブラート1周
期分に対応して用意した場合は、ビブラート1周期分の
該TSCテンプレートを必要なビブラート周期数分だけ
ループさせればよい。なお、TSCテンプレートに応じ
た波形の時間軸伸縮制御に連動して、ピッチ(Pitch)
テンプレート及び振幅(Amp)テンプレートも時間軸伸
縮制御するようにすれば、これらの楽音要素を連動して
時間軸伸縮制御することができる。なお、ピッチテンプ
レートが示すピッチ変化エンベロープ特性を上下にシフ
トすることにより、ビブラート波形の楽音再生ピッチを
可変制御することもできる。その場合、TSCテンプレ
ートによる波形の時間軸制御は行わないようにすること
により、楽音再生ピッチにかかわらず、ビブラート1周
期の時間長を一定に維持するよう制御することができ
る。
For example, in FIG. 15, the time length of each cross-fade section shown in (d) is subjected to time axis expansion / contraction control (TSC control) in accordance with a desired time (TSC) template, so that a musical sound reproduction pitch (waveform readout) is obtained. When the TSC control is performed without changing the address change rate, the time length of one cycle of vibrato can be controlled to expand and contract, whereby the vibrato frequency can be controlled.
In this case, if a TSC template is prepared corresponding to one vibrato cycle in the same manner as a pitch template as shown in (c), then the TSC template for one vibrato cycle is required for the required number of vibrato cycles. Just loop it. In addition, in conjunction with the time axis expansion / contraction control of the waveform according to the TSC template, the pitch (Pitch)
If the template and the amplitude (Amp) template are also subjected to time axis expansion and contraction control, the time axis expansion and contraction control can be performed in conjunction with these tone elements. By shifting the pitch change envelope characteristic indicated by the pitch template up and down, the tone reproduction pitch of the vibrato waveform can be variably controlled. In this case, by not performing the time axis control of the waveform using the TSC template, it is possible to control the time length of one vibrato cycle to be constant regardless of the musical tone reproduction pitch.

【0091】〔接続ルールRULEの説明〕次に、アー
ティキュレーションエレメント同士の接続の仕方を記述
するルールデータRULEの具体例について説明する。
各楽音要素別に、例えば、下記のような接続ルールがあ
る。 (1)波形(Timbre)テンプレートの接続ルール ルール1:直接接続。プリセットされた奏法シーケンス
(アーティキュレーションエレメントシーケンスAES
EQ)のように、各アーティキュレーションエレメント
同士の滑らかな接続が予め保証されている場合は、補間
を行うことなく、直接的に接続することで問題ない。 ルール2:先行エレメントの波形Aの終端部分を引き延
ばした補間。この補間例は図17(a)に示すような形
態であり、先行エレメントの波形Aの終端部分を引き延
ばして接続用波形C1を合成する。後続エレメントの波
形Bはそのまま使用し、先行エレメントの波形Aの末尾
に延びた接続用波形C1をフェードアウト、後続エレメ
ントの波形Bの始まり部分をフェードインで、クロスフ
ェード合成する。接続用波形C1は、先行エレメントの
波形Aの終端部分の1周期波形または複数周期波形を必
要な長さだけ繰り返して形成する。
[Description of Connection Rule RULE] Next, a specific example of rule data RULE that describes how to connect articulation elements will be described.
For each tone element, for example, there are the following connection rules. (1) Waveform (Timbre) template connection rule Rule 1: Direct connection. Preset playing style sequence (articulation element sequence AES
In the case where smooth connection between the articulation elements is guaranteed in advance as in EQ), there is no problem in directly connecting without performing interpolation. Rule 2: interpolation in which the end of waveform A of the preceding element is extended. This interpolation example has a form as shown in FIG. 17A, in which the connection waveform C1 is synthesized by extending the end portion of the waveform A of the preceding element. The waveform B of the succeeding element is used as it is, and the connection waveform C1 extending to the end of the waveform A of the preceding element is faded out, and the beginning of the waveform B of the succeeding element is faded in to perform cross-fade synthesis. The connection waveform C1 is formed by repeating a one-period waveform or a plural-period waveform at the end portion of the waveform A of the preceding element by a required length.

【0092】ルール3:後続エレメントの波形Bの先端
部分を引き延ばした補間。この補間例は図17(b)に
示すような形態であり、後続エレメントの波形Bの先端
部分を引き延ばして接続用波形C2を合成する。先行エ
レメントの波形Aはそのまま使用し、先行エレメントの
波形Aの終端部分をフェードアウト、接続用波形C2を
フェードインで、クロスフェード合成する。この場合
も、接続用波形C2は、後続エレメントの波形Bの先端
部分の1周期波形または複数周期波形を必要な長さだけ
繰り返して形成する。 ルール4:先行エレメントの波形Aの終端部分と後続エ
レメントの波形Bの先端部分の双方を引き延ばした補
間。この補間例は図17(c)に示すような形態であ
り、先行エレメントの波形Aの終端部分を引き延ばして
合成した接続用波形C1と、後続エレメントの波形Bの
先端部分を引き延ばして合成した接続用波形C2とをク
ロスフェード合成する。なお、このルール4の場合は、
C1とC2のクロスフェード合成期間の分だけ、合成さ
れた波形全体の時間が延びることになるので、TSC制
御によってその分だけ時間軸圧縮処理を施すものとす
る。
Rule 3: interpolation in which the leading end of waveform B of the succeeding element is extended. This interpolation example has a form as shown in FIG. 17B, in which the leading end of the waveform B of the succeeding element is extended to synthesize the connection waveform C2. The waveform A of the preceding element is used as it is, and the end portion of the waveform A of the preceding element is faded out, and the connection waveform C2 is faded in to perform cross-fade synthesis. Also in this case, the connection waveform C2 is formed by repeating the one-period waveform or the plural-period waveform at the leading end of the waveform B of the succeeding element by a required length. Rule 4: Interpolation in which both the end portion of waveform A of the preceding element and the tip portion of waveform B of the succeeding element are extended. This interpolation example has a form as shown in FIG. 17C, in which the connection waveform C1 obtained by extending the end portion of the waveform A of the preceding element and synthesized and the connection waveform obtained by extending the front end portion of the waveform B of the subsequent element are synthesized. Cross-fade synthesis with the use waveform C2. In the case of Rule 4,
Since the time of the entire synthesized waveform is extended by the cross-fade synthesis period of C1 and C2, the time axis compression process is performed by the TSC control.

【0093】ルール5:図17(d)に示すように、先
行エレメントの波形Aと後続エレメントの波形Bとの間
に、予め用意した接続用波形Cを挿入する。その際、先
行エレメントの波形Aの終端部分と後続エレメントの波
形Bの先端部分は、接続用波形Cの分だけ一部除去す
る。あるいは、先行エレメントの波形Aの終端部分と後
続エレメントの波形Bの先端部分を削除することなく、
接続用波形Cを挿入してもよいが、その場合は、合成さ
れた波形全体の時間が延びることになるので、TSC制
御によってその分だけ時間軸圧縮処理を施すものとす
る。 ルール6:図17(e)に示すように、先行エレメント
の波形Aと後続エレメントの波形Bとの間に、予め用意
した接続用波形Cを挿入し、その際、先行エレメントの
波形Aの終端部分と接続用波形Cの前半部をクロスフェ
ードロスフェード合成し、後続エレメントの波形Bの先
端部分と接続用波形Cの後半部をクロスフェードロスフ
ェード合成する。この場合も、もし、合成された波形全
体の時間が延びるか縮むかした場合は、TSC制御によ
ってその分だけ時間軸圧縮処理を施すものとする。
Rule 5: As shown in FIG. 17D, a connection waveform C prepared in advance is inserted between the waveform A of the preceding element and the waveform B of the succeeding element. At this time, the end portion of the waveform A of the preceding element and the tip portion of the waveform B of the succeeding element are partially removed by the connection waveform C. Alternatively, without deleting the end portion of the waveform A of the preceding element and the end portion of the waveform B of the succeeding element,
The connecting waveform C may be inserted, but in that case, the time of the entire synthesized waveform is extended, so that the time axis compression processing is performed by TSC control accordingly. Rule 6: As shown in FIG. 17 (e), a connection waveform C prepared in advance is inserted between the waveform A of the preceding element and the waveform B of the succeeding element, and at this time, the end of the waveform A of the preceding element The part and the first half of the connection waveform C are subjected to crossfade loss-fade synthesis, and the leading end of the waveform B of the succeeding element and the second half of the connection waveform C are subjected to crossfade loss-fade synthesis. Also in this case, if the time of the entire synthesized waveform is extended or shortened, the time axis compression processing is performed by the TSC control.

【0094】(2)その他のテンプレートの接続ルール 波形(Timbre)テンプレート以外の他のテンプレート
(振幅、ピッチ、時間)のデータは、エンベロープ波形
状のシンプルな形態をとるので、2チャンネルのクロス
フェード制御波形を使用した複雑な補間処理を使用せず
に、もっとシンプルな補間処理で滑らかな接続を実現す
ることができる。特に、エンベロープ波形状のテンプレ
ートデータの補間合成にあたっては、補間結果を本来の
テンプレートデータ値に対する差分値(正負符号付き)
で生成するようにするのが好ましい。そうすれば、リア
ルタイムでテンプレートデータベースTDBから読み出
した本来のテンプレートデータ値に対して、補間結果た
る差分値(正負符号付き)を加算するだけで、滑らかな
接続のための補間演算を達成することができることにな
り、極めて簡単である。 ルール1:直接接続。この例を図18(a)に示す。1
番目のエレメントのテンプレート(エンベロープ波形)
AE1の末尾と2番目のエレメントのテンプレート(エ
ンベロープ波形)AE2−aの先頭のレベルが一致して
おり、2番目のエレメントのテンプレート(エンベロー
プ波形)AE2−aの末尾と3番目のエレメントのテン
プレート(エンベロープ波形)AE3の先頭のレベルも
一致しているので、補間の必要がない。
(2) Connection Rules for Other Templates Since data of templates (amplitude, pitch, and time) other than the waveform (Timbre) template take a simple form of an envelope waveform, two-channel cross-fade control is performed. Smooth connection can be realized by simpler interpolation processing without using complicated interpolation processing using waveforms. In particular, when interpolating and synthesizing the template data of the envelope waveform, the interpolation result is represented by a difference value (with a plus or minus sign) from the original template data value.
It is preferable to generate it. Then, an interpolation operation for smooth connection can be achieved only by adding a difference value (with a plus or minus sign) as an interpolation result to the original template data value read from the template database TDB in real time. It can be done and it is very simple. Rule 1: Direct connection. This example is shown in FIG. 1
Template for the th element (envelope waveform)
The end of AE1 and the template of the second element (envelope waveform) AE2-a have the same level, and the template of the second element (envelope waveform) AE2-a and the template of the third element (envelope waveform) Since the head level of the envelope waveform AE3 also matches, there is no need for interpolation.

【0095】ルール2:接続個所前後の局所的な範囲で
スムーズ化する補間処理を行う。この例を図18(b)
に示す。1番目のエレメントのテンプレート(エンベロ
ープ波形)AE1の終端部分と2番目のエレメントのテ
ンプレート(エンベロープ波形)AE2−bの先端部分
における所定の範囲CFT1で、AE1からAE2−b
に滑らかに移行するように補間処理を行う。また、2番
目のエレメントのテンプレート(エンベロープ波形)A
E2−bの終端部分と3番目のエレメントのテンプレー
ト(エンベロープ波形)AE3の先端部分における所定
の範囲CFT2で、AE2−bからAE3に滑らかに移
行するように補間処理を行う。なお、補間の結果得られ
たデータE1’,E2’,E3’は、各エレメントの本
来のテンプレート値(エンベロープ値)E1,E2,E
3に対する差分値(正負符号付き)からなるものとす
る。そのようにすれば、前述の通り、リアルタイムでテ
ンプレートデータベースTDBから読み出した本来のテ
ンプレートデータ値E1,E2,E3に対して、補間結
果たる差分値E1’,E2’,E3’を加算するだけ
で、滑らかな接続のための補間演算を達成することがで
きることになり、極めて簡単である。
Rule 2: Interpolation processing for smoothing in a local range before and after the connection point is performed. This example is shown in FIG.
Shown in AE1 to AE2-b in a predetermined range CFT1 between the end portion of the template (envelope waveform) AE1 of the first element and the tip portion of the template (envelope waveform) AE2-b of the second element.
Interpolation processing is performed so as to smoothly transition to. Also, the template (envelope waveform) A of the second element
Interpolation processing is performed so as to smoothly transition from AE2-b to AE3 within a predetermined range CFT2 at the end of E2-b and the template (envelope waveform) AE3 of the third element. The data E1 ', E2', E3 'obtained as a result of the interpolation are the original template values (envelope values) E1, E2, E
It is assumed that it is made up of a difference value (with a sign) for 3. By doing so, as described above, it is only necessary to add the difference values E1 ', E2', E3 'as interpolation results to the original template data values E1, E2, E3 read out from the template database TDB in real time. Therefore, an interpolation operation for smooth connection can be achieved, which is extremely simple.

【0096】このルール2の補間処理の具体例は、図1
9(a)(b)(c)に示すように、複数通りのバリエ
ーションがある。図19(a)の例では、先行エレメン
トAEnの終了点のテンプレートデータ値EPと後続エ
レメントAEn+1の開始点のテンプレートデータ値SP
との中間のレベルMPを目標値として、先行エレメント
AEnの終端部分の補間領域RCFTにおいて、該先行
エレメントAEnのテンプレートデータ値を目標値MP
に漸近させるよう補間を行う。その結果、先行エレメン
トAEnのテンプレートデータの軌跡が、本来のライン
E1からE1’に示すように変わる。また、後続エレメ
ントAEn+1の先端部分の補間領域FCFTにおいて、
該後続エレメントAEn+1のテンプレートデータ値を上
記中間値MPから開始させ、ラインE2で示す本来のテ
ンプレートデータ値の軌跡に漸近させるよう補間を行
う。その結果、補間領域FCFTにおける後続エレメン
トAEn+1のテンプレートデータ値の軌跡がラインE
2’に示すように本来の軌跡E2に漸近する。
A specific example of the interpolation processing of the rule 2 is shown in FIG.
As shown in FIGS. 9A, 9B, and 9C, there are a plurality of variations. In the example of FIG. 19A, the template data value EP at the end point of the preceding element AEn and the template data value SP at the start point of the succeeding element AEn + 1
In the interpolation area RCFT at the end of the preceding element AEn, the template data value of the preceding element AEn is set to the target value MP.
Interpolation is performed so as to approach. As a result, the locus of the template data of the preceding element AEn changes from the original line E1 to E1 '. In the interpolation area FCFT at the leading end of the succeeding element AEn + 1,
The template data value of the succeeding element AEn + 1 is started from the intermediate value MP, and interpolation is performed so as to gradually approach the original template data value locus indicated by the line E2. As a result, the locus of the template data value of the succeeding element AEn + 1 in the interpolation area FCFT is represented by the line E
As shown in 2 ′, the trajectory approaches the original trajectory E2.

【0097】図19(b)の例では、後続エレメントA
En+1の開始点のテンプレートデータ値SPを目標値と
して、先行エレメントAEnの終端部分の補間領域RC
FTにおいて、該先行エレメントAEnのテンプレート
データ値を目標値SPに漸近させるよう補間を行う。そ
の結果、先行エレメントAEnのテンプレートデータの
軌跡が、本来のラインE1からE1'’に示すように変
わる。この場合は、後続エレメントAEn+1の先端部分
の補間領域FCFTは存在しない。図19(c)の例で
は、後続エレメントAEn+1の先端部分の補間領域FC
FTにおいて、該後続エレメントAEn+1のテンプレー
トデータ値を上記先行エレメントAEnの終了点のテン
プレートデータ値EPから開始させ、ラインE2で示す
本来のテンプレートデータ値の軌跡に漸近させるよう補
間を行う。その結果、補間領域FCFTにおける後続エ
レメントAEn+1のテンプレートデータ値の軌跡がライ
ンE2'’に示すように本来の軌跡E2に漸近する。こ
の場合は、先行エレメントAEnの後端部分の補間領域
RCFTは存在しない。図19においても、補間の結果
得た各軌跡E1’,E2’,E1'',E2''を示すデー
タは、本来のテンプレートデータ値E1,E2に対する
差分値からなるものとする。
In the example of FIG. 19B, the succeeding element A
Using the template data value SP at the start point of En + 1 as the target value, the interpolation area RC at the end of the preceding element AEn
In FT, interpolation is performed so that the template data value of the preceding element AEn approaches the target value SP. As a result, the locus of the template data of the preceding element AEn changes from the original line E1 to E1 ''. In this case, there is no interpolation area FCFT at the leading end of the succeeding element AEn + 1. In the example of FIG. 19C, the interpolation area FC at the leading end of the succeeding element AEn + 1 is used.
In the FT, the template data value of the succeeding element AEn + 1 is started from the template data value EP at the end point of the preceding element AEn, and interpolation is performed so as to approach the original locus of the template data value indicated by the line E2. As a result, the locus of the template data value of the succeeding element AEn + 1 in the interpolation area FCFT gradually approaches the original locus E2 as shown by the line E2 ''. In this case, there is no interpolation area RCFT at the rear end of the preceding element AEn. In FIG. 19 as well, it is assumed that the data indicating the trajectories E1 ′, E2 ′, E1 ″, and E2 ″ obtained as a result of the interpolation includes the difference values from the original template data values E1 and E2.

【0098】ルール3:エレメントの全区間にわたって
スムーズ化する補間処理を行う。この例を図18(c)
に示す。1番目のエレメントのテンプレート(エンベロ
ープ波形)AE1と、3番目のエレメントのテンプレー
ト(エンベロープ波形)AE3は変更せずに、その中間
の2番目のエレメントのテンプレート(エンベロープ波
形)AE2−bのデータを全体的に補間し、その先端は
1番目のエレメントのテンプレート(エンベロープ波
形)AE1の末尾に一致し、その終端は3番目のエレメ
ントのテンプレート(エンベロープ波形)AE3の先頭
に一致するようにする。なお、この場合も、補間の結果
得られたデータE2’は、本来のテンプレート値(エン
ベロープ値)E2に対する差分値(正負符号付き)から
なるものとする。このルール3の補間処理の具体例は、
図20(a)(b)(c)に示すように、複数通りのバ
リエーションがある。図20(a)は、中間のエレメン
トAEnのみで補間を行う例を示している。E1は、該
エレメントAEnのテンプレートデータ値の本来の軌跡
を示す。先行するエレメントAEn-1の終了点のテンプ
レートデータ値EP0と中間のエレメントAEnの本来の
開始点のテンプレートデータ値SPとの差に応じて、該
エレメントAEnのテンプレートデータ値の軌跡E1を
シフトして、軌跡Eaからなるテンプレートデータをエ
レメントAEnの全区間に対応して作成する。また、中
間のエレメントAEnの本来の終了点のテンプレートデ
ータ値EPと後続するエレメントAEn+1の開始点のテ
ンプレートデータ値SP1との差に応じて、該エレメン
トAEnのテンプレートデータ値の軌跡E1をシフトし
て、軌跡Ebからなるテンプレートデータをエレメント
AEnの全区間に対応して作成する。次に、軌跡Eaの
テンプレートデータと軌跡Ebのテンプレートデータと
を、EaからEbに滑らかに変化するようにクロスフェ
ード補間し、軌跡E1'からなる補間済みのテンプレー
トデータをエレメントAEnの全区間に対応して得る。
Rule 3: Interpolation processing for smoothing over the entire section of the element is performed. This example is shown in FIG.
Shown in Without changing the template (envelope waveform) AE1 of the first element and the template (envelope waveform) AE3 of the third element, the entire data of the template (envelope waveform) AE2-b of the second element in the middle is obtained. Interpolation is performed such that the leading end matches the end of the template (envelope waveform) AE1 of the first element and the end matches the beginning of the template (envelope waveform) AE3 of the third element. In this case as well, the data E2 'obtained as a result of the interpolation is assumed to be composed of a difference value (with a plus or minus sign) from the original template value (envelope value) E2. A specific example of the interpolation process of Rule 3 is as follows.
As shown in FIGS. 20A, 20B and 20C, there are a plurality of variations. FIG. 20A shows an example in which interpolation is performed using only the intermediate element AEn. E1 indicates the original trajectory of the template data value of the element AEn. The locus E1 of the template data value of the element AEn is shifted according to the difference between the template data value EP0 of the end point of the preceding element AEn-1 and the template data value SP of the original start point of the intermediate element AEn. , The template data including the trajectory Ea is created for all the sections of the element AEn. The locus E1 of the template data value of the element AEn is shifted according to the difference between the template data value EP of the original end point of the intermediate element AEn and the template data value SP1 of the start point of the succeeding element AEn + 1. Then, template data including the trajectory Eb is created corresponding to all sections of the element AEn. Next, the template data of the trajectory Ea and the template data of the trajectory Eb are cross-fade-interpolated so as to smoothly change from Ea to Eb. Get it.

【0099】図20(b)は、中間のエレメントAEn
の全区間でデータ変更を行うと共に、中間のエレメント
AEnの終端部分の所定領域RCFTと後続エレメント
AEn+1の先端部分の所定領域FCFTとにおいて補間
を行う例を示している。まず、上記と同様に、先行する
エレメントAEn-1の終了点のテンプレートデータ値E
P0と中間のエレメントAEnの本来の開始点のテンプレ
ートデータ値SPとの差に応じて、該エレメントAEn
のテンプレートデータ値の軌跡E1をシフトして、軌跡
EaからなるテンプレートデータをエレメントAEnの
全区間に対応して作成する。
FIG. 20B shows an intermediate element AEn.
In this example, the data is changed in all the sections and the interpolation is performed in the predetermined area RCFT at the end of the intermediate element AEn and the predetermined area FCFT at the end of the succeeding element AEn + 1. First, similarly to the above, the template data value E at the end point of the preceding element AEn-1
According to the difference between P0 and the template data value SP of the original starting point of the intermediate element AEn, the element AEn
Is shifted, and template data composed of the locus Ea is created corresponding to all sections of the element AEn.

【0100】次に、この軌跡Eaの終了点のテンプレー
トデータ値EPaと後続エレメントAEn+1の開始点の
テンプレートデータ値SPとの中間のレベルMPaを目
標値として、先行エレメントAEnの終端部分の所定領
域RCFTにおいて、該先行エレメントAEnの軌跡E
aのテンプレートデータ値を目標値MPaに漸近させる
よう補間を行う。その結果、先行エレメントAEnのテ
ンプレートデータの軌跡Eaが、本来の軌跡からEa’
に示すように変わる。また、後続エレメントAEn+1の
先端部分の所定領域FCFTにおいて、該後続エレメン
トAEn+1のテンプレートデータ値を上記中間値MPa
から開始させ、ラインE2で示す本来のテンプレートデ
ータ値の軌跡に漸近させるよう補間を行う。その結果、
補間領域FCFTにおける後続エレメントAEn+1のテ
ンプレートデータ値の軌跡がラインE2’に示すように
本来の軌跡E2に漸近する。
Next, the intermediate level MPa between the template data value EPa at the end point of the trajectory Ea and the template data value SP at the start point of the succeeding element AEn + 1 is set as a target value, and the predetermined level at the end of the preceding element AEn is determined. In the area RCFT, the trajectory E of the preceding element AEn
Interpolation is performed so that the template data value of a approaches the target value MPa. As a result, the locus Ea of the template data of the preceding element AEn is shifted from the original locus by Ea ′.
Changes as shown. Further, in a predetermined area FCFT at the leading end of the succeeding element AEn + 1, the template data value of the succeeding element AEn + 1 is changed to the intermediate value MPa.
, And interpolation is performed so as to approach the original locus of the template data value indicated by the line E2. as a result,
The locus of the template data value of the succeeding element AEn + 1 in the interpolation area FCFT gradually approaches the original locus E2 as shown by the line E2 '.

【0101】図20(c)は、中間のエレメントAEn
の全区間でデータ変更を行うと共に、先行エレメントA
En-1の終端部分の所定領域RCFTと中間エレメント
AEnの先端部分の所定領域FCFTとにおいて補間を
行い、かつ、中間のエレメントAEnの終端部分の所定
領域RCFTと後続エレメントAEn+1の先端部分の所
定領域FCFTとにおいて補間を行う例を示している。
まず、中間のエレメントAEnのテンプレートデータ値
の本来の軌跡E1を適当なオフセット量OFSTだけシ
フトして、軌跡Ecからなるテンプレートデータをエレ
メントAEnの全区間に対応して作成する。
FIG. 20C shows an intermediate element AEn.
Data is changed in all sections of
Interpolation is performed between a predetermined area RCFT at the end of En-1 and a predetermined area FCFT at the front end of the intermediate element AEn, and a predetermined area RCFT at the end of the intermediate element AEn and the front end of the subsequent element AEn + 1 are interpolated. An example is shown in which interpolation is performed with a predetermined area FCFT.
First, the original trajectory E1 of the template data value of the intermediate element AEn is shifted by an appropriate offset amount OFST, and template data including the trajectory Ec is created corresponding to all the sections of the element AEn.

【0102】次に、先行エレメントAEn-1の終端部分
の所定領域RCFTと中間エレメントAEnの先端部分
の所定領域FCFTとにおいて、両者のテンプレートデ
ータの軌跡E0とEcとが滑らかにつながるように補間
処理を行い、補間結果としての軌跡E0’とEc’とを
該補間領域において得る。また、中間エレメントAEn
の終端部分の所定領域RCFTと後続エレメントAEn+
1の先端部分の所定領域FCFTとにおいて、両者のテ
ンプレートデータの軌跡EcとE2とが滑らかにつなが
るように補間処理を行い、補間結果としての軌跡Ec''
とE2''とを該補間領域において得る。図20において
も、補間の結果得た各軌跡E1’,Ea,Ea’,E
2’,Ec,Ec’,Ec'',E0’を示すデータは、
本来のテンプレートデータ値E1,E2,E0に対する
差分値からなるものとする。
Next, in the predetermined area RCFT at the end of the preceding element AEn-1 and the predetermined area FCFT at the tip of the intermediate element AEn, the interpolation processing is performed so that the trajectories E0 and Ec of both template data are smoothly connected. To obtain trajectories E0 'and Ec' as interpolation results in the interpolation area. Also, the intermediate element AEn
A predetermined area RCFT at the end portion of
Interpolation processing is performed so that the trajectories Ec and E2 of the two template data are smoothly connected to each other in the predetermined area FCFT at the leading end portion of FIG.
And E2 ″ in the interpolation area. Also in FIG. 20, each of the trajectories E1 ', Ea, Ea', E
Data indicating 2 ′, Ec, Ec ′, Ec ″, E0 ′
It is assumed that it consists of a difference value from the original template data values E1, E2, E0.

【0103】〔接続処理を含む楽音合成処理の概念的説
明〕図21は、各楽音要素に対応するテンプレートデー
タ毎に上述の接続処理を行い、接続処理済みのテンプレ
ートデータに基づき楽音合成処理を行うようにした楽音
合成装置の構成を概念的に説明するブロック図である。
テンプレートデータ供給ブロックTB1,TB2,TB
3,TB4では、それぞれ、先行するアーティキュレー
ションエレメントに関する波形テンプレートデータTi
mb−Tn,振幅テンプレートデータAmp−Tn,ピ
ッチテンプレートデータPit−Tn,時間テンプレー
トデータTSC−Tnと、後続するアーティキュレーシ
ョンエレメントに関する波形テンプレートデータTim
b−Tn+1,振幅テンプレートデータAmp−Tn+1,
ピッチテンプレートデータPit−Tn+1,時間テンプ
レートデータTSC−Tn+1を供給する。
[Conceptual explanation of tone synthesis processing including connection processing] FIG. 21 performs the above-described connection processing for each template data corresponding to each tone element, and performs tone synthesis processing based on the connected template data. FIG. 3 is a block diagram conceptually illustrating the configuration of the musical sound synthesizer as described above.
Template data supply blocks TB1, TB2, TB
3 and TB4, waveform template data Ti relating to the preceding articulation element, respectively.
mb-Tn, amplitude template data Amp-Tn, pitch template data Pit-Tn, time template data TSC-Tn, and waveform template data Tim for the following articulation element
b-Tn + 1, amplitude template data Amp-Tn + 1,
The pitch template data Pit-Tn + 1 and the time template data TSC-Tn + 1 are supplied.

【0104】ルールデーコード処理ブロックRB1,R
B2,RB3,RB4では、当該アーティキュレーショ
ンエレメントに関する各楽音要素毎の接続ルールTimbR
ULE,AmpRULE,PitRULE,TSCRULEをデ
コードし、デコードした接続ルールに従って図17〜図
20を参照して説明したような接続処理を実行する。例
えば、波形テンプレート用のルールデーコード処理ブロ
ックRB1では、図17を参照して説明したような接続
処理(直接接続又はクロスフェード補間)を実行するた
めの処理を行う。
Rule data processing blocks RB1, R
In B2, RB3, and RB4, the connection rule TimR for each musical sound element related to the articulation element is used.
ULE, AmpRULE, PitRULE, and TSCRULE are decoded, and the connection processing as described with reference to FIGS. 17 to 20 is executed according to the decoded connection rules. For example, the rule decoding process block RB1 for the waveform template performs a process for executing the connection process (direct connection or cross-fade interpolation) described with reference to FIG.

【0105】また、振幅テンプレート用のルールデーコ
ード処理ブロックRB2では、図18〜図20を参照し
て説明したような接続処理(直接接続又は補間)を実行
するための処理を行う。この場合、補間結果は前述の通
り差分値(正負符号付き)で与えられるので、ブロック
RB2から出力された差分値からなる補間データが、加
算部AD2において、テンプレートデータ供給ブロック
TB2から供給される本来のテンプレートデータ値に対
して加算されるようになっている。同様の理由で、他の
ルールデーコード処理ブロックRB3,RB4の各出力
と、各テンプレートデータ供給ブロックTB3,TB4
から供給される本来のテンプレートデータ値をそれぞれ
加算するための加算部AD3,AD4が設けられてい
る。
The rule template decoding block RB2 for the amplitude template performs a process for executing the connection process (direct connection or interpolation) described with reference to FIGS. In this case, the interpolation result is given as a difference value (with a plus or minus sign) as described above. Therefore, the interpolation data composed of the difference value output from the block RB2 is originally supplied from the template data supply block TB2 in the adder AD2. Are added to the template data values of the above. For the same reason, each output of the other rule data processing blocks RB3 and RB4 and each template data supply block TB3 and TB4
Adders AD3 and AD4 for respectively adding the original template data values supplied from.

【0106】こうして、各加算部AD2,AD3,AD
4からは、隣接するエレメント間での所要の接続処理を
施してなるテンプレートデータAmp,Pitch,T
SCがそれぞれ出力される。ピッチ制御ブロックCB3
は、ピッチテンプレートデータPitchに従って波形
読出し速度を制御するものである。波形テンプレートそ
のものがオリジナルのピッチ情報を含んでいるため、ラ
インL1を介して該オリジナルのピッチ情報(オリジナ
ルのピッチエンベロープ)をデータベースから受け取
り、該オリジナルのピッチエンベロープとピッチテンプ
レートデータPitchとの偏差で波形読出し速度を制
御する。例えば、オリジナルのピッチエンベロープとピ
ッチテンプレートデータPitchとが同じ場合は、一
定の波形読出し速度で読出しを行えばよいし、オリジナ
ルのピッチエンベロープとピッチテンプレートデータP
itchとが異なっている場合はその偏差分だけ波形読
出し速度を可変制御すればよい。また、ピッチ制御ブロ
ックCB3は、ノート指示データを受け付け、該ノート
指示データによっても波形読出し速度を制御する。例え
ば、波形テンプレートデータのオリジナルのピッチがノ
ートC4のピッチを基本としているとし、ノートD4の
音もこのノートC4のオリジナルピッチを持つ波形テン
プレートデータを利用して発生するものとすると、ノー
ト指示データのノートD4とオリジナルのピッチのノー
トC4との偏差に応じて波形読出し速度を制御すること
となる。このようなピッチ制御の細部は、公知技術を応
用できるため、特に詳しく説明しない。
Thus, each of the adders AD2, AD3, AD
4, template data Amp, Pitch, and T, which are obtained by performing necessary connection processing between adjacent elements.
SC are output respectively. Pitch control block CB3
Controls the waveform reading speed according to the pitch template data Pitch. Since the waveform template itself contains the original pitch information, the original pitch information (original pitch envelope) is received from the database via the line L1, and the waveform is calculated based on the deviation between the original pitch envelope and the pitch template data Pitch. Control the reading speed. For example, when the original pitch envelope and the pitch template data Pitch are the same, reading may be performed at a constant waveform reading speed, and the original pitch envelope and the pitch template data P may be read.
If it is different from "itch", the waveform reading speed may be variably controlled by the deviation. Further, the pitch control block CB3 receives note instruction data, and controls the waveform reading speed based on the note instruction data. For example, assuming that the original pitch of the waveform template data is based on the pitch of the note C4 and that the sound of the note D4 is also generated using the waveform template data having the original pitch of the note C4, The waveform reading speed is controlled according to the deviation between the note D4 and the note C4 having the original pitch. The details of such pitch control will not be described in detail because a known technique can be applied.

【0107】波形アクセス制御ブロックCB1では、基
本的には、ピッチ制御ブロックCB3から出力される波
形読出し速度制御情報に応じて、波形テンプレートデー
タの各サンプルを順次読み出す。このとき、時間テンプ
レートデータとして与えられるTSC制御情報に従って
波形読出し態様を制御し、発生音のピッチはピッチ制御
ブロックCB3から与えられる波形読出し速度制御情報
に応じて決定しつつ、トータルの波形読出し時間はTS
C制御情報に従って可変制御されるようにする。例え
ば、オリジナルの波形データの時間長よりも発音時間長
を伸張する場合は、波形読出し速度はそのままにして、
一部の波形部分が重複して読み出されるようにすれば、
所望のピッチを維持しつつ発音時間長を伸張することが
できる。また、オリジナルの波形データの時間長よりも
発音時間長を圧縮する場合は、波形読出し速度はそのま
まにして、一部の波形部分が飛び越されて読み出される
ようにすれば、所望のピッチを維持しつつ発音時間長を
圧縮することができる。波形アクセス制御ブロックCB
1とクロスフェード制御ブロックCB2とでは、波形テ
ンプレート用のルールデーコード処理ブロックRB1の
出力に従って図17を参照して説明したような接続処理
(直接接続又はクロスフェード補間)を実行するための
処理を行う。クロスフェード制御ブロックCB2は、パ
ーシャルベクトルPVQに従って部分的波形テンプレー
トをループ読出しながらクロスフェード処理する場合に
も利用される。また、上記TSC制御の際に波形接続を
滑らかにする場合にも利用される。
Basically, the waveform access control block CB1 sequentially reads out each sample of the waveform template data in accordance with the waveform readout speed control information output from the pitch control block CB3. At this time, the waveform reading mode is controlled according to the TSC control information provided as the time template data, and the pitch of the generated sound is determined according to the waveform reading speed control information provided from the pitch control block CB3, while the total waveform reading time is TS
Variable control is performed according to the C control information. For example, if the sounding time length is to be longer than the time length of the original waveform data, the waveform reading speed is left as it is,
If some waveforms are read out in duplicate,
The sounding time length can be extended while maintaining a desired pitch. Also, when compressing the sounding time length rather than the time length of the original waveform data, the desired pitch can be maintained if the waveform reading speed is kept as it is and some of the waveform portions are skipped and read. The length of the sounding time can be compressed while performing. Waveform access control block CB
1 and the crossfade control block CB2 perform processing for executing the connection processing (direct connection or crossfade interpolation) described with reference to FIG. 17 according to the output of the waveform template rule decoding block RB1. Do. The crossfade control block CB2 is also used when performing crossfade processing while loop-reading a partial waveform template according to the partial vector PVQ. It is also used for smoothing the waveform connection during the TSC control.

【0108】振幅制御ブロックCB4は、発生された波
形データに対して振幅テンプレートAmpに応じた振幅
エンベロープを付与する。この場合も、波形テンプレー
トそのものがオリジナルの振幅エンベロープ情報を含ん
でいるため、ラインL2を介して該オリジナルの振幅エ
ンベロープ情報をデータベースから受け取り、該オリジ
ナルの振幅エンベロープと振幅テンプレートデータAm
pとの偏差で波形データの振幅を制御する。例えば、オ
リジナルの振幅エンベロープと振幅テンプレートデータ
Ampとが同じ場合は、振幅制御ブロックCB4では実
質的な振幅制御を行わずに波形データを素通りさせるだ
けでよい。オリジナルの振幅エンベロープと振幅テンプ
レートデータAmpとが異なっている場合はその偏差分
だけ振幅レベルを可変制御すればよい。
The amplitude control block CB4 gives an amplitude envelope corresponding to the amplitude template Amp to the generated waveform data. Also in this case, since the waveform template itself contains the original amplitude envelope information, the original amplitude envelope information is received from the database via the line L2, and the original amplitude envelope and the amplitude template data Am are received.
The amplitude of the waveform data is controlled by the deviation from p. For example, when the original amplitude envelope and the amplitude template data Amp are the same, the amplitude control block CB4 only needs to pass the waveform data without performing substantial amplitude control. If the original amplitude envelope is different from the amplitude template data Amp, the amplitude level may be variably controlled by the deviation.

【0109】〔楽音合成装置の具体例〕図22は、この
発明の実施例に係る楽音合成装置のハードウェア構成例
を示すブロック図である。この楽音合成装置は、電子楽
器あるいはカラオケ装置又は電子ゲーム装置又はその他
のマルチメディア機器又はパーソナルコンピュータ等、
任意の製品応用形態をとっていてよい。図22に示す構
成によれば、ソフトウェア音源を利用してこの発明の実
施例に係る楽音合成処理を実行する。この発明に係る楽
音データの作成及び楽音合成処理を実現するようにソフ
トウェアシステムを構築すると共に、付属のメモリ装置
に所要のデータベースDBを構築する、若しくは外部
(ホスト)において構築されたデータベースDBに通信
回線を介してアクセスする、といった実施形態をとる。
[Specific Example of Tone Synthesizing Apparatus] FIG. 22 is a block diagram showing an example of a hardware configuration of a tone synthesizing apparatus according to an embodiment of the present invention. This musical sound synthesizer may be an electronic musical instrument, a karaoke device, an electronic game device, another multimedia device, a personal computer, or the like.
It may take any product application form. According to the configuration shown in FIG. 22, the tone synthesis processing according to the embodiment of the present invention is executed using the software sound source. A software system is constructed so as to realize the tone data creation and tone synthesis processing according to the present invention, and a required database DB is constructed in an attached memory device, or communicates with a database DB constructed outside (host). An embodiment of accessing via a line is taken.

【0110】図22の楽音合成装置においては、メイン
制御部としてCPU(中央処理部)10を使用し、この
CPU10の制御の下で、この発明に係る楽音データの
作成及び楽音合成処理を実現するソフトウェアのプログ
ラムを実行すると共に、ソフトウェア音源のプログラム
を実行する。勿論、CPU10は、更にはその他の適宜
のプログラムも、並行して実行することができる。CP
U10には、ROM(リードオンリーメモリ)11,R
AM(ランダムアクセスメモリ)12,ハードディスク
装置13,第1のリムーバブルディスク装置(例えばC
D−ROMドライブ若しくはMOドライブ)14,第2
のリムーバブルディスク装置(例えばフロッピーディス
クドライブ)15,表示器16,キーボード及びマウス
等の入力操作装置17,波形インタフェース18,タイ
マ19,ネットワークインタフェース20,MIDIイ
ンタフェース21等が、データ及びアドレスバス22を
介して接続されている。
In the musical tone synthesizing apparatus shown in FIG. 22, a CPU (central processing unit) 10 is used as a main control unit, and under the control of the CPU 10, the generation of musical tone data and the musical tone synthesizing process according to the present invention are realized. The software program is executed, and the software sound source program is executed. Of course, the CPU 10 can also execute other appropriate programs in parallel. CP
U10 has a ROM (Read Only Memory) 11, R
AM (random access memory) 12, hard disk device 13, first removable disk device (for example, C
D-ROM drive or MO drive) 14, second
(Eg, a floppy disk drive) 15, a display 16, an input operation device 17, such as a keyboard and a mouse, a waveform interface 18, a timer 19, a network interface 20, a MIDI interface 21, and the like via a data and address bus 22. Connected.

【0111】図23は、波形インタフェース18の詳細
例とRAM12内の波形バッファの構成例を示してい
る。波形インタフェース18は、波形データの取り込み
(サンプリング)と出力の両方を制御するものであり、
外部からマイクロフォン等によって入力された波形デー
タをサンプリングしてアナログ/ディジタル変換するア
ナログ/ディジタル変換器(ADC)23と、サンプリ
ングのための第1のDMAC(ダイレクトメモリアクセ
スコントローラ)24と、所定の周波数のサンプリング
クロックFsを発生するサンプリングクロック発生回路
25と、波形データの出力を制御する第2のDMAC
(ダイレクトメモリアクセスコントローラ)26と、出
力波形データをディジタル/アナログ変換するディジタ
ル/アナログ変換器(DAC)27とを含んでいる。な
お、第2のDMAC26は、サンプリングクロックFs
に基づき絶対時刻情報を作成し、CPUのバス22に与
える働きもする。
FIG. 23 shows a detailed example of the waveform interface 18 and a configuration example of the waveform buffer in the RAM 12. The waveform interface 18 controls both acquisition (sampling) and output of waveform data.
An analog / digital converter (ADC) 23 for sampling waveform data inputted from outside by a microphone or the like and performing analog / digital conversion; a first DMAC (direct memory access controller) 24 for sampling; And a second DMAC for controlling the output of waveform data.
(Direct memory access controller) 26 and a digital / analog converter (DAC) 27 for digital / analog conversion of output waveform data. Note that the second DMAC 26 has a sampling clock Fs
, And provides the absolute time information to the bus 22 of the CPU.

【0112】RAM12においては、複数の波形バッフ
ァW−BUFを有する。1つの波形バッファW−BUF
は、1フレーム分の波形サンプルデータを蓄積する記憶
容量(アドレス数)を持つ。例えば、サンプリングクロ
ックFsに基づく再生サンプリング周波数が48kH
z、1フレーム区間の時間が10ミリ秒であるとする
と、1つの波形バッファW−BUFは、480サンプル
の波形サンプルデータを記憶する容量を持つ。少なくと
も2つの波形バッファW−BUF(A,B)が使用さ
れ、1つの波形バッファW−BUFが読み出しモードと
されて波形インタフェース18のDMAC26によって
アクセスされるとき、他の波形バッファW−BUFは書
き込みモードとされ、生成した波形サンプルデータを書
き込む。この実施例に係る楽音合成処理プログラムにお
いては、各楽音合成チャンネル毎に、1フレーム分の複
数サンプルからなる波形サンプルデータを一括して生成
し、書き込みモードとなっている1つの波形バッファW
−BUFの各サンプル位置(アドレス位置)に各チャン
ネルの波形サンプルデータが足し込まれる(アキュムレ
ート)される。例えば、1フレームが480サンプルか
らなるとすると、第1の楽音合成チャンネルについての
480サンプルの波形サンプルデータが一括演算され、
これが波形バッファW−BUFの各サンプル位置(アド
レス位置)にそれぞれストアされる。次に、第2の楽音
合成チャンネルについての480サンプルの波形サンプ
ルデータが一括演算され、これが同じ波形バッファW−
BUFの各サンプル位置(アドレス位置)にそれぞれ足
し込まれる(アキュムレート)される。以下、同様であ
る。従って、全チャンネルについての1フレーム分の波
形サンプルデータの生成演算を終了したとき、書き込み
モードとなっている1つの波形バッファW−BUFの各
サンプル位置(アドレス位置)には、全チャンネルの波
形サンプルデータを各サンプル毎にアキュムレートした
合計波形サンプルデータが蓄積されている。例えば、最
初はAの波形バッファW−BUFに1フレーム分の合計
波形サンプルデータの書き込みを行い、次に、Bの波形
バッファW−BUFに1フレーム分の合計波形サンプル
データの書き込みを行う。Aの波形バッファW−BUF
は、書き込みが終わり次第、次のフレーム区間の始まり
から読み出しモードに移行し、当該フレーム区間の間
で、サンプリングクロックFsに基づく所定の再生サン
プリング周期で規則的に読み出される。従って、基本的
には、2つの波形バッファW−BUF(A,B)の読み
書きモードを交互に切り替えて使用すればよいが、数フ
レーム分先行して書き込みを行えるよう余裕を持たせる
場合は、3以上の波形バッファW−BUF(A,B,
C,…)を使用してもよい。
The RAM 12 has a plurality of waveform buffers W-BUF. One waveform buffer W-BUF
Has a storage capacity (number of addresses) for storing waveform sample data for one frame. For example, when the reproduction sampling frequency based on the sampling clock Fs is 48 kHz
z, assuming that the time of one frame section is 10 milliseconds, one waveform buffer W-BUF has a capacity to store 480 samples of waveform sample data. When at least two waveform buffers W-BUF (A, B) are used and one waveform buffer W-BUF is in read mode and accessed by DMAC 26 of waveform interface 18, the other waveform buffer W-BUF is written. Mode and writes the generated waveform sample data. In the tone synthesis program according to this embodiment, waveform sample data composed of a plurality of samples for one frame is collectively generated for each tone synthesis channel, and one waveform buffer W in the write mode is generated.
-The waveform sample data of each channel is added (accumulated) to each sample position (address position) of BUF. For example, if one frame is composed of 480 samples, waveform sample data of 480 samples for the first tone synthesis channel is collectively calculated,
This is stored at each sample position (address position) of the waveform buffer W-BUF. Next, 480 samples of waveform sample data for the second tone synthesis channel are collectively operated, and this is used as the same waveform buffer W-.
Each sample position (address position) of the BUF is added (accumulated). Hereinafter, the same applies. Therefore, when the generation calculation of the waveform sample data for one frame for all the channels is completed, the waveform samples of all the channels are stored in each sample position (address position) of one waveform buffer W-BUF in the write mode. Total waveform sample data obtained by accumulating data for each sample is stored. For example, first, the total waveform sample data for one frame is written into the waveform buffer W-BUF of A, and then the total waveform sample data of one frame is written into the waveform buffer W-BUF of B. A-waveform buffer W-BUF
As soon as writing is completed, the mode shifts to the reading mode from the beginning of the next frame section, and is read out regularly during the frame section at a predetermined reproduction sampling cycle based on the sampling clock Fs. Therefore, basically, the read and write modes of the two waveform buffers W-BUF (A, B) may be alternately switched and used. However, if there is a margin for writing ahead several frames ahead, Three or more waveform buffers W-BUF (A, B,
C, ...) may be used.

【0113】CPU10の制御の下で、この発明に係る
楽音データの作成及び楽音合成処理を実現するソフトウ
ェアプログラムは、ROM11,RAM12あるいはハ
ードディスク装置13あるいはリムーバブルディスク装
置14,15のいずれに記憶しておくようにしてもよ
い。また、ネットワークインタフェース20を介して通
信ネットワークに接続し、外部のサーバコンピュータ
(図示せず)から、上記“この発明に係る楽音データの
作成及び楽音合成処理を実現するプログラム”やデータ
ベースDBのデータ等を受け取って、内部のRAM12
又はハードディスク13又はリムーバブルディスク装置
14,15等に格納するようにしてもよい。CPU10
は、例えばRAM12に記憶されている“この発明に係
る楽音データの作成及び楽音合成処理を実現するプログ
ラム”を実行して、奏法シーケンスに従う楽音を合成
し、合成した楽音波形データをRAM12内の波形バッ
ファW−BUFに一時記憶する。DMAC26の制御に
よって、RAM12内の波形バッファW−BUFから波
形データを読み出してディジタル/アナログ変換器(D
AC)27に送り、D/A変換する。D/A変換された
楽音波形データはサウンドシステム(図示せず)に与え
られ、空間的に発音される。
Under the control of the CPU 10, a software program for creating tone data and tone synthesis processing according to the present invention is stored in the ROM 11, the RAM 12, the hard disk device 13, or the removable disk devices 14, 15. You may do so. Further, it is connected to a communication network via the network interface 20 and, from an external server computer (not shown), the above-mentioned "program for realizing tone data creation and tone synthesis processing according to the present invention", data in a database DB, etc. To the internal RAM 12
Alternatively, it may be stored in the hard disk 13 or the removable disk devices 14, 15, or the like. CPU10
Executes, for example, a “program for realizing tone data creation and tone synthesis processing according to the present invention” stored in the RAM 12 to synthesize a tone according to a rendition style sequence, and converts the synthesized tone waveform data into a waveform in the RAM 12. The data is temporarily stored in the buffer W-BUF. Under the control of the DMAC 26, waveform data is read out from the waveform buffer W-BUF in the RAM 12 and read from the digital / analog converter (D
AC) 27 for D / A conversion. The D / A converted musical sound waveform data is applied to a sound system (not shown) and spatially generated.

【0114】図8(a)に示したように、MIDIデー
タからなる自動演奏シーケンスデータの中に本発明に従
う奏法シーケンス(アーティキュレーションエレメント
シーケンスAESEQ)のデータが組み込まれているも
のとして以下説明を行う。なお、図8(a)では特に詳
しく述べなかったが、奏法シーケンス(アーティキュレ
ーションエレメントシーケンスAESEQ)のデータ
は、MIDIフォーマットの形態で、例えばMIDIの
エクスクルーシブデータとして組み込むことができる。
As shown in FIG. 8A, the following description is based on the assumption that the data of the rendition style sequence (articulation element sequence AESEQ) according to the present invention is incorporated in the automatic performance sequence data composed of MIDI data. Do. Although not described in detail in FIG. 8A, the data of the rendition style sequence (articulation element sequence AESEQ) can be incorporated in the form of MIDI format, for example, as exclusive data of MIDI.

【0115】図24は、MIDIフォーマットの演奏デ
ータに基づいてソフトウェア音源によって実行される楽
音生成処理の概略を示すタイムチャートである。(a)
に示す「演奏タイミング」は、MIDIのノートオンイ
ベントやノートオフイベントあるいはその他のイベント
(図8(a)におけるEVENT(MIDI))、及び
アーティキュレーションエレメントシーケンスイベント
(図8(a)におけるEVENT(AESEQ))など
の各イベント#1〜#4の発生タイミングを例示してい
る。(b)は、波形サンプルデータの生成演算を行うタ
イミング(「波形生成」)と、その再生タイミング
(「波形再生」)との関係を例示するものである。上段
の「波形生成」の欄は、各楽音合成チャンネル毎に1フ
レーム分の複数サンプルからなる波形サンプルデータを
一括して生成して書き込みモードとなっている1つの波
形バッファW−BUFの各サンプル位置(アドレス位
置)に各チャンネルの波形サンプルデータを足し込む
(アキュムレートする)処理が行われるタイミングを例
示している。下段の「波形再生」の欄は、1フレーム区
間の間でサンプリングクロックFsに基づく所定の再生
サンプリング周期で波形バッファW−BUFから波形サ
ンプルデータを規則的に読み出す処理を行うタイミング
を示している。それぞれに付記したA,Bの表示は、書
き込み又は読み出しの対象となっている波形バッファW
−BUFがどれであるかを区別する記号である。FR
1,FR2,FR3,…は、仮に付けた各フレームの番
号である。例えば、フレームFR1のときに波形生成演
算がなされた或る1フレーム分の波形サンプルデータが
Aの波形バッファW−BUFに書き込まれ、これが、次
のフレームFR2において該Aの波形バッファW−BU
Fから読み出される。次の1フレーム分の波形サンプル
データはフレームFR2において生成演算がなされ、B
の波形バッファW−BUFに書き込まれる。このBの波
形バッファW−BUFに記憶した1フレーム分の波形サ
ンプルデータが、更に次のフレームFR3において該B
の波形バッファW−BUFから読み出される。(a)に
示すイベント#1,#2,#3は、1フレームの時間内
で起こっており、これらのイベント#1,#2,#3に
対応する波形サンプルデータの生成演算は、(b)のフ
レームFR3において開始される。従って、これらのイ
ベント#1,#2,#3に対応する楽音の立上り(発音
開始)は、その次のフレームFR4において開始され
る。Δtは、MIDI演奏データとして与えられたイベ
ント#1,#2,#3の発生タイミングと、それに対応
する楽音が発音開始されるタイミングとのずれを示して
いる。この時間ずれΔtは、1乃至数フレーム分だけな
ので、聴感上問題ない。なお、発音開始時の波形サンプ
ルデータは、波形バッファW−BUFの初めから書き込
まれるのではなく、開始時点に対応する波形バッファW
−BUFの所定の途中の位置から書き込まれるようにな
っている。
FIG. 24 is a time chart showing an outline of a musical sound generation process executed by a software tone generator based on performance data in the MIDI format. (A)
The “performance timing” shown in FIG. 8 indicates a MIDI note-on event, a note-off event or another event (EVENT (MIDI) in FIG. 8A), and an articulation element sequence event (EVENT (MIDI) in FIG. 8A). AESEQ)) and other events # 1 to # 4. (B) illustrates the relationship between the timing at which waveform sample data is generated and calculated (“waveform generation”) and its reproduction timing (“waveform reproduction”). The “Waveform Generation” column at the top shows each sample of one waveform buffer W-BUF that is in a write mode by collectively generating waveform sample data composed of a plurality of samples for one frame for each tone synthesis channel. The timing at which the process of adding (accumulating) the waveform sample data of each channel to the position (address position) is illustrated. The lower column of “waveform reproduction” indicates the timing at which processing for regularly reading waveform sample data from the waveform buffer W-BUF at a predetermined reproduction sampling cycle based on the sampling clock Fs during one frame period. The indications of A and B attached to the waveform buffers W to be written or read out respectively.
-A symbol that distinguishes what BUF is. FR
1, FR2, FR3,... Are provisionally assigned frame numbers. For example, the waveform sample data for a certain frame subjected to the waveform generation operation in the frame FR1 is written into the waveform buffer W-BUF of A, and this is written into the waveform buffer W-BU of A in the next frame FR2.
Read from F. The waveform sample data for the next one frame is generated and calculated in frame FR2.
Is written to the waveform buffer W-BUF. The waveform sample data for one frame stored in the waveform buffer W-BUF for B is further stored in the next frame FR3.
From the waveform buffer W-BUF. Events # 1, # 2, and # 3 shown in (a) occur within the time of one frame, and the generation calculation of the waveform sample data corresponding to these events # 1, # 2, and # 3 is (b) ) In frame FR3. Therefore, the rise (start of sound generation) of the musical tone corresponding to these events # 1, # 2, and # 3 is started in the next frame FR4. Δt indicates the difference between the timing of occurrence of the events # 1, # 2, and # 3 given as MIDI performance data and the timing of starting the generation of the corresponding musical tone. Since this time shift Δt is only for one to several frames, there is no problem in audibility. Note that the waveform sample data at the start of sound generation is not written from the beginning of the waveform buffer W-BUF, but the waveform buffer W corresponding to the start time is written.
-BUF is written from a predetermined halfway position.

【0116】なお、「波形生成」における波形サンプル
データの生成演算の方式は、通常のMIDIのノートオ
ンイベントに基づく自動演奏音(これを「通常演奏」音
ということにする)と、アーティキュレーションエレメ
ントシーケンスAESEQのオンイベントに基づく演奏
音(これを「奏法演奏」音ということにする)とでは、
異なっている。通常のMIDIのノートオンイベントに
基づく「通常演奏」処理と、アーティキュレーションエ
レメントシーケンスAESEQのオンイベントに基づく
「奏法演奏」処理は、図29及び図30に示すような、
それぞれ別々の処理ルーチンで実行される。例えば、伴
奏パートを通常のMIDIのノートオンイベントに基づ
く「通常演奏」で行い、特定のソロ演奏パートをアーテ
ィキュレーションエレメントシーケンスAESEQに基
づく「奏法演奏」で行う、といった使い分けを行うと、
効果的である。
[0116] The method of generating and calculating the waveform sample data in the "waveform generation" includes an automatic performance sound based on a normal MIDI note-on event (this is called a "normal performance" sound) and an articulation sound. With the performance sound based on the ON event of the element sequence AESEQ (this is referred to as a “performance style performance” sound),
Is different. “Normal performance” processing based on a normal MIDI note-on event and “performance technique” processing based on an articulation element sequence AESEQ on event are performed as shown in FIGS. 29 and 30.
Each is executed by a separate processing routine. For example, if the accompaniment part is performed by "normal performance" based on a normal MIDI note-on event, and a specific solo performance part is performed by "performance technique" based on the articulation element sequence AESEQ,
It is effective.

【0117】図25は、本発明に従う奏法シーケンス
(アーティキュレーションエレメントシーケンスAES
EQ)のデータに基づく「奏法演奏」処理(アーティキ
ュレーションエレメントの楽音合成処理)の概略を示す
タイムチャートである。「フレーズ準備コマンド」と
「フレーズスタートコマンド」は、図8(a)に示すよ
うに「アーティキュレーションエレメントシーケンスイ
ベントEVENT(AESEQ)」として、MIDI演
奏データの中に含まれているものである。すなわち、1
つのアーティキュレーションエレメントシーケンスAE
SEQ(図25では「フレーズ」と称している)のイベ
ントデータは、「フレーズ準備コマンド」と「フレーズ
スタートコマンド」とからなっている。先行するイベン
トデータである「フレーズ準備コマンド」は、再生すべ
きアーティキュレーションエレメントシーケンスAES
EQ(すなわちフレーズ)を指定し、その再生を行う準
備をすべきことを指示するもので、当該アーティキュレ
ーションエレメントシーケンスAESEQの発音開始時
点よりも所定時間だけ先行して与えられる。ブロック3
0で示した「準備処理」のプロセスでは、「フレーズ準
備コマンド」に応じて、指定されたアーティキュレーシ
ョンエレメントシーケンスAESEQを再生するために
必要なすべてのデータをデータベースDBから取り出
し、RAM12の所定のバッファエリアにダウンロード
し、該アーティキュレーションエレメントシーケンスA
ESEQを展開して即座に該アーティキュレーションエ
レメントシーケンスの再生処理が行えるように、必要な
準備を行う。また、この「準備処理」のプロセスでは、
指定されたアーティキュレーションエレメントシーケン
スAESEQを解釈し、相前後するアーティキュレーシ
ョンエレメントを接続するルール等を設定若しくは決定
して、必要な接続制御データ等を形成する処理も行う。
例えば、指定されたアーティキュレーションエレメント
シーケンスAESEQが、図示のように5つのアーティ
キュレーションエレメントAE#1〜AE#5からなる
とすると、それぞれの接続箇所(接続1〜接続4として
指摘した箇所)における接続ルールを確定し、そのため
の接続制御データを形成する。また、各アーティキュレ
ーションエレメントAE#1〜AE#5の開始時刻を示
すデータを、フレーズ開始時からの相対時間表現で準備
する。「フレーズ準備コマンド」に後続するイベントデ
ータである「フレーズスタートコマンド」は、当該アー
ティキュレーションエレメントシーケンスAESEQの
発音開始を指示するものである。この「フレーズスター
トコマンド」に応じて、前記「準備処理」で準備された
各アーティキュレーションエレメントAE#1〜AE#
5を順次再生する。すなわち各アーティキュレーション
エレメントAE#1〜AE#5の開始時刻が到来した
ら、該当するアーティキュレーションエレメントAE#
1〜AE#5の再生を開始し、かつ、それぞれの接続箇
所(接続1〜接続4)で、予め準備した接続制御データ
に従って、先行するアーティキュレーションエレメント
AE#1〜AE#4に滑らかに接続されるように所定の
接続処理を施す。
FIG. 25 shows a rendition style sequence (articulation element sequence AES) according to the present invention.
6 is a time chart showing an outline of a “playing style performance” process (musical sound synthesis process of an articulation element) based on EQ) data. The “phrase preparation command” and the “phrase start command” are included in the MIDI performance data as “articulation element sequence event EVENT (AESEQ)” as shown in FIG. 8A. That is, 1
Articulation element sequence AE
The event data of SEQ (referred to as “phrase” in FIG. 25) includes a “phrase preparation command” and a “phrase start command”. The preceding event data, the “phrase preparation command”, includes an articulation element sequence AES to be reproduced.
It designates an EQ (that is, a phrase) and indicates that preparation for playback is to be performed, and is given a predetermined time earlier than the sounding start time of the articulation element sequence AESEQ. Block 3
In the “preparation processing” process indicated by “0”, all data necessary for reproducing the specified articulation element sequence AESEQ is retrieved from the database DB according to the “phrase preparation command”, Downloaded to the buffer area and the articulation element sequence A
Necessary preparations are made so that the ESEQ is developed and the articulation element sequence can be reproduced immediately. Also, in this "preparation process" process,
It also performs processing for interpreting the specified articulation element sequence AESEQ, setting or determining a rule or the like for connecting successive articulation elements, and forming necessary connection control data and the like.
For example, assuming that the designated articulation element sequence AESEQ is composed of five articulation elements AE # 1 to AE # 5 as shown in the figure, the connection points (points indicated as connection 1 to connection 4) at each connection point The connection rule is determined, and connection control data for the connection rule is formed. Further, data indicating the start time of each of the articulation elements AE # 1 to AE # 5 is prepared in a relative time expression from the start of the phrase. A “phrase start command”, which is event data subsequent to the “phrase preparation command”, instructs the start of sounding of the articulation element sequence AESEQ. In response to the "phrase start command", each of the articulation elements AE # 1 to AE # prepared in the "preparation process"
5 are reproduced sequentially. That is, when the start time of each of the articulation elements AE # 1 to AE # 5 arrives, the corresponding articulation element AE #
The playback of the first articulation element AE # 1 is started smoothly at each connection point (connection 1 to connection 4) according to the prepared connection control data. A predetermined connection process is performed so as to be connected.

【0118】図26は、図22のCPU10が実行する
楽音合成処理のメインルーチンを示すフローチャートで
ある。このメインルーチンの「自動演奏処理」によっ
て、自動演奏シーケンスデータのイベントに基づく処理
が行われる。まず、ステップS50では、RAM12上
での各種バッファ領域の確保等、必要な各種の初期設定
処理を行う。次に、ステップS51では、下記の各起動
要因が発生しているか否かのチェックを行う。 起動要因:インターフェース20,21を介してMI
DI演奏データまたはその他の通信入力データが入力さ
れたこと。 起動要因:自動演奏処理タイミングが到来したこと。
自動演奏における次のイベントの発生時間をチェックす
るために、この自動演奏処理タイミングは規則的に発生
する。 起動要因:1フレーム単位の波形生成タイミングが到
来したこと。1フレーム単位でまとめて波形サンプルデ
ータを生成するために、この波形生成タイミングは1フ
レーム周期で(たとえばフレーム区間の終わりのタイミ
ングで)発生する。 起動要因:入力操作装置17でキーボート又はマウス
等のスイッチ操作(メインルーチンの終了指示操作を除
く)が行われたこと。 起動要因:ディスクドライブ13〜15や表示器16
からの割込み要求があったこと。 起動要因:入力操作装置17でメインルーチンの終了
指示操作が行われたこと。
FIG. 26 is a flowchart showing a main routine of a tone synthesis process executed by the CPU 10 of FIG. By the "automatic performance process" of the main routine, a process based on the event of the automatic performance sequence data is performed. First, in step S50, various necessary initialization processes such as securing various buffer areas on the RAM 12 are performed. Next, in step S51, it is checked whether or not each of the following activation factors has occurred. Activation factor: MI via interface 20, 21
DI performance data or other communication input data is input. Activation factor: Automatic performance processing timing has arrived.
In order to check the time of occurrence of the next event in the automatic performance, the automatic performance processing timing occurs regularly. Activation factor: Waveform generation timing of one frame has arrived. In order to generate the waveform sample data collectively in units of one frame, the waveform generation timing is generated in one frame cycle (for example, at the end of a frame section). Activation factor: A switch operation of a keyboard or a mouse (except for a main routine end instruction operation) performed by the input operation device 17. Activation factor: Disk drives 13 to 15 and display 16
Interrupt request from Activation factor: The end instruction operation of the main routine is performed by the input operation device 17.

【0119】ステップS52では、いずれかの起動要因
〜が発生したかを判断する。NOであれば、ステッ
プS51,S52を繰り返し、YESとなったら、ステ
ップS53で、どの起動要因が発生したのかを判定す
る。起動要因が発生した場合はステップS54で所定
の「通信入力処理」を行う。起動要因が発生した場合
はステップS55で所定の「自動演奏処理」(その一例
を図27に示す)を行う。起動要因が発生した場合は
ステップS56で所定の「音源処理」(その一例を図2
8に示す)を行う。起動要因が発生した場合はステッ
プS57で所定の「SW処理」(操作されたスイッチに
対応する処理)を行う。起動要因が発生した場合はス
テップS58で所定の「その他処理」(割込み要求に応
じた処理)を行う。起動要因が発生した場合はステッ
プS59で所定の「終了処理」(このメインルーチンを
終了させる処理)を行う。
In step S52, it is determined whether or not any of the activation factors has occurred. If NO, steps S51 and S52 are repeated, and if YES, it is determined in step S53 which activation factor has occurred. When the activation factor has occurred, a predetermined “communication input process” is performed in step S54. If an activation factor has occurred, a predetermined "automatic performance process" (an example of which is shown in FIG. 27) is performed in step S55. If an activation factor has occurred, a predetermined "sound source process" is executed in step S56 (an example of which is shown in FIG. 2).
8). If an activation factor has occurred, a predetermined "SW process" (process corresponding to the operated switch) is performed in step S57. If an activation factor has occurred, predetermined "other processing" (processing corresponding to the interrupt request) is performed in step S58. If an activation factor has occurred, a predetermined "end processing" (processing for ending this main routine) is performed in step S59.

【0120】なお、ステップS53において、起動要因
乃至のうちの2以上の起動要因が同時的に発生して
いると判断された場合には、所定の優先順位で(例えば
起動要因,,,,,の順)処理されるもの
とする。その場合、対等の優先順位の処理があってもよ
い。また、ステップS51〜S53は、擬似マルチタス
ク処理におけるタスク管理を仮想的に示したものであ
り、実際には、いずれかの起動要因の発生に基づいて処
理を実行している途中で、それよりも優先順位の高い起
動要因が発生したことにより、割込みで別の処理を実行
すること(例えば、起動要因の発生に基づいて「音源
処理」を実行している途中で、起動要因が発生したこ
とにより、割込みで「自動演奏処理」を実行すること
等)がある。
In step S53, if it is determined that two or more activation factors among the activation factors are simultaneously occurring, a predetermined priority order (eg, activation factors,...,. In that order). In that case, there may be equal priority processing. Steps S51 to S53 virtually show task management in the pseudo multitasking process. Actually, while the process is being executed based on the occurrence of one of the activation factors, the process starts. Also execute another process by an interrupt due to the occurrence of an activation factor with a higher priority (for example, if an activation factor occurs during execution of "sound source processing" based on the occurrence of an activation factor) To execute “automatic performance processing” by interruption).

【0121】図27により、「自動演奏処理」(ステッ
プS55)の具体例につき説明する。まず、ステップS
60では、DMAC26(図23)から与えられる絶対
時刻情報を、曲データの次のイベントタイミングとを比
較する処理を行う。図8に示すように、曲データつまり
自動演奏データにおいては、イベントデータEVENT
に先行してデュレーションデータDURが存在してい
る。例えば、デュレーションデータDURが読み出され
たときに、そのときの絶対時刻情報とデュレーションデ
ータDURを加算して次イベント到来時刻を示す絶対時
刻情報を作成し、ストアしておく。そして、この次イベ
ント到来時刻を示す絶対時刻情報と現時点での絶対時刻
情報と図27のステップS60で比較する。
A specific example of the "automatic performance process" (step S55) will be described with reference to FIG. First, step S
At 60, a process of comparing the absolute time information given from the DMAC 26 (FIG. 23) with the next event timing of the music data is performed. As shown in FIG. 8, in the music data, that is, in the automatic performance data, the event data EVENT
Precedes the duration data DUR. For example, when the duration data DUR is read out, the absolute time information at that time is added to the duration data DUR to create and store absolute time information indicating the arrival time of the next event. Then, the absolute time information indicating the arrival time of the next event is compared with the absolute time information at the present time in step S60 in FIG.

【0122】ステップS61では、現時点の絶対時刻が
次イベント到来時刻に一致又は経過したか否かを判定す
る。まだ次イベント到来時刻になっていなければ、図2
7の処理を直ちに終了する。次イベント到来時刻になっ
たならば、ステップS62に行き、該イベントの種類
が、通常演奏のイベント(つまり通常のMIDIイベン
ト)であるか、奏法演奏のイベント(つまりアーティキ
ュレーションエレメントシーケンスイベント)であるか
を調べる。通常演奏であれば、ステップS63に行き、
そのイベントに応じた通常のMIDIイベント処理を行
い、音源制御データを生成する。次のステップS64で
は、当該イベントに係る楽音合成チャンネル(図では
「音源ch」と略記してある)を検出し、該チャンネル
の番号をチャンネル番号レジスタiに登録する。例え
ば、ノートオンイベントの場合は、該ノートの発生を割
り当てるチャンネルを決定し、該チャンネルをレジスタ
iに登録する。また、ノートオフイベントの場合は、該
ノートの発生が割り当てられていチャンネルを検出し、
該チャンネルをレジスタiに登録する。次のステップS
65では、レジスタiによって指示されたチャンネル番
号のトーンバッファTBUF(i)に、ステップS63
で生成した音源制御データと制御タイミングデータとを
格納する。なお、制御タイミングとは、当該イベントに
係る制御を行うタイミングであり、ノートオンイベント
の場合は発音開始タイミング、ノートオフイベントの場
合はリリース開始タイミング等である。この実施例で
は、ソフトウェア処理によって楽音波形を発生するよう
にしているため、MIDIデータのイベント発生タイミ
ングとそれに対応する実際の処理のタイミングが少しず
れるので、そのずれを考慮して、発音開始タイミング
等、実際の制御タイミングを指示し直しているのであ
る。
In step S61, it is determined whether or not the current absolute time coincides with or has passed the next event arrival time. If the next event has not yet arrived, Figure 2
The process of 7 is immediately terminated. When the next event arrives, the process goes to step S62, and the type of the event is a normal performance event (ie, a normal MIDI event) or a performance style event (ie, an articulation element sequence event). Find out if there is. If it is a normal performance, go to step S63,
Normal MIDI event processing corresponding to the event is performed to generate sound source control data. In the next step S64, a tone synthesis channel (abbreviated as "sound source channel" in the figure) relating to the event is detected, and the number of the channel is registered in the channel number register i. For example, in the case of a note-on event, a channel to which the occurrence of the note is assigned is determined, and the channel is registered in the register i. In the case of a note-off event, the channel to which the occurrence of the note is assigned is detected,
The channel is registered in the register i. Next step S
In step 65, the tone buffer TBUF (i) of the channel number designated by the register i is stored in step S63.
The sound source control data and the control timing data generated in step (1) are stored. Note that the control timing is a timing at which control relating to the event is performed, such as a sound generation start timing for a note-on event and a release start timing for a note-off event. In this embodiment, since the tone waveform is generated by software processing, the timing of the MIDI data event occurrence and the timing of the actual processing corresponding thereto are slightly shifted. Thus, the actual control timing is instructed again.

【0123】ステップS62で奏法演奏のイベントであ
ると判定された場合は、ステップS66に行き、それが
「フレーズ準備コマンド」と「フレーズスタートコマン
ド」(図25参照)のどちらであるのかを調べる。「フ
レーズ準備コマンド」であれば、ステップS67〜S7
1のルーチンを実行する。このステップS67〜S71
のルーチンは、図25でブロック30で示した「準備処
理」に相当する。まず、ステップS67では、当該フレ
ーズ(つまりアーティキュレーションエレメントシーケ
ンスAESEQ)を再生する楽音合成チャンネル(図で
は「音源ch」と略記)を決定し、そのチャンネル番号
をレジスタiに登録する。次のステップS68では、当
該フレーズ(つまりアーティキュレーションエレメント
シーケンスAESEQ)の奏法シーケンス(図では「奏
法SEQ」と略記)を展開する。すなわち、当該アーテ
ィキュレーションエレメントシーケンスAESEQを個
別テンプレートを指示可能なベクトルデータのレベルま
で分解し、解析して、各アーティキュレーションエレメ
ント(図25のAE#1〜AE#5)の接続箇所(接続
1〜接続4)における接続ルールを確定し、そのための
接続制御データを形成する。ステップS69では、サブ
シーケンス(図では「サブSEQ」と略記)があるかを
調べ、あれば、ステップS68に戻り、該サブシーケン
スを個別テンプレートを指示可能なベクトルデータのレ
ベルまで更に分解する。
If it is determined in step S62 that the event is a performance technique event, the flow advances to step S66 to check whether the event is a "phrase preparation command" or a "phrase start command" (see FIG. 25). If it is a "phrase preparation command", steps S67 to S7
1 is executed. Steps S67 to S71
This routine corresponds to the “preparation process” indicated by the block 30 in FIG. First, in step S67, a tone synthesis channel (abbreviated as "sound source channel" in the figure) for reproducing the phrase (that is, the articulation element sequence AESEQ) is determined, and the channel number is registered in the register i. In the next step S68, a performance style sequence (abbreviated as “performance style SEQ” in the figure) of the phrase (that is, articulation element sequence AESEQ) is developed. That is, the articulation element sequence AESEQ is decomposed to the level of vector data capable of indicating an individual template, analyzed, and connected to each articulation element (AE # 1 to AE # 5 in FIG. 25). The connection rules for 1 to 4) are determined, and connection control data therefor is formed. In step S69, it is checked whether or not there is a subsequence (abbreviated as "subSEQ" in the figure). If there is, the process returns to step S68 to further decompose the subsequence to a level of vector data capable of indicating an individual template.

【0124】アーティキュレーションエレメントシーケ
ンスAESEQがサブシーケンスを含む一例を図32に
示す。図32に示すように、アーティキュレーションエ
レメントシーケンスAESEQは階層化構造を具備して
いてよい。すなわち、図で、「奏法SEQ#2」が、M
IDI演奏情報の中に組み込まれたアーティキュレーシ
ョンエレメントシーケンスAESEQのデータによって
指定されたものであるとすると、この指定されたシーケ
ンス「奏法SEQ#2」は、「奏法SEQ#6」と「エ
レメントベクトルE−VEC#5」とによって特定され
る。この「奏法SEQ#6」がサブシーケンスに相当す
る。このサブシーケンスを解析することにより、「奏法
SEQ#6」が、エレメントベクトルE−VEC#2と
E−VEC#3とによって特定される。こうして、MI
DI演奏情報の中に組み込まれたアーティキュレーショ
ンエレメントシーケンスAESEQのデータによって指
定された「奏法SEQ#2」が展開され、これが、エレ
メントベクトルE−VEC#2、E−VEC#3、E−
VEC#5によって特定されるものであることが解析さ
れる。前述の通り、このとき、あわせて、各アーティキ
ュレーションエレメントを接続するための接続制御デー
タも必要に応じて形成される。なお、エレメントベクト
ルE−VECとは、個別のアーティキュレーションエレ
メントを具体的に特定するデータのことである。勿論、
このような階層化構造を持つ場合に限らず、MIDI演
奏情報の中に組み込まれたアーティキュレーションエレ
メントシーケンスAESEQのデータによって指定され
た「奏法SEQ#2」によって、初めから、各エレメン
トベクトルE−VEC#2、E−VEC#3、E−VE
C#5が特定されるようになっている場合もある。
FIG. 32 shows an example in which the articulation element sequence AESEQ includes a subsequence. As shown in FIG. 32, the articulation element sequence AESEQ may have a hierarchical structure. That is, in the figure, “performance style SEQ # 2” is M
If it is specified by the data of the articulation element sequence AESEQ incorporated in the IDI performance information, the specified sequence “performance style SEQ # 2” is composed of “performance style SEQ # 6” and “element vector E-VEC # 5 ". This “performance style SEQ # 6” corresponds to a subsequence. By analyzing this sub-sequence, “performance style SEQ # 6” is specified by element vectors E-VEC # 2 and E-VEC # 3. Thus, MI
“Reproduction style SEQ # 2” specified by the data of the articulation element sequence AESEQ incorporated in the DI performance information is developed, and this is expressed by element vectors E-VEC # 2, E-VEC # 3, E-VEC # 3.
It is analyzed that it is specified by VEC # 5. As described above, at this time, connection control data for connecting each articulation element is also formed as needed. The element vector E-VEC is data that specifically specifies an individual articulation element. Of course,
Not only in the case of having such a layered structure, but also from the beginning, each element vector E-E is generated by the “performance style SEQ # 2” specified by the data of the articulation element sequence AESEQ incorporated in the MIDI performance information. VEC # 2, E-VEC # 3, E-VE
In some cases, C # 5 is specified.

【0125】ステップS70では、展開された各エレメ
ントベクトル(図では「E−VEC」と略記)のデータ
をその制御タイミングを相対時刻によって示すデータと
共に、レジスタiによって指示されたチャンネル番号の
トーンバッファTBUF(i)に、格納する。この場
合、制御タイミングは、図25に示したような、各アー
ティキュレーションエレメントの開始タイミングであ
る。次のステップS71では、トーンバッファTBUF
(i)を参照して、必要なテンプレートデータをデータ
ベースDBからRAM12にロードする。今回のイベン
トが「フレーズスタートコマンド」(図25参照)であ
る場合は、ステップS72〜S74のルーチンを実行す
る。このステップS72では、当該フレーズ演奏を再生
することが割り当てられているチャンネルを検出し、そ
のチャンネル番号をレジスタiに登録する。次のステッ
プS73では、レジスタiによって指示されたチャンネ
ル番号のトーンバッファTBUF(i)に格納されてい
る全ての制御タイミングデータを絶対時刻表現のデータ
に変換する。すなわち、当該「フレーズスタートコマン
ド」が発生したときにDMAC26から与えられた絶対
時刻情報を初期値として、各制御タイミングデータの相
対時刻に該初期値を加算することで、各制御タイミング
データを絶対時刻表現のデータに変換することができ
る。次のステップS74では、トーンバッファTBUF
(i)の内容を変換された各制御タイミングの絶対時刻
に応じて書き直す。すなわち、該奏法シーケンスを構成
する各エレメントベクトルE−VECの開始時刻と終了
時刻、各エレメントベクトル間の接続制御データ等をト
ーンバッファTBUF(i)に書き込む。
In step S70, the data of each expanded element vector (abbreviated as "E-VEC" in the figure) together with the data indicating the control timing of the element vector by the relative time, together with the tone buffer TBUF of the channel number designated by the register i. (I). In this case, the control timing is the start timing of each articulation element as shown in FIG. In the next step S71, the tone buffer TBUF
Referring to (i), necessary template data is loaded from the database DB to the RAM 12. If the current event is a “phrase start command” (see FIG. 25), the routine of steps S72 to S74 is executed. In this step S72, the channel to which the phrase performance is reproduced is detected, and the channel number is registered in the register i. In the next step S73, all control timing data stored in the tone buffer TBUF (i) of the channel number designated by the register i is converted into data in absolute time expression. That is, the absolute time information given from the DMAC 26 when the "phrase start command" is generated is used as an initial value, and the initial value is added to the relative time of each control timing data, so that each control timing data is converted to the absolute time. Can be converted to expression data. In the next step S74, the tone buffer TBUF
The content of (i) is rewritten according to the absolute time of each converted control timing. That is, the start time and end time of each element vector E-VEC constituting the rendition style sequence, connection control data between the element vectors, and the like are written in the tone buffer TBUF (i).

【0126】次に、図28により、「音源処理」(図2
6のステップS56)の具体例につき説明する。前述の
通り、この「音源処理」は1フレーム毎に起動される。
まず、ステップS75では、所定の波形生成準備処理を
行う。例えば、前フレーム区間において再生読み出しが
完了した波形バッファW−BUFの内容をクリアし、今
回のフレーム区間において該波形バッファW−BUFに
データを書き込むことができるようにする。次のステッ
プS76では、発音処理を行うべきチャンネルが存在し
ているかどうかを調べる。なければ、処理を続ける必要
がないので、ステップS83にジャンプする。あれば、
ステップS77に行き、発音処理を行うべきチャンネル
のうちの1つのチャンネルを特定し、該チャンネルにつ
いて波形サンプルデータ生成処理を行う準備をする。次
のステップS78では、該準備したチャンネルに割り当
てられている楽音の種類が、「通常演奏」音と「奏法演
奏」音のどちらであるかを調べる。「通常演奏」音であ
れば、ステップS79に行き、当該チャンネルについて
の1フレーム分の波形サンプルデータを、「通常演奏」
音として、生成する処理を行う。「奏法演奏」音であれ
ば、ステップS80に行き、当該チャンネルについての
1フレーム分の波形サンプルデータを、「奏法演奏」音
として、生成する処理を行う。次に、ステップS81で
は、発音処理を行うべきチャンネルのうち残りの(未処
理の)チャンネルがあるかどうかを調べる。あれば、ス
テップS82に行き、残りの(未処理の)チャンネルの
中から次に処理すべきチャンネルを特定し、該チャンネ
ルについて波形サンプルデータ生成処理を行う準備をす
る。それから、前記ステップS78に戻り、前述と同様
のステップS78〜80の処理を新たなチャンネルに関
して実行する。発音処理を行うべき全てのチャンネルに
関してステップS78〜80の処理を完了すると、残り
の(未処理の)チャンネルが無しと成るので、ステップ
S81はNOとなり、ステップS83に行く。この状態
では、発音すべき全チャンネルについての1フレーム分
の波形サンプルデータの生成が終了し、それらが各サン
プル毎に足し込まれて(アキュムレートされ)、波形バ
ッファW−BUFに格納されている。ステップS83で
は、該波形バッファW−BUFのデータを波形入出力
(I/O)ドライバの管理下に引き渡す。かくして、次
の1フレーム区間において、該波形バッファW−BUF
が読み出しモードとなり、DMAC26によってアクセ
スされて、所定のサンプリングクロックFsに従って波
形サンプルデータが規則的サンプリング周期で再生読み
出しされることになる。
Next, referring to FIG. 28, "sound source processing" (FIG.
A specific example of step S56) will be described. As described above, the “sound source processing” is activated for each frame.
First, in step S75, a predetermined waveform generation preparation process is performed. For example, the contents of the waveform buffer W-BUF that has been reproduced and read in the previous frame section are cleared, and data can be written to the waveform buffer W-BUF in the current frame section. In the next step S76, it is checked whether or not there is a channel for which sound generation processing is to be performed. If not, the process does not need to be continued, and the process jumps to step S83. if there is,
In step S77, one of the channels to be subjected to sound generation processing is specified, and preparations are made for performing waveform sample data generation processing for the channel. In the next step S78, it is checked whether the type of musical tone assigned to the prepared channel is a "normal performance" sound or a "performance style" sound. If the sound is a "normal performance" sound, the process proceeds to step S79, and the waveform sample data for one frame for the channel is converted to the "normal performance" sound.
A process for generating a sound is performed. If the sound is a “performance style” sound, the process proceeds to step S80, and a process of generating one frame of waveform sample data for the channel as a “performance style performance” sound is performed. Next, in step S81, it is checked whether or not there is a remaining (unprocessed) channel among the channels to be subjected to the sound generation processing. If there is, the process goes to step S82 to specify the next channel to be processed from the remaining (unprocessed) channels, and prepares to perform the waveform sample data generation process for the channel. Then, the process returns to the step S78, and the same processing of the steps S78 to S80 as described above is executed for a new channel. When the processes of steps S78 to S80 are completed for all the channels for which the sound generation process is to be performed, there is no remaining (unprocessed) channel, so that step S81 is NO and the process proceeds to step S83. In this state, the generation of one frame of waveform sample data for all the channels to be sounded is completed, and they are added (accumulated) for each sample and stored in the waveform buffer W-BUF. . In step S83, the data in the waveform buffer W-BUF is delivered under the control of the waveform input / output (I / O) driver. Thus, in the next one frame period, the waveform buffer W-BUF
Is in the read mode, and is accessed by the DMAC 26, and the waveform sample data is reproduced and read at a regular sampling cycle according to a predetermined sampling clock Fs.

【0127】図28のステップS79の処理の詳細例が
図29に示されている。図29は、「通常演奏」につい
ての「1フレーム分の波形データ生成処理」の一例を示
すフロー図であって、MIDI演奏データに基づく通常
の楽音合成処理がここで行われる。この処理では、ステ
ップS90〜S98のループを1回行う毎に、1サンプ
ルの波形データの生成が行われる。従って、現在処理中
のサンプルが1フレームの何番目のサンプルかを示すア
ドレスポインタ管理がなされるが、その点は特に詳しく
説明しない。まず、ステップS90では、制御タイミン
グが到来したかどうかをチェックする。この制御タイミ
ングは図27のステップS65で指示し直されたタイミ
ングであり、例えば、発音開始タイミングあるいはリリ
ース開始タイミング(発音終了タイミング)などであ
る。現在処理中のフレームに関して、なんらかの制御タ
イミングがある場合は、該制御タイミングの時刻に対応
するアドレスポインタ値に対応して、このステップS9
0がYESとなり、ステップS91に行き、音源制御デ
ータに基づく必要な波形発生開始処理を行う。現アドレ
スポインタ値が制御タイミングに対応していない場合
は、ステップS91をジャンプしてステップS92に行
く。ステップS92では、ビブラート等に必要な低周波
信号(LFO)を形成する処理を行う。次のステップS
93では、ピッチ制御用のエンベロープ信号(EG)を
形成する処理を行う。
FIG. 29 shows a detailed example of the process in step S79 in FIG. FIG. 29 is a flow chart showing an example of "1 frame of waveform data generation process" for "normal performance", in which a normal tone synthesis process based on MIDI performance data is performed. In this process, each time the loop of steps S90 to S98 is performed once, one sample of waveform data is generated. Therefore, address pointer management indicating the number of a sample being processed in one frame is performed, but this is not described in detail. First, in step S90, it is checked whether the control timing has arrived. This control timing is the timing specified again in step S65 in FIG. 27, and is, for example, a sound generation start timing or a release start timing (sound generation end timing). If there is any control timing for the frame currently being processed, step S9 corresponds to the address pointer value corresponding to the time of the control timing.
If the answer is 0, the process goes to step S91 to perform a necessary waveform generation start process based on the sound source control data. If the current address pointer value does not correspond to the control timing, step S91 is jumped to step S92. In step S92, a process for forming a low-frequency signal (LFO) necessary for vibrato or the like is performed. Next step S
At 93, a process for forming an envelope signal (EG) for pitch control is performed.

【0128】次のステップS94では、上記音源制御デ
ータに基づき、「通常演奏」音のための波形メモリ(図
示せず)から所定の音色の波形サンプルデータを、指定
された楽音ピッチに対応するレートで読み出し、読み出
した波形サンプルデータの値をサンプル間補間する処理
を行う。ここでは、通常知られた波形メモリ読み出し技
術とサンプル間補間技術とを適宜使用すればよい。ここ
で指定される楽音ピッチは、ノートオンイベントに係る
ノート(音高)の正規のピッチを、前ステップS92,
93で形成されたビブラート信号やピッチ制御エンベロ
ープ値などによって可変制御したものである。次のステ
ップS95では、振幅エンベロープ(EG)を形成する
処理を行う。次のステップS96では、ステップS94
で生成した1サンプルの波形データの音量レベルを、ス
テップS95で形成された振幅エンベロープ値によって
可変制御し、これを、現アドレスポインタが指示する波
形バッファW−BUFのアドレス箇所に既に格納されて
いる波形サンプルデータに足し込む。つまり、同じサン
プル点についての他のチャンネルの波形サンプルデータ
に加算・アキュムレートする。次に、ステップS97で
は、1フレーム分の処理が完了したかどうかを調べ。ま
だ完了していなければ、ステップS98に行き、次サン
プルを準備する(アドレスポインタを次に進める)。
In the next step S94, based on the sound source control data, waveform sample data of a predetermined timbre is stored in a waveform memory (not shown) for a "normal performance" sound at a rate corresponding to the designated tone pitch. And performs a process of interpolating the value of the read waveform sample data between samples. Here, a commonly known waveform memory reading technique and inter-sample interpolation technique may be appropriately used. The tone pitch specified here is the regular pitch of the note (pitch) related to the note-on event, and
This is variably controlled by the vibrato signal, pitch control envelope value, and the like formed at 93. In the next step S95, a process for forming an amplitude envelope (EG) is performed. In the next step S96, step S94
The volume level of the waveform data of one sample generated in step S95 is variably controlled by the amplitude envelope value formed in step S95, and this is already stored at the address of the waveform buffer W-BUF indicated by the current address pointer. Add to the waveform sample data. That is, the addition and accumulation are performed on the waveform sample data of another channel for the same sample point. Next, in step S97, it is determined whether or not processing for one frame has been completed. If not completed, the process goes to step S98 to prepare the next sample (the address pointer is advanced to the next).

【0129】上記の構成により、フレームの途中から発
音を開始する場合は、該発音開始位置に対応する波形バ
ッファW−BUFの中間的なアドレスから波形サンプル
データが格納されることになる。勿論、1フレーム区間
の全体にわたって発音を持続する場合は、波形バッファ
W−BUFの全アドレスに波形サンプルデータが格納さ
れる。なお、ステップS93,S95におけるエンベロ
ープ形成処理は、エンベロープ波形メモリを読み出すこ
とによって行うようにしてもよいし、所定のエンベロー
プ関数を計算することによって行うようにしてもよい。
エンベロープ関数としては、周知の、比較的シンプルな
1次の折線関数を演算する方式を用いてよい。なお、後
述する「奏法演奏」とは異なり、この「通常演奏」で
は、発音中の波形の差し替えや、エンベロープの差し替
え、あるいは波形の時間軸伸縮制御等、複雑な処理は行
わなくてもよい。
With the above configuration, when sound generation is started in the middle of a frame, waveform sample data is stored from an intermediate address of the waveform buffer W-BUF corresponding to the sound generation start position. Of course, when sound generation is continued throughout one frame period, the waveform sample data is stored in all addresses of the waveform buffer W-BUF. Note that the envelope forming processing in steps S93 and S95 may be performed by reading an envelope waveform memory, or may be performed by calculating a predetermined envelope function.
As the envelope function, a well-known method of calculating a relatively simple linear function of the first order may be used. Note that, unlike “performance technique performance” to be described later, in “normal performance”, complicated processing such as replacement of a sounding waveform, replacement of an envelope, and control of time axis expansion / contraction of a waveform need not be performed.

【0130】図28のステップS80の処理の詳細例が
図30に示されている。図30は、「奏法演奏」につい
ての「1フレーム分の波形データ生成処理」の一例を示
すフロー図であって、アーティキュレーション(奏法)
シーケンスデータに基づく楽音合成処理がここで行われ
る。また、この図30の処理では、各テンプレートデー
タに基づくアーティキュレーションエレメントの楽音波
形処理や、エレメント波形間の接続処理等が既に述べた
要領で実行される。図29と同様に、図30の処理で
も、ステップS100〜S108のループを1回行う毎
に、1サンプルの波形データの生成が行われる。従っ
て、現在処理中のサンプルが1フレームの何番目のサン
プルかを示すアドレスポインタ管理がなされるが、その
点は特に詳しく説明しない。なお、この図30の処理で
は、相前後するアーティキュレーションエレメントを滑
らかに接続するために、2系列の各種テンプレートデー
タ(波形テンプレートを含む)をクロスフェード合成し
たり、時間軸伸縮制御のために2系列の波形サンプルデ
ータをクロスフェード合成したりすることが行われる。
よって、1つのサンプル点について、クロスフェード合
成のための2系列分の各種データ処理が行われることに
なる。
FIG. 30 shows a detailed example of the processing in step S80 in FIG. FIG. 30 is a flowchart showing an example of "processing for generating waveform data for one frame" for "performance technique", in which an articulation (performance technique) is performed.
A tone synthesis process based on the sequence data is performed here. In the process of FIG. 30, the tone waveform processing of the articulation element based on each template data, the connection processing between element waveforms, and the like are executed in the manner already described. Similarly to FIG. 29, in the process of FIG. 30, each time the loop of steps S100 to S108 is performed once, waveform data of one sample is generated. Therefore, address pointer management indicating the number of a sample being processed in one frame is performed, but this is not described in detail. In the processing of FIG. 30, in order to smoothly connect the articulation elements that are adjacent to each other, two-series various template data (including the waveform template) are cross-fade synthesized, and the time series expansion / contraction control is performed. Cross-fade synthesis of two series of waveform sample data is performed.
Therefore, various data processing for two series for crossfade synthesis is performed for one sample point.

【0131】まず、ステップS100では、制御タイミ
ングが到来したかどうかをチェックする。この制御タイ
ミングは図27のステップS74で書き込まれたタイミ
ングであり、例えば、各アーティキュレーションエレメ
ントAE#1〜AE#5の開始タイミングや接続処理の
開始タイミングなどである。現在処理中のフレームに関
して、なんらかの制御タイミングがある場合は、該制御
タイミングの時刻に対応するアドレスポインタ値に対応
して、このステップS100がYESとなり、ステップ
S101に行き、該制御タイミングに対応するエレメン
トベクトルE−VECや接続制御データなどに基づく必
要な制御を行う。現アドレスポインタ値が制御タイミン
グに対応していない場合は、ステップS101をジャン
プしてステップS102に行く。
First, in step S100, it is checked whether the control timing has arrived. This control timing is the timing written in step S74 of FIG. 27, and is, for example, the start timing of each of the articulation elements AE # 1 to AE # 5, the start timing of the connection processing, and the like. If there is any control timing with respect to the frame currently being processed, step S100 is YES in response to the address pointer value corresponding to the time of the control timing, and the process goes to step S101 to execute the element corresponding to the control timing. Necessary control is performed based on the vector E-VEC, connection control data, and the like. If the current address pointer value does not correspond to the control timing, step S101 is jumped to step S102.

【0132】ステップS102では、エレメントベクト
ルE−VECによって指定された特定のエレメントにつ
いてのタイムテンプレート(図ではテンプレートをTM
Pと略記)を生成する処理を行う。タイムテンプレート
とは図3に示した時間テンプレート(TSCテンプレー
ト)のことである。この実施例において、タイムテンプ
レート(TSCテンプレート)は、振幅テンプレートや
ピッチテンプレートと同様に、時間的に変化するエンベ
ロープ状のデータとして与えられるものとする。従っ
て、このステップS102では、タイムテンプレートの
エンベロープを形成する処理を行う。ステップS103
では、エレメントベクトルE−VECによって指定され
た特定のエレメントについてのピッチ(Pitch)テンプ
レートを生成する処理を行う。ピッチテンプレートも図
3に例示したように時間的に変化するエンベロープ状の
データとして与えられる。ステップS105では、エレ
メントベクトルE−VECによって指定された特定のエ
レメントについての振幅(Amp)テンプレートを生成す
る処理を行う。振幅テンプレートも図3に例示したよう
に時間的に変化するエンベロープ状のデータとして与え
られる。
In step S102, a time template for a specific element specified by the element vector E-VEC (the template is set to TM
P) (abbreviated as P). The time template is the time template (TSC template) shown in FIG. In this embodiment, the time template (TSC template) is provided as envelope-like data that changes over time, like the amplitude template and the pitch template. Therefore, in this step S102, a process of forming an envelope of the time template is performed. Step S103
Then, a process of generating a pitch template for a specific element specified by the element vector E-VEC is performed. The pitch template is also given as time-varying envelope-shaped data as illustrated in FIG. In step S105, a process of generating an amplitude (Amp) template for a specific element specified by the element vector E-VEC is performed. The amplitude template is also given as envelope-like data that changes with time as illustrated in FIG.

【0133】各ステップS102,S103,S105
におけるエンベロープ形成法は、上記と同様に、エンベ
ロープ波形メモリを読み出すことによって行うようにし
てもよいし、所定のエンベロープ関数を計算することに
よって行うようにしてもよく、また、そのエンベロープ
関数としては、比較的シンプルな1次の折線関数を演算
する方式を用いてよい。また、図18〜図20を用いて
説明したように、所定のエレメント接続箇所に対応し
て、2系列でテンプレートを形成し(先行するエレメン
トのテンプレートと後続するエレメントのテンプレー
ト)、両者を接続制御データに従ってクロスフェード合
成して接続する処理や、オフセット処理などもこれらの
ステップS102,S103,S105で行う。どのよ
うな接続ルールに従って接続処理を行うかは、それぞれ
に対応する接続制御データに応じて異なる。
Steps S102, S103, S105
In the same manner as described above, the envelope forming method may be performed by reading an envelope waveform memory, or may be performed by calculating a predetermined envelope function. A relatively simple method of calculating a first-order linear function may be used. Also, as described with reference to FIGS. 18 to 20, templates are formed in two series (templates of preceding elements and templates of succeeding elements) corresponding to predetermined element connection locations, and both are connected and controlled. In steps S102, S103, and S105, a process of connecting by cross-fade synthesis according to the data and an offset process are also performed. Which connection rule is used to perform the connection process differs depending on the corresponding connection control data.

【0134】ステップS104では、基本的には、エレ
メントベクトルE−VECによって指定された特定のエ
レメントについての波形(Timbre)テンプレートを、指
定された楽音ピッチに対応するレートで読み出す処理を
行う。ここで指定される楽音ピッチは、前ステップS1
03で形成されたピッチテンプレート(ピッチ制御エン
ベロープ値)などによって可変制御されるものである。
なお、タイムテンプレート(TSCテンプレート)に応
じて、楽音ピッチとは独立に、波形サンプルデータの存
在時間を時間軸に沿って伸張または圧縮する制御つまり
TSC制御も、このステップS104で行う。また、時
間軸伸縮制御に伴って、波形の連続性が損なわれること
のないように、2系列で波形サンプルデータ(同じ波形
テンプレート内の異なる時点に対応する2つの波形サン
プルデータ)を読み出し、これをクロスフェード合成す
る処理も、このステップS104で行う。また、「通常
演奏」の場合と同様に、波形サンプル間の補間演算処理
も、このステップS104で行う。更に、図17を用い
て説明したように、所定のエレメント接続箇所に対応し
て、2系列で波形テンプレートを読み出し(先行するエ
レメントの波形テンプレートと後続するエレメントの波
形テンプレート)、両者をクロスフェード合成して接続
する処理も、このステップS104で行う。更に、図1
3〜図16を用いて説明したような、波形テンプレート
をループ読み出し(繰り返し読み出し)する処理と、そ
の際に、2系列のループ読み出し波形をクロスフェード
合成する処理も、このステップS104で行う。なお、
使用する波形(Timbre)テンプレートが、オリジナル波
形における時間的ピッチ変動成分をそのまま保っている
ものである場合、ピッチテンプレートの値は、オリジナ
ルのピッチ変動に対する変化量(差分値又は比)で与え
るようにするとよい。つまり、オリジナルの時間的ピッ
チ変動そのままにするときは、ピッチテンプレートの値
を一定値(例えば「1」)に維持する。
In step S104, basically, a waveform (Timbre) template for a specific element specified by the element vector E-VEC is read out at a rate corresponding to the specified tone pitch. The tone pitch specified here is the same as the previous step S1
It is variably controlled by the pitch template (pitch control envelope value) formed in step 03.
In step S104, control for expanding or compressing the existence time of the waveform sample data along the time axis, that is, TSC control, is performed in accordance with the time template (TSC template) independently of the musical tone pitch. In addition, the waveform sample data (two waveform sample data corresponding to different time points in the same waveform template) are read out in two series so that the continuity of the waveform is not impaired by the time axis expansion / contraction control. Is also performed in step S104. In addition, as in the case of “normal performance”, the interpolation calculation process between waveform samples is also performed in step S104. Further, as described with reference to FIG. 17, the waveform templates are read in two series (corresponding to the predetermined element connection locations) (the waveform template of the preceding element and the waveform template of the following element), and the two are cross-fade combined. The connection process is also performed in step S104. Further, FIG.
As described with reference to FIGS. 3 to 16, the process of loop-reading (repeatingly reading) the waveform template and the process of cross-fading the two series of loop-read waveforms at this time are also performed in step S104. In addition,
When a waveform (Timbre) template to be used keeps the temporal pitch fluctuation component in the original waveform as it is, the value of the pitch template is given by the amount of change (difference value or ratio) with respect to the original pitch fluctuation. Good to do. In other words, when the original temporal pitch fluctuation is to be kept as it is, the value of the pitch template is maintained at a constant value (for example, “1”).

【0135】次のステップS105では、振幅テンプレ
ートを形成する処理を行う。次のステップS106で
は、ステップS104で生成した1サンプルの波形デー
タの音量レベルを、ステップS105で形成された振幅
エンベロープ値によって可変制御し、これを、現アドレ
スポインタが指示する波形バッファW−BUFのアドレ
ス箇所に既に格納されている波形サンプルデータに足し
込む。つまり、同じサンプル点についての他のチャンネ
ルの波形サンプルデータに加算・アキュムレートする。
次に、ステップS107では、1フレーム分の処理が完
了したかどうかを調べ。まだ完了していなければ、ステ
ップS108に行き、次サンプルを準備する(アドレス
ポインタを次に進める)。なお、上述と同様に、使用す
る波形(Timbre)テンプレートが、オリジナル波形にお
ける時間的振幅変動成分をそのまま保っているものであ
る場合、振幅(Amp)テンプレートの値は、オリジナル
の振幅変動に対する変化量(差分値又は比)で与えるよ
うにするとよい。つまり、オリジナルの時間的振幅変動
そのままにするときは、振幅テンプレートの値を一定値
(例えば「1」)に維持する。
In the next step S105, processing for forming an amplitude template is performed. In the next step S106, the volume level of the waveform data of one sample generated in step S104 is variably controlled by the amplitude envelope value formed in step S105, and this is controlled by the waveform buffer W-BUF indicated by the current address pointer. Add to the waveform sample data already stored at the address location. That is, the addition and accumulation are performed on the waveform sample data of another channel for the same sample point.
Next, in step S107, it is determined whether or not processing for one frame has been completed. If not completed, the process goes to step S108 to prepare the next sample (the address pointer is advanced to the next). As described above, when the waveform (Timbre) template to be used retains the temporal amplitude fluctuation component in the original waveform as it is, the value of the amplitude (Amp) template is the amount of change with respect to the original amplitude fluctuation. (Difference value or ratio). That is, when the original temporal amplitude fluctuation is left as it is, the value of the amplitude template is maintained at a constant value (for example, “1”).

【0136】次に、時間軸伸縮制御(TSC制御)の一
例について説明する。複数周期波形からなる高品質な、
つまり特定のアーティキュレーション特性を具備する、
そして、一定のデータ量(サンプル数若しくはアドレス
数)からなる波形データを、その楽音再生ピッチとは独
立に、また、該波形の全体的特徴を損なうことなく、時
間軸上におけるその存在時間長を任意に可変制御するこ
とは、本出願人が別出願(例えば特願平9−13039
4号)で提案した時間軸伸縮制御(TSC制御)を用い
ることによって実現できる。このTSC制御の要点を述
べれば、一定の波形データ量からなる複数周期波形を、
一定の再生サンプリング周波数と所定の再生ピッチを維
持しつつ、その時間軸上の波形データ存在時間長を伸縮
するために、圧縮する場合は、波形データの適宜の部分
を飛び越して読み出しを行ない、伸張する場合は、波形
データの適宜の部分を繰り返し読み出しするようにし、
そして、飛び越し若しくは部分的繰り返し読み出しによ
る波形データの不連続性を除去するためにクロスフェー
ド合成を行なうようにしたものである。
Next, an example of time axis expansion / contraction control (TSC control) will be described. High-quality multi-cycle waveform
In other words, with specific articulation characteristics,
Then, the waveform data consisting of a fixed amount of data (the number of samples or the number of addresses) is converted into the existence time length on the time axis independently of the tone reproduction pitch and without impairing the overall characteristics of the waveform. The arbitrarily variable control is performed by the present applicant in a separate application (for example, Japanese Patent Application No. 9-13039).
This can be realized by using the time axis expansion / contraction control (TSC control) proposed in No. 4). The point of the TSC control is as follows. A multi-period waveform composed of a constant waveform data amount is
In order to expand and contract the waveform data existence time length on the time axis while maintaining a constant reproduction sampling frequency and a predetermined reproduction pitch, in the case of compression, skip the appropriate part of the waveform data and read it out. In such a case, an appropriate portion of the waveform data is repeatedly read out,
Then, cross-fade synthesis is performed in order to remove discontinuity of waveform data due to jumping or partially repeated reading.

【0137】図31は、この時間軸伸縮処理(TSC制
御)の概略を概念的に示す図である。(a)は、時間的
に変化するタイムテンプレートの一例を示している。タ
イムテンプレートは、時間軸伸縮比を示すデータ(これ
をCRateという)からなっており、縦軸が該データ
CRate、横軸が時間tである。時間軸伸縮比データ
CRateは、「1」を基準とする比を示しており、
「1」のとき時間軸伸縮をしないことを示し、「1」よ
りも大きいとき時間軸の圧縮を示し、「1」よりも小さ
いとき時間軸の伸張を示す。図31の(b)〜(d)
は、仮想読出アドレスVADと実読出アドレスRADを
用いて、時間軸伸縮比データCRateに応じた時間軸
伸縮制御を行う例を示している。実線が実読出アドレス
RAD、破線が仮想読出アドレスVADを示す。(b)
は、(a)のタイムテンプレートにおけるP1点の時間
軸伸縮比データCRate(>1)に応じた時間軸圧縮
制御例を示しており、(c)は、(a)のタイムテンプ
レートにおけるP2点の時間軸伸縮比データCRate
(=1)に応じた時間軸伸縮しない例を示し、(d)
は、(a)のタイムテンプレートにおけるP3点の時間
軸伸縮比データCRate(<1)に応じた時間軸伸張
制御例を示している。(c)においては実線は、ピッチ
情報に従う本来の波形読出アドレスの進行状態を示して
おり、実読出アドレスRADと仮想読出アドレスVAD
が一致している。
FIG. 31 is a diagram conceptually showing the outline of the time axis expansion / contraction processing (TSC control). (A) shows an example of a time template that changes with time. The time template is composed of data indicating a time axis expansion / contraction ratio (referred to as CRate). The vertical axis represents the data CRate, and the horizontal axis represents time t. The time axis expansion / contraction ratio data CRate indicates a ratio based on “1”,
A value of “1” indicates that the time axis is not expanded or contracted, a value larger than “1” indicates compression of the time axis, and a value smaller than “1” indicates expansion of the time axis. (B) to (d) of FIG.
Shows an example of performing time axis expansion / contraction control in accordance with the time axis expansion / contraction ratio data CRate using the virtual read address VAD and the real read address RAD. The solid line indicates the real read address RAD, and the broken line indicates the virtual read address VAD. (B)
Shows an example of time axis compression control according to the time axis expansion / contraction ratio data CRate (> 1) at point P1 in the time template of (a), and (c) shows the time axis compression Time axis expansion / contraction ratio data CRate
(D) shows an example in which the time axis does not expand or contract according to (= 1);
9A shows an example of time axis expansion control according to the time axis expansion / contraction ratio data CRate (<1) at point P3 in the time template of FIG. In (c), the solid line indicates the progress of the original waveform read address according to the pitch information, and the actual read address RAD and the virtual read address VAD
Matches.

【0138】実読出アドレスRADは、波形テンプレー
トから実際に波形サンプルデータを読み出すために使用
するアドレスであり、所望のピッチ情報に従う一定の変
化レートで変化する。例えば、所望のピッチに対応する
周波数ナンバを規則的に累算することにより、該ピッチ
に対応する一定の傾きを持つ実読出アドレスRADを得
ることができる。仮想読出アドレスVADは、波形デー
タの時間軸上の長さの所望の伸張又は圧縮制御した状態
を想定し、所望の時間軸伸張又は圧縮を達成するために
は、現時点でどのアドレス位置から波形サンプルデータ
を読み出すべきかを指示するアドレスである。そのため
に、所望のピッチ情報と時間軸伸縮比データCRate
とを用いて、該ピッチ情報に従う傾きを伸縮比データC
Rateによって修正した傾きで変化するアドレスデー
タを、仮想読出アドレスVADとして発生する。実読出
アドレスRADと仮想読出アドレスVADとを比較し、
実読出アドレスRADの仮想読出アドレスVADからの
かい離幅が所定幅を越えたとき、実読出アドレスRAD
の値を切替えることを指示し、この切替指示に従って、
実読出アドレスRADの仮想読出アドレスVADに対す
るかい離を解消するよう、適宜アドレス数だけ実読出ア
ドレスRADの数値をシフト制御する。
The actual read address RAD is an address used for actually reading waveform sample data from the waveform template, and changes at a constant change rate according to desired pitch information. For example, by accumulating the frequency numbers corresponding to the desired pitch regularly, it is possible to obtain the actual read address RAD having a constant slope corresponding to the pitch. The virtual read address VAD assumes a state in which the desired length or the length of the waveform data on the time axis is controlled to be expanded or compressed, and in order to achieve the desired time axis expansion or compression, the waveform sample is determined from any address position at the present time. This address indicates whether data should be read. Therefore, desired pitch information and time axis expansion / contraction ratio data CRate
And the expansion ratio data C
Address data that changes at an inclination corrected by Rate is generated as a virtual read address VAD. Comparing the real read address RAD with the virtual read address VAD,
When the width of the real read address RAD separated from the virtual read address VAD exceeds a predetermined width, the real read address RAD
Is switched, and according to the switching instruction,
The numerical value of the real read address RAD is shift-controlled by an appropriate number of addresses so as to eliminate the deviation of the real read address RAD from the virtual read address VAD.

【0139】図33は、図31(b)と同様の状態を拡
大して示す図である。一点鎖線は、ピッチ情報に従う本
来のアドレス進行を例示するもので、図31(c)の実
線に対応するものである。太い破線は、仮想読出アドレ
スVADのアドレス進行を例示する。伸縮比データCR
ateが1であれば、仮想読出アドレスVADのアドレ
ス進行は、一点鎖線の本来のアドレス進行に一致し、時
間軸の変化はない。時間軸を圧縮する場合、伸縮比デー
タCRateは1以上の適宜の値をとり、図示のよう
に、仮想読出アドレスVADのアドレス進行の傾きが相
対的に大きくなる。太い実線は、実読出アドレスRAD
のアドレス進行を例示する。この実読出アドレスRAD
のアドレス進行の傾きは、一点鎖線で示したピッチ情報
に従う本来のアドレス進行の傾きに一致している。この
場合、仮想読出アドレスVADのアドレス進行の傾きが
相対的に大きいが故に、時間経過に従って次第に実読出
アドレスRADのアドレス進行が仮想読出アドレスVA
Dのアドレス進行よりも遅れてくる。そして、そのかい
離幅が所定以上になったとき、切替指示(図中、矢印で
示す)が出され、図示のように、該かい離を解消する方
向に、実読出アドレスRADを適量シフトする。これに
よって、実読出アドレスRADのアドレス進行は、ピッ
チ情報に従う傾きを維持しつつ、仮想読出アドレスVA
Dのアドレス進行に沿って変化し、時間軸方向に圧縮さ
れた特性を示す。従って、このような実読出アドレスR
ADに従って波形テンプレートの波形サンプルデータを
読み出すことにより、再生する楽音のピッチは変更せず
に、時間軸方向に波形を圧縮した波形信号を得ることが
できる。
FIG. 33 is an enlarged view showing the same state as FIG. 31 (b). The dashed line exemplifies the original address progression according to the pitch information, and corresponds to the solid line in FIG. The thick broken line illustrates the address progress of the virtual read address VAD. Expansion ratio data CR
If ate is 1, the address advance of the virtual read address VAD matches the original address advance of the dashed line, and there is no change in the time axis. When compressing the time axis, the expansion / contraction ratio data CRate takes an appropriate value of 1 or more, and the inclination of the address progression of the virtual read address VAD becomes relatively large as shown in the figure. The bold solid line indicates the actual read address RAD
An example of the address progression will be described. This actual read address RAD
Of the address advance coincides with the original slope of the address advance according to the pitch information indicated by the dashed line. In this case, since the gradient of the address progress of the virtual read address VAD is relatively large, the address progress of the real read address RAD gradually changes with the elapse of time with the virtual read address VA.
It is later than the address advance of D. Then, when the width of the separation exceeds a predetermined value, a switching instruction (indicated by an arrow in the figure) is issued, and the actual read address RAD is shifted by an appropriate amount in the direction of eliminating the separation as shown in the figure. As a result, the address progression of the real read address RAD keeps the inclination according to the pitch information, while maintaining the inclination according to the pitch information.
The characteristic changes along the address progression of D and is compressed in the time axis direction. Therefore, such an actual read address R
By reading out the waveform sample data of the waveform template according to the AD, it is possible to obtain a waveform signal in which the waveform is compressed in the time axis direction without changing the pitch of the musical tone to be reproduced.

【0140】図34は、図31(d)と同様の状態を拡
大して示す図である。この場合、伸縮比データCRat
eは1未満であり、太い破線にて示す仮想読出アドレス
VADのアドレス進行の傾きは相対的に小さい。従っ
て、時間経過に伴い次第に実読出アドレスRADのアド
レス進行が仮想読出アドレスVADのアドレス進行より
も進んできて、そのかい離幅が所定以上になったとき、
切替指示(図中、矢印で示す)が出され、図示のよう
に、該かい離を解消する方向に、実読出アドレスRAD
が適量シフトされる。これによって、実読出アドレスR
ADのアドレス進行は、ピッチ情報に従う傾きを維持し
つつ、仮想読出アドレスVADのアドレス進行に沿って
変化し、時間軸方向に伸張された特性を示す。従って、
このような実読出アドレスRADに従って波形テンプレ
ートの波形サンプルデータを読み出すことにより、再生
する楽音のピッチは変更せずに、時間軸方向に波形を伸
張した波形信号を得ることができる。
FIG. 34 is an enlarged view showing the same state as FIG. 31 (d). In this case, the expansion ratio data CRat
e is less than 1, and the inclination of the address progress of the virtual read address VAD indicated by the thick broken line is relatively small. Therefore, when the address progression of the real read address RAD gradually progresses with the lapse of time with respect to the address progression of the virtual read address VAD, and the width of the gap becomes a predetermined value or more,
A switching instruction (indicated by an arrow in the figure) is issued, and as shown in FIG.
Is shifted by an appropriate amount. As a result, the actual read address R
The address progression of the AD changes along the address progression of the virtual read address VAD while maintaining the inclination according to the pitch information, and exhibits a characteristic extended in the time axis direction. Therefore,
By reading the waveform sample data of the waveform template in accordance with such an actual read address RAD, it is possible to obtain a waveform signal whose waveform has been expanded in the time axis direction without changing the pitch of the musical tone to be reproduced.

【0141】なお、前記かい離を解消する方向への実読
出アドレスRADのシフトは、このシフトによって、シ
フト直前に読み出していた波形データと、シフト直後に
読み出す波形データとが滑らかにつながるようにするこ
とが好ましい。また、図中、波線で示すように、切替時
の適宜期間で、クロスフェード合成を行うようにすると
よい。波線は、クロスフェード副系列用実読出アドレス
RAD2のアドレス進行を示す。このクロスフェード副
系列用実読出アドレスRAD2は、図示の通り、上記切
替指示が出されたとき、シフト前の実読出アドレスRA
Dのアドレス進行の延長上に、実読出アドレスRADと
同じレート(つまり傾き)で生成する。適宜のクロスフ
ェード期間において、副系列用実読出アドレスRAD2
に対応して読み出される波形から主系列用実読出アドレ
スRADに対応して読み出される波形まで滑らかに波形
が移行するようにクロスフェード合成がなされる。この
例の場合、少なくとも所要のクロスフェード期間の間で
のみ副系列用実読出アドレスRAD2を生成するように
すればよい。なお、上記のように一部分でクロスフェー
ド合成を行うTSC制御例に限らず、時間軸伸縮比CR
ateの値に応じた態様のクロスフェード合成処理を常
に行うようにしたTSC制御を採用してもよい。
The shift of the actual read address RAD in the direction to eliminate the separation should be such that the waveform data read immediately before the shift and the waveform data read immediately after the shift are smoothly connected by this shift. Is preferred. Further, as shown by a broken line in the drawing, it is preferable to perform crossfade synthesis in an appropriate period at the time of switching. The dashed line indicates the address progress of the cross-fade sub-system actual read address RAD2. As shown in the figure, when the above switching instruction is issued, the actual read address RAD2 for the cross-fade sub-system becomes the actual read address RA before shifting.
On the extension of the address progression of D, it is generated at the same rate (that is, gradient) as the actual read address RAD. During an appropriate cross-fade period, the sub-system actual read address RAD2
The cross-fade synthesis is performed so that the waveform smoothly transitions from the waveform read in response to the actual read address RAD for the main sequence to the waveform read in response to the actual read address RAD. In the case of this example, the sub-system actual read address RAD2 may be generated only at least during a required cross-fade period. It should be noted that the time axis expansion / contraction ratio CR is not limited to the TSC control example in which crossfade synthesis is partially performed as described above.
TSC control that always performs cross-fade synthesis processing in a mode corresponding to the value of ate may be employed.

【0142】図13〜図15に示したようなパーシャル
ベクトルPVQの波形テンプレート(つまりループ波
形)を繰り返し読み出すことで波形サンプルデータを生
成する場合においては、基本的には、ループ回数を可変
することによって、比較的簡単に、楽音再生ピッチとは
独立に、ループ読み出し波形全体の時間長を可変制御す
ることができる。つまり、クロスフェード区間長を指定
するデータによって特定のクロスフェードカーブが特定
されると、それに伴ってクロスフェード区間長(時間長
若しくはループ回数)が決まってくる。ここで、このク
ロスフェードカーブの傾きをタイムテンプレートが示す
時間軸伸縮比によって可変制御することにより、クロス
フェードの速さが可変制御され、結局、クロスフェード
区間の時間長が可変制御される。その間、楽音再生ピッ
チには影響を与えないので、結局、ループ回数が可変制
御されることで当該クロスフェード区間の時間長が可変
制御される。
In the case where waveform sample data is generated by repeatedly reading out the waveform template (that is, loop waveform) of the partial vector PVQ as shown in FIGS. 13 to 15, basically, the number of loops is varied. Thus, the time length of the entire loop readout waveform can be variably controlled relatively easily and independently of the tone reproduction pitch. That is, when a specific crossfade curve is specified by data specifying the crossfade section length, the crossfade section length (time length or number of loops) is determined accordingly. Here, the slope of the crossfade curve is variably controlled by the time axis expansion / contraction ratio indicated by the time template, so that the speed of the crossfade is variably controlled, and eventually the time length of the crossfade section is variably controlled. During that time, the tone reproduction pitch is not affected, so that the loop length is variably controlled, so that the time length of the cross-fade section is variably controlled.

【0143】ところで、時間軸伸縮制御によって、再生
波形データの時間軸での存在時間が伸縮制御される場
合、この伸縮制御にあわせて、ピッチテンプレート及び
振幅テンプレートの時間軸も伸縮制御してやることが望
ましい。従って、図30のステップS103,S105
においては、ステップS102で作成されたタイムテン
プレートに応じて、該ステップで作成するピッチテンプ
レート及び振幅テンプレートの時間軸を伸縮制御するよ
うにするものとする。
When the existence time of the reproduced waveform data on the time axis is controlled by the time axis expansion / contraction control, it is desirable to control the time axis of the pitch template and the amplitude template in accordance with the expansion / contraction control. . Therefore, steps S103 and S105 in FIG.
In, according to the time template created in step S102, the time axis of the pitch template and the amplitude template created in this step is controlled to expand and contract.

【0144】なお、楽音合成機能のすべてをソフトウェ
ア音源によって構成せずに、ソフトウェア音源とハード
ウェア音源のハイブリッドタイプとしてもよい。また、
ハードウェア音源装置のみでこの発明に係る楽音合成処
理を行うようにしてもよい。あるいは、DSP(ディジ
タル・シグナル・プロセッサ)を用いてこの発明に係る
楽音合成処理を行うようにしてもよい。また、ソフトウ
ェア音源またはハードウェア音源またはそのハイブリッ
ドタイプのいずれの音源方式を用いる場合でも、その波
形形成方式は、単純なPCM波形メモリ読み出し方式に
限らず、前述の通り、各種のデータ圧縮技術を用いた方
式や、各種の波形合成アルゴリズムに従うパラメータ演
算による方式など、適宜のものを使用することができ
る。
It should be noted that all of the tone synthesis functions may not be constituted by software tone generators, but may be of a hybrid type of software tone generator and hardware tone generator. Also,
The tone synthesis processing according to the present invention may be performed only by the hardware tone generator. Alternatively, the tone synthesis processing according to the present invention may be performed using a DSP (Digital Signal Processor). When using a software tone generator, a hardware tone generator, or a hybrid tone generator, the waveform forming method is not limited to the simple PCM waveform memory reading method, but uses various data compression techniques as described above. An appropriate method can be used, such as a method based on the above, or a method based on parameter calculation according to various waveform synthesis algorithms.

【0145】[0145]

【発明の効果】以上の通り、この発明によれば、ビブラ
ートが付与された原波形から分散的に取り出された複数
の波形データを記憶した記憶手段と、前記波形データの
1つを所定の間で繰返し読み出しし、かつ読み出すべき
波形データを順番に切り替えることで、所定の読み出し
シーケンスを実行し、かつこの読み出しシーケンスを繰
返すことで複数周期にわたるビブラートを実現する読出
手段とを備えるものであるから、原波形のビブラート1
周期又は複数周期あるいは1周期未満等適宜の範囲から
複数の波形データを分散的に取り出して記憶すること
で、原波形を全部記憶する場合に比べて、記憶手段に記
憶する波形データの記憶容量を節約することができ、か
つ、分散的な取り出しによって、原波形におけるビブラ
ートの特徴をできる限り反映している高品質なビブラー
ト用の波形データを得ることができる。このように、分
散的に取り出された各波形データは、原波形におけるビ
ブラートの特徴を反映しているものであるので、これら
の繰り返しと組合せによって得られる楽音波形は、原波
形におけるビブラートに匹敵する高品質なビブラートを
含むものとなり、また、記憶手段からの各波形データの
読み出し方を種々可変制御することにより、ビブラート
周期等種々のビブラート要素の制御を多様に行なうこと
ができるので、高品質なビブラート音を制御性豊かに発
生することができ、かつ、データ記憶容量も節約するこ
とができる、という優れた効果を奏する。
As described above, according to the present invention, a storage means for storing a plurality of waveform data dispersedly extracted from an original waveform to which vibrato is added, and storing one of the waveform data for a predetermined period of time. And a read unit that executes a predetermined read sequence by sequentially switching waveform data to be read, and realizes vibrato over a plurality of cycles by repeating this read sequence. Vibrato 1 of original waveform
By dispersively extracting and storing a plurality of waveform data from an appropriate range such as a cycle, a plurality of cycles, or less than one cycle, the storage capacity of the waveform data to be stored in the storage unit is reduced as compared with a case where the entire original waveform is stored. High quality vibrato waveform data that reflects vibrato characteristics in the original waveform as much as possible can be obtained by saving and by distributed extraction. As described above, since each waveform data extracted in a dispersed manner reflects the characteristic of vibrato in the original waveform, the musical tone waveform obtained by repeating and combining these waveform data is comparable to the vibrato in the original waveform. Since high-quality vibrato is included, and various ways of reading each waveform data from the storage means are variably controlled, various vibrato elements such as a vibrato cycle can be variously controlled. An excellent effect is obtained that the vibrato sound can be generated with rich controllability and the data storage capacity can be saved.

【0146】また、波形データの読み出し速度を時間的
に変化したり、読み出しシーケンスに対応して読み出さ
れた波形データの振幅を時間的に変化することにより、
ビブラートの深さやそれに伴う振幅変動を制御すること
ができる。また、ビブラート1周期の時間を制御する時
間制御データを発生する制御データ発生手段を更に具備
し、読出手段において1つの波形データを繰返し読み出
しする時間をこの記時間制御データにより可変制御する
ことで、読み出しシーケンスの時間を制御し、ビブラー
ト周期を可変制御することができる。
Further, by changing the reading speed of the waveform data over time or by changing the amplitude of the waveform data read out corresponding to the reading sequence over time,
It is possible to control the vibrato depth and the accompanying amplitude fluctuation. Further, the apparatus further comprises control data generating means for generating time control data for controlling the time of one cycle of vibrato, and the time for repeatedly reading out one waveform data in the reading means is variably controlled by the time control data. The time of the read sequence can be controlled, and the vibrato cycle can be variably controlled.

【0147】更に、ビブラートの複数周期に対応して、
複数の分散的な波形データを記憶した記憶手段と、前記
各波形データのビブラート1周期内における相対的時間
位置を保ちつつ、各波形データの属するビブラート周期
位置を入れ替えることにより、ビブラートの複数周期に
わたる各波形データの読み出し順序を任意に可変設定す
る設定手段と、前記記憶手段から波形データを所定の間
で繰返し読み出しし、かつ読み出すべき波形データを前
記設定された読み出し順序で順番に切り替えることで、
複数周期にわたるビブラートを実現する読出手段とを備
えることにより、各波形データのビブラート1周期内に
おける相対的時間位置を保ちつつ、各波形データの属す
るビブラート周期位置を入れ替えることにより、違和感
を与えることなく、多様な組合せでビブラート音の合成
を行なうことができる、という優れた効果を奏する。
Further, corresponding to a plurality of cycles of vibrato,
By interchanging the vibrato cycle position to which each waveform data belongs while maintaining a relative time position within one vibrato cycle of the waveform data and a storage means storing a plurality of dispersive waveform data, Setting means for arbitrarily variably setting the reading order of each waveform data; and repeatedly reading out the waveform data from the storage means at predetermined intervals, and by switching the waveform data to be read out in order in the set reading order,
By providing the reading means for realizing vibrato over a plurality of cycles, the relative time position of each waveform data within one cycle of vibrato is maintained, and the vibrato cycle position to which each waveform data belongs is replaced, thereby giving a sense of incongruity. This provides an excellent effect that a vibrato sound can be synthesized in various combinations.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明に関連する楽音データ作成方法に従
う楽音データベース作成手順の一例を示すフロー図。
FIG. 1 is a flowchart showing an example of a procedure for creating a tone database according to a tone data creating method according to the present invention.

【図2】 一連の楽曲フレーズの楽譜例と、それに対応
するアーティキュレーション単位での演奏区間の分割例
と、アーティキュレーションエレメントを構成する楽音
要素の分析例とを模式的に示す図。
FIG. 2 is a diagram schematically showing an example of a musical score of a series of music phrases, an example of dividing a performance section corresponding to each articulation unit, and an example of analyzing musical tone elements constituting an articulation element.

【図3】 1つのアーティキュレーションエレメントに
対応する波形から分析された複数の楽音要素の具体例を
示す図。
FIG. 3 is a diagram showing a specific example of a plurality of tone elements analyzed from a waveform corresponding to one articulation element.

【図4】 データベースの構成例を示す図。FIG. 4 is a diagram showing a configuration example of a database.

【図5】 図4のアーティキュレーションデータベース
ADBにおけるアーティキュレーションシーケンスAE
SEQとアーティキュレーションエレメントベクトルA
EVQの具体例を示す図。
5 is an articulation sequence AE in the articulation database ADB of FIG.
SEQ and articulation element vector A
The figure which shows the specific example of EVQ.

【図6】 属性情報を含むアーティキュレーションエレ
メントベクトルAEVQの具体例を示す図。
FIG. 6 is a diagram showing a specific example of an articulation element vector AEVQ including attribute information.

【図7】 この発明に係る楽音データ作成方法に従う楽
音合成手順の一例を示すフロー図。
FIG. 7 is a flowchart showing an example of a tone synthesis procedure according to the tone data creation method according to the present invention.

【図8】 この発明に係る楽音データ作成方法に従う楽
音合成手法を採用した自動演奏シーケンスデータの構成
例を示す図。
FIG. 8 is a diagram showing a configuration example of automatic performance sequence data employing a tone synthesis method according to a tone data creation method according to the present invention.

【図9】 この発明に従ういくつかの奏法シーケンスの
具体例を示す図。
FIG. 9 is a diagram showing specific examples of some rendition style sequences according to the present invention.

【図10】 1つの奏法シーケンス内における各アーテ
ィキュレーションエレメント相互のクロスフェード合成
による接続処理の一例を示す図。
FIG. 10 is a diagram showing an example of connection processing by cross-fade synthesis between articulation elements in one rendition style sequence.

【図11】 奏法シーケンス(アーティキュレーション
エレメントシーケンス)の編集例を概観する図。
FIG. 11 is a diagram outlining an example of editing a rendition style sequence (articulation element sequence).

【図12】 奏法シーケンス(アーティキュレーション
エレメントシーケンス)の編集手樹の一例を示すフロー
図。
FIG. 12 is a flowchart showing an example of an editing tree of a rendition style sequence (articulation element sequence).

【図13】 パーシャルベクトルの考え方を示す図。FIG. 13 is a view showing a concept of a partial vector.

【図14】 パーシャルベクトルを含むアーティキュレ
ーションエレメントの楽音合成処理手順を部分的に示す
フロー図。
FIG. 14 is a flowchart partially showing a musical sound synthesis processing procedure of an articulation element including a partial vector.

【図15】 ビブラート合成処理の一例を示す図。FIG. 15 is a diagram illustrating an example of a vibrato synthesis process.

【図16】 ビブラート合成処理の別の例を示す図。FIG. 16 is a diagram showing another example of the vibrato combining process.

【図17】 波形テンプレートの接続処理例のいくつか
のルールを示す図。
FIG. 17 is a view showing some rules of a waveform template connection processing example;

【図18】 波形テンプレート以外のテンプレートデー
タ(エンベロープ波形状のテンプレートデータ)の接続
処理例のいくつかのルールを示す図。。
FIG. 18 is a view showing some rules of a connection processing example of template data (envelope waveform template data) other than a waveform template. .

【図19】 図18(b)に示す接続ルールのいくつか
の具体化手段を示す図。
FIG. 19 is a view showing some concrete means of the connection rule shown in FIG. 18 (b).

【図20】 図18(c)に示す接続ルールのいくつか
の具体化手段を示す図。
FIG. 20 is a diagram showing some specific means of the connection rule shown in FIG. 18 (c).

【図21】 各種テンプレートデータの接続処理とテン
プレートデータに基づく楽音合成処理の概略を示すブロ
ック図。
FIG. 21 is a block diagram schematically showing a connection process of various template data and a tone synthesis process based on the template data.

【図22】 この発明の実施例に係る楽音合成装置のハ
ードウェア構成例を示すブロック図。
FIG. 22 is a block diagram showing an example of a hardware configuration of a musical sound synthesizer according to an embodiment of the present invention.

【図23】 図22における波形インタフェースの詳細
例とRAM内の波形バッファの構成例を示すブロック
図。
23 is a block diagram showing a detailed example of a waveform interface in FIG. 22 and a configuration example of a waveform buffer in a RAM.

【図24】 MIDI演奏データに基づいて実行される
楽音生成処理の概略を示すタイムチャート。
FIG. 24 is a time chart schematically showing a musical sound generation process performed based on MIDI performance data.

【図25】 奏法シーケンス(アーティキュレーション
エレメントシーケンスAESEQ)のデータに基づいて
実行される奏法演奏処理(アーティキュレーションエレ
メント楽音合成処理)の概略を示すタイムチャート。
FIG. 25 is a time chart schematically showing a performance style performance process (articulation element musical tone synthesis process) executed based on data of a performance style sequence (articulation element sequence AESEQ).

【図26】 図22のCPUが実行する楽音合成処理の
メインルーチンを示すフローチャート。
FIG. 26 is a flowchart showing a main routine of a tone synthesis process executed by the CPU of FIG. 22;

【図27】 図26における「自動演奏処理」の一例を
示すフローチャート。
FIG. 27 is a flowchart illustrating an example of “automatic performance processing” in FIG. 26;

【図28】 図26における「音源処理」の一例を示す
フローチャート。
FIG. 28 is a flowchart illustrating an example of “sound source processing” in FIG. 26;

【図29】 図28における「通常演奏」についての
「1フレーム分の波形データ生成処理」の一例を示すフ
ローチャート。
FIG. 29 is a flowchart showing an example of “1 frame waveform data generation processing” for “normal performance” in FIG. 28;

【図30】 図28における「奏法演奏」についての
「1フレーム分の波形データ生成処理」の一例を示すフ
ローチャート。
30 is a flowchart showing an example of “1 frame waveform data generation processing” for “performance style performance” in FIG. 28.

【図31】 時間軸伸縮処理(TSC制御)の概略を概
念的に示す図。
FIG. 31 is a diagram conceptually showing an outline of a time axis expansion / contraction process (TSC control).

【図32】 奏法シーケンスの階層化構造を説明する
図。
FIG. 32 is a view for explaining a hierarchical structure of a performance style sequence.

【図33】 時間軸伸縮制御によって時間軸圧縮する場
合の波形読出アドレスの時間的進行状態の一例を示す
図。
FIG. 33 is a diagram showing an example of a temporal progress state of a waveform read address when time axis compression is performed by time axis expansion / contraction control.

【図34】 時間軸伸縮制御によって時間軸伸張する場
合の波形読出アドレスの時間的進行状態の一例を示す
図。
FIG. 34 is a diagram showing an example of a temporal progress state of a waveform read address when time axis expansion is performed by time axis expansion / contraction control.

【符号の説明】[Explanation of symbols]

ADB アーティキュレーションデータベース TDB テンプレートデータベース 10 CPU 11 ROM(リードオンリーメモリ) 12 RAM(ランダムアクセスメモリ) 13 ハードディスク装置 14,15 リムーバブルディスク装置 16 表示器 17 キーボード及びマウス等の入力操作装置17 18 波形インタフェース 19 タイマ 20 ネットワークインタフェース 21 MIDIインタフェース 22 データ及びアドレスバス ADB articulation database TDB template database 10 CPU 11 ROM (read only memory) 12 RAM (random access memory) 13 hard disk device 14, 15 removable disk device 16 display 17 input operation device 17 such as keyboard and mouse 18 18 waveform interface 19 Timer 20 network interface 21 MIDI interface 22 data and address bus

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ビブラートが付与された原波形から分散
的に取り出された複数の波形データを記憶した記憶手段
と、 前記波形データの1つを所定の間で繰返し読み出しし、
かつ読み出すべき波形データを順番に切り替えること
で、所定の読み出しシーケンスを実行し、かつこの読み
出しシーケンスを繰返すことで複数周期にわたるビブラ
ートを実現する読出手段とを備えたビブラート発生装
置。
1. A storage means for storing a plurality of waveform data dispersedly extracted from an original waveform to which vibrato is added, and one of the waveform data is repeatedly read out at a predetermined interval,
A vibrato generation device comprising: a read unit that executes a predetermined read sequence by sequentially switching waveform data to be read, and realizes vibrato over a plurality of cycles by repeating the read sequence.
【請求項2】 前記読み出しシーケンスに対応してピッ
チの時間的変化を示す制御データを発生する制御データ
発生手段を更に備え、前記読出手段は、この制御データ
に応じて前記波形データの読み出し速度を時間的に変化
する請求項1に記載のビブラート発生装置。
2. The apparatus according to claim 1, further comprising control data generating means for generating control data indicating a temporal change in pitch in accordance with said read sequence, wherein said read means controls a read speed of said waveform data in accordance with said control data. The vibrato generator according to claim 1, which changes with time.
【請求項3】 前記読み出しシーケンスに対応して振幅
の時間的変化を示す制御データを発生する制御データ発
生手段と、 前記読出手段によって読み出された波形データの振幅を
この制御データに応じて時間的に制御する振幅制御手段
とを更に備えた請求項1又は2に記載のビブラート発生
装置。
3. A control data generating means for generating control data indicating a temporal change in amplitude in response to the read sequence; and an amplitude of waveform data read by the read means, The vibrato generator according to claim 1 or 2, further comprising an amplitude control means for performing dynamic control.
【請求項4】 ビブラート1周期の時間を制御する時間
制御データを発生する制御データ発生手段を更に具備
し、前記読出手段において1つの波形データを繰返し読
み出しする時間を前記時間制御データにより可変制御す
ることで、読み出しシーケンスの時間を制御し、ビブラ
ート周期を可変制御するようにした請求項1乃至3のい
ずれかに記載のビブラート発生装置。
4. A control data generating means for generating time control data for controlling the time of one cycle of vibrato, wherein the time for repeatedly reading out one waveform data in said reading means is variably controlled by said time control data. 4. The vibrato generation apparatus according to claim 1, wherein the vibrate period is variably controlled by controlling the time of the read sequence.
【請求項5】 前記読出手段に関連して、先行する波形
データと後続する波形データとをそれぞれ所定の間で繰
返し読み出ししつつ両者をクロスフェード合成するクロ
スフェード合成手段を更に具備する請求項1乃至4のい
ずれかに記載のビブラート発生装置。
5. The image processing apparatus according to claim 1, further comprising: a cross-fade synthesizing unit that cross-fade synthesizes the preceding waveform data and the subsequent waveform data while repeatedly reading the preceding waveform data at predetermined intervals. The vibrato generator according to any one of claims 1 to 4.
【請求項6】 ビブラートが付与された原波形から複数
の分散的な波形データを取り出し、これをメモリに記憶
するステップと、 前記メモリから前記波形データを所定の間で繰返し読み
出しし、かつ読み出すべき波形データを順番に切り替え
ることで、所定の読み出しシーケンスを実行し、かつこ
の読み出しシーケンスを繰返すことで複数周期にわたる
ビブラートを実現するステップとを備えるビブラート発
生方法。
6. A method of extracting a plurality of dispersed waveform data from an original waveform to which vibrato is added, storing the dispersed data in a memory, and repeatedly reading the waveform data from the memory at a predetermined interval, and reading the waveform data. Executing a predetermined read sequence by sequentially switching the waveform data, and realizing vibrato over a plurality of cycles by repeating the read sequence.
【請求項7】 ビブラートの複数周期に対応して、複数
の分散的な波形データを記憶した記憶手段と、 前記各波形データのビブラート1周期内における相対的
時間位置を保ちつつ、各波形データの属するビブラート
周期位置を入れ替えることにより、ビブラートの複数周
期にわたる各波形データの読み出し順序を任意に可変設
定する設定手段と、 前記記憶手段から波形データを所定の間で繰返し読み出
しし、かつ読み出すべき波形データを前記設定された読
み出し順序で順番に切り替えることで、複数周期にわた
るビブラートを実現する読出手段とを備えるビブラート
発生装置。
7. A storage means for storing a plurality of dispersive waveform data corresponding to a plurality of cycles of vibrato, and storing a relative time position of each of the waveform data in one cycle of the vibrato while storing each waveform data. Setting means for arbitrarily setting the reading order of each waveform data over a plurality of cycles of vibrato by replacing the vibrato cycle position to which the vibrato belongs, and waveform data to be repeatedly read out from the storage means at predetermined intervals and to be read out A vibrato generating apparatus comprising: reading means for realizing vibrato over a plurality of cycles by sequentially switching the order in the set reading order.
【請求項8】 前記読出手段は、前記設定された読み出
し順序に従う読出シーケンスを繰返すことで、更に複数
周期にわたるビブラートを繰返すようにした請求項7に
記載のビブラート発生装置。
8. The vibrato generating apparatus according to claim 7, wherein said reading means repeats a vibrato over a plurality of cycles by repeating a read sequence according to the set read order.
【請求項9】 ビブラートの複数周期に対応して、複数
の分散的な波形データを取り出し、これをメモリに記憶
するステップと、 前記各波形データのビブラート1周期内における相対的
時間位置を保ちつつ、各波形データの属するビブラート
周期位置を入れ替えることにより、ビブラートの複数周
期にわたる各波形データの読み出し順序を任意に可変設
定するステップと、 前記メモリから波形データを所定の間で繰返し読み出し
し、かつ読み出すべき波形データを前記設定された読み
出し順序で順番に切り替えることで、複数周期にわたる
ビブラートを実現するステップとを備えるビブラート発
生方法。
9. A method of extracting a plurality of dispersed waveform data corresponding to a plurality of cycles of vibrato and storing the same in a memory, while maintaining a relative time position of each of the waveform data in one cycle of the vibrato. Arbitrarily setting the reading order of each waveform data over a plurality of cycles of vibrato by replacing the vibrato cycle position to which each waveform data belongs; and repeatedly reading and reading the waveform data from the memory at a predetermined interval. Realizing vibrato over a plurality of cycles by sequentially switching waveform data to be output in the set reading order.
JP27830798A 1997-09-30 1998-09-30 Vibrato generating apparatus and method Expired - Fee Related JP3669177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27830798A JP3669177B2 (en) 1997-09-30 1998-09-30 Vibrato generating apparatus and method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP9-284423 1997-09-30
JP28442397 1997-09-30
JP10-244421 1998-08-13
JP24442198 1998-08-13
JP27830798A JP3669177B2 (en) 1997-09-30 1998-09-30 Vibrato generating apparatus and method

Publications (2)

Publication Number Publication Date
JP2000122664A true JP2000122664A (en) 2000-04-28
JP3669177B2 JP3669177B2 (en) 2005-07-06

Family

ID=27333241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27830798A Expired - Fee Related JP3669177B2 (en) 1997-09-30 1998-09-30 Vibrato generating apparatus and method

Country Status (1)

Country Link
JP (1) JP3669177B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219448A (en) * 2006-02-20 2007-08-30 Yamaha Corp Musical sound synthesizer and program
JP2008158214A (en) * 2006-12-22 2008-07-10 Yamaha Corp Musical sound synthesizer and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219448A (en) * 2006-02-20 2007-08-30 Yamaha Corp Musical sound synthesizer and program
JP2008158214A (en) * 2006-12-22 2008-07-10 Yamaha Corp Musical sound synthesizer and program

Also Published As

Publication number Publication date
JP3669177B2 (en) 2005-07-06

Similar Documents

Publication Publication Date Title
US6150598A (en) Tone data making method and device and recording medium
JP3744216B2 (en) Waveform forming apparatus and method
JP3644263B2 (en) Waveform forming apparatus and method
US6403871B2 (en) Tone generation method based on combination of wave parts and tone-generating-data recording method and apparatus
EP1026660B1 (en) Apparatus for and method of inputting a style of rendition
EP1850320B1 (en) Tone synthesis apparatus and method
US20060272482A1 (en) Tone synthesis apparatus and method
JP3601371B2 (en) Waveform generation method and apparatus
JP3675184B2 (en) Waveform forming apparatus and method
JP3520781B2 (en) Apparatus and method for generating waveform
JP3654084B2 (en) Waveform generation method and apparatus
JP3724222B2 (en) Musical sound data creation method, musical sound synthesizer, and recording medium
JP3669177B2 (en) Vibrato generating apparatus and method
JP2004078095A (en) Playing style determining device and program
JP3562341B2 (en) Editing method and apparatus for musical sound data
JP3873985B2 (en) Musical sound data editing method and apparatus
JP3724223B2 (en) Automatic performance apparatus and method, and recording medium
JP3904012B2 (en) Waveform generating apparatus and method
JP4552769B2 (en) Musical sound waveform synthesizer
JP3381581B2 (en) Performance data editing device and recording medium storing performance data editing program
JP3613191B2 (en) Waveform generation method and apparatus
JP3654026B2 (en) Performance system compatible input system and recording medium
JP3726765B2 (en) Waveform forming apparatus and method
JP3933162B2 (en) Waveform generation method and apparatus
JP4007374B2 (en) Waveform generation method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050404

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees