JP3525482B2 - Sound source device - Google Patents
Sound source deviceInfo
- Publication number
- JP3525482B2 JP3525482B2 JP05019694A JP5019694A JP3525482B2 JP 3525482 B2 JP3525482 B2 JP 3525482B2 JP 05019694 A JP05019694 A JP 05019694A JP 5019694 A JP5019694 A JP 5019694A JP 3525482 B2 JP3525482 B2 JP 3525482B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- frame
- frame data
- intensity
- frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Description
【0001】[0001]
【産業上の利用分野】この発明は、楽音波形データを時
系列のフレームに分割し、各フレームにおける周波数ス
ペクトルを所定個数のピークデータ(周波数データ,強
度データ)からなるフレームデータとして表現し、この
時系列のフレームデータに表現されているピーク音を発
生して加算合成することにより楽音信号を発生する分析
合成系の音源装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention divides tone waveform data into time-series frames and expresses the frequency spectrum in each frame as frame data consisting of a predetermined number of peak data (frequency data, intensity data). The present invention relates to a sound source device of an analysis and synthesis system that generates a musical tone signal by generating peak sounds represented in time-series frame data and performing additive synthesis.
【0002】[0002]
【従来の技術】本出願人は、従来より、特願平3−27
1183号,特願平3−282988号などで分析合成
系の音源を提案している。この分析合成系の音源は、波
形メモリ型の音源の特長である原音の再現性の良さを備
えているとともに、FM音源などの基本波合成系の音源
の特長である波形の加工性の良さを兼ね備えたものであ
る。すなわち、音声信号の周波数スペクトルにおける複
数個(128個程度)のピークに対応する基本波形デー
タ(sin波)を発生してこれを加算合成することによ
り、殆ど原音と同一の波形を再現することができ、且
つ、波形メモリ型音源に比べてデータ量を小さくするこ
とができる。さらに、原音波形からピークデータ(周波
数データ,強度データ)として特徴が抽出されているた
め、これを加工することにより、音色の加工も容易であ
る。2. Description of the Related Art The applicant of the present invention has previously filed Japanese Patent Application No. 3-27.
No. 1183 and Japanese Patent Application No. 3-282988 propose sound sources for analysis and synthesis. This analysis / synthesis sound source has the good reproducibility of the original sound, which is the characteristic of the waveform memory type sound source, and the good waveform processability, which is the characteristic of the fundamental wave synthesis type sound source such as the FM sound source. It has both. That is, almost the same waveform as the original sound can be reproduced by generating basic waveform data (sin waves) corresponding to a plurality of peaks (about 128) in the frequency spectrum of the audio signal and adding and synthesizing the basic waveform data. In addition, the amount of data can be reduced as compared with the waveform memory type sound source. Further, since the features are extracted as peak data (frequency data, intensity data) from the original sound waveform, the tone color can be easily processed by processing the features.
【0003】[0003]
【発明が解決しようとする課題】このような分析合成系
の音源において、複数の音色(ボイスデータ)の中間音
色を生成する場合や発音中の音色から他の音色に移行す
る場合には、これら異なる音色間で周波数データ,強度
データを直線補間して中間値を生成し、そのデータで楽
音波形を形成していた。しかしながら、このような直線
補間方式はこのような分析合成系の音源で中間音色を生
成する手法として最適ではない。たとえば、アタック部
のように非線型的な性格を持った部分で直線補間を行っ
た場合や、時間的変動の少ない澄んだ音色と時間的なパ
ラメータ変動を多く含むノイズ的な音色との間で直線補
間を行った場合には、中間音色が原音と全く異なる濁っ
た音色となって非調和感が増大する場合があった。In such a sound source of the analysis and synthesis system, when an intermediate tone color of a plurality of tone colors (voice data) is generated or when a tone color being sounded is changed to another tone color, Frequency data and intensity data are linearly interpolated between different timbres to generate an intermediate value, and a tone waveform is formed from the data. However, such a linear interpolation method is not optimal as a method for generating an intermediate tone color by such a sound source of the analysis and synthesis system. For example, when linear interpolation is performed in a part with a non-linear character such as the attack part, or between a clear tone with little temporal variation and a noise-like tone with many temporal parameter variations. When linear interpolation is performed, the intermediate tone color may be a muddy tone color that is completely different from the original tone, and the inharmonicity may increase.
【0004】さらに、全てのピークデータについて直線
補間を行うためには、膨大な演算が必要であり、これを
時系列にフレームデータが出力される毎にリアルタイム
に行うためには、大規模な演算部が必要になった。Further, a huge amount of calculation is required to perform linear interpolation on all peak data, and a large-scale calculation is required to perform this in real time every time frame data is output in time series. I needed a section.
【0005】この発明は、分析合成系の音源において、
複数の音色のフレームデータを構成する周波数データ,
強度データを組み合わせることにより、自然な中間音色
を発生することができる音源装置を提供することを目的
とし、さらに、複数の音色のフレームデータを構成する
周波数データ,強度データを徐々に置き換えることによ
り、滑らかな音色の移行をすることができ、且つ、処理
が簡略な音源装置を提供することを目的とする。The present invention relates to a sound source of analysis and synthesis system,
Frequency data that constitutes frame data of multiple tones,
By combining intensity data, it is an object to provide a sound source device that can generate a natural intermediate tone color. Furthermore, by gradually replacing frequency data and intensity data that form frame data of a plurality of tone colors, It is an object of the present invention to provide a sound source device capable of smooth transition of tone colors and having simple processing.
【0006】[0006]
【課題を解決するための手段】この出願の請求項1の発
明は、楽音波形データの周波数スペクトルを所定個数の
チャンネルに分割して各チャンネル毎にピークを抽出
し、該各チャンネル毎のピークの周波数データ,強度デ
ータをフレームデータとし、このフレームデータを前記
楽音波形データの発音から消音まで時系列に配列して構
成されたボイスデータを複数記憶した記憶手段と、フレ
ームデータを順次入力し、前記各ピークデータの周波数
データ,強度データで指示される基本波を発生して合成
することにより楽音信号を形成する合成手段と、前記記
憶手段に記憶されている複数のボイスデータからそれぞ
れフレームデータを同時に読み出し、各チャンネル毎に
該複数のフレームデータの周波数データ,強度データか
ら任意の1つを選択し、これを組み合わせて新たな1つ
のフレームデータを構成して前記合成手段に入力する中
間音色生成手段と、を備えたことを特徴とする。この出
願の請求項2の発明は、前記記憶手段は、外部入力され
る操作量データの重みを調整するデータであって、各チ
ャンネル別に時間的に変化する係数データを記憶してお
り、前記合成手段は、入力された操作量データを前記係
数データで重みづけした値で各チャンネルの強度データ
を制御することを特徴とする。 SUMMARY OF THE INVENTION The invention of claim 1 of this application, the frequency spectrum of the tone waveform data of a predetermined number
Is divided into channels to extract the peak for each channel, the frequency data of the peak of each said respective channels, the intensity data and frame data, arranges the frame data in the time series to mute the sound of the musical tone waveform data Synthesizing to form a tone signal by sequentially inputting frame data and a storage means storing a plurality of constituted voice data, and generating and synthesizing a fundamental wave indicated by frequency data and intensity data of each peak data. means and reads out the respective frame data from a plurality of voice data stored in the storage means at the same time, the frequency data of <br/> plurality of frame data for each channel, or intensity data
Select one of the Luo optionally, characterized by comprising an intermediate tone generating means for input to the combining means to configure a new one-frame data by combining this,. This out
According to the invention of claim 2, the storage means is externally input.
Data for adjusting the weight of the manipulated variable data
Store coefficient data that changes with time for each channel.
The synthesizing means uses the input operation amount data as the correlation
Intensity data of each channel with values weighted by several data
It is characterized by controlling.
【0007】この出願の請求項3の発明は、楽音波形デ
ータの周波数スペクトルから所定個数のピークを抽出
し、該所定個数のピークの周波数データ,強度データを
フレームデータとし、このフレームデータを前記楽音波
形データの発音から消音まで時系列に配列して構成され
たボイスデータを複数記憶した記憶手段と、フレームデ
ータを順次入力し、前記各ピークデータの周波数デー
タ,強度データで指示される基本波を発生して合成する
ことにより楽音信号を形成する合成手段と、を備えた音
源装置において、前記記憶手段に記憶されている2つの
ボイスデータからそれぞれフレームデータを同時に読み
出し、前記合成手段に出力するフレームデータを構成す
る周波数データ,強度データの内容を第1のフレームデ
ータのものから第2のフレームデータのものに1フレー
ム毎に徐々に置き換えてゆく音色変更手段を設けたこと
を特徴とする。According to the third aspect of the present invention, a predetermined number of peaks are extracted from the frequency spectrum of the musical tone waveform data, and the frequency data and intensity data of the predetermined number of peaks are used as frame data. A storage means for storing a plurality of voice data arranged in time series from sounding to muffling of waveform data and frame data are sequentially input to generate a fundamental wave indicated by frequency data and intensity data of each peak data. In a sound source device including a synthesizing unit for generating and synthesizing a tone signal, a frame for simultaneously reading frame data from two voice data stored in the storing unit and outputting the frame data to the synthesizing unit. The contents of the frequency data and intensity data that make up the data are changed from those of the first frame data to the second Characterized in that a tone color changing means Yuku replaced gradually for each frame to that of the frame data.
【0008】この発明では、複数のボイスデータからそ
れぞれフレームデータを同時に読み出し、該複数のフレ
ームデータの周波数データ,強度データを組み合わせて
新たな1つのフレームデータを構成する。組み合わせ方
は任意であるが、複数のフレームデータ間の特定のピー
クデータ(1つのピークに対応する周波数データ,強度
データの組)同士を比較し、強度データの大きい方のピ
ークデータを選択する方式や、複数のフレームデータか
ら交互にピークデータを選択してゆく方式などがある。
このようにして構成された新たなフレームデータを合成
手段に入力する。新たなフレームデータには、原音の周
波数スペクトルのピークがデータとして含まれているた
め、似た音色となり、処理も容易である。In the present invention, frame data is simultaneously read from a plurality of voice data, and frequency data and intensity data of the plurality of frame data are combined to form one new frame data. The combination method is arbitrary, but a method of comparing specific peak data (a set of frequency data and intensity data corresponding to one peak) between a plurality of frame data and selecting the peak data with the larger intensity data. Alternatively, there is a method of alternately selecting peak data from a plurality of frame data.
The new frame data thus configured is input to the synthesizing means. Since the peak of the frequency spectrum of the original sound is included as data in the new frame data, the timbre is similar and the processing is easy.
【0009】また、この発明では、2つのボイスデータ
からそれぞれフレームデータを同時に読み出すが、最初
は第1のフレームデータがそのまま合成手段に入力され
る。次のフレームでは第1のフレームデータの一部を第
2のフレームデータのものに置き換える。さらに、次の
フレームではさらに多くのデータを第2のフレームデー
タのものに置き換える。このようにして最終的には全て
が第2のフレームデータとなるようにする。これによ
り、滑らかに、且つ、簡略な処理でボイスデータ(音
色)の移行をすることができる。置き換えの方式は上記
第1の発明と同様に、どのような方式でもよく、たとえ
ば、高次倍音から置き換える方式や高低交互に置き換え
る方式などがある。Further , according to the present invention, the frame data is simultaneously read from the two voice data, but first, the first frame data is directly input to the synthesizing means. In the next frame, part of the first frame data is replaced with that of the second frame data. Further, in the next frame, more data is replaced with that of the second frame data. In this way, finally, all of them become the second frame data. As a result, the voice data (tone color) can be smoothly and easily transferred. The replacement method may be any method as in the first aspect of the invention. For example, there is a method of replacing higher harmonic overtones or a method of alternating higher and lower harmonics.
【0010】[0010]
【実施例】図6〜図9はこの発明の実施例である音源装
置に用いられるボイスデータを説明する図である。図6
は1つの楽音波形をフレームに分割する方式を説明する
図である。図7は各フレームの周波数特性を分析するフ
ィルタ構成を説明する図である。図8は各チャンネルに
おけるデータ抽出の方式を説明する図である。図9は上
記の方式で生成されたボイスデータの構成を示す図であ
る。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIGS. 6 to 9 are views for explaining voice data used in a sound source device according to an embodiment of the present invention. Figure 6
FIG. 4 is a diagram for explaining a method of dividing one musical tone waveform into frames. FIG. 7 is a diagram illustrating a filter configuration for analyzing the frequency characteristic of each frame. FIG. 8 is a diagram for explaining the method of data extraction in each channel. FIG. 9 is a diagram showing a structure of voice data generated by the above method.
【0011】楽音信号は発音から消音までを32kHz
の周波数でサンプリングされ、ディジタルの楽音波形デ
ータとされる。この楽音波形データから連続する204
8サンプルを抽出して1フレームとする。この1フレー
ムの楽音波形データをフーリエ解析して周波数スペクト
ルを求め、これを図7に示すようなフィルタアレイによ
って128チャンネルの周波数帯域に分割する。フィル
タアレイの各フィルタ毎に、その周波数帯域におけるピ
ークの周波数データとその強度データを抽出する(図8
参照)。このようにして1フレームにつき、128個の
ピークデータ(周波数データ,強度データ)が抽出され
る。これをフレームデータとする。楽音波形データから
のフレームの切り出しは、図6に示すように楽音波形デ
ータの先頭(発音時)から最後尾(消音)まで6サンプ
ル(2ms)毎にオーバーラップして行われる。楽音波
形データの発音から消音までの間で切り出されたフレー
ム数がn個あるとすると、ボイスデータはn個のフレー
ムデータからなるデータとなる。The musical tone signal is 32 kHz from sound generation to mute.
Are sampled at the frequency of and are made into digital musical tone waveform data. Consecutive 204 from this tone waveform data
Eight samples are extracted to make one frame. This one frame of musical tone waveform data is subjected to Fourier analysis to obtain a frequency spectrum, which is divided into 128 channel frequency bands by a filter array as shown in FIG. For each filter of the filter array, the peak frequency data and its intensity data in that frequency band are extracted (FIG. 8).
reference). In this way, 128 peak data (frequency data, intensity data) are extracted per frame. This is frame data. The frame is cut out from the musical tone waveform data by overlapping every 6 samples (2 ms) from the beginning (during sound generation) to the end (silence) of the musical tone waveform data as shown in FIG. Assuming that the number of frames cut out from the sounding of the tone waveform data to the mute is n, the voice data is data consisting of n frame data.
【0012】このようなボイスデータを用いて楽音信号
を合成する場合には、フレームデータを読み出し、各ピ
ークデータの周波数データで指示される周波数の基本波
形データをその強度データで指示される強度で発生して
これらを加算合成する。フレームデータの読み出しは6
サンプリングタイミング(2ms)毎に行い、その間の
5サンプリングタイミングの間は各データを直線補間す
ればよい。この補間は同一のボイスデータ内における処
理であるため、非調和的になることはない。このように
することにより、サンプリング音源に近い品質の楽音信
号を合成することができる。When synthesizing a tone signal using such voice data, the frame data is read out and the basic waveform data of the frequency indicated by the frequency data of each peak data is converted into the intensity indicated by the intensity data. It is generated and these are added and synthesized. 6 to read frame data
The sampling may be performed at every sampling timing (2 ms), and each data may be linearly interpolated during 5 sampling timings in between. Since this interpolation is processing within the same voice data, it does not become anharmonic. By doing so, it is possible to synthesize a musical tone signal having a quality close to that of the sampling sound source.
【0013】図1はこの発明の音源装置が適用される電
子楽器のブロック図である。また、図2は同電子楽器内
で送受される各種データ・信号のタイミングチャートで
ある。この電子楽器は、上記ボイスデータを用いて楽音
信号を形成する。前記ボイスデータの抽出は分析部6が
行い、抽出されたボイスデータは音源部5のボイスデー
タメモリ10に記憶される。FIG. 1 is a block diagram of an electronic musical instrument to which the sound source device of the present invention is applied. Further, FIG. 2 is a timing chart of various data and signals transmitted and received in the electronic musical instrument. This electronic musical instrument forms a musical tone signal using the voice data. The analysis unit 6 extracts the voice data, and the extracted voice data is stored in the voice data memory 10 of the sound source unit 5.
【0014】この電子楽器には、演奏者が操作する操作
子として演奏操作子1,補助操作子2および音色指定操
作子3が設けられている。演奏操作子1は、例えば、タ
ッチ強度センサ付きの鍵盤のような音高とその強さを指
定することができるものを用いる。補助操作子2は、例
えば、モジュレーションホイールなどの操作子であり、
楽音信号に付与される効果や音色の変化を制御するもの
である。音色指定操作子3は、例えば、音色選択スイッ
チなどのようなものであり、音源部5が発生する楽音の
音色を選択指定するものである。この音色指定操作子3
が指定可能な音色は、ボイスデータメモリ10に記憶さ
れているボイスデータをそのまま合成した音色のみなら
ず、複数のボイスデータの中間的な音色も指定できるも
のとする。This electronic musical instrument is provided with a performance operator 1, an auxiliary operator 2, and a tone color designating operator 3 as operators operated by the player. As the performance operator 1, for example, a keyboard such as a keyboard with a touch strength sensor that can specify a pitch and its strength is used. The auxiliary operator 2 is, for example, an operator such as a modulation wheel,
It controls the effect added to the tone signal and the change in tone color. The tone color designating operator 3 is, for example, a tone color selection switch or the like, and selects and designates a tone color of a musical tone generated by the sound source unit 5. This tone designating operator 3
The tone color that can be designated is not only a tone color obtained by directly combining the voice data stored in the voice data memory 10 but also an intermediate tone color of a plurality of voice data.
【0015】演奏操作子1,補助操作子2,音色選択操
作子3の操作内容は、制御部4に入力される。制御部4
はこれら操作子の操作内容に応じて種々のデータを生成
して音源部5に出力する。制御部4から音源部5に出力
されるデータとしては、キーオンパルスKON,キーコ
ードKC,タッチ強度データTCH,音色指定データT
C,補助操作子2の操作量データDCONTなどであ
り、このほかフレームカウンタのカウント値FRMCN
Tを含む各種のタイミング信号が出力される。The operation contents of the performance operator 1, the auxiliary operator 2, and the tone color selection operator 3 are input to the control section 4. Control unit 4
Generates various data according to the operation contents of these operators and outputs it to the sound source unit 5. The data output from the control unit 4 to the sound source unit 5 includes a key-on pulse KON, a key code KC, touch intensity data TCH, and tone color designation data T.
C, the operation amount data DCONTT of the auxiliary operator 2, and the count value FRMCN of the frame counter.
Various timing signals including T are output.
【0016】音源部5は、ボイスデータメモリ10,フ
レームデータ読出制御部11,フレームデータ処理部1
2,フレームデータ補間部13,合成部14および波形
処理部15からなっている。ボイスデータメモリ10は
図9に示したボイスデータを複数個記憶している。ボイ
スデータはフレームデータ読出制御部11によって読み
出される。フレームデータ読出制御部11には音色指定
データTCが入力されており、フレームデータ読出制御
部11はボイスデータメモリ10から読み出すボイスデ
ータをこの音色指定データTCに基づいて決定する。な
お、フレームデータ読出制御部11は、音色指定データ
TCで指定された音色が中間音色の場合には、該音色を
生成するための複数個のボイスデータを同時に読み出
し、楽音の発音中に音色指定データTCが切り換えられ
たときは、音色をオーバーラップして変更するため2つ
のボイスデータを同時に読み出す。The sound source unit 5 includes a voice data memory 10, a frame data read control unit 11, and a frame data processing unit 1.
2, a frame data interpolating unit 13, a synthesizing unit 14, and a waveform processing unit 15. The voice data memory 10 stores a plurality of voice data shown in FIG. The voice data is read by the frame data read control unit 11. Tone color designation data TC is input to the frame data read control unit 11, and the frame data read control unit 11 determines voice data to be read from the voice data memory 10 based on the tone color designation data TC. When the tone color designated by the tone color designation data TC is an intermediate tone color, the frame data read control unit 11 simultaneously reads out a plurality of voice data for generating the tone color and designates the tone color during the tone generation. When the data TC is switched, two voice data are read at the same time in order to change the tone color by overlapping.
【0017】フレームデータ処理部12は、フレームデ
ータ読出制御部11が2個のボイスデータのフレームデ
ータVa(FRQa,i ,MAGa,i ),Vb(FRQb,
i ,MAGb,i )(i=0〜127)を同時に読み出し
たとき、これらのフレームデータを組み合わせることに
よって新たな1つのフレームデータ(FRQi,MAG
i)を生成し、次のフレームデータ補間部13に出力す
る。中間音色を発生する場合には、補助操作子2の操作
量データに基づいて0〜127のチャンネル毎に両フレ
ームデータからいずれかのピークデータを選択し、これ
を組み合わせて新たなフレームデータを生成する。ま
た、音色をオーバーラップして変更する場合には、変更
元の音色のフレームデータのピークデータを変更先の音
色のフレームデータのピークデータに置き換えてゆき、
全てのピークデータが変更先の音色に置き換えられたと
き、変更元の音色の読み出しを停止して音色の変更を完
了する。In the frame data processing unit 12, the frame data read control unit 11 uses the frame data Va (FRQa, i, MAGa, i) and Vb (FRQb, FRQb,
i, MAGb, i) (i = 0 to 127) are read out at the same time, new frame data (FRQi, MAG) is created by combining these frame data.
i) is generated and output to the next frame data interpolating unit 13. When an intermediate tone color is generated, any peak data is selected from both frame data for each channel of 0 to 127 based on the operation amount data of the auxiliary operator 2, and this is combined to generate new frame data. To do. Also, when changing the timbre by overlapping it, replace the peak data of the frame data of the original timbre with the peak data of the frame data of the new timbre,
When all the peak data have been replaced with the tone color of the change destination, the reading of the tone color of the change source is stopped and the tone color change is completed.
【0018】フレームデータ補間部13には、6サンプ
リングクロック毎にフレームデータ(FRQi,MAG
i)が入力される。フレームデータ補間部13は、新た
に入力されたフレームデータと直前のフレームデータと
の間で直線補間演算を行いフレームデータとフレームデ
ータとの間の5サンプリングタイミングにおけるフレー
ムデータを生成する。したがって、フレームデータ補間
部13は、発音開始から2フレームのフレームデータが
入力されたとき、各サンプリングタイミング毎に補間さ
れたフレームデータ(IFRQi,IMAGi)の出力
を開始する(図2参照)。The frame data interpolating unit 13 supplies the frame data (FRQi, MAG) every 6 sampling clocks.
i) is input. The frame data interpolating unit 13 performs a linear interpolation calculation between the newly input frame data and the immediately preceding frame data to generate frame data at 5 sampling timings between the frame data and the frame data. Therefore, the frame data interpolating unit 13 starts outputting the interpolated frame data (IFRQi, IMAGi) at each sampling timing when the frame data of two frames is input from the start of sound generation (see FIG. 2).
【0019】合成部14は、フレームデータ補間部13
から入力されるフレームデータ(IFRQi,IMAG
i)に基づいて楽音波形データを合成する回路である。
フレームデータは128個のピークデータからなってい
るが、各ピークデータの周波数データで指定される周波
数の基本波形データを該ピークデータの強度データで指
定される強度で発生する。発生された128個の基本波
形データを加算合成して楽音波形データWAVEを形成
する。合成部14が合成した楽音波形データWAVEは
波形処理部15に入力される。波形処理部15は、この
波形データWAVEに対して残響などの種々の効果を付
与する。付与する効果の種類や程度は、制御部4から入
力されるキーコードTC,タッチ強度データTCH,音
色指定データTCに基づいて決定される。波形処理部1
5で効果が付与された楽音波形データは出力データOU
Tとして出力される。出力された出力データOUTはア
ナログ化されて増幅されスピーカなどから放音される。The synthesizing section 14 is a frame data interpolating section 13
Frame data (IFRQi, IMAG
It is a circuit for synthesizing tone waveform data based on i).
The frame data is composed of 128 pieces of peak data, but the basic waveform data of the frequency specified by the frequency data of each peak data is generated with the strength specified by the strength data of the peak data. The generated 128 basic waveform data are added and synthesized to form musical tone waveform data WAVE. The musical tone waveform data WAVE synthesized by the synthesizer 14 is input to the waveform processor 15. The waveform processing unit 15 gives various effects such as reverberation to the waveform data WAVE. The type and degree of the effect to be given are determined based on the key code TC, the touch intensity data TCH, and the tone color designation data TC input from the control unit 4. Waveform processing unit 1
The tone waveform data to which the effect is added in 5 is output data OU
It is output as T. The output data OUT that has been output is analogized, amplified, and emitted from a speaker or the like.
【0020】図3は前記フレームデータ処理部12の構
成図である。フレームデータ処理部12は、フレームデ
ータ読出制御部11から同時に入力される2つのボイス
データのフレームデータVa(FRQa,MAGa),
Vb(FRQb,MAGb)から新たな1つのフレーム
データを構成する回路である。新たなフレームデータの
構成は、0〜127チャンネル毎に2個のフレームデー
タのうちいずれか一方のピークデータを選択することに
よって行われる。ピークデータの選択は、両フレームデ
ータの強度データMAGa,i ,MAGb,i (i=0〜1
27)に所定の値を乗算し、その乗算結果の値が大きい
方のピークデータを選択するようにしている。所定の値
とは、補助操作子2の操作量データDCONTに強度デ
ータメモリ20から読み出される係数MCa,i ,MCb,
i (i=0〜127)を乗算したものである。FIG. 3 is a block diagram of the frame data processing unit 12. The frame data processing unit 12 receives the frame data Va (FRQa, MAGa) of two voice data which are simultaneously input from the frame data read control unit 11,
This is a circuit that forms one new frame data from Vb (FRQb, MAGb). The configuration of new frame data is performed by selecting one of the two peak data for each channel of 0 to 127. The peak data is selected by the intensity data MAGa, i, MAGb, i (i = 0 to 1) of both frame data.
27) is multiplied by a predetermined value, and the peak data having the larger value of the multiplication result is selected. The predetermined value means the coefficients MCa, i, MCb, which are read from the intensity data memory 20 in the operation amount data DCONT of the auxiliary operator 2.
i (i = 0 to 127).
【0021】フレームデータVaの周波数データFRQ
aはセレクタ25の一方の入力端子0に入力される。ま
た、フレームデータVaの強度データMAGaは乗算器
23に入力される。乗算器23には、補助操作子2の操
作量データDCONTに強度係数メモリ20から読み出
された強度係数MCaを乗算した係数値が入力される。
この乗算は乗算器21で行われる。乗算器23によって
係数値を乗算された強度データMAGa′は比較器26
の入力端子Aおよびセレクタ27の入力端子0に入力さ
れる。Frequency data FRQ of frame data Va
a is input to one input terminal 0 of the selector 25. The intensity data MAGa of the frame data Va is input to the multiplier 23. A coefficient value obtained by multiplying the operation amount data DCONT of the auxiliary operator 2 by the intensity coefficient MCa read from the intensity coefficient memory 20 is input to the multiplier 23.
This multiplication is performed by the multiplier 21. The intensity data MAGa ′ multiplied by the coefficient value by the multiplier 23 is the comparator 26.
Input terminal A and input terminal 0 of the selector 27.
【0022】一方、フレームデータVbの周波数データ
FRQbはセレクタ25の入力端子1に入力される。ま
た、フレームデータVbの強度データMAGbは乗算器
24に入力される。乗算器24には、補助操作子2の操
作量データDCONTに強度係数メモリ20から読み出
された強度係数MCbを乗算した係数値が入力される。
この乗算は乗算器22で行われる。乗算器24によって
係数値を乗算された強度データMAGb′は比較器26
の入力端子Bおよびセレクタ27の入力端子1に入力さ
れる。On the other hand, the frequency data FRQb of the frame data Vb is input to the input terminal 1 of the selector 25. The intensity data MAGb of the frame data Vb is input to the multiplier 24. A coefficient value obtained by multiplying the operation amount data DCONT of the auxiliary operator 2 by the intensity coefficient MCb read from the intensity coefficient memory 20 is input to the multiplier 24.
This multiplication is performed by the multiplier 22. The intensity data MAGb ′ multiplied by the coefficient value by the multiplier 24 is the comparator 26.
Input terminal B and input terminal 1 of the selector 27.
【0023】ここで、比較器26は入力端子Bのデータ
が入力端子Aのデータよりも大きいときに“1”を出力
する。この信号はセレクタ25,27にセレクト信号と
して供給される。セレクタ25,27のセレクト端子に
“1”が入力されると入力端子1側のデータが出力端子
から出力される。また、セレクタ25,27のセレクト
端子に“0”が入力されているときは入力端子0側のデ
ータが出力端子から出力される。セレクタ25,27と
も、入力端子0にはフレームデータVaのデータが入力
され、入力端子1にはフレームデータVbのデータが入
力されているため、MAGa′≧MAGb′のときフレ
ームデータVaが選択出力され、MAGa′<MAG
b′のときフレームデータVbが選択出力されることに
なる。Here, the comparator 26 outputs "1" when the data at the input terminal B is larger than the data at the input terminal A. This signal is supplied to the selectors 25 and 27 as a select signal. When "1" is input to the select terminals of the selectors 25 and 27, the data on the input terminal 1 side is output from the output terminal. When "0" is input to the select terminals of the selectors 25 and 27, the data on the input terminal 0 side is output from the output terminal. Since the data of the frame data Va is input to the input terminal 0 and the data of the frame data Vb is input to the input terminal 1 of both the selectors 25 and 27, the frame data Va is selected and output when MAGa ′ ≧ MAGb ′. And then MAGa ′ <MAG
When it is b ', the frame data Vb is selectively output.
【0024】なお、この回路は、チャンネル0〜チャン
ネル127の128チャンネル分並列に設けられてお
り、各チャンネル毎に独立してこの比較選択処理が行わ
れる。また、DCONTは補助操作子2がイニシャル状
態にあるとき1が出力されるように設定されており、補
助操作子2がどのように操作されても乗算器23,24
に入力される値が0になることがないようになってい
る。This circuit is provided in parallel for 128 channels from channel 0 to channel 127, and the comparison / selection process is performed independently for each channel. Further, the DCONTT is set so that 1 is output when the auxiliary operator 2 is in the initial state, and the multipliers 23, 24 are no matter how the auxiliary operator 2 is operated.
The value input to is never 0.
【0025】この回路により、各チャンネル毎にリアル
タイムにMAGが大きい方のフレームデータが選択さ
れ、中間音色を生成することができるとともに、コント
ローラでその音色の調整が可能になる。With this circuit, the frame data with the larger MAG is selected in real time for each channel, an intermediate tone color can be generated, and the tone color can be adjusted by the controller.
【0026】なお、強度係数メモリ20に記憶されてい
る係数MCa,i ,MCb,i は、補助操作子2の操作量デ
ータDCONTの作用を調整するためのデータであり、
フレーム毎,チャンネル毎にその値が記憶されている。
この係数値は、時系列に変化し、また、チャンネル毎に
変化し、さらに、ボイスデータVa,Vb毎に異なる。
たとえば、アタック時の係数値を大きくすれば、アタッ
ク時の音色を補助操作子2で大きくコントロールするこ
とができるようになる。また、高次倍音の係数値を大き
くすることにより、イコライザやフィルタのように機能
させることができる。The coefficients MCa, i, MCb, i stored in the intensity coefficient memory 20 are data for adjusting the action of the operation amount data DCONTT of the auxiliary operator 2.
The value is stored for each frame and each channel.
The coefficient value changes in time series, changes for each channel, and is different for each voice data Va, Vb.
For example, if the coefficient value at the time of attack is increased, the tone color at the time of attack can be greatly controlled by the auxiliary operator 2. In addition, by increasing the coefficient value of the high-order overtone, it can function as an equalizer or a filter.
【0027】図4はフレームデータ処理部の他の実施例
を示すブロック図である。この実施例のフレームデータ
処理部は、FRQai,FRQbi(i=0〜127)
が入力されるセレクタ31とMAGa,MAGbが入力
されるセレクタ32を備え、選択コンビネーション制御
部30が、これらセレクタ31,32に対してセレクト
信号を供給する。選択コンビネーション制御部30には
音色指定データTC,補助操作子2の操作量データDC
ONTおよびフレームカウンタのカウント値FRMCN
Tが入力される。選択コンビネーション制御部30は、
これらのデータに基づき各チャンネルのセレクタに対し
てフレーム毎にセレクト信号を出力する。セレクタ3
1,32は128チャンネル分並列に設けられているも
のとする。さらに、強度データMAGiは、他のチャン
ネルのデータMAGa/b,j (j≠i)を選択することも可能
である。すなわち、127チャンネルの強度データを0
チャンネルの強度データとして出力するなどの処理が可
能である。このような選択は、選択コンビネーション制
御部30がセレクタ32に対して指示する。この指示デ
ータはPORT端子を介してセレクタ32に入力され
る。FIG. 4 is a block diagram showing another embodiment of the frame data processing section. The frame data processing unit of this embodiment uses FRQai and FRQbi (i = 0 to 127).
Is provided and a selector 32 to which MAGa and MAGb are input, and the selection combination control unit 30 supplies a select signal to these selectors 31 and 32. The selection combination control unit 30 includes tone color designation data TC and operation amount data DC of the auxiliary operator 2.
Count value FRMCN of ONT and frame counter
T is input. The selection combination control unit 30
Based on these data, a select signal is output for each frame to the selector of each channel. Selector 3
It is assumed that 1 and 32 are provided in parallel for 128 channels. Further, as the intensity data MAGi, it is possible to select data MAGa / b, j (j ≠ i) of another channel. That is, the intensity data of 127 channels is set to 0
Processing such as outputting as channel intensity data is possible. The selection combination control unit 30 instructs the selector 32 to perform such selection. This instruction data is input to the selector 32 via the PORT terminal.
【0028】選択コンビネーション制御部30は、入力
された2つのフレームデータから新たな1つのフレーム
データを作成する方式・手順やピークデータの選択ルー
ルを複数種類記憶している。The selection combination control unit 30 stores a plurality of types / procedures for creating one new frame data from two input frame data and a plurality of peak data selection rules.
【0029】その例を図5に示す。同図(A)は、フレ
ームデータVaから徐々にフレームデータVbに変更す
ることにより音色を変更してゆく手順を示している。音
色指定データTCにより音色の変更が指示されると、そ
れまで全チャンネルでフレームデータVaのものを出力
していたが、1フレーム進むごとに高次倍音のチャンネ
ル(チャンネル127)から順にフレームデータVbの
ピークデータに入れ換えてゆくようにしている。これに
より、127フレーム(=254ms)で出力されるフ
レームデータが完全にフレームデータVaからフレーム
データVbに切り替わる。この場合でも、各ピークデー
タにおいて補間演算等が不要であるため、処理が容易で
あり、また、両音色a,bと全く異なる中間音色が生成
されることがないため、非調和的になることがない。An example thereof is shown in FIG. FIG. 9A shows a procedure for changing the timbre by gradually changing the frame data Va to the frame data Vb. When the timbre change data TC instructed to change the timbre, the data of the frame data Va was output on all the channels until then. However, the frame data Vb is sequentially output from the higher harmonic overtone channel (channel 127) each time one frame is advanced. I am trying to replace it with the peak data of. As a result, the frame data output in 127 frames (= 254 ms) is completely switched from the frame data Va to the frame data Vb. Even in this case, since it is not necessary to perform interpolation calculation or the like on each peak data, the processing is easy, and since an intermediate tone color completely different from both tone colors a and b is not generated, it becomes anharmonic. There is no.
【0030】同図(B)の例では、フレームデータVa
で発音しているときに、強度データのみフレームデータ
Vbのものに変更して新たな音色を生成する手順を示し
ている。また、この例ではフレームデータVbの高次倍
音の強度データを低次倍音の強度データとして入れ換え
るようにしている。すなわち、最初MAGb,127 をMA
Ga,0 に代えてMAG0 として設定し、次にMAGb,12
6 をMAG1 として設定し、最後にMAGb,0 をMAG
127 として設定している。このように、高次倍音の強度
データを低次倍音の強度データとして転用することによ
り新たな楽音を作ることができる。In the example of FIG. 3B, the frame data Va
Shows a procedure for changing only the intensity data to that of the frame data Vb to generate a new timbre while producing a sound. Further, in this example, the intensity data of the high-order overtone of the frame data Vb is replaced with the intensity data of the low-order overtone. That is, first MAGb, 127 is MA
Set as MAG0 instead of Ga, 0, then MAGb, 12
Set 6 as MAG1, and finally set MAGb, 0 to MAG
It is set as 127. In this way, a new musical tone can be created by diverting the intensity data of the high-order overtone as the intensity data of the low-order overtone.
【0031】音色の変更の方式は、図5に示した方式以
外にも種々の方式を採ることができる。また、上記2例
は一つのボイスデータ(音色)から他のボイスデータに
時系列に徐々に変更してゆく例を示したが、音色の変化
が中間音色で停止するようにしてもよい。また、予め設
定されている中間音色に即座に変更するよにしてもよ
い。さらに、図3のフレームデータ制御回路のようにD
CONTの入力に応じてリアルタイムに変更されるよう
にしてもよい。As the tone color changing method, various methods other than the method shown in FIG. 5 can be adopted. In the above two examples, one voice data (tone color) is gradually changed to another voice data in time series, but the tone color change may be stopped at an intermediate tone color. Alternatively, the preset intermediate tone color may be immediately changed. Further, as in the frame data control circuit of FIG.
It may be changed in real time according to the input of CONT.
【0032】なお、上記実施例では全く異なる音色間で
中間音色の生成や音色の変更を行う場合について説明し
たが、この発明は、マルチサンプリングの音色にも同様
に適用することが可能である。すなわち、同じ音色で音
高やタッチ強度の異なる2つのフレームデータ間の音色
変更や中間音の生成に適用することができる。In the above embodiment, the case where the intermediate tone color is generated or the tone color is changed between completely different tone colors has been described, but the present invention can be similarly applied to the multi-sampling tone color. That is, the present invention can be applied to tone color change between two frame data having the same tone color but different tone pitch and touch strength, and generation of an intermediate tone.
【0033】また、上記実施例ではサンプリング周波数
を32kHzとし、周波数分割のチャンネル数を128
チャンネルとしているが、この発明はこの仕様に限定さ
れるものではない。In the above embodiment, the sampling frequency is 32 kHz and the number of frequency division channels is 128.
However, the present invention is not limited to this specification.
【0034】さらに、実施例に示した音源システムは、
ハードウェアによっても、あるいはプログラム処理を含
むコンピュータまたはDSPを用いた構成によっても実
現可能である。勿論、これらを適宜組み合わせたハイブ
リッドシステムでもよい。Further, the sound source system shown in the embodiment is
It can be realized by hardware or by a configuration including a computer including program processing or a DSP. Of course, a hybrid system in which these are appropriately combined may be used.
【0035】[0035]
【発明の効果】以上のようにこの発明によれば、複数の
ボイスデータのフレームデータからデータを組み合わせ
て中間音色を生成するようにしたことにより、補間演算
に比して処理が容易であるとともに、両音色の特徴を備
えた調和的な音色を生成することができる。As described above, according to the present invention, since the intermediate tone color is generated by combining the data from the frame data of the plurality of voice data, the process is easier than the interpolation calculation. , It is possible to generate a harmonious timbre having the characteristics of both timbres.
【0036】また、第1のフレームデータから第2のフ
レームデータにデータを徐々に置き換えてゆくことによ
って音色を変更するようにしたことにより、処理が容易
になるとともに、不自然な中間音を経由して新たな音色
になることがない。Further, since the timbre is changed by gradually replacing the data from the first frame data to the second frame data, the processing is facilitated and unnatural intermediate sounds are passed through. And there is no new tone.
【図1】この発明の実施例である電子楽器のブロック図FIG. 1 is a block diagram of an electronic musical instrument that is an embodiment of the present invention.
【図2】同電子楽器の各種信号のタイミングチャートFIG. 2 is a timing chart of various signals of the electronic musical instrument.
【図3】同電子楽器のフレームデータ処理部の構成を示
す図FIG. 3 is a diagram showing a configuration of a frame data processing unit of the electronic musical instrument.
【図4】フレームデータ処理部の他の実施例を示す図FIG. 4 is a diagram showing another embodiment of the frame data processing unit.
【図5】前記フレームデータ処理部のフレームデータ変
更手順の例を示す図FIG. 5 is a diagram showing an example of a frame data changing procedure of the frame data processing unit.
【図6】同電子楽器で用いられるボイスデータの構成を
説明する図であり、1つの楽音波形をフレームに分割す
る方式を説明する図FIG. 6 is a diagram for explaining a structure of voice data used in the electronic musical instrument, and is a diagram for explaining a method of dividing one musical tone waveform into frames.
【図7】各フレームの周波数特性を分析するフィルタ構
成を説明する図FIG. 7 is a diagram illustrating a filter configuration for analyzing frequency characteristics of each frame.
【図8】各チャンネルにおけるデータ抽出の方式を説明
する図FIG. 8 is a diagram illustrating a data extraction method in each channel.
【図9】上記の方式で生成されたボイスデータの構成を
示す図FIG. 9 is a diagram showing a structure of voice data generated by the above method.
10−ボイスデータメモリ 12−フレームデータ処理部 10-Voice data memory 12-frame data processing unit
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10H 1/00 - 7/12 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G10H 1/00-7/12
Claims (3)
定個数のチャンネルに分割して各チャンネル毎にピーク
を抽出し、該各チャンネル毎のピークの周波数データ,
強度データをフレームデータとし、このフレームデータ
を前記楽音波形データの発音から消音まで時系列に配列
して構成されたボイスデータを複数記憶した記憶手段
と、 フレームデータを順次入力し、前記各ピークデータの周
波数データ,強度データで指示される基本波を発生して
合成することにより楽音信号を形成する合成手段と、 前記記憶手段に記憶されている複数のボイスデータから
それぞれフレームデータを同時に読み出し、各チャンネ
ル毎に該複数のフレームデータの周波数データ,強度デ
ータから任意の1つを選択し、これを組み合わせて新た
な1つのフレームデータを構成して前記合成手段に入力
する中間音色生成手段と、 を備えたことを特徴とする音源装置。1. A musical tone waveform own the frequency spectrum of the data <br/> divided into channels of a constant number to extract a peak for each channel, the peak of the frequency data for each said respective channels,
The intensity data is used as frame data, and a plurality of storage means for storing a plurality of voice data configured by arranging the frame data in time series from sounding of the musical tone waveform data to muffling, and the frame data are sequentially input, and each peak data is stored. read frequency data, a synthesizing means for forming a tone signal by combining by generating a fundamental wave indicated by intensity data, each frame data from a plurality of voice data stored in the storage means at the same time, each Channel
Frequency data of the plurality of frame data in each Le, select one from the intensity data of an arbitrary, an intermediate tone generating means for input to the combining means to configure a new one-frame data by combining this, A sound source device characterized by being provided .
データの重みを調整するデータであって、各チャンネル
別に時間的に変化する係数データを記憶しており、 前記合成手段は、入力された操作量データを前記係数デ
ータで重みづけした値で各チャンネルの強度データを制
御する請求項1に記載の音源装置。 2. The operation amount stored in the storage means is input externally.
Data for adjusting the weight of the data, and for each channel
Separately, the coefficient data that changes with time is stored, and the synthesizing unit converts the input operation amount data into the coefficient data.
The intensity data of each channel is controlled by the value weighted by the data.
The sound source device according to claim 1.
所定個数のピークを抽出し、該所定個数のピークの周波
数データ,強度データをフレームデータとし、このフレ
ームデータを前記楽音波形データの発音から消音まで時
系列に配列して構成されたボイスデータを複数記憶した
記憶手段と、 フレームデータを順次入力し、前記各ピークデータの周
波数データ,強度データで指示される基本波を発生して
合成することにより楽音信号を形成する合成手段と、を
備えた音源装置において、 前記記憶手段に記憶されている2つのボイスデータから
それぞれフレームデータを同時に読み出し、前記合成手
段に出力するフレームデータを構成する周波数データ,
強度データの内容を第1のフレームデータのものから第
2のフレームデータのものに1フレーム毎に徐々に置き
換えてゆく音色変更手段を設けたことを特徴とする音源
装置。3. A predetermined number of peaks are extracted from the frequency spectrum of the musical tone waveform data, and frequency data and intensity data of the predetermined number of peaks are used as frame data. A storage means for storing a plurality of voice data arranged in series and frame data are sequentially input, and a fundamental wave indicated by the frequency data and intensity data of each peak data is generated and synthesized to generate a musical tone. In a sound source device comprising a synthesizing unit for forming a signal, frequency data constituting frame data to be simultaneously read out from the two voice data stored in the storage unit and output to the synthesizing unit,
A sound source device comprising a tone color changing means for gradually replacing the content of intensity data from that of the first frame data to that of the second frame data for each frame.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05019694A JP3525482B2 (en) | 1994-03-22 | 1994-03-22 | Sound source device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05019694A JP3525482B2 (en) | 1994-03-22 | 1994-03-22 | Sound source device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07261763A JPH07261763A (en) | 1995-10-13 |
JP3525482B2 true JP3525482B2 (en) | 2004-05-10 |
Family
ID=12852399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05019694A Expired - Fee Related JP3525482B2 (en) | 1994-03-22 | 1994-03-22 | Sound source device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3525482B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3097534B2 (en) * | 1995-12-21 | 2000-10-10 | ヤマハ株式会社 | Musical tone generation method |
-
1994
- 1994-03-22 JP JP05019694A patent/JP3525482B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07261763A (en) | 1995-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7750229B2 (en) | Sound synthesis by combining a slowly varying underlying spectrum, pitch and loudness with quicker varying spectral, pitch and loudness fluctuations | |
US5412152A (en) | Device for forming tone source data using analyzed parameters | |
JP4702392B2 (en) | Resonant sound generator and electronic musical instrument | |
EP1653442B1 (en) | Tone data generation method and tone synthesis method, and apparatus therefor | |
JP3525482B2 (en) | Sound source device | |
JP3279861B2 (en) | Music signal generator | |
JP2759163B2 (en) | Electronic musical instrument with built-in pedal effect adding device | |
JP3334165B2 (en) | Music synthesizer | |
JPH0535277A (en) | Electronic nusical instrument | |
JP3538908B2 (en) | Electronic musical instrument | |
JPS61204697A (en) | Tone signal generator | |
JP2722482B2 (en) | Tone generator | |
JPH05119782A (en) | Sound source device | |
JP3674154B2 (en) | Music synthesizer | |
JP3459016B2 (en) | Audio signal processing method and apparatus | |
JP2990897B2 (en) | Sound source device | |
JP2910632B2 (en) | Waveform memory sound generator | |
JP3226255B2 (en) | Music synthesis system | |
JP3304701B2 (en) | Music synthesizer | |
JPH07253785A (en) | Sound source device | |
JP5035388B2 (en) | Resonant sound generator and electronic musical instrument | |
JPH0795010A (en) | Digital filter | |
JPH04212995A (en) | Electronic musical instrument with built-in pedal effect attachment | |
JPH0122632B2 (en) | ||
JPH07334156A (en) | Electronic musical instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040209 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090227 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |