JP3747886B2 - Music synthesizer - Google Patents

Music synthesizer Download PDF

Info

Publication number
JP3747886B2
JP3747886B2 JP2002172471A JP2002172471A JP3747886B2 JP 3747886 B2 JP3747886 B2 JP 3747886B2 JP 2002172471 A JP2002172471 A JP 2002172471A JP 2002172471 A JP2002172471 A JP 2002172471A JP 3747886 B2 JP3747886 B2 JP 3747886B2
Authority
JP
Japan
Prior art keywords
sound
sound source
signal
area
gain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002172471A
Other languages
Japanese (ja)
Other versions
JP2004020685A (en
Inventor
正志 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002172471A priority Critical patent/JP3747886B2/en
Publication of JP2004020685A publication Critical patent/JP2004020685A/en
Application granted granted Critical
Publication of JP3747886B2 publication Critical patent/JP3747886B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明が属する技術分野】
本発明は、楽器をシュミレー卜した物理モデル音源を備える楽音合成装置に関する。
【0002】
【従来の技術】
クラリネット等の管楽器の演奏音を発生する楽音合成装置においては、管楽器のマウスピース内の空気振動の振る舞いを電気的にシミュレートすることにより、管楽器音を発生する物理モデル音源を備える楽音合成装置が知られている。このような管楽器の楽音合成装置においては、キーボード操作により押鍵のピッチ情報を入力させるとともに、押鍵速度、押鍵圧力等により吹奏操作の息圧やアンブシャーに対応したパラメータ制御信号を形成して物理モデル音源に入力させることにより、管楽器の電子音を発生させている。
【0003】
従来の管楽器アルゴリズムの物理モデル音源の構成例を図5に示す。図5において、吹奏圧に相当する息圧信号(BRETH)は、入力部となる減算器203に入力され、唇の締めや構えに相当する信号であるアンブシャー信号(AMBS)は、入力部となる加算器205に入力される。減算器203は信号ラインL2の入力信号から入力された息圧信号を減算することにより、マウスピースのリードを変位させるための差圧信号を出力する。減算器203の出力側にはローパスフィルタ(LPF)204が接続され、差圧信号の高域成分を除去している。これは、リードが高域成分に応答しないためである。加算器205は、アンブシャー信号とローパスフィルタ204の出力とを加算して第1非線形テーブル(NL1)206に出力する。この第1非線形テーブル(NL1)206は付与された圧力に対するリードの変位をシミュレートするもので、所定の非線形の入出力特性を有している。これにより、第1非線形テーブル206の出力はマウスピースのリードにおける空気通路面積を表す信号となる。
【0004】
第1非線形テーブル206の出力は乗算器216の一方の入力に接続される。乗算器216の他方の入力には第2非線形テーブル207の出力が供給されている。第2非線形テーブル207には、減算器203からの差圧信号が入力されており、狭い管路では流速が飽和することから差圧が大きくなった際に差圧と流速とが比例しなくなることを、第2非線形テーブル207はシミュレートしている。乗算器216は、第1非線形テーブル206の出力と第2非線形テーブル207の出力とを乗算することにより、マウスピースのリードにおける空気流速を表す信号を出力している。乗算器216の出力は、減衰器209を介して加算器210に入力される。減衰器209には管径に応じたループゲインが乗算されて、管径に応じて減衰されるようになる。減衰器209の出力は、加算器210に入力される。
【0005】
信号ラインL1,L2をたすき掛けする線路と、加算器210および加算器211とによりジャンクションが構成されている。この加算器210は、信号ラインL2を構成するためのディレイ回路215の出力信号と減衰器209の出力信号とを加算して信号ラインL1に出力している。また、加算器211は信号ラインL1の信号とディレイ回路215からの信号を加算して信号ラインL2に出力している。このループにより、マウスピースとリードとの間隙直後における入力流速による入射波と、共鳴管からの反射波の合成圧力がシミュレートされる。
信号ラインL1の信号は管の解放端での反射をシミュレートするフィルタ213と減衰器214、および、ディレイ回路215を介して信号ラインL2に帰還される。フィルタ213はローパスフィルタ単独またはローパスフィルタとハイパスフィルタとが組み合わされて用いられる。フィルタ213は共鳴管の形状をシミュレートしている。ディレイ回路215は、共鳴管の長さおよび同共鳴管の端部からトーンホールまでの長さに対応してマウスピースからの入射波が反射波としてマウスピースに戻ってくる状態をシミュレートしている。そして、信号ラインL1の波形信号を、空気中の楽音の放射特性をシミュレートするためのバンドパスフィルタ212を介して楽音として取り出している。
【0006】
【発明が解決しようとする課題】
ところで、演奏操作子の操作情報を直接音源に入力すると、ある操作領域では音がでなかったりあるいは不快な音やいわゆる裏返りの音(高次共振周波数での発振によって発する音)等の不整音を発生する場合があった。したがって、このような不整音発生を避けて演奏操作子を操作しなければならず、物理モデル音源を備える楽音合成装置の操作は容易ではなかった。
このような不整音は、例えば息圧とアンブシャーのパラメータが正常な発音領域に入っていないために生じる。管楽器の息圧とアンブシャーの関係は、図6に示すように、4本の直線により囲まれる音が鳴り始める正常な発音領域Aと、一度発生した音が持続する持続領域Bと、音が消えるまたは不快音を発生する不整音領域Cとにおおよそ分割される。したがって、演奏操作子をある息圧に対応した状態で操作した場合に、そのときのアンブシャーが高すぎまたは低すぎて発音領域Aに入らないと音は鳴り始めない。また、不整音領域Cに入れば音が消えたりまたは不快音や裏返り音を発生する。
これを利用して、物理モデル音源を備える楽音合成装置の操作を容易にするために、演奏操作子からの操作データが例えば不整音領域にある場合には、これを発音領域に入るデータに補正し、この補正されたデータを物理モデル音源に入力することが提案されていた(特開平3−225397号)。
【0007】
しかしながら、図6に示すような正常な発音領域Aと、一度発生した音が持続する持続領域Bと、音が消えるまたは不快音を発生する不整音領域Cとを知るためには、2次元領域において息圧とアンブシャーとの異なる値を組み合みあわせたパラメータを多数設定して実際に計測する必要があり、多大の労力と時間とが必要になるという問題点があった。
そこで、本発明は、物理モデル音源の発音領域を容易に見積もることができると共に、その操作を容易に行うことのできる楽音合成装置を提供することを目的としている。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明の楽音合成装置は、音高に対応する遅延量が設定される遅延手段を含む線形部と、該線形部を励振する励振部とからなる音源手段と、該音源手段における前記線形部と前記励振部により形成されるループのトータルゲインを算出し、算出されたトータルゲインに基づいて、前記音源手段の発音領域を見積もる制御手段と、該制御手段により見積もられた発音領域を含む領域上に、前記音源手段における演奏操作子により設定されている現行動作値を表示することができる表示手段とを備えている。
【0009】
また、上記本発明の楽音合成装置において、前記制御手段は、前記トータルゲインが1以上の領域を前記発音領域と見積もるようにしてもよい。
【0010】
このような本発明によれば、音源手段における線形部と励振部により形成されるループのループゲインを算出することにより、音源手段の発音領域を見積もることができるようになる。この場合、発音領域をループゲインが1以上の領域とすればよい。そして、見積もられた発音領域を含む領域において、音源手段における演奏操作子による現行動作値を表示できるようにしている。これにより、この現行動作値が発音領域内となるように演奏操作子を操作することにより、難しいといわれている物理モデル音源の演奏を容易に行うことができるようになる。
【0011】
【発明の実施の形態】
本発明の実施の形態における楽音合成装置のハードウェア構成をブロック図で図1に示す。
図1に示す楽音合成装置1において、CPU10は各種プログラムを実行することにより楽音合成装置1における楽音生成の動作を制御する中央処理装置(Central Processing Unit)である。メモリシステム(MEMORY SYSTEM)11は、CPU10が実行する楽音生成制御処理のプログラムや、各種データが格納されているROM(Read Only Memory)と、楽音合成装置1におけるメインメモリであり、CPU10のワークエリア等が設定されるRAM(Random Access Memory)から構成されるメモリシステムである。DSP(Digital Signal Processor)12は、CPU10の制御の基で物理モデルの音源アルゴリズムを実行することにより楽音を発生する信号処理装置である。DAC13は、発生された楽音をサンプリング周期でアナログ楽音信号に変換して出力するディジタル/アナログ変換器である。
【0012】
演奏操作子14は、キーボード等の演奏操作子であり、キーボード操作により押鍵のピッチ情報を出力しているとともに、押鍵速度、押鍵圧力等により吹奏操作の息圧やアンブシャーに対応した演奏操作子情報を出力している。この演奏操作子14を操作した際の演奏操作子情報はDSP12に供給されて、演奏操作子情報に応じた楽音がDSP12により発生されるようになる。一般操作子15は、パネル等に設けられた複数のスイッチであり、一般操作子15を操作した際のスイッチ情報はバス17に送出される。表示装置16は、楽音合成装置1の設定画面が表示されたり、演奏中においては演奏操作子14により入力された演奏操作子情報で設定されるDSP12により実現されている物理モデル音源の現行動作値が、後述するようにその発音領域と共に表示される。演奏者は、この表示画面を見ながら現行動作値が発音領域内に位置するように演奏操作子14を操作することにより、正常な発音を物理モデル音源に行わせることができるようになる。また、バス17は各ブロック間においてデータ等を相互に授受するためのバスであり、データバスやアドレスバスから構成されている。
【0013】
上記した楽音合成装置1のハードウェア構成は、パーソナルコンピュータやワークステーションにDSPボードを拡張したのと同様の構成とされており、DSPボードを拡張したパーソナルコンピュータやワークステーションにより楽音合成装置1を構成するようにしてもよい。
本発明にかかる楽音合成装置1では、CPU10が楽音合成装置のベースとされており、CPU10が表示装置16の表示制御や音色パラメータの生成等の演奏情報の供給管理を行っている。そして、DSP12がCPU10の制御の基で供給された演奏情報に基づいて物理モデル音源の音源アルゴリズムを実行することにより、楽音を発生して出力するようにしている。
【0014】
次に、DSP12が実行する音源アルゴリズムで実現される物理モデル音源の構成を示すブロック図を図2に示す。
図2に示す物理モデル音源は、クラリネットやサックス等の管楽器の物理モデル音源とされており、励振部2と、励振部2で駆動される線形部(管体モデル部)3とから構成されている。励振部2には、吹奏圧に相当する息圧信号(BRETH)と、唇の締めや構えに相当する信号であるアンブシャー信号(AMBS)が、演奏操作子14を操作した演奏操作子情報として入力されている。また、演奏操作子14から出力されるピッチ情報も、図示されていないが励振部2に入力される。息圧信号(BRETH)は減算器21に入力され、減算器21において線形部3から供給されているフィードバック信号から息圧信号が減算されることにより、マウスピースのリードを変位させるための差圧信号がドライブ信号(DRIVE)として出力される。このドライブ信号は、ローパスフィルタからなるリードダイナミクスフィルタ(RDF)22に供給され、ドライブ信号(DRIVE)の高域成分が除去される。RDF22は、リードのダイナミクスを模擬するためのフィルタであり、リードが高域成分に応答しないことから高域成分を除去している。
【0015】
RDF22にはアンブシャー信号(AMBS)が供給されており、アンブシャー信号に応じてRDF22の通過特性が変更されている。RDF22から出力される高域成分の除去されたドライブ信号は、アンブシャー信号と共に非線形変換部1(REEDNL)23に供給される。この非線形変換部1(REEDNL)23は付与された圧力(ドライブ信号)に対するリードの変位をシミュレートするもので、所定の非線形の入出力特性のテーブルを有している。このテーブルは複数用意されており、アンブシャー信号に応じたいずれかのテーブルが選択される。これにより、非線形変換部1(REEDNL)23の出力はマウスピースのリードにおける空気通路面積を表す信号となる。
【0016】
非線形変換部1(REEDNL)23の出力は乗算器25の一方の入力に供給される。この乗算器25の他方の入力には非線形変換部2(GRAHAMNL)24の出力が供給されている。非線形変換部2(GRAHAMNL)24は、狭い管路では流速が飽和して差圧が大きくなった際に差圧と流速とが比例しなくなることを模擬しており、減算器21から出力されたドライブ信号が所定値で飽和する入出力特性の非線形テーブルを有している。乗算器25は、非線形変換部1(REEDNL)23の出力と非線形変換部2(GRAHAMNL)24の出力とを乗算することにより、マウスピースのリードにおける空気流速を表す信号を出力している。乗算器25の出力は、励振部2におけるドライブゲイン(DRVGAIN)を示す減衰器26を介して励振信号として励振部2から出力される。この減衰器26には管径に応じたドライブゲイン(DRVGAIN)が乗算されて、管径に応じて減衰されるようになる。
【0017】
励振部2により駆動される線形部(管体モデル部)3は、往路に往路第1遅延手段27(DELAY1a)と往路第2遅延手段28(DELAY2a)との縦続接続を有する。また、復路に復路第1遅延手段34(DELAY1b)と復路第2遅延手段32(DELAY2b)との縦続接続を有している。往路と復路とは、終端フィルタ(TMF)30と終端における反射損失を表す減衰器31との縦続接続により接続されている。減衰器31には、終端ゲイン(TMGAIN)が設定されている。また、終端フィルタ(TMF)30はローパスフィルタ単独またはローパスフィルタとハイパスフィルタとが組み合わされて用いられ、終端フィルタ(TMF)30は共鳴管の形状をシミュレートしている。線形部(管体モデル部)3においてはDELAY1aとDELAY2aとの間にトーンホールが設けられており、DELAY1aとDELAY2aとの間と、DELAY1bとDELAY2bとの間とを接続する減衰器29が設けられている。そして、減衰器29の出力はDELAY2bの出力と加算器33により加算されて、DELAY1bに供給されている。減衰器29は、このトーンホールによる反射損失を表し、トーンホールゲイン(THGAIN)が設定されている。
【0018】
励振部2からの励振信号は、線形部(管体モデル部)3におけるDELAY1aに供給されており、DELAY1aにはDELAY2a、TMF30,減衰器31,DELAY2b、加算器33,DELAY1bが縦続接続されて第1ループ(LOOP1)を構成している。また、DELAY1aには、減衰器29,加算器33,DELAY1bが縦続されて第2ループ(LOOP2)が構成されている。LOOP1およびLOOP2は、共鳴管の長さおよび同共鳴音の端部からトーンホールまでの長さに対応してマウスピースからの入射波が反射波としてマウスピースに戻ってくる状態をシミュレートしている。従って、このLOOP1とLOOP2との遅延時間に基づいて、発生される楽音のピッチが決定されることから、演奏操作子14からのピッチ情報に応じてDELAY1a,DELAY2a,DELAY1b,DELAY2bの遅延時間が設定されている。なお、DELAY1aとDELAY1b、DELAY2aとDELAY2bとの遅延時間は原則としてほぼ等しく設定される。そして、ループ上の波形信号を、楽音として取り出すことができる。この場合、空気中の楽音の放射特性をシミュレートするバンドパスフィルタを介して取り出すようにしてもよい。
【0019】
次に、図2に示す物理モデル音源において正常に発音される場合を検討する。物理モデル音源を遅延帰還回路型音源としてとらえると、そのループゲインが1以上となれば、ループ内に振動を発生することができると共に、発生した振動は持続するはずである。そこで、本発明においては物理モデル音源におけるループゲインが1以上となる領域を正常に発音される発音領域とする。この場合の入力パラメータは、演奏操作子14から入力される息圧信号(BRETH)とアンブシャー信号(AMBS)であり、ループゲインは演奏操作子14から入力されるピッチ情報fpにおけるループゲインとされる。
ここで、図2に示す物理モデル音源におけるループゲインを求めてみる。このループゲインの算出に先立ち、音色を決定すると共に所定の音高(ピッチ)を定めて、これにより設定されたパラメータを遅延手段やフィルタに設定しておく。さらに、非線形変換部1(REEDNL)23および非線形変換部2(GRAHAMNL)24における非線形の振幅変換特性を割り出しておくと共に、そのゲインをダイナミックゲイン(非線形特性の接線の傾き)として算出するものとする。
【0020】
次に、線形部(管体モデル部)3における等価遅延量DELAYとループゲインLOOPGAINを求める。この場合、終端フィルタ(TMF)30のゲインを1と見なし、終端ゲイン(TMGAIN)とトーンホールゲイン(THGAIN)との比をG:1とする。すると、等価遅延量DELAYは、
DELAY=DELAY1a+(DELAY2a+DELAY2b+DELAYtmf)*[TMGAIN/(TMGAIN+THGAIN)]+DELAY1b (1)
と表される。ただし、(1)式においてDELAYtmfは終端フィルタ(TMF)30の遅延量であり、*は乗算記号である。この等価遅延量DELAYは、クラリネットやサックスの場合では基音の半周期(1/2波長)に相当するようになる。
【0021】
ここで、DELAY1aの段数値を、その遅延量をサンプリング周期Tsで除算して求める。
DELAY1aの段数値=DELAY1a/Ts=DD1a
この段数値を、z変換すると
(-DD1a)=ZD1a
と表される。同様にしてDELAY2a,DELAY1b,DELAY2bの段数値を求めてz変換すると、それぞれZD2a,ZD1b,ZD2bと表すことができる。そこで、線形部(管体モデル部)3におけるループ伝達関数TFLOOPを求めると、線形部(管体モデル部)3の入力端はCONNECT1とされ、その出力端はCONNECT2とされていることから、
TFLOOP=CONNECT2/CONNECT1=[ZD1a*THGAIN+ZD1a*(ZD2a+ZDtmf+ZD2b)TMGAIN]*ZD1b (2)
と求められる。ただし、ZDtmfはz変換した終端フィルタ(TMF)30の遅延量である。ここで求められたループ伝達関数TFLOOPは、線形部(管体モデル部)3におけるループゲインLOOPGAINとなり、jを虚数単位として、
z=ej2 π fTs
とおくと、発音ピッチfpでのループゲインLOOPGAINfpは、
LOOPGAINfp=|TFLOOP|f=fp
と表される。
【0022】
次に、図2に示す物理モデル音源全体のトータルゲインTOTALGAINを求めるが、線形部(管体モデル部)3におけるゲインはループゲインTFLOOPfpとされていることから、図2の構成は図3に示す構成として示すことができる。図3においては、線形部(管体モデル部)3におけるゲインはループゲインTFLOOPfp40として示されている。
図3に示すように物理モデル音源においては、入力がドライブ信号(DRIVE)であり出力がLOOPOUTであるから、トータルゲインTOTALGAINは、

Figure 0003747886
と表される。ただし、(3)式において、GAINRDF(AMBS,fp)は、演奏操作子14から入力されるアンブシャー信号(AMBS)とピッチ情報fpに対するリードダイナミクスフィルタ22のゲインである。また、GAINRNL(GAINRDF*DRIVE,AMBS)は、アンブシャー信号(AMBS)により切り換えられたテーブルにおけるドライブ信号とリードダイナミクスフィルタ22のゲインとの乗算値に対する非線形変換部1(REEDNL)23のゲインである。さらに、GAINGNL(DRIVE)は、ドライブ信号に対する非線形変換部2(GRAHAMNL)24のゲインである。
【0023】
そして、(3)式においてドライブ信号(DRIVE)とアンブシャー信号(AMBS)の取り得る値を代入し、例えば横軸をドライブ信号(DRIVE)とし、縦軸をアンブシャー信号(AMBS)とする座標上において、トータルゲインTOTALGAINが1以上(TOTALGAIN≧1)の領域を表示装置16に表示する。この一例を図4に示す。図4においてハッチングされた領域がTOTALGAIN≧1の領域であり、トータルゲインTOTALGAINが1以上とされていることから遅延帰還回路の発振条件が満たされている。すなわち、TOTALGAIN≧1の領域においては図2に示す構成の物理モデル音源から楽音となる振動を発生することができることから、TOTALGAIN≧1の領域を正常な発音を行うことのできる発音領域とすることができる。また、図4に示すように演奏操作子14から現在入力されている息圧信号(BRETH)およびアンブシャー信号(AMBS)に対してのトータルゲインTOTALGAINが現行動作値CRとして発音領域を含む表示領域上に表示されている。そこで、演奏者は図4に示すような表示装置16の表示を観察しながら現行動作値CRが発音領域内に位置するように演奏操作子14を操作することにより、正常な発音を行うことができるようになる。
【0024】
このような、TOTALGAIN≧1の発音領域を算出して表示装置16に表示する処理、および、現行動作値CRを表示装置16に表示する処理はいずれもCPU10が実行する処理とされている。
以上の説明において、本発明の楽音合成装置は管楽器の物理モデル音源を備えるものとして説明したが、これに限らず、打楽器や打弦楽器、撥弦楽器、擦弦楽器の物理モデル音源の発音領域の見積もりに適用することができる。
【0025】
【発明の効果】
本発明は以上のように構成されているので、物理モデル音源手段における線形部と励振部により形成されるループのループゲインを算出することにより、物理モデル音源手段の発音領域を見積もることができるようになる。この場合、発音領域をループゲインが1以上の領域とすればよい。そして、見積もられた発音領域を含む領域において、物理モデル音源手段における演奏操作子による現行動作値を表示できるようにしている。これにより、この現行動作値が発音領域内となるように演奏操作子を操作することにより、難しいといわれている物理モデル音源の演奏を容易に行うことができるようになる。
【図面の簡単な説明】
【図1】 本発明の実施の形態における楽音合成装置のハードウェア構成を示すブロック図である。
【図2】 本発明の実施の形態における楽音合成装置にかかる物理モデル音源の構成を示すブロック図である。
【図3】 本発明の実施の形態における楽音合成装置にかかる物理モデル音源のトータルゲインを算出する際の等価構成を示す図である。
【図4】 本発明の実施の形態における楽音合成装置にかかる表示装置に表示される発音領域を示す図である。
【図5】 従来の管楽器アルゴリズムの物理モデル音源の構成例を示す図である。
【図6】 管楽器の息圧とアンブシャーの関係を示す図である。
【符号の説明】
1 楽音合成装置、2 励振部、3 線形部、10 CPU、11 メモリシステム、12 DSP、13 DAC、14 演奏操作子、15 一般操作子、16 表示装置、17 バス、21 減算器、22 リードダイナミクスフィルタ、23 非線形変換部1、24 非線形変換部2、25 乗算器、26 減衰器、27 往路第1遅延手段、28 往路第2遅延手段、29 減衰器、31 減衰器、32 復路第2遅延手段、33 加算器、34 復路第1遅延手段、203 減算器、204 ローパスフィルタ、205 加算器、206 第1非線形テーブル、207 第2非線形テーブル、209 減衰器、210 加算器、211 加算器、212 バンドパスフィルタ、213 フィルタ、214 減衰器、215 ディレイ回路、216 乗算器、A 発音領域、B 持続領域、C不整音領域、CR 現行動作値[0001]
[Technical field to which the invention belongs]
The present invention relates to a musical sound synthesizer including a physical model sound source that simulates a musical instrument.
[0002]
[Prior art]
In a musical sound synthesizer that generates the performance sound of a wind instrument such as a clarinet, there is a musical sound synthesizer that includes a physical model sound source that generates a wind instrument sound by electrically simulating the behavior of air vibration in the mouthpiece of the wind instrument. Are known. In such a musical tone synthesizer for wind instruments, key press pitch information is input by a keyboard operation, and a parameter control signal corresponding to a breathing pressure or an embouchure is formed by a key press speed, a key press pressure, etc. An electronic sound of a wind instrument is generated by inputting it into a physical model sound source.
[0003]
A configuration example of a physical model sound source of a conventional wind instrument algorithm is shown in FIG. In FIG. 5, a breath pressure signal (BRETH) corresponding to the blowing pressure is input to a subtractor 203 serving as an input unit, and an embouchure signal (AMBS) serving as a signal corresponding to lip tightening or holding is used as an input unit. Input to the adder 205. The subtractor 203 outputs a differential pressure signal for displacing the mouthpiece lead by subtracting the breath pressure signal input from the input signal of the signal line L2. A low-pass filter (LPF) 204 is connected to the output side of the subtractor 203 to remove a high frequency component of the differential pressure signal. This is because the lead does not respond to the high frequency component. The adder 205 adds the embouchure signal and the output of the low-pass filter 204 and outputs the result to the first nonlinear table (NL1) 206. The first non-linear table (NL1) 206 simulates the displacement of the lead with respect to the applied pressure, and has predetermined non-linear input / output characteristics. As a result, the output of the first nonlinear table 206 becomes a signal representing the air passage area in the mouthpiece lead.
[0004]
The output of the first nonlinear table 206 is connected to one input of the multiplier 216. The other input of the multiplier 216 is supplied with the output of the second nonlinear table 207. The differential pressure signal from the subtractor 203 is input to the second non-linear table 207. Since the flow velocity is saturated in a narrow pipeline, the differential pressure and the flow velocity are not proportional when the differential pressure increases. The second nonlinear table 207 is simulated. The multiplier 216 multiplies the output of the first non-linear table 206 and the output of the second non-linear table 207 to output a signal representing the air flow rate at the mouthpiece lead. The output of the multiplier 216 is input to the adder 210 via the attenuator 209. The attenuator 209 is multiplied by a loop gain corresponding to the tube diameter, and is attenuated according to the tube diameter. The output of the attenuator 209 is input to the adder 210.
[0005]
A line connecting the signal lines L1 and L2, and the adder 210 and the adder 211 form a junction. The adder 210 adds the output signal of the delay circuit 215 for configuring the signal line L2 and the output signal of the attenuator 209 and outputs the result to the signal line L1. The adder 211 adds the signal on the signal line L1 and the signal from the delay circuit 215 and outputs the result to the signal line L2. This loop simulates the combined pressure of the incident wave due to the input flow velocity immediately after the gap between the mouthpiece and the lead and the reflected wave from the resonance tube.
The signal on the signal line L1 is fed back to the signal line L2 via a filter 213, an attenuator 214, and a delay circuit 215 that simulate reflection at the open end of the tube. The filter 213 is used as a single low-pass filter or a combination of a low-pass filter and a high-pass filter. The filter 213 simulates the shape of the resonance tube. The delay circuit 215 simulates the state in which the incident wave from the mouthpiece returns to the mouthpiece as a reflected wave corresponding to the length of the resonance tube and the length from the end of the resonance tube to the tone hole. Yes. And the waveform signal of the signal line L1 is taken out as a musical sound through the band pass filter 212 for simulating the radiation characteristic of the musical sound in the air.
[0006]
[Problems to be solved by the invention]
By the way, when the operation information of the performance operator is directly input to the sound source, irregular sounds such as no sound in a certain operation region or unpleasant sound or so-called flipping sound (sound generated by oscillation at a higher resonance frequency) are generated. It may occur. Therefore, it is necessary to operate the performance operator while avoiding such irregular sounds, and it is not easy to operate the musical tone synthesizer including the physical model sound source.
Such irregular sound is generated, for example, because the breath pressure and embouchure parameters are not in the normal sound generation region. As shown in FIG. 6, the relationship between the breath pressure of the wind instrument and the embouchure is as follows. The normal sounding area A where the sound surrounded by the four straight lines begins to sound, the continuous area B where the sound once generated continues, and the sound disappears. Or, it is roughly divided into an irregular sound region C that generates an unpleasant sound. Therefore, when the performance operator is operated in a state corresponding to a certain breath pressure, the sound does not begin to sound unless the embouchure at that time is too high or too low to enter the sound generation area A. Moreover, if it enters into the irregular sound area C, the sound disappears or an unpleasant sound or a turnover sound is generated.
Using this, in order to facilitate the operation of a musical tone synthesizer equipped with a physical model sound source, if the operation data from the performance operator is in an irregular sound area, for example, this is corrected to data entering the sound generation area However, it has been proposed to input the corrected data to a physical model sound source (Japanese Patent Laid-Open No. 3-22597).
[0007]
However, in order to know a normal sound generation area A as shown in FIG. 6, a sustained area B in which the sound once generated continues, and an irregular sound area C in which the sound disappears or generates unpleasant sound, a two-dimensional area In this case, it is necessary to set a large number of parameters that combine different values of breath pressure and embouchure and actually measure it, which requires a lot of labor and time.
SUMMARY OF THE INVENTION An object of the present invention is to provide a musical tone synthesizer that can easily estimate the sound generation region of a physical model sound source and can easily perform the operation.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a musical tone synthesizer according to the present invention includes a sound source means including a linear unit including a delay unit in which a delay amount corresponding to a pitch is set, and an excitation unit that excites the linear unit, A control means for calculating a total gain of a loop formed by the linear portion and the excitation portion in the sound source means, and estimating a sound generation area of the sound source means based on the calculated total gain, and an estimate by the control means Display means capable of displaying a current action value set by a performance operator in the sound source means on an area including the generated sound generation area.
[0009]
In the musical tone synthesizer of the present invention, the control means may estimate an area where the total gain is 1 or more as the sound generation area.
[0010]
According to the present invention as described above, the sound generation area of the sound source means can be estimated by calculating the loop gain of the loop formed by the linear part and the excitation part in the sound source means. In this case, the sound generation region may be a region having a loop gain of 1 or more. Then, in the area including the estimated sound generation area, the current action value by the performance operator in the sound source means can be displayed. As a result, the physical model sound source, which is said to be difficult, can be easily played by operating the performance operator so that the current motion value falls within the sound generation region.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a hardware configuration of a musical tone synthesis apparatus according to an embodiment of the present invention.
In the tone synthesizer 1 shown in FIG. 1, a CPU 10 is a central processing unit that controls the operation of tone generation in the tone synthesizer 1 by executing various programs. A memory system (MEMORY SYSTEM) 11 is a program for musical tone generation control processing executed by the CPU 10 and a ROM (Read Only Memory) in which various data are stored, and a main memory in the musical tone synthesizer 1, and a work area of the CPU 10 Is a memory system composed of a RAM (Random Access Memory) in which, The DSP (Digital Signal Processor) 12 is a signal processing device that generates musical sounds by executing a sound model algorithm of a physical model under the control of the CPU 10. The DAC 13 is a digital / analog converter that converts a generated musical sound into an analog musical sound signal at a sampling period and outputs the analog musical sound signal.
[0012]
The performance operator 14 is a performance operator such as a keyboard. The performance operator 14 outputs the key press pitch information by the keyboard operation, and the performance corresponding to the breathing pressure and the embouchure of the wind operation by the key pressing speed and the key pressing pressure. The control information is output. The performance operator information when the performance operator 14 is operated is supplied to the DSP 12, and a musical sound corresponding to the performance operator information is generated by the DSP 12. The general operation element 15 is a plurality of switches provided on a panel or the like, and switch information when the general operation element 15 is operated is sent to the bus 17. The display device 16 displays the setting screen of the musical tone synthesizer 1 or the current operation value of the physical model sound source realized by the DSP 12 set by the performance operator information input by the performance operator 14 during performance. Is displayed together with the sound generation area, as will be described later. The player can cause the physical model sound source to perform normal sounding by operating the performance operator 14 so that the current motion value is located within the sounding region while viewing the display screen. The bus 17 is a bus for exchanging data and the like between the blocks, and includes a data bus and an address bus.
[0013]
The hardware configuration of the above-described musical tone synthesizer 1 is the same as that of a DSP board extended to a personal computer or workstation, and the musical tone synthesizer 1 is configured by a personal computer or workstation having an extended DSP board. You may make it do.
In the tone synthesizer 1 according to the present invention, the CPU 10 is the base of the tone synthesizer, and the CPU 10 performs supply management of performance information such as display control of the display device 16 and generation of timbre parameters. Then, the DSP 12 executes a sound source algorithm of a physical model sound source based on performance information supplied under the control of the CPU 10, thereby generating and outputting a musical sound.
[0014]
Next, FIG. 2 is a block diagram showing a configuration of a physical model sound source realized by a sound source algorithm executed by the DSP 12.
The physical model sound source shown in FIG. 2 is a physical model sound source of wind instruments such as clarinet and saxophone, and is composed of an excitation unit 2 and a linear unit (tube model unit) 3 driven by the excitation unit 2. Yes. A breathing pressure signal (BRETH) corresponding to the blowing pressure and an emboucher signal (AMBS) corresponding to tightening and holding the lips are input to the excitation unit 2 as performance operator information for operating the performance operator 14. Has been. The pitch information output from the performance operator 14 is also input to the excitation unit 2 (not shown). The breath pressure signal (BRETH) is input to the subtractor 21, and the subtractor 21 subtracts the breath pressure signal from the feedback signal supplied from the linear unit 3, whereby a differential pressure for displacing the lead of the mouthpiece. The signal is output as a drive signal (DRIVE). This drive signal is supplied to a read dynamics filter (RDF) 22 comprising a low-pass filter, and a high frequency component of the drive signal (DRIVE) is removed. The RDF 22 is a filter for simulating the dynamics of the lead and removes the high frequency component because the lead does not respond to the high frequency component.
[0015]
The RDF 22 is supplied with an embouchure signal (AMBS), and the pass characteristic of the RDF 22 is changed according to the embouchure signal. The drive signal from which the high frequency component has been removed output from the RDF 22 is supplied to the non-linear converter 1 (REEDNL) 23 together with the embouchure signal. The nonlinear converter 1 (REEDNL) 23 simulates the displacement of the lead with respect to the applied pressure (drive signal), and has a table of predetermined nonlinear input / output characteristics. A plurality of tables are prepared, and one of the tables corresponding to the embouchure signal is selected. Thereby, the output of the non-linear converter 1 (REEDNL) 23 becomes a signal representing the air passage area in the mouthpiece lead.
[0016]
The output of the nonlinear conversion unit 1 (REEDNL) 23 is supplied to one input of the multiplier 25. The output of the non-linear converter 2 (GRAHAMNL) 24 is supplied to the other input of the multiplier 25. The non-linear converter 2 (GRAHAMNL) 24 simulates that the differential pressure and the flow velocity are not proportional to each other when the flow velocity is saturated and the differential pressure becomes large in a narrow pipe, and is output from the subtractor 21. It has a nonlinear table of input / output characteristics in which the drive signal is saturated at a predetermined value. The multiplier 25 multiplies the output of the non-linear converter 1 (REEDNL) 23 and the output of the non-linear converter 2 (GRAHAMNL) 24 to output a signal representing the air flow rate at the mouthpiece lead. An output of the multiplier 25 is output from the excitation unit 2 as an excitation signal via an attenuator 26 indicating a drive gain (DRVGAIN) in the excitation unit 2. The attenuator 26 is multiplied by a drive gain (DRVGAIN) corresponding to the tube diameter, and is attenuated according to the tube diameter.
[0017]
The linear part (tubular model part) 3 driven by the excitation part 2 has a cascade connection of the forward first delay means 27 (DELAY1a) and the forward second delay means 28 (DELAY2a) on the forward path. The return path has a cascade connection of the return path first delay means 34 (DELAY1b) and the return path second delay means 32 (DELAY2b). The forward path and the return path are connected by a cascade connection of a termination filter (TMF) 30 and an attenuator 31 representing reflection loss at the termination. In the attenuator 31, a termination gain (TMGAIN) is set. The termination filter (TMF) 30 is used as a single low-pass filter or a combination of a low-pass filter and a high-pass filter, and the termination filter (TMF) 30 simulates the shape of a resonance tube. In the linear part (tubular model part) 3, a tone hole is provided between DELAY1a and DELAY2a, and an attenuator 29 is provided to connect between DELAY1a and DELAY2a and between DELAY1b and DELAY2b. ing. The output of the attenuator 29 is added to the output of DELAY2b by the adder 33 and supplied to DELAY1b. The attenuator 29 represents the reflection loss due to the tone hole, and a tone hole gain (THGAIN) is set.
[0018]
The excitation signal from the excitation unit 2 is supplied to the DELAY1a in the linear unit (tube model unit) 3. The DELAY1a is connected to the DELAY2a, TMF30, attenuator 31, DELAY2b, adder 33, and DELAY1b in cascade. One loop (LOOP1) is configured. The DELAY1a includes an attenuator 29, an adder 33, and a DELAY1b cascaded to form a second loop (LOOP2). LOOP1 and LOOP2 simulate the state in which the incident wave from the mouthpiece returns to the mouthpiece as a reflected wave corresponding to the length of the resonance tube and the length from the end of the resonance sound to the tone hole. Yes. Accordingly, since the pitch of the generated musical sound is determined based on the delay time between LOOP1 and LOOP2, the delay times of DELAY1a, DELAY2a, DELAY1b, and DELAY2b are set according to the pitch information from the performance operator 14. Has been. In principle, the delay times of DELAY1a and DELAY1b, and DELAY2a and DELAY2b are set substantially equal. The waveform signal on the loop can be extracted as a musical sound. In this case, you may make it take out through the band pass filter which simulates the radiation | emission characteristic of the musical sound in the air.
[0019]
Next, the case where the physical model sound source shown in FIG. When the physical model sound source is regarded as a delay feedback circuit type sound source, if the loop gain is 1 or more, vibration can be generated in the loop and the generated vibration should be sustained. Therefore, in the present invention, a region where the loop gain in the physical model sound source is 1 or more is set as a sounding region where sound is normally generated. The input parameters in this case are the breath pressure signal (BRETH) and the embouchure signal (AMBS) input from the performance operator 14, and the loop gain is the loop gain in the pitch information fp input from the performance operator 14. .
Here, the loop gain in the physical model sound source shown in FIG. Prior to the calculation of the loop gain, the tone color is determined and a predetermined pitch (pitch) is determined, and the parameters set thereby are set in the delay means and the filter. Further, the non-linear amplitude conversion characteristics in the non-linear conversion section 1 (REEDNL) 23 and the non-linear conversion section 2 (GRAHAMNL) 24 are calculated, and the gain is calculated as a dynamic gain (the tangent slope of the non-linear characteristics). .
[0020]
Next, the equivalent delay amount DELAY and loop gain LOOPGAIN in the linear part (tube model part) 3 are obtained. In this case, the gain of the termination filter (TMF) 30 is regarded as 1, and the ratio between the termination gain (TMGAIN) and the tone hole gain (THGAIN) is G: 1. Then, the equivalent delay amount DELAY is
DELAY = DELAY1a + (DELAY2a + DELAY2b + DELAYtmf) * [TMGAIN / (TMGAIN + THGAIN)] + DELAY1b (1)
It is expressed. However, in the equation (1), DELAYtmf is a delay amount of the termination filter (TMF) 30 and * is a multiplication symbol. This equivalent delay amount DELAY corresponds to a half cycle (1/2 wavelength) of the fundamental tone in the case of a clarinet or saxophone.
[0021]
Here, the stage value of DELAY1a is obtained by dividing the delay amount by the sampling period Ts.
DELAY1a stage value = DELAY1a / Ts = DD1a
If this stage value is converted to z, z (-DD1a) = ZD1a
It is expressed. Similarly, when the stage values of DELAY2a, DELAY1b, and DELAY2b are obtained and z-transformed, they can be expressed as ZD2a, ZD1b, and ZD2b, respectively. Therefore, when the loop transfer function TFLOOP in the linear portion (tubular model portion) 3 is obtained, the input end of the linear portion (tubular model portion) 3 is CONNECT1, and the output end thereof is CONNECT2.
TFLOOP = CONNECT2 / CONNECT1 = [ZD1a * THGAIN + ZD1a * (ZD2a + ZDtmf + ZD2b) TMGAIN] * ZD1b (2)
Is required. However, ZDtmf is the delay amount of the terminal filter (TMF) 30 subjected to z conversion. The loop transfer function TFLOOP obtained here is the loop gain LOOPGAIN in the linear part (tubular model part) 3, and j is an imaginary unit.
z = e j2 π fTs
The loop gain LOOPGAINfp at the pronunciation pitch fp is
LOOPGAINfp = | TFLOOP | f = fp
It is expressed.
[0022]
Next, the total gain TOTALGAIN of the entire physical model sound source shown in FIG. 2 is obtained. Since the gain in the linear part (tubular model part) 3 is the loop gain TFLOOPfp, the configuration of FIG. 2 is shown in FIG. It can be shown as a configuration. In FIG. 3, the gain in the linear portion (tubular model portion) 3 is shown as a loop gain TFLOOPfp40.
As shown in FIG. 3, in the physical model sound source, since the input is a drive signal (DRIVE) and the output is LOOPOUT, the total gain TOTALGAIN is
Figure 0003747886
It is expressed. However, in equation (3), GAINRDF (AMBS, fp) is the gain of the read dynamics filter 22 for the embouchure signal (AMBS) and pitch information fp input from the performance operator 14. GAINRNL (GAINRDF * DRIVE, AMBS) is the gain of the nonlinear conversion unit 1 (REEDNL) 23 for the multiplication value of the drive signal and the gain of the read dynamics filter 22 in the table switched by the embouchure signal (AMBS). Furthermore, GAINGNL (DRIVE) is the gain of the nonlinear conversion unit 2 (GRAHAMNL) 24 for the drive signal.
[0023]
Then, in Equation (3), the values that can be taken by the drive signal (DRIVE) and the embouchure signal (AMBS) are substituted. For example, on the coordinates where the horizontal axis is the drive signal (DRIVE) and the vertical axis is the embouchure signal (AMBS). An area where the total gain TOTALGAIN is 1 or more (TOTALGAIN ≧ 1) is displayed on the display device 16. An example of this is shown in FIG. In FIG. 4, the hatched area is the area of TOTALGAIN ≧ 1, and the total gain TOTALGAIN is 1 or more, so that the oscillation condition of the delay feedback circuit is satisfied. That is, in the region of TOTALGAIN ≧ 1, since the vibration that becomes a musical tone can be generated from the physical model sound source having the configuration shown in FIG. 2, the region of TOTALGAIN ≧ 1 is set as a sounding region that can perform normal sounding. Can do. Further, as shown in FIG. 4, the total gain TOTALGAIN for the breath pressure signal (BRETH) and the embouchure signal (AMBS) currently input from the performance operator 14 is the current operation value CR on the display area including the sound generation area. Is displayed. Therefore, the performer can perform normal sound generation by operating the performance operator 14 so that the current action value CR is located in the sound generation region while observing the display of the display device 16 as shown in FIG. become able to.
[0024]
Such processing for calculating and displaying the tone generation region of TOTALGAIN ≧ 1 on the display device 16 and processing for displaying the current operation value CR on the display device 16 are both processing executed by the CPU 10.
In the above description, the musical sound synthesizer of the present invention has been described as including a physical model sound source of a wind instrument, but is not limited thereto, and is used to estimate the pronunciation region of a physical model sound source of a percussion instrument, a percussion instrument, a plucked instrument, and a bowed instrument Can be applied.
[0025]
【The invention's effect】
Since the present invention is configured as described above, the sound generation area of the physical model sound source means can be estimated by calculating the loop gain of the loop formed by the linear part and the excitation part in the physical model sound source means. become. In this case, the sound generation region may be a region having a loop gain of 1 or more. In the area including the estimated sound generation area, the current action value by the performance operator in the physical model sound source means can be displayed. As a result, the physical model sound source, which is said to be difficult, can be easily played by operating the performance operator so that the current motion value falls within the sound generation region.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a hardware configuration of a musical tone synthesis apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a physical model sound source according to the musical tone synthesizer according to the embodiment of the present invention.
FIG. 3 is a diagram showing an equivalent configuration when calculating the total gain of the physical model sound source according to the musical tone synthesis apparatus according to the embodiment of the present invention.
FIG. 4 is a diagram showing a sound generation area displayed on the display device according to the tone synthesizer according to the embodiment of the present invention.
FIG. 5 is a diagram illustrating a configuration example of a physical model sound source of a conventional wind instrument algorithm.
FIG. 6 is a diagram showing the relationship between the breath pressure of a wind instrument and an ambusher.
[Explanation of symbols]
1 musical tone synthesizer, 2 excitation unit, 3 linear unit, 10 CPU, 11 memory system, 12 DSP, 13 DAC, 14 performance operator, 15 general operator, 16 display device, 17 bus, 21 subtractor, 22 lead dynamics Filter, 23 Non-linear converter 1, 24 Non-linear converter 2, 25 Multiplier, 26 Attenuator, 27 Forward first delay means, 28 Forward second delay means, 29 Attenuator, 31 Attenuator, 32 Return second delay means 33 Adder, 34 Return path first delay means, 203 Subtractor, 204 Low pass filter, 205 Adder, 206 First nonlinear table, 207 Second nonlinear table, 209 Attenuator, 210 Adder, 211 Adder, 212 band Pass filter, 213 filter, 214 attenuator, 215 delay circuit, 216 multiplier, A sounding region, B duration region, Irregular sound area, CR current operating value

Claims (2)

音高に対応する遅延量が設定される遅延手段を含む線形部と、該線形部を励振する励振部とからなる音源手段と、
該音源手段における前記線形部と前記励振部により形成されるループのトータルゲインを算出し、算出されたトータルゲインに基づいて、前記音源手段の発音領域を見積もる制御手段と、
該制御手段により見積もられた発音領域を含む領域上に、前記音源手段における演奏操作子により設定されている現行動作値を表示することができる表示手段と、
を備えることを特徴とする楽音合成装置。
Sound source means comprising a linear part including delay means for setting a delay amount corresponding to the pitch, and an excitation part for exciting the linear part,
A control means for calculating a total gain of a loop formed by the linear part and the excitation part in the sound source means, and estimating a sound generation region of the sound source means based on the calculated total gain;
Display means capable of displaying a current action value set by a performance operator in the sound source means on an area including a sound generation area estimated by the control means;
A musical sound synthesizer characterized by comprising:
前記制御手段は、前記トータルゲインが1以上の領域を前記発音領域と見積もるようにしたことを特徴とする請求項1記載の楽音合成装置。2. The musical tone synthesizing apparatus according to claim 1, wherein the control means estimates an area having the total gain of 1 or more as the sound generation area.
JP2002172471A 2002-06-13 2002-06-13 Music synthesizer Expired - Fee Related JP3747886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002172471A JP3747886B2 (en) 2002-06-13 2002-06-13 Music synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002172471A JP3747886B2 (en) 2002-06-13 2002-06-13 Music synthesizer

Publications (2)

Publication Number Publication Date
JP2004020685A JP2004020685A (en) 2004-01-22
JP3747886B2 true JP3747886B2 (en) 2006-02-22

Family

ID=31172019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002172471A Expired - Fee Related JP3747886B2 (en) 2002-06-13 2002-06-13 Music synthesizer

Country Status (1)

Country Link
JP (1) JP3747886B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5531382B2 (en) * 2008-05-30 2014-06-25 ヤマハ株式会社 Musical sound synthesizer, musical sound synthesis system and program

Also Published As

Publication number Publication date
JP2004020685A (en) 2004-01-22

Similar Documents

Publication Publication Date Title
JPH0769701B2 (en) Musical tone signal generator
JP2526438B2 (en) Electronic musical instrument
JP2508340B2 (en) Musical tone signal generator
JPH03186897A (en) Device for forming musical sound waveform signal
JP2727841B2 (en) Music synthesizer
US5272275A (en) Brass instrument type tone synthesizer
JP3747886B2 (en) Music synthesizer
JP2722947B2 (en) Musical tone signal generator
JP3149708B2 (en) Music synthesizer
JP2762880B2 (en) Automatic performance device
JP3347338B2 (en) Music synthesizer
JP3042314B2 (en) Music signal generator
US20100175541A1 (en) Tone synthesis apparatus and method
JP2504324B2 (en) Music synthesizer
JP2508333B2 (en) Musical tone signal generator
JP3223683B2 (en) Musical sound signal synthesizer
JP2508326B2 (en) Musical tone signal generator
JP3291965B2 (en) Music synthesis apparatus and music synthesis method
JP2008058796A (en) Playing style deciding device and program
JP2770676B2 (en) Electronic musical instrument
JP2765479B2 (en) Musical tone signal generator
JP2900750B2 (en) Music synthesizer
JP2900089B2 (en) Music synthesizer
JPH0774956B2 (en) Musical tone signal generator
JPH03243994A (en) Musical sound waveform signal forming device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050920

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051121

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121209

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131209

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees