JP4276319B2 - ニューラルネットワークの学習方法 - Google Patents

ニューラルネットワークの学習方法 Download PDF

Info

Publication number
JP4276319B2
JP4276319B2 JP34901498A JP34901498A JP4276319B2 JP 4276319 B2 JP4276319 B2 JP 4276319B2 JP 34901498 A JP34901498 A JP 34901498A JP 34901498 A JP34901498 A JP 34901498A JP 4276319 B2 JP4276319 B2 JP 4276319B2
Authority
JP
Japan
Prior art keywords
neural network
learning
category
vector
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP34901498A
Other languages
English (en)
Other versions
JP2000172662A (ja
Inventor
佳恭 武藤
公也 藤澤
雅人 青葉
哲央 菊地
Original Assignee
佳恭 武藤
ネッツエスアイ東洋株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 佳恭 武藤, ネッツエスアイ東洋株式会社 filed Critical 佳恭 武藤
Priority to JP34901498A priority Critical patent/JP4276319B2/ja
Publication of JP2000172662A publication Critical patent/JP2000172662A/ja
Application granted granted Critical
Publication of JP4276319B2 publication Critical patent/JP4276319B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、入力層ニューロンユニット、中間層ニューロンユニット及び出力層ニューロンユニットを備えた階層型のニューラルネットワークを対象とし、特にその汎化能力を向上させるのに適したニューラルネットワークの学習方法に関するものである。
【0002】
【従来の技術】
ニューラルネットワークは、構造上、階層型に属するものと相互結合型に属するものとに大別される。これらのうち、階層型に属するものの典型的な例として3層構造のものがある。3層構造のニューラルネットワークは、図7に示すように、複数個の入力層ニューロンユニット(以下、入力ユニットと記す。)i1〜imと、それらに結合された1個もしくは複数個の中間層ニューロンユニット(以下、中間ユニットと記す。)j1〜jnと、中間層ニューロンユニットj1〜jnに結合された複数個もしくは1個の出力層ニューロンユニット(以下、出力ユニットと記す。)k1〜krとを有し、それぞれの入力ユニットi1〜imとそれぞれの中間ユニットj1〜jnとの間の結合重み(入力−中間層間結合重み)wij、及びそれぞれの中間ユニットj1〜jnとそれぞれの出力ユニットk1〜krとの間の結合重み(中間−出力層間結合重み)wjkの各々が所定の値をとるものとして構成される。そして、入力ユニットi1〜imのそれぞれに、所定の認識カテゴリに関する入力信号が供給されたとき、出力ユニットk1〜krからその認識カテゴリに応答する出力信号が得られる。上記各ユニット間の結合重みwij及びwjkの値は、先ず、各々についての初期値の設定がなされたもとで、バックプロパゲーション手法による学習が行われて決定される。この学習は、どの特徴ベクトル(複数の入力信号を要素とするベクトル)がどの認識カテゴリ(例えば紙幣種、文字、音素、など。)に対応するかという情報をあらかじめ用意しておき、このあらかじめ用意されている特徴ベクトルをニューラルネットワークに入力したときに対応する認識カテゴリを受け持つ出力ユニットk1〜krの出力値が教師信号の値に近づくように各ユニット間の結合重みwij及びwjkを調整する。バックプロパゲーション手法による学習は、通常、複数回繰り返して行われる。そして、有限回の学習の結果、入力ユニットiに供給された入力信号に応答して出力ユニットk1〜krに得られる出力信号が教師信号に十分に近接した状態(学習収束状態)となる。その際、教師信号と出力ユニットk1〜krの出力の2乗誤差が最少となるように結合重みwij及びwjkを調整する。
【0003】
【発明が解決しようとする課題】
しかし、上記のようにバックプロパゲーション手法に従った学習を繰り返し、教師信号と出力ユニットkの出力の2乗誤差が最少となるように結合重みwij及びwjkを調整していく従来の方法では、学習収束状態が得られるニューラルネットワーク内部構造が結合重みwij及びwjkの初期値に依存するため、バックプロパゲーション手法に従って学習がなされた認識カテゴリと完全に同一の入力データ(数値情報の組)に対してしか対応できない、汎化能力が著しく低いものになる場合がある。本発明が解決しようとする課題は、入力ユニット、中間ユニット及び出力ユニットを備えた階層型に属するニューラルネットワークの汎化能力を確実に高めることができる学習方法を提供することにある。
【0004】
【課題を解決するための手段】
上記課題を解決するために本発明は、入力ユニット、中間ユニット及び出力ユニットを備えた階層型のニューラルネットワークを対象とし、ニューラルネットワークに学習ベクトル量子化の手法により学習させた後、その学習の結果入力空間内に定義された各カテゴリ領域内にバルーンネットモデルの手法を適用して、各カテゴリ領域内に均等分布する疑似データを発生させ、これら疑似データを教師ベクトルとしてバックプロパゲーションの手法により前記各ユニット間の結合重みを学習させることを特徴とする。
ここで、学習ベクトル量子化(LVQ:leaning vector quantization)とは、初期結合重みベクトルとして自己組織化Featureマップの学習により形成されたものを用い、入力空間を各認識カテゴリに対応した領域(カテゴリ領域)に分割すべく、学習によって結合重みベクトルを調整することによりカテゴリ識別境界を得る最適化学習則であり、学習ベクトル量子化の手法による学習の結果、理論的に最適なカテゴリ識別境界を与えるベイズ境界が得られる。学習ベクトル量子化の詳細については、文献:「自己組織化マップ」(T.コホネン著、シュプリンガー・フェアラーク東京、p.227〜p.239、1996)などを参照されたい。
バルーンネットモデル(balloon net model)とは、n点配置問題の一種であるspreading points in a unit square問題、すなわち「1×1の正方形にn個の点を配置使用とするときに、すべての組み合わせの2点間の距離のうち最も小さくなるものを最大にするには、n個の点の配置をどのようにすればよいか」といった問題を解くための方法の一つであり、有限の大きさを持つ空間を対象とし、その空間内の任意のn個の点に膨張するバルーン(風船)を配置し、n個のすべてのバルーンが互いに同じ大きさに膨張して当該空間を埋め尽くしたときの各バルーンの重心位置を解とするアルゴリズムである。このアルゴリズムを適用したニューラルネットワークでは、各ニューロンは時間tにおいて結合をもつ他のニューロンからできるだけ離れるように、自分の値を更新していく。そして、バルーンどうしの距離を離していくことにより、各点間の最小距離を大きくしていくことができる。
バルーンネットモデルの詳細については、文献: An analogue approach to the travelling salesman problem using an elastic net method (Durbin, Richard; Willshaw, David ; Nature, Volume 326, Issue 6114, pp. 689-691 (1987)) や、文献: A balloon net discovering improved solutions in one of unsolved problems in geometry: a problem of spreading points in a unit square (Fujisawa, K. Takefuji, Y. Graduate Sch. of Media & Governance, Keio Univ., Fujisawa ; Neural Networks, 1995. Proceedings., IEEE International Conference on : pp. 2208-2210 vol.5) などを参照されたい。
【0005】
したがって、学習ベクトル量子化の手法による学習の結果入力空間内に定義された各カテゴリ領域内にバルーンネットモデルの手法を適用することにより、すなわち各カテゴリ領域内の任意の位置にn個の疑似データを配置し、各疑似データの位置からバルーンを膨張させることにより、各カテゴリ領域内にn個の疑似データを均等分布させることができる。このようにして得られた疑似データはネットワークの初期値に依存しないので、これらを教師ベクトルとしてバックプロパゲーションの手法により前記各ユニット間の結合重みを学習させることにより、ネットワークの初期値に依存せず、統計的に理にかなったカテゴリ識別境界(ベイズ境界に近似される)を持つニューラルネットワークを構築することができる。
バックプロパゲーション手法の詳細については、文献: Learning Internal Representations by Error Propagation (Rumelhart, David E. ; Hinton, Geoffrey E. ; Williams, Ronald J. ; Parallel distributed processing: explorations in the microstructure of cognition, vol. 1: foundations : pp318-362, 1986 MIT press) などを参照されたい。
【0006】
【発明の実施の形態】
以下、本発明を図面を参照して詳細に説明する。図1に本発明の学習方法が適用されるニューラルネットワークの概念図を示す。このニューラルネットワーク100は、紙幣の種類、真贋などを識別する紙幣識別装置や、紙幣種毎の枚数をカウントする紙幣カウンタ等のパターン認識部をなすものであり、入力層S、中間層M、出力層Rの3つの層から概略構成される。入力層Sは、多数個の入力ユニットi1〜im(mは2以上の任意の正数)からなり、識別しようとするパターンの数値情報を各入力ユニットi1〜imの入力とし、入力された数値情報に応じた信号を各入力ユニットi1〜imから出力する。中間層Mは、多数個の中間ユニットj1〜jn(nは2以上の任意の正数)からなり、各中間ユニットj1〜jnは、入力層Sのすべての入力ユニットi1〜imと各中間ユニットj1〜jnごとに設定される結合重みWijをもって結合される。出力層Rは、多数個の出力ユニットk1〜kr(rは2以上の任意の正数)からなり、各出力ユニットk1〜krは、中間層Mのすべての中間ユニットj1〜jnと各出力ユニットk1〜krごとに設定される結合重みWjkをもって結合される。ニューラルネットワーク100の前段には、紙幣識別対象である紙幣の画像を読み取る図示しないイメージ読取部と、イメージ読取部から入力された画像データに所定の画像処理(モザイク処理など)を施し、その結果得られたパターンに応じた数値情報を入力層Sの各入力ユニットiに供給する図示しない前処理部が設けられている。
【0007】
そして、ニューラルネットワーク100は、入力層Sの各入力ユニットi1〜imに入力される数値情報(0〜1の実数)の組set(たとえば、{0,1,1,0,・・・,1})に基づいてパターン認識を行い、認識カテゴリに応答する信号を出力層Rの各出力ユニットk1〜krから出力する。たとえば、ある数値情報の組set{A}が入力されたときは、出力層Rの紙幣Aに応答する出力ユニットk1〜krの出力を他の出力ユニットk1〜krのそれよりも大きくし、別の数値情報の組set{C}が入力されたときは、出力層Rの紙幣Cに応答する出力ユニットkの出力を他の出力ユニットkのそれよりも大きくするといった具合である。この種のニューラルネットワークを構築する際には、従来の技術で述べたように、バックプロパゲーション手法に従った学習が繰り返され、教師信号と出力ユニットk1〜krの出力の2乗誤差が最少となるように結合重みwij及びwjkを調整することが行われる。しかし、バックプロパゲーション手法に従った学習を単に繰り返したのみでは、学習収束状態が得られるニューラルネットワーク内部構造が結合重みwij及びwjkの初期値に依存するため、バックプロパゲーション手法に従って学習がなされた認識カテゴリと完全に同一の入力データ(数値情報の組)に対してしか対応できない、汎化能力が著しく低いものになる場合がある。つまり、学習がなされた紙幣種の特徴を完全に保持している紙幣に対しては、その識別を正しく行うことができるが、実稼働時に紙幣の読み取りを行った際、その紙幣種の特徴を示す部分に汚れや折れなどによる欠陥があると、ニューラルネットワークに未知の入力データ(数値情報の組)が入力されるため、認識不能や他の紙幣種との誤認識が生じることがある。
【0008】
そこで、本発明では図2に示す手順でニューラルネットワークを学習させる。まず、第1のステップS1では、学習ベクトル量子化(LVQ)の手法を用いて学習させる。すなわち、入力された特徴ベクトルに対して最も距離の近い参照ベクトルに関して、入力された特徴ベクトルと同じカテゴリであれば参照ベクトルを特徴ベクトルに近付け、逆に違うカテゴリであれば遠ざける。用意された特徴ベクトルすべてに対して、同じように処理を繰り返すことにより、この第1のステップS1での学習が終了する。その結果、図3に示すような、結合重みベクトルによるカテゴリ識別境界が得られる。この例では、各カテゴリはそれぞれ1つの紙幣種に対応している。つぎに、第2のステップS2では、第1のステップS1での学習により得られた各カテゴリ領域内にバルーンネットモデルの手法を用いて学習させる。その際、まず図4に示すように、あらかじめカテゴリとの対応が分かっている参照ベクトルを、各カテゴリ領域内の任意の位置に複数(任意の数)個づつ配置し、これら各参照ベクトルをバルーンの中心として各バルーンの半径を増大させていく。バルーン同士が接触したら、各ニューロンユニットは、バルーン同士の反発力を計算し、その値に応じて各バルーンの中心座標を更新していく。更新が行われるたびに、各バルーンの中心座標は他のバルーンの中心座標から遠ざかっていく。これを全てのバルーンが動けなくなるまで繰り返す。その結果、たとえば図5に示すように、各カテゴリ領域内においてバルーンの中心座標が均等に分布するように移動する。これら各カテゴリ領域内に均等に分布した中心座標は、ニューラルネットワーク100の学習の際、特徴ベクトルの疑似データとして用いられる。
【0009】
つぎに、第3のステップS3では、第2のステップS2での学習により得られた疑似データを教師ベクトルとして、バックプロパゲーションの手法により学習させる。上記疑似データは、各カテゴリ領域内に均等に分布した値であるので、これらを教師ベクトルとしてバックプロパゲーションの手法によりニューラルネットワーク100を学習させることにより、初期値に依存せず、統計的に理にかなったカテゴリ識別境界を有するニューラルネットワーク内部構造をもって学習収束状態に到る。その結果、たとえば図6に示すようなカテゴリ識別境界が得られる。以上のようにして本発明の方法により学習させた結果、ニューラルネットワーク100の汎化能力を著しく高めることができ、認識しようとするカテゴリに関する未学習のデータが入力された場合でも、正しく認識を行うことが可能となる。したがって、紙幣の種類、真贋などを識別する紙幣識別装置や紙幣カウンタ等のパターン認識部を成すこの種のニューラルネットワークに対し、本発明の方法を用いて、認識しようとする各種紙幣のパターンを学習させておくことにより、実稼働時に紙幣の読み取りを行った際、その紙幣種の特徴を示す部分に汚れや折れなどの欠陥や紙幣の搬送ばらつき等があり、そのために未学習のデータが入力された場合でも、認識不能や他の紙幣種との誤認識が生じる可能性を小さくできる。なお、上記の実施の形態では、紙幣のパターン認識を行うニューラルネットワークを例にとり説明したが、紙幣に限らず、郵便物、投票用紙などその他の枚葉類のパターン認識を行うニューラルネットワーク、さらには文字や音声などのパターン認識を行うニューラルネットワークの学習方法としても有効であることはいうまでもない。
【0010】
【発明の効果】
以上説明したように、本発明のニューラルネットワークの学習方法では、階層型のニューラルネットワークを対象とし、学習ベクトル量子化の手法により学習させた後、その学習の結果入力空間内に定義された各カテゴリ領域内にバルーンネットモデルの手法を適用して、各カテゴリ領域内に均等分布する疑似データを発生させ、これら疑似データを教師ベクトルとしてバックプロパゲーションの手法により学習させるようにしたことにより、ネットワークの初期値に依存せず、統計的に理にかなったカテゴリ識別境界を有するニューラルネットワーク内部構造をもって学習を収束させることができるので、ニューラルネットワークの汎化能力を著しく高めることができる。
【図面の簡単な説明】
【図1】本発明の学習方法が適用されるニューラルネットワークの概念図である。
【図2】本発明によるニューラルネットワークの学習手順を示したフロー図である。
【図3】学習ベクトル量子化(LVQ)学習則によって得られた参照ベクトルによるカテゴリ識別境界を例示した概念図である。
【図4】図3中の各カテゴリ領域内にバルーンネットモデルの手法を適用すべく、各カテゴリ領域内の任意の位置にバルーンを配置した状態(初期状態)を示す概念図である。
【図5】図4の状態から各バルーンの半径を拡大させた結果、各バルーンの中心座標が移動した状態(終状態)を示す概念図である。
【図6】本発明の学習方法を実施して得られた結合重みベクトルによるカテゴリ識別境界を例示した概念図である。
【図7】従来の学習方法の説明に用いたニューラルネットワークの概念図である。
【符号の説明】
100:ニューラルネットワーク、S:入力層、M:中間層、R:出力層、i:入力層ニューロンユニット、j:中間層ニューロンユニット、k:出力層ニューロンユニット

Claims (1)

  1. コンピュータを用いて、入力層ニューロンユニット、中間層ニューロンユニット及び出力層ニューロンユニットを備えた階層型のニューラルネットワークを学習する方法であって、
    前記コンピュータが、前記ニューラルネットワークに学習ベクトル量子化の手法によって、入力された特徴ベクトルに対して最も距離の近い参照ベクトルに関して、入力された特徴ベクトルと同じカテゴリであれば参照ベクトルを特徴ベクトルに近付け、逆に違うカテゴリであれば遠ざけるように、予め用意されたすべての特徴ベクトルに対して処理を繰り返すことにより結合重みベクトルによるカテゴリ識別境界を得る第1のステップと
    予めカテゴリとの対応が分かっている参照ベクトルを、各カテゴリ領域内の任意の位置に複数個づつ配置した状態で、前記コンピュータが、第1のステップで得られたカテゴリ領域内にバルーンネットモデルの手法を適用して、各参照ベクトルをバルーンの中心として各バルーンの半径を増大させ、バルーン同士が接触したら、バルーン同士の反発力に応じて各バルーンの中心座標を更新し、全てのバルーンが動けなくなるまで繰り返すことで得られるバルーンの中心座標をカテゴリ領域内に均等分布する疑似データとして発生させる第2のステップと
    前記コンピュータが、前記疑似データを教師ベクトルとしてバックプロパゲーションの手法を用いて、ニューラルネットワークに入力された特徴ベクトルに対応する認識カテゴリを受け持つ前記出力層ニューロンユニットの出力値が前記教師ベクトルの値に近づくようにニューラルネットワークを構成する各ユニット間の結合重みを調整することにより、前記ニューラルネットワークを学習させる第3のステップと、を有することを特徴とするニューラルネットワークの学習方法。
JP34901498A 1998-12-08 1998-12-08 ニューラルネットワークの学習方法 Expired - Lifetime JP4276319B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34901498A JP4276319B2 (ja) 1998-12-08 1998-12-08 ニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34901498A JP4276319B2 (ja) 1998-12-08 1998-12-08 ニューラルネットワークの学習方法

Publications (2)

Publication Number Publication Date
JP2000172662A JP2000172662A (ja) 2000-06-23
JP4276319B2 true JP4276319B2 (ja) 2009-06-10

Family

ID=18400914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34901498A Expired - Lifetime JP4276319B2 (ja) 1998-12-08 1998-12-08 ニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JP4276319B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864984A (zh) * 2015-05-21 2015-08-26 青岛大学 基于神经网络的微小反应器温度测量方法
CN106355250A (zh) * 2016-08-31 2017-01-25 天津南大通用数据技术股份有限公司 基于神经网络的判断隐蔽信道的优化方法及装置
CN106355249A (zh) * 2016-08-29 2017-01-25 国网江苏省电力公司电力科学研究院 一种基于bp神经网络的继电保护设备状态识别方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4193760B2 (ja) * 2004-06-29 2008-12-10 日本電気株式会社 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法
JP5546317B2 (ja) * 2010-03-31 2014-07-09 株式会社デンソーアイティーラボラトリ 外観検査装置、外観検査用識別器の生成装置及び外観検査用識別器生成方法ならびに外観検査用識別器生成用コンピュータプログラム
RU2504006C1 (ru) * 2012-06-05 2014-01-10 Александр Николаевич Цуриков Способ обучения искусственной нейронной сети
RU2598294C2 (ru) * 2014-01-22 2016-09-20 Александр Николаевич Цуриков Широковещательная система оповещения абонентов мобильной связи о возникновении экстренных ситуаций, абонентское устройство связи и способы ее функционирования

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104864984A (zh) * 2015-05-21 2015-08-26 青岛大学 基于神经网络的微小反应器温度测量方法
CN104864984B (zh) * 2015-05-21 2017-04-05 青岛大学 基于神经网络的微小反应器温度测量方法
CN106355249A (zh) * 2016-08-29 2017-01-25 国网江苏省电力公司电力科学研究院 一种基于bp神经网络的继电保护设备状态识别方法
CN106355249B (zh) * 2016-08-29 2019-03-19 国网江苏省电力公司电力科学研究院 一种基于bp神经网络的继电保护设备状态识别方法
CN106355250A (zh) * 2016-08-31 2017-01-25 天津南大通用数据技术股份有限公司 基于神经网络的判断隐蔽信道的优化方法及装置
CN106355250B (zh) * 2016-08-31 2019-04-30 天津南大通用数据技术股份有限公司 基于神经网络的判断隐蔽信道的优化方法及装置

Also Published As

Publication number Publication date
JP2000172662A (ja) 2000-06-23

Similar Documents

Publication Publication Date Title
US11501131B2 (en) Neural network hardware accelerator architectures and operating method thereof
Mitra et al. Self-organizing neural network as a fuzzy classifier
Sivanandam et al. Introduction to artificial neural networks
Gupta et al. A neural network approach to robust shape classification
Sharkey et al. The “test and select” approach to ensemble combination
JP4276319B2 (ja) ニューラルネットワークの学習方法
CN108334805A (zh) 检测文档阅读顺序的方法和装置
JP2015210747A (ja) 階層型ニューラルネットワークの学習システム及び方法
Le The 10 neural network architectures machine learning researchers need to learn
Pearson et al. Evolving neural networks using the “Baldwin effect”
Singh et al. Multilayer feed forward neural networks for non-linear continuous bidirectional associative memory
JP2760145B2 (ja) 知識情報処理装置
Simard et al. Analysis of recurrent backpropagation
Camargo Learning algorithms in neural networks
Pal et al. Fuzzy versions of Kohonen's net and MLP-based classification: performance evaluation for certain nonconvex decision regions
Tzafestas Soft computing in systems and control technology
JP3171897B2 (ja) 知識情報処理装置
Hara et al. A training method with small computation for classification
Di Cerbo et al. Regularized generative adversarial network
Azzam Learning of Artificial Neural Networks by Genetic Algorithms.
Pao Neural net computing for pattern recognition
JPH05282457A (ja) 被写体認識方法
Baykal et al. Object orientation detection and character recognition using optimal feedforward network and Kohonen's feature map
JPH02165285A (ja) パターン認識装置
JPH09138786A (ja) ニューラルネットワークの学習装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051122

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090303

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090306

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120313

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130313

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140313

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term