JP2544489B2 - ニュ―ラルネットワ―クモデルの学習方法 - Google Patents

ニュ―ラルネットワ―クモデルの学習方法

Info

Publication number
JP2544489B2
JP2544489B2 JP1261078A JP26107889A JP2544489B2 JP 2544489 B2 JP2544489 B2 JP 2544489B2 JP 1261078 A JP1261078 A JP 1261078A JP 26107889 A JP26107889 A JP 26107889A JP 2544489 B2 JP2544489 B2 JP 2544489B2
Authority
JP
Japan
Prior art keywords
neural network
layer
input
synapse
same
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1261078A
Other languages
English (en)
Other versions
JPH03122754A (ja
Inventor
成典 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Facom Corp
Original Assignee
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Facom Corp filed Critical Fuji Facom Corp
Priority to JP1261078A priority Critical patent/JP2544489B2/ja
Publication of JPH03122754A publication Critical patent/JPH03122754A/ja
Application granted granted Critical
Publication of JP2544489B2 publication Critical patent/JP2544489B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔目次〕 概要 産業上の利用分野 従来の技術(第7図〜第9図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用 実施例(第2図〜第6図) 発明の効果 〔概要〕 ニューラルネットワークモデルの学習方法に関し、 ニューラルネットワークのシナプスの重み付けの意味
を明確にして、重み付けの学習制御を容易にすると共
に、時系列データの処理を可能とし、適用制御の容易な
ニューラルネットワークを実現することを目的とし、 時系列データがそれぞれ入力する複数の入力層ユニッ
トから成る入力層と、入力層ユニットとそれぞれシナプ
スにより結合され、中間の時系列データが入力する複数
の中間層ユニットから成る中間層と、中間層ユニットと
それぞれシナプスにより結合された出力層ユニットとか
ら成り、各シナプスを、上記各層の時間遅れの因果律に
基づいて結線したニューラルネットワークモデルの学習
方法において、シナプスの重みを、インパルス応答関数
の表現とみなし、同じインパルス応答関数に対応するシ
ナプス群である同じ時間関係にあるシナプス群を同じ重
みの値となるように学習させるように構成する。
〔産業上の利用分野〕
本発明はニューラルネットワークモデルの学習方法に
関し、更に詳しくいえば、各種の制御や情報処理等の分
野において用いられ、特に、インパルス応答モデルをニ
ューラルネットワークで実現した場合、シナプス群の学
習により、容易にシナプスの重み付けができるようにし
たニューラルネットワークモデルの学習方法に関する。
〔従来の技術〕
従来、ニューラルネットワークは、人間の脳を真似た
ネットワークとして知られている。
このようなニューラルネットワークの個々の構成要素
は、人間の神経細胞(ニューロン)と似た機能を持つ。
そして、神経細胞、すなわちニューロンを基本単位と
し、それらが密に結合してニューラルネットワークが形
成され、ニューロンからニューロンへの信号伝達は、シ
ナプス(Synapse)により行われる。
第7図は、従来のニューラルネットワーク(中間層の
無い例)を示した図であり、1は入力層(入力層群)、
2は出力層(出力層群)、3はシナプスを示す。
入力層1には、多数の入力信号(入力パターン)が入
力し、シナプス3を介して出力層2へ伝達され、出力信
号(出力パターン)となるものである。
この場合、上記入力信号としては、空間データが与え
られ、シナプス3の結合により、所定の処理(変換)が
なされる。
このような中間層の無いネットワークは、パーセプト
ロン型ネットワークとも呼ばれている。
第8図は、従来のニューラルネットワーク(中間層が
1つある例)であり、第7図と同符号は同一のものを示
す。図において、4は中間層(中間層群)を示す。
このニューラルネットワークは、入力層1と出力層2
との間に中間層4を1層介在させたネットワークであ
り、入力層1と中間層4の間、及び中間層4と出力層2
との間はシナプス3で接続される。
この場合も、入力信号(入力パターン)は、入力層1
へ入力した後、シナプス3を通り、中間層4へ伝達さ
れ、更に、シナプス3を通って出力層2へ出力して出力
信号(出力パターン)となる。また、上記入力信号とし
ては、空間データが与えられる。
第9図は、従来のニューラルネットワーク(2つの中
間層がある例)であり、第8図と同符号は同一のものを
示す。
この例では、入力層1と出力層2との間に2つの中間
層4が設けられており、それぞれ、入力層1、中間層
4、及び出力層2の間をシナプス3により結合したもの
である。
なお、上記の中間層4は、2層に限らずそれ以上の層
が介在していてもよい。
上記のような中間層4を有する階層ネットワーク構造
の場合、階層ネットワークにおける各ユニットは、入力
層1から中間層4、中間層4から出力層2という向きに
結合しており(前向き)、各層内での結合、及び出力層
2から入力層1に向かう結合は存在しない。
各層のユニット間の結合の重み付けは、例えば、バッ
クプロパゲーション法のような学習により決定され、こ
の重みから決定される一定の変換規則を入力信号(入力
パターン)に適用し、出力層2にその変換した出力信号
(出力パターン)を出力する。
〔発明が解決しようとする課題〕
上記のような従来のものにおいては次のような欠点が
あった。
(1) 従来のニューラルネットワークでは、学習結果
について、そのシナプスの重みの説明がうまくできない
とされていた(シナプスの重みから、ルールベースを作
る研究はある)。
(2) 従来のニューラルネットワークでは、空間デー
タだけを扱っており、時系列データを扱うものはなかっ
た。
即ち、入力データ(入力信号)としては、入力データ
を多次元空間の値とみなし、空間データとして扱ってい
た。
そして、この空間データを、ニューラルネットワーク
により出力データに写像し、似たものを分類するものと
してニューラルネットワークを使用していた。
例え、時系列データを扱う場合でも、これを空間デー
タと考え、上記のように処理していた。
その例として、例えば、過去の10個のデータが、上り
ぎみ、下りぎみ、平坦等の状態を判別する場合とか、制
御の目標値に対し、それを実現する操作量を決定する場
合(これは、ニューラルネットワークにより、制御対象
の逆モデルを作ることに対応する)等である。
本発明は、このような従来の欠点を解消し、ニューラ
ルネットワークのシナプスの重み付けの意味を明確にし
て、重み付けの学習制御を容易にすると共に、時系列デ
ータの処理を可能とし、適用制御の容易なニューラルネ
ットワークを実現することを目的とする。
〔課題を解決するための手段〕
第1図は本発明の原理図であり、1は入力層、2は出
力層、3はシナプス(シナプス群)、4は中間層を示
す。また、1−1,1−2,1−3…は入力層の各ユニット、
2−1,2−2…は出力層2の各ユニット、4−1,4−2,4
−3…は中間層の各ユニット、u1(t−1),u1(t−
2),u1(t−3)…は時系列の入力データ、M1(t−
1),M1(t−2),M1(t−3)…は中間層の時系列デ
ータ、y1(t),y2(t)…は出力データを示す。
図のニューラルネットワークモデルは、入力層1と出
力層2との間に中間層4を有し、各層間は、シナプス3
により結合されたネットワークであり、入力層1の各ユ
ニット1−1,1−2,1−3…には、それぞれ時系列データ
であるu1(t−1),u1(t−2),u1(t−3)…が入
力する。
ここでtは時刻を示す、u1(t−2)はu1(t−1)
よりも過去のデータ、u1(t−3)はu1(t−2)より
も過去のデータを示し、M1(t−1),…M1(t−2)
…についても同様の関係を示す。
本発明では、上記時系列データu1(t−1),u1(t
−2),u1(t−3)…はそのまま時系列データ(時間
データ)と見なし、更に、ニューラルネットワークの重
みは、制御理論のインパルス応答関数と見なすことによ
り、インパルス応答モデルをニューラルネットワークで
実現するものであり、その学習方法を次のようにする。
即ち、シナプスの結合は、上記各層の時間遅れの因果
律に基づいて(上記各層の入力と出力の時間遅れを考慮
して)結線し、ニューラルネットワークのシナプス3の
重みを、インパルス応答関数の表現と見なし、学習によ
り決定する。
この学習において、同じインパルス応答関数に対応す
るシナプス群(同じ時間関係にあるシナプス群)を同じ
重みの値となるように学習させるものである。
例えば、図のA1,A2,A3…は同じインパルス応答関数に
対応するシナプスであり、同じ時間関係にある{u1(t
−1)とM1(t−1)、u1(t−2)とM1(t−2)…
は同時刻のデータで同じ時間関係}。
また、B1,B2…も同じインパルス応答関数に対応する
シナプスであり、同じ時間関係にある{u1(t−2)と
M1(t−1)は、M1(t−1)から見ればu1(t−2)
は1つ前の時刻のデータ、u1(t−3)とM1(t−2)
の関係もM1(t−2)から見ればu1(t−3)は1つの
前の時刻のデータであり、同じ時間関係にある}。
従って、A1,A2,A3…を同じ重みにし、B1,B2,B3…を同
じ重みにし以下同様にして同じ時間関係にあるユニット
間のシナプスを同じ重み(平均値、あるいは最大値等)
となるように学習させる。
〔作用〕
本発明は上記のように、ニューラルネットワークモデ
ルにおいて、そのシナプス結合の意味付けを、インパル
ス応答関数と見なすことで学習の内容を明確にしたもの
である。
この学習においては、同じインパルス応答関数に対応
するシナプス群について、出力データの平均値、あるい
は最大値を求め、全て同じ重みの値となるように繰返し
学習させるものである。
上記同じインパルス応答関数に対応するシナプス群
は、図示のA1,A2,A3…から成るシナプス群、B1,B2…か
ら成るシナプス群、C1,C2…から成るシナプス群…等で
あり、これらはそれぞれ同じ時間関係にあるシナプス群
である。そして、これら、それぞれ同じ時間関係にある
シナプスは同じ重みになるように繰返して学習させる。
このようにして学習を行えば、自動的にシナプスの重
みが決定でき、ニューラルネットワークモデルによるプ
ロセスモデルの同定が容易に行える。
〔実施例〕
以下、本発明の実施例を図面に基づいて説明する。
第2図は、本発明の1実施例に係るニューラルネット
ワークモデルの全体図であり、1は入力層、2は出力
層、3はシナプス、4は出力層は示す。
は、入力層へ入力する時系列データのベクトル、 は中間層4の時系列データのベクトル、 は出力層2の時系列データのベクトルを示す。
上記ベクトル は、それぞれ複数の時系列データ、u1(t−1),u
1(t−2),u1(t−3),u1(t−4)…u2(t−
1),u2(t−2),u2(t−3),u2(t−4)…u
3(t−1),u3(t−2)…ul(t−1),u(t−2)
…から成り、また、ベクトル についても同様である。
入力層1と中間層4、及び中間層4と出力層2の間
は、シナプス3により接続されるが、これらの結線は、
上記各層の時間遅れの因果律に基づいて(上記各層の入
力と出力の時間遅れを考慮して)結線される。
第3図は、第2図に示したニューラルネットワークモ
デルの一部詳細図である。
第2図で示したベクトル は、図示のように、時刻列データu1(t−1),u1(t
−2),u1(t−3),u1(t−4)…u1(t−k),u1
(t−k−1)…u1(t−i),u2(t−1),u2(t−
2)…u2(t−j)から成り、ベクトル は、時系列データM1(t−1),M1(t−2),M1(t−
3),M1(t−4),…M1(t−k+1),M1(t−
k),M2(t−1),…M2(t−l)から成っている。
これらの時系列データは、そのまま時系列データとし
て扱い、ニューラルネットワークのシナプスの重みは、
インパルス応答関数(制御理論上の関数)と見なすこと
により、学習で決定する。
また、その結線は、インパルス応答における因果律に
基づいて決定する。その結果、図示のように、入力側か
ら見て過去のものとは結線せず、時間関係が同じユニッ
ト間のシナプスは同じ重みに決定する。
例えば、u1(t−1)とM1(t−2)間、u1(t−
2)とM1(t−3)間のように、入力側からみて、時間
的に過去のものとは接続しない(中間層を基準にすれ
ば、未来の入力とは結線しない)。
また、u1(t−1)とM1(t−1)間、u1(t−2)
とM1(t−2)間等は、同じ時間関係なので同じ重みに
する(図示の平行なシナプス同志は全て同じ重みにす
る)。
更に、u1(t−2)とM1(t−1)間、u1(t−3)
とM1(t−2)間…等も同じ重みにする。
なお、入力時系列データu1が中間層の時系列データM
に対し、T時間しか影響しないなら、t=k+Tであ
り、u1(t−j)はM1(t−j)から{但しj>kなら
ばM1(t−k)から}M1(t−j+T)まで{但しj−
T≦0ならM1(t−1)まで}を結線すればよい。
なお、本発明は、上記の例に限らず、中間層が複数あ
る場合でも適用可能である。
第4図〜第6図は、ニューラルネットワークの学習方
法の説明図である。
本発明では、上記のように、入力データである時系列
データu1(t−1),u1(t−2),u1(t−3),u
1(t−4)…は、そのまま時系列データと見なし、更
に、ニューラルネットワークの重みは、制御理論のイン
パルス応答関数と見なすことにより、インパルス応答モ
デルをニューラルネットワークで実現したものである。
即ち、ニューラルネットワークのシナプスの重みを、
インパルス応答関数の表現と見なし、学習により決定す
る。
また、シナプスの結合は、上記制御理論のインパルス
応答における因果律に基づいて結線する。
このようにしたニューラルネットワークモデルでは、
学習内容の説明が可能になるから、シナプスの結合の仕
方を時系列データに対応させて制約(既定)する。
先ず、ニューラルネットワークモデルにおいて、同じ
インパルス応答関数に対応するシナプス群は、学習時に
同じ値になるように学習させる。
この学習には、例えば第4図に示したようなバックプ
ロパゲーション法を用いる。
この方法は、図示のような入力層、中間層、出力層か
ら成る階層ネットワークに、誤差フィードバックを導入
し、この誤差フィードバック(ネットワークの出力と教
師信号との誤差Eをフィードバックする)に基づいて、
シナプスの重み(結合の重み)を調節し、その結果、ネ
ットワークは、入力信号(入力パターン)と出力信号
(出力パターン)との連合を学習し、適切なデータ処理
を実現できるようにするものである。
以上のバックプロパゲーション法の他、公知の種々の
学習方法が適用可能である。
上記の学習方法を適用するに際し、第5図に示すよう
に、入力層と中間層の間のシナプスで同じ時間関係にあ
るものを次のように符号で表わす。
(1) u1(t−1)とM1(t−1)間、u1(t−2)
とM1(t−2)間、u1(t−3)とM1(t−3)間、u1
(t−4)とM1(t−4)間、u1(t−5)とM1(t−
5)間…のシナプスをそれぞれA1,A2,A3,A4,A5…(これ
らをまとめてAとする)。
(2) u1(t−2)とM1(t−1)間、u1(t−3)
とM1(t−2)間、u1(t−4)とM1(t−3)間、u1
(t−5)とM1(t−4)間…のシナプスをそれぞれ
B1,B2,B3,B4…(これらをまとめてBとする)。
(3) u1(t−3)とM1(t−1)間、u1(t−4)
とM1(t−2)間、u1(t−5)とM1(t−3)間…の
シナプスをC1,C2,C3…(これらをまとめてCとする)。
以下同様にして同じ時間関係にあるものをD1,D2,D
3…,E1,E2,…のようにする。
上記のA(A1,A2,A3…)、B(B1,B2,B3…)、C
(C1,C2,C3…)、D(D1,D2,D3…)、E(E1,E2,E3…)
…をそれぞれ時系列データで一般的に表現すれば、次の
ようになる。
A:ui(t−n)→Mi(t−n) n=1,2……k, B:ui(t−n)→Mi(t−n+1) n=2,3……k, C:ui(t−n)→Mi(t−n+2) n=3,4……k, D:ui(t−n)→Mi(t−n+3) n=4,5……k, E:ui(t−n)→Mi(t−n+4) n=5,6……k, 以下同様にして、F,G…とする(但しi=1,2,3…)。
例えばi=1とすれば(入力層の第1群)、それぞ
れ、 A:u1(t−n)→M1(t−n) n=1,2……k, B:u1(t−n)→M1(t−n+1) n=2,3……k, C:u1(t−n)→M1(t−n+2) n=3,4……k, のようになり、i=2とすれば、 A:u2(t−n)→M2(t−n) n=1,2……k, B:u2(t−n)→M2(t−n+1) n=2,3……k, C:u2(t−n)→M2(t−n+2) n=3,4……k, となる。
第6図は、入力層と出力層との間におけるインパルス
応答関数の説明図である。
図の曲線は、入力層uと中間層Mのインパルス応答関
数を示し、図示のf1,f2,f3,f4…は、それぞれインパル
ス応答関数の要素を示す。
図示のように、入力層と中間層と各ユニット間で、同
じ時間関係にあるシナプスA,B,C…(図示の平行線)
は、同じインパルス応答関数の要素となる。即ち、Aは
f1に対応し、Bはf2に対応し、Cはf3に対応する。
従って、上記ニューラルネットワークモデルにおい
て、同じインパルス関数に対応するシナプス群を、バッ
クプロパゲーション法等により学習する時に、上記のA
(A1,A2,A3…)、B(B1,B2,B3…)、C(C1,C2,C3…)
…は、それぞれ同じ値になるように学習させる。
この場合、それぞれ同じインパルス応答関数に対応す
る(同じ時間関係にある)シナプスの重みは、得られた
値の平均値、あるいは最大値等を用いて、同じ値になる
ように学習させるものである。
前記のようにシナプスの結合は、図6のようにA1(i
=1,2,…)をf1、B1(i=1,2,…)をf2、C1(i=1,2,
…)をf3と対応するように、インパルス応答関数の単位
時間当たりの値を図5に示したニューラルネットワーク
の結線に対応させたものである。すなわち、シナプス
は、上記各層の時間遅れの因果律に基づいて結線したも
のである。但し、前記インパルス応答関数の単位時間当
たりの値は、未学習時はディフォルト値(例えば、0.
5)であり、インパルス応答関数になっていないため前
記学習により決定する。
〔発明の効果〕
以上説明したように、本発明によれば次のような効果
がある。
(1) ニューラルネットワークによるプロセスモデル
を作れば、後は、学習により自動的に、インパルス応答
関数、即ちシナプスの重み(パラメータ)が決まる。
(2) シナプス結合の意味付けを、インパルス応答関
数と見なすことで学習内容の説明ができる(シナプスの
説明ができる)。
(3) シナプスをランダムに接続した従来のニューラ
ルネットワークに比べて、学習の収束性も保証できる
(定性モデルを修正することで対応)。
(4) ニューラルネットワークによるプロセスモデル
の固定が容易にできる。
(5) 時系列データを扱うニューラルネットワークモ
デルが容易に実現できる。
【図面の簡単な説明】
第1図は本発明に係るニューラルネットワークモデルの
学習方法の原理図、 第2図乃至第6図は本発明の1実施例を示した図であ
り、 第2図はニューラルネットワークモデルの全体図、 第3図はニューラルネットワークモデルの一部詳細図、 第4図はバックプロパゲーション法による学習の例、 第5図は学習方法の説明図(シナプスの説明)、 第6図は学習方法の説明図(インパルス応答関数の説
明)である。 第7図〜第9図は従来のニューラルネットワークを示し
た図であり、 第7図は中間層が無い例、 第8図は中間層が1つある例、 第9図は中間層が2つある例を示した図である。 1……入力層、2……出力層 3……シナプス、4……中間層

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】時系列データ{u1(t−1),u1(t−
    2)…}がそれぞれ入力する複数の入力層ユニット(1
    −1,1−2,1−3…)から成る入力層(1)と、 前記入力層ユニット(1−1,1−2…)とそれぞれシナ
    プス(3)により結合され、中間の時系列データ{M
    1(t−1),M1(t−2),M1(t−3)…}が入力す
    る複数の中間層ユニット(4−1,4−2,4−3…)から成
    る中間層(4)と、 前記中間層ユニット(4−1,4−2…)とそれぞれシナ
    プス(3)により結合された出力層ユニット(2)とか
    ら成り、 上記シナプス(3)を、上記各層の時間遅れの因果律に
    基づいて結線したニューラルネットワークモデルの学習
    方法において、 上記シナプス(3)の重みを、インパルス応答関数の表
    現とみなし、 同じインパルス応答関数に対応するシナプス群である同
    じ時間関係にあるシナプス群を同じ重みの値となるよう
    に(「A1,A2,A3…」、「B1,B2,…」「C1…」…をそれぞ
    れ同じ重みにする)学習させることを特徴とするニュー
    ラルネットワークモデルの学習方法。
JP1261078A 1989-10-05 1989-10-05 ニュ―ラルネットワ―クモデルの学習方法 Expired - Lifetime JP2544489B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1261078A JP2544489B2 (ja) 1989-10-05 1989-10-05 ニュ―ラルネットワ―クモデルの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1261078A JP2544489B2 (ja) 1989-10-05 1989-10-05 ニュ―ラルネットワ―クモデルの学習方法

Publications (2)

Publication Number Publication Date
JPH03122754A JPH03122754A (ja) 1991-05-24
JP2544489B2 true JP2544489B2 (ja) 1996-10-16

Family

ID=17356775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1261078A Expired - Lifetime JP2544489B2 (ja) 1989-10-05 1989-10-05 ニュ―ラルネットワ―クモデルの学習方法

Country Status (1)

Country Link
JP (1) JP2544489B2 (ja)

Also Published As

Publication number Publication date
JPH03122754A (ja) 1991-05-24

Similar Documents

Publication Publication Date Title
JP2615422B2 (ja) 時系列学習神経回路素子およびそれを用いた時系列学習神経回路
CN112529166A (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
JPH06266868A (ja) ニューロン素子
Solazzi et al. Regularising neural networks using flexible multivariate activation function
EP0444878B1 (en) Neural network
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JPH0264787A (ja) 階層構造ニューラルネット
JP2544489B2 (ja) ニュ―ラルネットワ―クモデルの学習方法
JPH05197701A (ja) ニューラルネットワークを用いた情報処理装置
Beerhold et al. Pulse-processing neural net hardware with selectable topology and adaptive weights and delays
Stamova et al. Artificial intelligence in the digital age
JP3168204B2 (ja) ネットワーク構成データ処理装置
Betere et al. Investigation of multi-layer neural network performance evolved by genetic algorithms
de Figueiredo Optimal interpolating and smoothing functional artificial neural networks (FANNs) based on a generalized Fock space framework
JPH0492901A (ja) ニューラルネットワークによるファジイ制御器
Chun-Yan et al. Combining rough set theory with neural network theory for pattern recognition
JPH07113942B2 (ja) ニューロチップによる結合器
JPH03257658A (ja) ニューラルネットワークの動的システムモデル化方法
JPH03100858A (ja) ニューラルネットワーク
JP2517662B2 (ja) 連鎖制御装置
Chan et al. Fuzzy neural logic network and its learning algorithms
JPH03265077A (ja) フィードバック神経細胞モデル
Galushkin et al. Neural network expert system
JPH08249303A (ja) 信号処理装置
JP3393511B2 (ja) 文字認識装置及び方法

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 14