JP3935425B2 - Network type information processing system learning device using genetic algorithm - Google Patents

Network type information processing system learning device using genetic algorithm Download PDF

Info

Publication number
JP3935425B2
JP3935425B2 JP2002363168A JP2002363168A JP3935425B2 JP 3935425 B2 JP3935425 B2 JP 3935425B2 JP 2002363168 A JP2002363168 A JP 2002363168A JP 2002363168 A JP2002363168 A JP 2002363168A JP 3935425 B2 JP3935425 B2 JP 3935425B2
Authority
JP
Japan
Prior art keywords
learning
information processing
type information
processing system
individuals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002363168A
Other languages
Japanese (ja)
Other versions
JP2004192584A (en
Inventor
健 中村
恵子 塩沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AdIn Research Inc
Original Assignee
AdIn Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AdIn Research Inc filed Critical AdIn Research Inc
Priority to JP2002363168A priority Critical patent/JP3935425B2/en
Publication of JP2004192584A publication Critical patent/JP2004192584A/en
Application granted granted Critical
Publication of JP3935425B2 publication Critical patent/JP3935425B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、制御システム、信号処理システムなどの離散値/連続値出力を伴う分野に有用なネットワーク構造を有する情報処理システムの学習システムに関する。特に、遺伝的アルゴリズムのパラメータに学習パラメータをコード化し、遺伝的アルゴリズムによりネットワーク型情報処理システムの学習を行う学習装置及び方法、並びにその方法をコンピュータに実行させるプログラムを記録した記録媒体に関する。さらに、本発明は、遺伝的アルゴリズムのパラメータに、入力元データを前処理して入力データを取得するための入力パラメータをコード化し、遺伝的アルゴリズムにより入力データを得る装置に関する。
【0002】
【従来の技術】
【0003】
【特許文献1】
特開平5−128086号公報
【特許文献2】
特開平5−342189号公報
【特許文献3】
特開平6−176001号公報
【非特許文献1】
伊庭斉志、「遺伝的アルゴリズムの基礎」、株式会社オーム社、平成10年1月第1版第5刷発行、pp8〜16
【非特許文献2】
石田 良平・村瀬 治比古・小山 修平、「パソコンで学ぶ遺伝的アルゴリズムの基礎と応用」、森北出版 (1997−07−18出版)
【非特許文献3】
北野宏明編著、「遺伝的アルゴリズム(1)」、産業図書
【0004】
特許文献1の発明のネットワーク型情報処理システムは、複数のノードを有する出力層が方向性リンクを介して結合され、その方向性リンクは通過する情報の変換をする情報交換機能を有し、前記出力層のノードは方向性リンクを介して入力される情報に対して関数演算を行う機能を有するものである。このネットワーク型情報処理システムにおいて、上記の方向性リンクの情報交換機能として、帯域通過型あるいは帯域阻止型のような選択的な特性をもつファイルタ関数に従って情報交換を行うフィルタ関数演算部が設けられている。そのネットワーク型情報処理システムにおける学習方式は、前記ネットワーク型情報処理システムが入力情報から方向性リンクと計算ユニットを通して情報処理を行うのと平行して、同じ入力情報から正常な情報処理結果を得る手段を有し、その正常な結果を教師信号として、教師信号と上記の情報処理計算結果(計算ユニットの出力)との差異(誤差)を評価関数として求め、その差異の大小やベクトル値を算出し、学習パラメータの値を利用した学習関数を介して、方向性リンクのフィルタ関数を修正する手段を有するものである。
その後、特許文献1の発明における学習処理を改良するために、さらに特許文献2のシステムが提案された。
【0005】
さらに、多連続入力に対して離散値出力の関係記述のみであった特許文献1の発明とその学習システムの改良をした特許文献2の発明をさらに拡張した発明が特許文献3により提案された。これは、多連続値入力に対して多連続値出力の関係記述をすることのできるネットワーク型情報処理システムとその学習方法である。
【0006】
他方、多量のデータからの適応的学習の手法として遺伝的アルゴリズムが案出され、さまざまな分野で利用されている。遺伝的アルゴリズムの応用に関する文献は膨大な量に及んでいる。その遺伝的アルゴリズム(以下、「GA」とも略称する)の基本的な仕組みは、例えば、非特許文献1の15ページに解説されている。これを引用すると、遺伝的アルゴリズムの仕組みは、▲1▼ランダムに初期世代の集団M(φ)を生成する、▲2▼現在の集団M(t)内の各個体mに対して適合度u(m)を計算する(適合度計算)、▲3▼u(m)に比例する確率分布を用いて、M(t)から個体mを選び出す(選択)、▲4▼選び出された個体にGAオペレータを作用させて、次の世代の集団M(t+1)を生成し(生殖)、ステップ▲2▼へ戻る手順からなっている。
なお、遺伝的アルゴリズムをネットワーク型情報処理システムに適用して、学習を行う試みは文献上見あたらない。
【0007】
【発明が解決しようとする課題】
前記特許文献1〜3に記載されているような従来のネットワーク型情報処理システムの学習システムにおいて、その性能は、学習パラメータの設定値に依存する。従来のシステムでは、これらの学習パラメータの値は、システム毎に事前に設定された値であり、学習状況に応じた変更はなされないため、十分な学習性能を得ることができない。より効率的な学習を行うためには、システムが学習状況に応じて学習パラメータを動的に変更すべきである。つまり、学習パラメータの動的設定が可能になれば、学習を自動化することができる。しかし、従来は、学習パラメータを動的に変更する試みは実現されていなかった。
そこで、本発明は、ネットワーク型情報処理システムを複数用意し、各システムの持つ学習パラメータをGAパラメータとして設定し、遺伝的アルゴリズムを用いて性能評価の高いシステムを発見する。つまり、自動的に評価の高い学習パラメータを設定し、その値を用いた学習の自動化手段を持つネットワーク型情報処理システム学習装置及び方法を提供することを目的とするものである。
また、ネットワーク型情報処理システムでは、入力データの点数が増大するとその性能低下を引き起こす。今までは、入力データ数を低減するために、観測データ等の多数の原初のデータ(「入力元データ」と呼ぶ)に前処理を施し、有効な入力データの組合せである入力データを見つけることは、手動で行われてきた。そこで、入力データの設定方式として、遺伝的アルゴリズムを用いた自動前処理を行うことのできるネットワーク型情報処理システムの学習装置及び方法を提供することを目的とするものである。
【0008】
【課題を解決するための手段】
本発明は、図1に示すような、複数の第1のノードと、複数の第2のノードと、前記の第1のノードと第2のノードを結合する非線形の選択的関数特性を持つ方向性リンクとを備え、多連続入力に対して離散値を出力し、その選択的関数特性を学習する機能をもつネットワーク型情報処理システムの学習装置であって、学習時に必要な各種パラメータである学習パラメータの値を遺伝的アルゴリズムを用いて動的に設定し、そのパラメータ値を用いて学習をする動的設定・自動学習手段を有するものである。
動的設定・自動学習手段は、ネットワーク型情報処理システムを複数用意し、各システムの持つ学習パラメータをGAパラメータとして設定し、各ネットワーク型情報処理システムの推論機構とGAパラメータを合わせたものを一個体とする個体群に対して、学習、評価推論、性能評価、世代交代を所定回数行い、性能の高い個体群を選択する。
すなわち、ネットワーク型情報処理システムを用意し、システムの推論系(パターンセットの集合系)とそのシステムの持つ学習パラメータを合体し、図3に示すような個体とし、これらの個体を複数用意して個体群とし、図5に示すように、各個体に所定回数のルール(推論機構)の学習、評価推論を行わせた後、その評価結果を元に、性能順に個体群をソートし、個体群にGAアルゴリズムの継承・交叉・突然変異等の操作を行う。これら一連の処理を含む全プロセスを図10に示す。図10に示すようなプロセスによって、性能評価の高い個体を発見すること、つまり学習状況に応じた性能の高い学習パラメータの値を動的に取得し、その値を用いて学習の自動化を行うことができるものである。
【0009】
前記の複数の初期個体群で第一世代を構成する。表1に示すように、個体の学習パラメータは、GAパラメータとしてコード化される。一世代内での各個体は、一定回数の入力を処理する。各入力には、教示出力(=正解)が与えられ、所定回数分の入出力を用いて、ルールの学習、評価推論を実行した後、その推論結果を元に各個体の評価を行いその値に応じて個体を性能順にソートする。評価は、推論系の規模(フィルタ関数の総数)と評価推論の不正解率に基づいて求められる。
【0010】
各個体の性能評価と、エリート個体数・淘汰残(生き残り)個体数の指定に基づいて、各個体をエリート、通常個体、死滅個体に分類した後、世代交代を行う。
世代交代では、エリートは、次世代にそのまま継承され、全く同じ次世代個体が生成され、死滅個体は次世代に継承させない。次世代個体は、まず、通常個体を母親とし、乱数によって父親となる個体(エリート又は通常個体)を選択する。次世代個体は、推論機構を母親から継承し、学習パラメータは母親と父親の交叉によって取得する。さらに個体数を満たす(保持する)ために、母親も父親も乱数によって選択される次世代個体も生成される。生成された次世代個体に不正な遺伝子(GAパラメータ)の組合せがあった場合は、死滅個体として検出され、死滅個体にならない組合せができるまで交叉を繰り返し、個体数を保持する。交叉は、一点交叉で、Gene(遺伝子の略)境界のみで行われ、交叉位置は、乱数によって決定される。さらに一定確率で突然変異を行う。突然変異は、乱数による1ビットの反転で実現する。突然変異により不正な遺伝子の組合せになった個体は、死滅個体として処理対象外となるが、個体数保持のため次世代個体としては存在する。しかし、学習・評価推論・性能評価の処理からは除外される。
【0011】
前記、学習・評価推論、性能評価、世代交代までの一連のプロセスを所定回数繰り返し、最後に、個体減少数分の下位個体群を除去する個体数圧縮を行う。これにより、処理速度が増す。ここまでのプロセスをステップと称す。このステップを所定回数繰り返すと、最終個体数分の上位の個体群が取得される。
【0012】
前記プロセス中、上位個体では、性能の高い学習パラメータの値が自動的にセットされ、その値を利用して、学習・推論は自動的に行われる。
また、全プロセス終了後の最終個体数分の個体群を利用し、性能の高い推論が可能なネットワーク型情報処理システムが実現できる。
【0013】
本発明の他の態様は、複数の第1のノードと、複数の第2のノードと、前記の第1のノードと第2のノードを結合する非線形の選択的関数特性を持つ方向性リンクとを備えたネットワーク型情報処理システムに、その各第2のノードに対し定義される出力値を非線形の選択型関数として有し、前記定義される出力値と第2のノードの出力値を反映した連続値で表される1以上の合成出力値を得る機能を持つ第2のネットワーク型情報処理システムを付加した構成を備え、多連続入力に対して多連続値を出力するネットワーク型情報処理システムの学習装置であって、第1及び第2のネットワーク型情報処理システムの選択的関数特性を学習するために、学習時に必要な各種パラメータである学習パラメータの値を遺伝的アルゴリズムを用いて動的に設定し、その値を用いて自動学習をする動的設定・自動学習手段を有するものである。
動的設定・自動学習手段は、動的設定・自動学習手段は、ネットワーク型情報処理システムを複数用意し、各システムの持つ学習パラメータをGAパラメータとして設定し、各ネットワーク型情報処理システムの推論機構とGAパラメータを合わせたものを一個体(図4参照)とする個体群に対して、学習、評価推論、性能評価、世代交代からなる手順を所定回数行い、性能の高い個体群を選択する。
この遺伝的アルゴリズムを用いた有効な学習パラメータ値の動的設定によって、学習の自動化と高性能の推論を行うことができる。
【0014】
本発明のさらに他の態様は、前記、離散値出力推論系ネットワーク型情報処理システムあるいは連続値出力推論系ネットワーク型情報処理システムの入力データの組合せについても、各々、前記個体に、入力パラメータをGAパラメータとして設定し、図10に示すプロセスを行い、入力パラメータを動的に設定し入力データの自動選択を行うことのできるものである。
【0015】 前記プロセス中、上位個体では、性能の高い入力データが自動的に選択され、その値を利用して、学習・推論は自動的に行われる。また、全プロセス終了後の最終個体数分の個体群を利用し、性能の高い推論を行うネットワーク型情報処理システムを
実現することができる。
【0016】
【発明の実施の形態】
ネットワーク型情報処理システムには、上記のように離散値出力の推論系と多連続値出力の推論系がある。離散値出力の推論系と連続値出力の推論系ついて、各々GAを用いた有効学習パラメータ値の動的取得と自動学習、入力パラメータ値の動的取得と、その値による入力前処理について説明する。
【0017】
(第1の実施の形態)
図1は、離散値出力推論系を持つネットワーク型情報処理装置の構成の一例を示す図である。
離散値出力推論系を持つネットワーク型情報処理装置は、図1に示すような、複数の第1ノード11と複数の第2のノード12と、前記の第1のノード11と第2のノード12を結合する非線形の選択型関数特性とその重みを持つ方向性リンク13とを備えている。各第2のノード12は複数のリンクの関数演算による合致度、重みの計算結果を加算する機能を有し、各ノード12の出力はそれぞれしきい関数演算部15により演算し、離散値が出力される。1つのノード12とそれに接続された複数のリンクの集まりをパターンセットあるいはルールといい、すべてのパターンセット(PS0,PS1,PS2,・・・)からなる機能部を推論機構という。推論機構の学習では、学習用入力データとそれに対する正解データを与え、学習用入力データによる推論機構の演算結果が正解出力データに近づくように前記選択的関数特性や重みを修正する。これは特許文献1、特許文献2等に記載されている例を示すものである。
【0018】
図2は、多連続値入力に対して多連続値を出力するネットワーク型情報処理装置の一例を示すもので、図11はその機能をパターンテーブルの形式で示すものである。これは、特許文献3に記載されている例である。このネットワーク型情報処理装置は、複数の第1のノード21と、複数の第2のノード22と、前記の第1のノード21と第2のノード22を結合する非線形の選択的関数(メンバシップ関数MF00〜MF33)特性とその重みW00〜W33を持つ方向性リンク23とを備えた前段推論部28と、さらに、各第2のノードに対して定義される出力値を非線形の選択的関数特性として持つ方向性リンク26を持つ後段出力合成部29とを備え、多連続値入力に対して多連続値を出力し、前段推論部28と後段出力合成部29のそれぞれの選択的関数特性や重みを学習する機能をもつネットワーク型情報処理システムである。
【0019】
本発明は、図1の離散値出力系のネットワーク型情報処理システムの学習の場合は、その離散値出力系のネットワーク型情報処理システムを複数用意し、システムの推論系(パターンセットの集合系)すなわち離散値出力処理系10と、そのシステムの持つ学習パラメータ3を合体し、図3の概念図に示すような個体とする。
図2の多連続値出力系のネットワーク型情報処理システムの学習の場合には、多連続値出力系のネットワーク型情報処理システムを複数用意し、多連続値出力処理系の推論系28とネットワーク型の出力合成部29とそのシステムの各部の持つ学習パラメータを合体し、図4の概念図に示すような個体とする。
この学習パラメータはGAパラメータと関係づけてコード化される。
これらの個体を図5に示すように、複数用意して個体群とし、各個体に所定回数のルール(推論機構)の学習、評価推論を行わせた後、その評価結果を元に、性能順に個体群をソートし、個体群にGAアルゴリズムの継承・交叉・突然変異等の操作処理を施す。
これら一連の処理を含む全プロセスの概略を図10に示す。本実施例のネットワーク型情報処理システムの学習システムは図10に示すようなプロセスによって、性能評価の高い個体を発見すること、つまり学習状況に応じた性能の高い学習パラメータの値を動的に取得し、その値を用いて学習の自動化を行うことができる。
【0020】
前記の複数の初期個体群で第一世代を構成する。
【0021】
【表1】
【0022】
表1に示すように、個体の学習パラメータは、GAパラメータとしてビットコード化される。
離散値出力推論系では、遺伝子(以後、Geneと称す。)は8つで、各Geneは8ビットで構成される。
多連続値出力推論系は、前段推論部と後段出力合成部を持ち、それぞれに学習が必要なためGene数は2セット、つまり16Geneとなる。
8Geneが1染色体としてコード化される。したがって、前記離散値出力推論系では、一つの染色体、前記連続値出力推論系では、2つの染色体がコード化される。
【0023】
学習パラメータは、表1に示すように、基本の8Gene(GeneNo.0〜7)にコード化される。大別すると、学習モード(表2参照)、メンバーシップ関数(フィルタ関数)パラメータ、パターンセット拡張パラメータ、重み制御パラメータがある。
【0024】
【表2】
【0025】
学習モードパラメータは、GeneNo.1の遺伝子としてコード化され、学習モード値は表2に示されているように、重み学習を行うか否かを設定する「WEIGHT」、メンバーシップ関数変更時に履歴バッファを消去するか否かを示す「NO_CLR_H」、メンバーシップ関数変更時に底辺位置の変更を行うか否かを設定する「VARFIX」、メンバーシップ関数変更時に分散値の縮小を行わないか否かを示す「VAREXT」、及びパターンセット自動拡張を用いる「PT_EXT」か否か、少数データによるメンバーシップ関数の生成を行う「PT_MIN」か否かを選択する「EXTEND」等があり、そのON/OFFを指定することにより学習のモードが設定される。これらは複数指定可能である。
【0026】
フィルタ関数としてのメンバーシップ関数MFのパラメータは、GeneNo.2及びNo.3の遺伝子のGAパラメータとして設定され、そのGeneNo.2のBit16〜19に履歴バッファサイズ、Bit20〜23に左底辺ゲイン、右底辺ゲイン、左上辺ゲイン、右上辺ゲインが設定される。GeneNo.3のBit24〜27に分散値倍率が、同Bit28〜31に曖昧度倍率が設定される。なお、履歴バッフアサイズは教師信号の統計的処理を行うために使用するバッファの容量である。左底辺ゲイン、右底辺ゲイン、左上辺ゲインはメンバーシップ関数の形状を変えるために、底辺及び上辺の左右の長さを変更する程度を表すパラメータである。図6に示すような分散値倍率、曖昧度倍率は、関数の分散値及び曖昧度を変えるためのパラメータである。
【0027】
パターンセット拡張に関するパラメータは、GeneNo.4〜5の遺伝子のGAパラメータに対応づけられている。パターンセット拡張に関するパラメータとしては閾値よりも合致度が小さいとき学習をしないことを指示するための学習の閾値、閾値よりも合致度が大きいときそのパターンセットに対して学習をし、小さいとき新しくパターンセットを生成し学習することを示す拡張の閾値、及び少数学習時のメンバーシップ関数の形状を決めるための図8に示す初期分散値などがある。図7は実線で示すメンバーシップ関数71に対する入力72の合致度が拡張の閾値より小さいときには点線73で示す新しいパターンを生成することを説明している。
【0028】
重みを学習により変更するための重み制御パラメータは、GeneNo.6〜7の遺伝子のGAパラメータにコード化されている。すなわち、GeneNo.6のBit48〜51に重み減少閾値が、同Bit52〜55に重み増加閾値が設定される。また、GeneNo.7のBit56〜59に重み減少率が、同Bit60〜63に重み増加率が設定される。
【0029】
本実施例では、これら学習パラメータの他に、実行動作モード(表3参照)、連続値出力推論系のみに必要な出力合成モード(表4参照)と出力合成対象数を含むシミュレータモードも、動的に得ることができる。このシミュレータモードのパラメータは、GeneNo.0に対応づけられている。
シミュレータモードとは実行動作モード、出力合成モード、出力合成対象数の3つを合わせた総称である出力。
出力合成モード、出力合成対象数は、連続値出力型において、出力値を生成する際の演算方法などを規定するパラメータ群である。
【0030】
【表3】
【0031】
実行動作モードとは、使用するルールや、ルールの合致度合成法などの学習、推論時の動作を規定するパラメータ群であり、これには、表3に示すようにルール内での合致度合成を総和平均とするか相乗平均とするかを指定する「ADD」、Inactiveなルール(すなわち、学習が十分に行われていないルール)のメンバーシップ関数、パターンセットも推論に用いることを指定する「NO_ACT」、連続値出力型における線形補間モードにおいて複数のルール感での出力が線形に補間されるような演算を指示する「LINEAR」、及び2乗誤差が最小となる線形式を用いて、学習時に与えられたデータ範囲外のデータでの推論を行うことを指示する「MINSQR」等があり、GeneNo.0のBit0〜3に割り当てられる。
【0032】
【表4】
【0033】
多連続値出力推論系のみに必要な出力合成モードには、表4に示すように、合致度が上位の指定数パターンセット(ルール)を対象として、そのパターンセットに接続される出力パターンの中心値を合致度で加重平均する「PSWAM」、その加重平均時に出力パターンの重みをも用いる「PSWWM」、合致度が上位の指定数のパターンセットを対象として、そのパターンセットに接続される出力パターンの面積重心を合致度で加重平均する「APWAM」、及び出力値の算出に関与するパターンセットを上位N個から乱数によって決定する「乱数指定」等があり、GeneNo.0のBit4〜5にコード化される。
【0034】
多連続値出力推論系のみに必要な出力合成対象数は、出力合成の対象とするパターンセット(パターンテーブル)の数を指定するパラメータであり、値は、3、4、5、9の4種類から選択可能である。これは、GeneNo.0のBit6〜7にコード化される。
なお、連続値出力推論系では、前記のように、2セットの染色体が必要であるが、シミュレータモードは一つの系に一つあればよいので2セット目のシミュレータモードは無視される。
【0035】
【表5】
【0036】
多連続値出力推論系の染色体の例を表5に示す。第1の染色体は前段推論部28の学習用のパラメータとして用いられ、第2染色体は後段出力合成部29の学習用のパラメータとして用いられる。離散値出力推論系の場合は、第1の染色体のみでよい。
遺伝的アルゴリズムによるネットワーク型情報処理システムの学習は、図10に示すプロセスを行う。
最初に個体群を生成する(S1)。離散値出力処理系を対象とする学習では図3の個体を複数用意し、連続値出力処理系の学習の場合は図4の個体を複数用意してそれぞれ個体群を生成する。
個体数は通常20〜100個である。
ステップ数を0に設定する(S2)。
世代交代数を0に設定する(S3)。
各個体には、まず、所定回数の教示学習を行う(S4)。GAパラメータ(学習パラメータ)は、個体が図1に示すような離散値出力推論系のものである場合には、表5の第1染色体が用いられる。学習処理は特許文献1、2に記載されている方法と同じである。個体が図2に示すような連続値出力推論系のものである場合には、表5の第1染色体と第2染色体にコード化された学習パラメータを用いて、例えば特許文献3に記載されている学習方法により学習を行う。なお、遺伝的アルゴリズムにおける1世代の処理が終了する毎に、その処理により更新された学習パラメータが各個体の学習パラメータとして設定される。
所定回数としては、通常1000〜2000回が与えられる。
【0037】
次に、学習が行われた結果の各個体に対し評価推論が所定回数行われる(S5)。評価推論は前記学習された推論機構に学習の際に用いたのと同等の入力データを与え、推論を実行して出力を求め、その推論出力と入力データに対する正解出力とを比較し、その誤差の大きさ又は不正解率を求める処理である。その比較の結果から得られる性能は、離散値出力推論系では誤報率と失報率を加算したもので、連続値出力推論系では2乗誤差平均である。なお、誤報率とは、例えば異常を検出する系において、全試行中で本来は正常である状態を異常と誤判断した率のことであり、失報率とは、全試行中で、本来は異常である状態を正常と誤判断した率のことである。
その性能評価として各個体の総合性能指標を求める。この各個体の総合性能指標の値は、性能(不正解率)と要求リソースを乗算したもので、その値が小さいほど性能が高いとしている。要求リソースは、各個体の推論系のフィルタ関数(メンバーシップ関数)の総数で決定される。このように個体の性能(誤りの少なさ)だけでなく、推論系の規模をも考慮して総合性能指標を求めるのは、必要なシステムの規模が小さければ小さいほど良いものであるという観点に立っている。
【0038】
この総合性能指標を元に個体群を性能順にソートする(S6)。
【0039】
システムで設定されたエリート個体数、淘汰残数(生き残り数)に応じて、評価値の高い個体から順に、エリート、通常個体、死滅個体が決定される(S7)。通常個体の数は、淘汰残数からエリート個体数を引いた値であり、死滅個体数は、個体数から淘汰残数を引いた値である。
【0040】
エリート及び通常個体を対象として交叉処理を行う(S8)。
個体数12、エリート数2、淘汰残数8の交叉処理の例を図9により説明する。ソート順の1、2番を得た、推論系rule1とrule2を持つ2つの個体はエリート(elite1、elite2)となり、次世代個体は、エリートから推論系とGeneのどちらも継承されエリートと全く同じ個体となる。
生き残りだがエリートではない6(8マイナス2)個の個体は、通常個体(normal〜6)となる。次世代個体の推論系は、母親である通常個体から推論系を継承し(各々rule3〜rule8)、Geneは、乱数によって選択された父親(エリート又は通常個体)との交叉によって導出される。
交叉は、本実施例ではGene境界で行われる一点交叉で、交叉位置は、乱数によって決定される。死滅個体となった4つの個体(dead1〜4)の替わりに、新たに4つの新しい次世代個体が交叉によって生成される。この新個体は、母親、父親共に乱数によって決定され、推論系とGeneの継承は通常個体と同様の方式を取る。
【0041】
生成された次世代個体に不正な遺伝子(GAパラメータ)の組合せがあった場合は、死滅個体として検出され、除去される(S9)。不正な遺伝子とは、例えば、その値が取り得る範囲外のものであったり、他のパラメータと整合しなかったりものである。
個体数が設定した値になっているかを調べ(S10)、個体数が設定した値に達していないときには、前記ステップ8へ戻り、死滅個体にならない組合せができるまで交叉を繰り返す。
【0042】
さらに、エリート以外の次世代個体には、0<=x<=1.0の突然変異率で突然変異が実行される(S11)。この突然変異は、Gene内のビットを乱数でビット反転させることによって実現している。
そして死滅個体をチェックする(S12)。上記突然変異の結果、不正な遺伝子の組合せとなった個体は、死滅個体ではあるが、個体数維持のため個体としては存在する。ただし、次サイクルの学習・評価推論・性能評価の処理対象からは除外される。
【0043】
1回の世代交代処理が終了すると変数の世代交代数を1だけ増加させる(S13)。
変数の世代交代数が1ステップ内世代交代数に等しくなったかをチェックし、Noであれば、次の世代の学習処理、世代交代処理を行う(S14)。
性能評価・世代交代の処理の間に、学習パラメータは動的に設定され、それを利用して学習・評価推論は自動的に行われている。例えば、世代交代する毎に更新された学習パラメータが学習手段に設定される。
【0044】
所定回数(通常50回〜100回)繰り返した後、処理速度をあげるために、下位の個体を処理対象外とするために個体数を減少させる(S15)。
ここまでの処理をステップと称す。
ステップ数を1だけ増加し(S16)、ステップ数が指定ステップ数に達しているかをチェックし(S17)、指定ステップ数に達するまで、ステップを繰り返す。
例えば、ステップ数=3(通常)、初期個体数=50、個体減少数=15とすると、1回目のステップ終了時で最終個体数=35,2回目のステップ終了で最終個体数=20,最終3回目のステップ終了で最終個体数=5となり、最終的に5個の上位の個体を取得できる。
その最終的に取得した上位の個体はいずれも遺伝的アルゴリズムを用いた学習により性能の高い推論系を形成されたものであり、上位の個体のネットワーク型情報処理装置は利用において高い性能を有する。
【0045】
(第2の実施形態)
特許文献1〜3に記載されているような従来のネットワーク型情報処理装置においては、学習のための入力データは、観測されたデータをそのまま使用するのではなく、例えば観測された複数のデータから選択したり、複数のデータを組み合わせたり、データに係数をかけたり等の前処理を施して、適切なデータになるよう工夫していた。しかし、この入力データに対する前処理は、作業者が経験や感に頼り、人手で行っていた。本発明は、この入力データの前処理を自動的に行うよう構成すると共に、遺伝的アルゴリズムを適用して、適切な入力データを得るものである。
なお、ネットワーク型処理装置への直接に入力されるデータを入力データ、その入力データを得るための前処理以前のデータを元入力データと呼ぶこととする。
【0046】
【表6】
【0047】
表6は、入力パラメータとGAパラメータの関係の一例を示す。入力パラメータとは、元入力データに基づいて入力データを作成するための処理に必要なパラメータのことである。Geneは4つで、大別すると、制御コード、選択データID、次数、係数の4種類である。各Geneは8ビットで構成される。1入力データに元入力データ組合せのバリエーションを持たせるために、1染色体に2セットのGeneがコード化されている。入力パラメータは、学習パラメータ用の染色体の次にコード化される。そのため、離散値出力推論系では第2染色体以降に、連続値出力推論系では第3染色体以降にコード化される。
【0048】
【表7】
【0049】
表7に入力パラメータのコード化の例を示す。本例では、第10染色体まで設定されているGAパラメータのうち、3つの染色体が有効、つまり、3つの入力データを持つ場合である。元入力データは、D[10]で示されるように10個存在する。1入力データを1染色体にコード化するようにしたため、第3〜第5染色体が有効となっている。第3染色体にコード化された1番目の元入力データの組合せである、D[2]*−1.0+(D[10],2.0)*2.0というデータ、つまり、2番目の元入力データに−1.0を掛けた値と、10番目の元入力データを二乗し2.0を掛けた値を足すという入力データのパラメータをコード化する場合、第1セット目のGeneで前記式の前半部をコード化すると、制御コード=“有効“、選択データ=2(2番目の元データ)、次数=1、係数=−1となり、第2セット目のGeneで前記式の後半部をコード化すると、制御コード=“有効”、選択データ=10(10番目の元データ)、次数=2(二乗)、係数=2となる。第3、第4染色体も同様にコード化される。第4染色体の制御コード=“有効・終了”となっているのは、以降の染色体が無効を意味している。
【0050】
入力パラメータも第1染色体、第2染色体(連続値出力推論系のみ)の学習パラメータ同様、学習・評価推論・性能評価・世代交代のサイクルが所定回数(通常:50回〜100回)行われた後、個体数圧縮が行われ、最終個体数になるまで所定回数ステップが繰り返される。
学習パラメータの世代交代との差異が一つある。入力パラメータの世代交代では、交叉によって得られた次世代個体の全入力パラメータ値が母親のパラメータ値と異なってしまった場合は、もはや母親とは関係無しとなるため、母親から継承される推論機構は無効となってしまい、推論機構を放棄することになる。推論機構を放棄した個体は、次の世代は未熟成個体となり、学習・評価推論・性能評価・世代交代には参加せず、2世代を過ごした後に世代交代に参加することになる。
性能評価・世代交代の処理の間に、より有効な入力データは動的に選択され、それを利用して学習・評価推論は自動的に行われることになる。
最終個体数分の上位個体を利用した推論は、性能の高いものとなる。
【0051】
【発明の効果】
本発明のネットワーク型情報処理システムの学習装置及び方法は、遺伝的アルゴリズムのプロセスを利用することによって、性能評価の高い個体を発見することができる。つまり学習状況に応じた性能の高い学習パラメータの値を動的に取得し、その値を用いて学習の自動化を行うことができる。
【0052】
又、本発明のネットワーク型情報処理システムの入力データの前処理に必要なパラメータをも遺伝的アルゴリズムを用いて動的に取得し、その値を用いてより有効な入力データを自動的に取得することができる。
【図面の簡単な説明】
【図1】 離散値出力推論系のネットワーク構造の一例を示す図
【図2】 連続値出力推論系のネットワーク構造の一例を示す図
【図3】 離散値出力推論系の個体を概念的に示す図
【図4】 連続値出力推論系の個体を概念的に示す図
【図5】 個体の学習〜世代交代処理(離散値出力推論系)を示す図
【図6】 分散値倍率、曖昧度倍率を示す図
【図7】 拡張の閾値を示す図
【図8】 初期分散値を示す図
【図9】 世代交代の例を示す図
【図10】 GAを利用したパラメータ自動取得・自動学習のプロセスを示す図
【図11】 図2に示す連続値出力推論系のネットワーク構造を、パターン形式のテーブルで表した図である。
【符号の説明】
11,21・・・第1のノード、
12,22・・・第2のノード、
13,23・・・方向性リンク、
28・・・前段推論部、
29・・・後段出力合成部。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a learning system for an information processing system having a network structure that is useful in a field involving discrete value / continuous value output, such as a control system and a signal processing system. In particular, the present invention relates to a learning apparatus and method for learning learning of a network type information processing system using a genetic algorithm by coding a learning parameter in a genetic algorithm parameter, and a recording medium recording a program for causing a computer to execute the method. Furthermore, the present invention relates to an apparatus for obtaining input data by a genetic algorithm by encoding input parameters for obtaining input data by pre-processing input source data in the parameters of the genetic algorithm.
[0002]
[Prior art]
[0003]
[Patent Document 1]
JP-A-5-128086
[Patent Document 2]
JP-A-5-342189
[Patent Document 3]
JP-A-6-176001
[Non-Patent Document 1]
Masashi Iba, “Basics of Genetic Algorithm”, Ohm Co., Ltd., January 1998, 1st edition, 5th edition, pp8-16
[Non-Patent Document 2]
Ryohei Ishida, Haruo Murase, Shuhei Koyama, “Basics and Applications of Genetic Algorithms Learned from Personal Computers”, Morikita Publishing (1997-07-18 publication)
[Non-Patent Document 3]
Edited by Hiroaki Kitano, "Genetic Algorithm (1)", Sangyo Tosho
[0004]
The network type information processing system of the invention of Patent Document 1 has an information exchange function in which an output layer having a plurality of nodes is coupled via a directional link, and the directional link converts information passing therethrough, The node in the output layer has a function of performing a function operation on information input via the directional link. In this network type information processing system, as the information exchange function of the directional link, there is provided a filter function calculation unit for exchanging information according to a filter function having selective characteristics such as a band pass type or a band rejection type. ing. The learning method in the network type information processing system is a means for obtaining a normal information processing result from the same input information in parallel with the network type information processing system performing information processing from the input information through a directional link and a calculation unit. The difference between the teacher signal and the information processing calculation result (output of the calculation unit) is calculated as an evaluation function, and the magnitude of the difference and the vector value are calculated. And a means for correcting the filter function of the directional link through a learning function using the value of the learning parameter.
Thereafter, in order to improve the learning process in the invention of Patent Document 1, the system of Patent Document 2 was further proposed.
[0005]
Further, Patent Document 3 proposes an invention that further expands the invention of Patent Document 1 that only described the relationship of discrete value output to multi-continuous input and the invention of Patent Document 2 that improved the learning system. This is a network type information processing system capable of describing a relation of multi-continuous value output with respect to multi-continuous value input, and a learning method thereof.
[0006]
On the other hand, a genetic algorithm has been devised as a method of adaptive learning from a large amount of data and is used in various fields. The literature on the application of genetic algorithms is enormous. The basic mechanism of the genetic algorithm (hereinafter also abbreviated as “GA”) is described on page 15 of Non-Patent Document 1, for example. To quote this, the mechanism of the genetic algorithm is: (1) randomly generate a population M (φ) of the initial generation, and (2) the fitness u for each individual m in the current population M (t). (M) is calculated (fitness calculation), (3) Using a probability distribution proportional to u (m), an individual m is selected from M (t) (selection), (4) the selected individual is selected The GA operator is operated to generate the next generation group M (t + 1) (reproductive) and to return to step (2).
Note that no attempt has been made in the literature to apply a genetic algorithm to a network-type information processing system for learning.
[0007]
[Problems to be solved by the invention]
In the learning system of the conventional network type information processing system as described in Patent Documents 1 to 3, the performance depends on the setting value of the learning parameter. In the conventional system, the values of these learning parameters are values set in advance for each system and are not changed according to the learning situation, so that sufficient learning performance cannot be obtained. In order to perform more efficient learning, the system should dynamically change the learning parameters according to the learning situation. That is, learning can be automated if learning parameters can be dynamically set. However, conventionally, an attempt to dynamically change the learning parameter has not been realized.
Therefore, the present invention prepares a plurality of network type information processing systems, sets learning parameters of each system as GA parameters, and finds a system with high performance evaluation using a genetic algorithm. That is, it is an object of the present invention to provide a network type information processing system learning device and method that automatically set a highly evaluated learning parameter and has learning automatic means using the value.
Further, in the network type information processing system, when the number of input data increases, the performance is lowered. Until now, in order to reduce the number of input data, many original data such as observation data (previously called “source data”) are pre-processed to find input data that is a combination of valid input data. Has been done manually. Accordingly, it is an object of the present invention to provide a learning apparatus and method for a network type information processing system capable of performing automatic preprocessing using a genetic algorithm as a method for setting input data.
[0008]
[Means for Solving the Problems]
The present invention has a direction having a plurality of first nodes, a plurality of second nodes, and a nonlinear selective function characteristic that couples the first node and the second node as shown in FIG. A network-type information processing system learning device that has a function to output discrete values for multi-continuous inputs and to learn the selective function characteristics of the multi-continuous input. It has dynamic setting / automatic learning means for dynamically setting parameter values using a genetic algorithm and learning using the parameter values.
The dynamic setting / automatic learning means prepares a plurality of network type information processing systems, sets the learning parameters of each system as GA parameters, and combines the inference mechanism of each network type information processing system with the GA parameters. Learning, evaluation reasoning, performance evaluation, and generation change are performed a predetermined number of times for an individual group to select an individual group with high performance.
That is, a network-type information processing system is prepared, and the inference system of the system (a set system of pattern sets) and the learning parameters of the system are combined to form individuals as shown in FIG. 3, and a plurality of these individuals are prepared. As shown in FIG. 5, after learning a rule (inference mechanism) a predetermined number of times and evaluating and inferring each individual, the individual groups are sorted in order of performance based on the evaluation results. The GA algorithm is inherited, crossed, and mutated. The entire process including these series of processes is shown in FIG. Discovering individuals with high performance evaluation through the process shown in FIG. 10, that is, dynamically acquiring high performance learning parameter values according to the learning situation, and automating learning using those values It is something that can be done.
[0009]
The first generation is composed of the plurality of initial populations. As shown in Table 1, individual learning parameters are coded as GA parameters. Each individual within a generation processes a certain number of inputs. Each input is given a teaching output (= correct answer), and after performing rule learning and evaluation inference using a predetermined number of inputs and outputs, each individual is evaluated based on the inference result and its value Sort the individuals in order of performance. The evaluation is obtained based on the size of the inference system (total number of filter functions) and the incorrect answer rate of the evaluation inference.
[0010]
Based on the performance evaluation of each individual and designation of the number of elite individuals / remaining (surviving) individuals, each individual is classified into an elite, normal individual, and dead individual, and then generational change is performed.
In the generational change, the elite is inherited as it is by the next generation, the same next generation individual is generated, and the dead individual is not inherited by the next generation. The next-generation individual first selects an individual (elite or normal individual) to be a father by using a random number as a normal individual. The next generation individual inherits the inference mechanism from the mother, and the learning parameters are acquired by crossover of the mother and father. Furthermore, in order to satisfy (hold) the number of individuals, a next-generation individual is generated in which the mother and father are selected by random numbers. If the generated next generation individual has an illegal gene (GA parameter) combination, it is detected as a dead individual, and crossover is repeated until a combination that does not become a dead individual is made, and the number of individuals is maintained. Crossover is one-point crossover and is performed only at the Gene (abbreviation of gene) boundary, and the crossover position is determined by a random number. Furthermore, mutation is performed with a certain probability. Mutation is realized by inversion of 1 bit by a random number. Individuals that have an incorrect combination of genes due to mutation are not treated as dead individuals, but exist as next-generation individuals to maintain the number of individuals. However, it is excluded from the processing of learning, evaluation reasoning, and performance evaluation.
[0011]
A series of processes from learning / evaluation inference, performance evaluation, and generation change are repeated a predetermined number of times, and finally, the number of individuals is reduced by removing the lower number of individuals corresponding to the number of individuals that have decreased. This increases the processing speed. The process so far is called a step. If this step is repeated a predetermined number of times, upper individual groups corresponding to the final number of individuals are acquired.
[0012]
  During the process, the value of the learning parameter with high performance is automatically set in the upper individual, and learning / inference is automatically performed using the value.
  In addition, using the population of the final number of individuals after the completion of all processes, a network that enables high-performance inferenceA network-type information processing system can be realized.
[0013]
Another aspect of the present invention includes a plurality of first nodes, a plurality of second nodes, and a directional link having a nonlinear selective function characteristic that couples the first nodes and the second nodes. The network type information processing system having the output value defined for each second node as a non-linear selection type function, and reflecting the defined output value and the output value of the second node A network-type information processing system having a configuration in which a second network-type information processing system having a function of obtaining one or more composite output values represented by continuous values is added, and outputting a multi-continuous value for a multi-continuous input A learning device, which learns the selective function characteristics of the first and second network-type information processing systems by using a genetic algorithm with learning parameter values that are various parameters necessary for learning. To set and has a dynamic setting and automatic learning means for automatic learning by using the value.
Dynamic setting / automatic learning means: Dynamic setting / automatic learning means prepares a plurality of network type information processing systems, sets learning parameters of each system as GA parameters, and inference mechanism of each network type information processing system A procedure including learning, evaluation reasoning, performance evaluation, and generation change is performed a predetermined number of times for an individual group that is a combination of the GA parameter and the GA parameter (see FIG. 4), and an individual group with high performance is selected.
By dynamically setting effective learning parameter values using this genetic algorithm, learning can be automated and high-performance inference can be performed.
[0014]
Still another aspect of the present invention is that the input parameter of the discrete value output reasoning network type information processing system or the continuous value output reasoning type network type information processing system is input to each individual with an input parameter GA. It is set as a parameter, the process shown in FIG. 10 is performed, input parameters are dynamically set, and input data can be automatically selected.
During the process, high-performance individual input data is automatically selected in the upper individual, and learning / inference is automatically performed using the value. In addition, a network-type information processing system that performs high-performance inference using the population of the final number of individuals after the completion of all processes.
Can be realized.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
As described above, the network type information processing system includes a reasoning system for discrete value output and a reasoning system for multi-continuous value output. Discusses the inference system for discrete value output and the inference system for continuous value output: dynamic acquisition and automatic learning of effective learning parameter values using GA, dynamic acquisition of input parameter values, and input preprocessing based on these values .
[0017]
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a network type information processing apparatus having a discrete value output inference system.
A network type information processing apparatus having a discrete value output inference system includes a plurality of first nodes 11, a plurality of second nodes 12, and the first node 11 and the second node 12 as shown in FIG. And a directional link 13 having a weight and a nonlinear selection-type function characteristic. Each second node 12 has a function of adding the calculation results of the degree of matching and the weight by the function calculation of a plurality of links. The output of each node 12 is calculated by the threshold function calculation unit 15 and a discrete value is output. Is done. A collection of a single node 12 and a plurality of links connected to it is called a pattern set or rule, and a functional part consisting of all pattern sets (PS0, PS1, PS2,...) Is called an inference mechanism. In learning of the inference mechanism, learning input data and correct answer data are given, and the selective function characteristics and weights are corrected so that the operation result of the inference mechanism based on the learning input data approaches the correct output data. This shows an example described in Patent Document 1, Patent Document 2, and the like.
[0018]
FIG. 2 shows an example of a network type information processing apparatus that outputs a multi-continuous value in response to a multi-continuous value input, and FIG. 11 shows its function in the form of a pattern table. This is an example described in Patent Document 3. The network type information processing apparatus includes a plurality of first nodes 21, a plurality of second nodes 22, and a nonlinear selective function (membership) that couples the first nodes 21 and the second nodes 22. Function MF00~ MF33) Characteristics and their weight W00~ W33And a post-stage inference unit 28 having a directional link 26 having an output value defined for each second node as a nonlinear selective function characteristic. 29, which outputs a multi-continuous value in response to a multi-continuous value input, and has a function of learning respective selective function characteristics and weights of the pre-stage inference unit 28 and the post-stage output synthesis unit 29. is there.
[0019]
In the case of learning the network type information processing system of the discrete value output system of FIG. 1, the present invention prepares a plurality of network type information processing systems of the discrete value output system, and infers the system (set system of pattern sets). That is, the discrete value output processing system 10 and the learning parameter 3 of the system are combined into an individual as shown in the conceptual diagram of FIG.
In the case of learning of the network type information processing system of the multi-continuous value output system of FIG. 2, a plurality of network type information processing systems of the multi-continuous value output system are prepared, the reasoning system 28 of the multi-continuous value output processing system and the network type 4 is combined with the learning parameters of each part of the system to form an individual as shown in the conceptual diagram of FIG.
This learning parameter is coded in relation to the GA parameter.
As shown in FIG. 5, a plurality of these individuals are prepared to form a group of individuals, and after allowing each individual to learn a rule (inference mechanism) a predetermined number of times and perform evaluation inference, based on the evaluation results, in order of performance The individual groups are sorted, and operations such as inheritance, crossover, and mutation of the GA algorithm are performed on the individual groups.
An outline of the entire process including the series of processes is shown in FIG. The learning system of the network type information processing system according to the present embodiment uses the process as shown in FIG. 10 to find an individual with a high performance evaluation, that is, to dynamically acquire a value of a high performance learning parameter according to the learning situation. Then, learning can be automated using the value.
[0020]
The first generation is composed of the plurality of initial populations.
[0021]
[Table 1]
[0022]
As shown in Table 1, individual learning parameters are bit-coded as GA parameters.
In the discrete value output inference system, there are 8 genes (hereinafter referred to as Gene), and each Gene is composed of 8 bits.
The multi-continuous value output inference system has a front-stage inference unit and a rear-stage output synthesis unit, and each requires learning, so the number of Genes is two sets, that is, 16 Genes.
8Gene is encoded as one chromosome. Therefore, one chromosome is coded in the discrete value output reasoning system, and two chromosomes are coded in the continuous value output reasoning system.
[0023]
As shown in Table 1, the learning parameters are encoded into basic 8 Gene (Gene No. 0 to 7). Broadly speaking, there are a learning mode (see Table 2), a membership function (filter function) parameter, a pattern set expansion parameter, and a weight control parameter.
[0024]
[Table 2]
[0025]
The learning mode parameter is GeneNo. As shown in Table 2, the learning mode value is set as “WEIGHT” for setting whether or not weight learning is performed, and whether or not the history buffer is deleted when the membership function is changed. “NO_CLR_H” to indicate, “VARFIX” to set whether or not to change the base position when changing the membership function, “VAREXT” to indicate whether or not to reduce the variance value when changing the membership function, and a pattern set There is “EXTEND” for selecting whether or not “PT_EXT” using automatic extension and “PT_MIN” for generating a membership function with a small number of data. Is set. Multiple of these can be specified.
[0026]
The parameters of the membership function MF as a filter function are GeneNo. 2 and no. 3 as the GA parameter of the gene No. 3, and the GeneNo. The history buffer size is set in 2 bits 16 to 19, and the left bottom gain, right bottom gain, upper left gain, and upper right gain are set in bits 20 to 23. GeneNo. 3 is set to the variance value magnification, and Bits 28 to 31 are set to the ambiguity magnification. The history buffer size is a capacity of a buffer used for statistical processing of the teacher signal. The left bottom gain, the right bottom gain, and the upper left gain are parameters representing the degree to which the left and right lengths of the base and the top are changed in order to change the shape of the membership function. The variance value magnification and the ambiguity magnification as shown in FIG. 6 are parameters for changing the variance value and the ambiguity of the function.
[0027]
Parameters related to pattern set expansion are GeneNo. Corresponding to GA parameters of 4-5 genes. As a parameter for pattern set expansion, a learning threshold value is used to instruct that learning is not performed when the degree of matching is smaller than the threshold value. When the degree of matching is larger than the threshold value, the pattern set is learned. There are an expansion threshold indicating that a set is generated and learned, an initial dispersion value shown in FIG. 8 for determining the shape of the membership function at the time of minority learning, and the like. FIG. 7 illustrates that a new pattern indicated by a dotted line 73 is generated when the degree of matching of the input 72 with respect to the membership function 71 indicated by a solid line is smaller than the expansion threshold.
[0028]
The weight control parameter for changing the weight by learning is GeneNo. It is encoded in GA parameters of 6-7 genes. That is, GeneNo. A weight decrease threshold value is set to 6 bits 48 to 51, and a weight increase threshold value is set to the same bits 52 to 55. GeneNo. 7 is set to the weight decrease rate, and the Bits 60 to 63 are set to the weight increase rate.
[0029]
In this embodiment, in addition to these learning parameters, an execution operation mode (see Table 3), an output synthesis mode (see Table 4) required only for the continuous value output inference system, and a simulator mode including the number of output synthesis targets are also available. Can be obtained. The parameters of this simulator mode are GeneNo. Corresponding to 0.
The simulator mode is a collective term that combines the execution operation mode, the output synthesis mode, and the output synthesis target number.
The output synthesis mode and the number of output synthesis targets are parameter groups that define a calculation method for generating an output value in the continuous value output type.
[0030]
[Table 3]
[0031]
The execution operation mode is a group of parameters that specify the rules to be used, the learning method for rule matching, and the behavior during inference. “ADD” that specifies whether the sum is the summation average or the geometric mean, the membership function of the inactive rule (that is, the rule that is not sufficiently learned), and the pattern set is also used for inference. Learning using “NO_ACT”, “LINEAR” instructing an operation in which the output of a plurality of rules is linearly interpolated in the linear interpolation mode in the continuous value output type, and a line format that minimizes the square error There is “MINSQR” or the like for instructing to perform inference with data outside the given data range. Assigned to 0 to Bit 0-3.
[0032]
[Table 4]
[0033]
As shown in Table 4, the output composition mode required only for the multi-continuous value inference system is the center of the output pattern connected to the pattern set for the specified number of pattern sets (rules) with higher matching degree. “PSWAM” that weights and averages the values according to the degree of match, “PSWWM” that also uses the weight of the output pattern at the time of the weighted average, and an output pattern that is connected to the pattern set for the specified number of pattern sets with the highest degree of match There are “APWAM” for weighted average of the area centroids by the degree of coincidence, “random number designation” for determining a pattern set related to calculation of output values from the top N by random numbers, and so on. It is encoded as 0 to 4 to 5 bits.
[0034]
The number of output compositing targets necessary only for the multi-continuous value inference system is a parameter that specifies the number of pattern sets (pattern tables) to be output compositing, and there are four types of values: 3, 4, 5, and 9. It is possible to select from. This is a GeneNo. It is encoded as 0 to 6 to 7 bits.
In the continuous value output inference system, as described above, two sets of chromosomes are necessary. However, since only one simulator mode is required for one system, the second simulator mode is ignored.
[0035]
[Table 5]
[0036]
  Table 5 shows examples of chromosomes of the multi-continuous value output inference system. The first chromosome is used as a learning parameter for the pre-stage reasoning unit 28, and the second chromosome is used as a learning parameter for the post-stage output synthesis unit 29. In the case of a discrete value output inference system, only the first chromosome is required.
  Learning of the network type information processing system by the genetic algorithm performs the process shown in FIG.
  First, a population is generated (S1). In the learning for the discrete value output processing system, a plurality of individuals shown in FIG. 3 are prepared. In the case of the learning for the continuous value output processing system, a plurality of individuals shown in FIG. 4 are prepared to generate individual groups.
  The number of individuals is usually 20-100.
  The number of steps is set to 0 (S2).
  The generation alternation number is set to 0 (S3).
  First, each individual is taught a predetermined number of times (S4). As the GA parameter (learning parameter), when the individual is of a discrete value output inference system as shown in FIG. 1, the first chromosome in Table 5 is used. The learning process is a method described in Patent Documents 1 and 2.Same asIt is the same. When the individual is of a continuous value output reasoning system as shown in FIG. 2, it is described in, for example, Patent Document 3 using learning parameters encoded in the first chromosome and the second chromosome in Table 5.StudyLearn by learning methods. Each time one generation of processing in the genetic algorithm is completed, a learning parameter updated by the processing is set as a learning parameter for each individual.
  The predetermined number of times is usually 1000 to 2000 times.
[0037]
  Next, evaluation inference is performed a predetermined number of times for each individual as a result of learning (S5). Evaluation reasoning gives the learned inference mechanism input data equivalent to that used for learning, executes inference to obtain an output, compares the inference output with the correct output for the input data, and the error It is a process which calculates | requires the magnitude | size or incorrect answer rate. The performance obtained from the comparison result is the sum of the false alarm rate and the false alarm rate in the discrete value output reasoning system, and the mean square error in the continuous value output reasoning system. The false alarm rate is, for example,AbnormalThis is the rate at which a state that is normally normal during all trials is misjudged as abnormal, and the misreporting rate is misjudged as normal when it is normally abnormal during all trials. That is the rate.
  As the performance evaluation, the total performance index of each individual is obtained. The value of the total performance index of each individual is obtained by multiplying the performance (incorrect answer rate) and the required resource, and the smaller the value, the higher the performance. The required resource is determined by the total number of inference filter functions (membership functions) of each individual. In this way, not only the performance of the individual (small errors) but also the size of the inference system is taken into consideration, so that the smaller the required system scale, the better. Is standing.
[0038]
Based on this comprehensive performance index, the populations are sorted in order of performance (S6).
[0039]
In accordance with the number of elite individuals and the number of survivors (survivors) set in the system, the elite, normal individual, and dead individual are determined in order from the individual with the highest evaluation value (S7). The number of normal individuals is a value obtained by subtracting the number of elite individuals from the number of remaining cocoons, and the number of dead individuals is a value obtained by subtracting the number of remaining cocoons from the number of individuals.
[0040]
Crossover processing is performed on elite and normal individuals (S8).
An example of the crossover process for the number of individuals 12, the number of elite 2, and the number 8 of remaining wrinkles will be described with reference to FIG. The two individuals with inference systems rule1 and rule2 that have obtained the sort order 1 and 2 are elite (elite1, elite2), and the next generation individuals inherit both the inference system and Gene from the elite and are exactly the same as the elite Become an individual.
Six (8 minus 2) individuals who survive but are not elite become normal individuals (normal-6). The inference system of the next generation individual inherits the inference system from the normal individual who is the mother (rules 3 to 8 respectively), and Gene is derived by crossover with the father (elite or normal individual) selected by random numbers.
The crossover is a single point crossover performed at the Gene boundary in this embodiment, and the crossover position is determined by a random number. Instead of four dead individuals (dead 1 to 4), four new next-generation individuals are generated by crossover. This new individual is determined by random numbers for both the mother and father, and the inheritance system and the inheritance of Gene take the same method as the normal individual.
[0041]
If the generated next generation individual has a combination of illegal genes (GA parameters), it is detected as a dead individual and removed (S9). An illegal gene is, for example, a gene that is outside the range that the value can take, or that does not match other parameters.
It is checked whether the number of individuals has reached the set value (S10). If the number of individuals has not reached the set value, the process returns to step 8 and the crossover is repeated until a combination that does not become a dead individual is obtained.
[0042]
Furthermore, the mutation is executed for the next generation individuals other than the elite at a mutation rate of 0 <= x <= 1.0 (S11). This mutation is realized by bit-inverting the bits in Gene with random numbers.
A dead individual is checked (S12). As a result of the mutation, an individual having an illegal combination of genes is a dead individual, but exists as an individual to maintain the number of individuals. However, it is excluded from the processing target of learning / evaluation reasoning / performance evaluation in the next cycle.
[0043]
When one generation change process is completed, the generation change number of the variable is increased by 1 (S13).
It is checked whether the generation change number of the variable is equal to the generation change number within one step. If No, the next generation learning process and generation change process are performed (S14).
During the performance evaluation / generation change process, learning parameters are dynamically set, and learning / evaluation inference is automatically performed using the learning parameters. For example, the learning parameter updated every time the generation is changed is set in the learning means.
[0044]
After repeating a predetermined number of times (usually 50 to 100 times), in order to increase the processing speed, the number of individuals is decreased in order to exclude lower-level individuals from the processing target (S15).
The processing so far is referred to as a step.
The number of steps is increased by 1 (S16), it is checked whether the number of steps has reached the specified number of steps (S17), and the steps are repeated until the specified number of steps is reached.
For example, assuming that the number of steps = 3 (normal), the initial number of individuals = 50, and the number of individuals decreased = 15, the final number of individuals = 35 at the end of the first step, the final number of individuals = 20, at the end of the second step. At the end of the third step, the final number of individuals becomes 5, and finally five higher individuals can be acquired.
The upper individual obtained finally has an inference system with high performance formed by learning using a genetic algorithm, and the network type information processing apparatus of the upper individual has high performance in use.
[0045]
(Second Embodiment)
In the conventional network type information processing apparatus as described in Patent Documents 1 to 3, the input data for learning does not use the observed data as it is, for example, from a plurality of observed data It has been devised to make appropriate data by performing preprocessing such as selecting, combining a plurality of data, and applying a coefficient to the data. However, the preprocessing for the input data has been performed manually by the worker, relying on experience and feeling. The present invention is configured to automatically perform the preprocessing of the input data, and obtains appropriate input data by applying a genetic algorithm.
Data directly input to the network type processing apparatus is referred to as input data, and data before preprocessing for obtaining the input data is referred to as original input data.
[0046]
[Table 6]
[0047]
Table 6 shows an example of the relationship between input parameters and GA parameters. An input parameter is a parameter required for the process for creating input data based on original input data. There are four Genes, roughly divided into four types: control code, selection data ID, order, and coefficient. Each Gene is composed of 8 bits. In order to give one input data variations of the original input data combination, two sets of Genes are encoded in one chromosome. The input parameters are encoded next to the chromosomes for learning parameters. Therefore, in the discrete value output reasoning system, it is coded after the second chromosome, and in the continuous value output reasoning system, it is coded after the third chromosome.
[0048]
[Table 7]
[0049]
Table 7 shows an example of input parameter encoding. In this example, among the GA parameters set up to the 10th chromosome, three chromosomes are valid, that is, have three input data. There are 10 original input data as indicated by D [10]. Since one input data is encoded into one chromosome, the third to fifth chromosomes are effective. D [2] * − 1.0+ (D [10], 2.0) * 2.0, which is a combination of the first original input data encoded in the third chromosome, that is, the second When coding a parameter of input data in which the value obtained by multiplying the original input data by -1.0 and the value obtained by squaring the 10th original input data and multiplying by 2.0 is used, the first set Gene is used. When the first half of the equation is coded, the control code = “valid”, the selection data = 2 (second original data), the order = 1, the coefficient = −1, and the second set Gene is the latter half of the equation. When the part is coded, control code = “valid”, selection data = 10 (10th original data), order = 2 (square), and coefficient = 2. The third and fourth chromosomes are similarly encoded. The control code of the fourth chromosome = “valid / terminated” means that the subsequent chromosomes are invalid.
[0050]
As with the learning parameters of chromosome 1 and chromosome 2 (continuous value output reasoning system only), the input, parameters, learning, evaluation reasoning, performance evaluation, and generation change cycles were performed a predetermined number of times (usually 50 to 100 times). Thereafter, the number of individuals is compressed, and the steps are repeated a predetermined number of times until the final number of individuals is reached.
There is one difference between the generational change of learning parameters. In the generation change of input parameters, if all the input parameter values of the next generation individuals obtained by crossover are different from the mother's parameter values, it is no longer related to the mother, so the inference mechanism inherited from the mother Becomes invalid and abandons the inference mechanism. Individuals who abandon the reasoning mechanism become immature individuals in the next generation, and do not participate in learning, evaluation reasoning, performance evaluation, and generation change, and will participate in generation change after spending two generations.
During the performance evaluation / generation change process, more effective input data is dynamically selected, and learning / evaluation inference is automatically performed using the input data.
Inference using the top individuals for the final number of individuals has high performance.
[0051]
【The invention's effect】
The learning apparatus and method of the network type information processing system of the present invention can find an individual with high performance evaluation by using a process of a genetic algorithm. That is, it is possible to dynamically acquire a value of a learning parameter with high performance according to the learning situation, and to automate learning using the value.
[0052]
Also, parameters necessary for preprocessing input data in the network type information processing system of the present invention are dynamically acquired using a genetic algorithm, and more effective input data is automatically acquired using the values. be able to.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a network structure of a discrete value output inference system
FIG. 2 is a diagram showing an example of a network structure of a continuous value output inference system
FIG. 3 is a diagram conceptually showing an individual of a discrete value output inference system.
FIG. 4 is a diagram conceptually showing an individual of a continuous value output inference system.
FIG. 5 is a diagram showing individual learning to generation change processing (discrete value output inference system).
FIG. 6 is a diagram showing a variance value magnification and an ambiguity magnification.
FIG. 7 is a diagram showing an expansion threshold value.
FIG. 8 is a diagram showing initial dispersion values
FIG. 9 is a diagram showing an example of generation change
FIG. 10 is a diagram showing a process for automatically acquiring and learning parameters using GA.
11 is a diagram showing a network structure of the continuous value output inference system shown in FIG. 2 in a pattern format table.
[Explanation of symbols]
11, 21... The first node,
12, 22 ... second node,
13, 23 ... Directional link,
28 ・ ・ ・ Inference section
29: A post-stage output synthesis unit.

Claims (8)

複数の第1のノードと、複数の第2のノードと、前記の第1のノードと第2のノードを結合する非線形の選択的関数特性を持つ方向性リンクとを備え、多連続入力に対して離散値を出力し、その選択的関数特性を学習する機能をもつネットワーク型情報処理システムの学習装置であって、このネットワーク型情報処理システムを複数用意し、各システムの持つ学習時に選択的関数特性を変更するのに必要な各種パラメータである学習パラメータをGAパラメータとして設定し、各ネットワーク型情報処理システムの推論機構とGAパラメータを合わせたものを一個体とする個体群を生成し、前記個体群に対して、学習・評価推論・性能評価・世代交代の一連のプロセスを所定回数行い、その処理のプロセス中、性能評価の評価値の高い上位個体群を選択するという、遺伝的アルゴリズムを用いた学習パラメータの動的設定、及びそのパラメータ値を用いた学習を行う、動的設定・自動学習手段を有することを特徴とするネットワーク型情報処理システムの学習装置。A plurality of first nodes, a plurality of second nodes, and a directional link having a non-linear selective function characteristic that couples the first node and the second node. outputting a discrete value each, in the learning apparatus network type information processing system having a function of learning the selective function characteristic, the network type information processing system by preparing a plurality selective function when learning possessed by each system A learning parameter, which is various parameters necessary for changing the characteristics , is set as a GA parameter, and a group of individuals including a combination of the inference mechanism of each network type information processing system and the GA parameter is generated. A series of processes of learning, evaluation reasoning, performance evaluation, and generation change are performed for a group a predetermined number of times. A network-type information processing system characterized by having dynamic setting / automatic learning means for performing dynamic setting of learning parameters using genetic algorithms and learning using the parameter values of selecting a group Learning device. 前記、所定回数の学習・評価推論・性能評価・世代交代の後、処理速度向上のための個体数減少を行うことを特徴とする請求項1記載のネットワーク型情報処理システムの学習装置。2. The learning apparatus for a network type information processing system according to claim 1, wherein after the predetermined number of learning, evaluation reasoning, performance evaluation, and generation change, the number of individuals is reduced to improve processing speed. 前記、所定回数の学習・評価推論・性能評価・世代交代の後、処理速度向上のための個体数減少を行うまでのプロセスを1ステップとし、最終的に必要な個体数になるまで、ステップを所定回数繰り返すことを特徴とする請求項2記載のネットワーク型情報処理システムの学習装置。  After the predetermined number of learning / evaluation inference / performance evaluation / generational change, the process until the decrease in the number of individuals for improving the processing speed is taken as one step, and the steps until the required number of individuals is finally reached. The learning apparatus of the network type information processing system according to claim 2, wherein the learning apparatus repeats a predetermined number of times. 前記請求項1〜請求項3のいずれか1項に記載された学習装置の前記動的設定・自動学習手段により学習が施され、学習の結果得られた個体群を用いて、評価推論を行い、評価値の高い個体群の推論機構を取得することを特徴とするネットワーク型情報処理システムの学習装置。  Learning is performed by the dynamic setting / automatic learning means of the learning device according to any one of claims 1 to 3, and evaluation inference is performed using an individual group obtained as a result of learning. A learning apparatus for a network-type information processing system, which obtains an inference mechanism for a population having a high evaluation value. 複数の第1 のノードと、複数の第2 のノードと、前記の第1のノードと第2 のノードを結合する非線形の選択的関数特性を持つ方向性リンクとを備えたネットワーク
型情報処理システムに、その各第2 のノードに対し定義される出力値を非線形の選択型関数として有し、前記定義される出力値と第2 のノードの出力値を反映した連続値で表される1
以上 の合成出力値を得る機能を持つ第2 のネットワーク型情報処理 システムを付加した構成を備え、多連続入力に対して多連続値を出力するネットワーク型情報処理システムの学習装置であって、このネットワーク型情報処理システムを複数用意し、各システムの持つ学習時に選択的関数特性を変更するのに必要な各種パラメータである学習パラメータをGAパラメータとして設定し、各ネットワーク型情報処理システムの推論機構とGAパラメータを合わせたものを一個体とする個体群を生成し、前記個体群に対して、学習・評価推論・性能評価・世代交代の一連のプロセスを所定回数行い、その処理のプロセス中、性能評価の評価値の高い上位個体群を選択するという、遺伝的アルゴリズムを用いた学習パラメータの動的設定、及びそのパラメータ値を用いた学習を行う、動的設定・自動学習手段を有することを特徴とするネットワーク型情報処理システムの学習装置。
Network-type information processing system comprising a plurality of first nodes, a plurality of second nodes, and a directional link having a nonlinear selective function characteristic that couples the first nodes and the second nodes 1 has an output value defined for each second node as a non-linear selection function, and is represented by a continuous value reflecting the defined output value and the output value of the second node.
A learning apparatus for a network type information processing system having a configuration to which the second network type information processing system having a function of obtaining the above synthesized output value is added, and outputting a multi-continuous value for a multi-continuous input, Prepare multiple network information processing systems, set various learning parameters that are necessary for changing the selective function characteristics during learning of each system as GA parameters, and determine the inference mechanism of each network information processing system. A group of individuals with a combination of GA parameters is generated, and a series of processes of learning, evaluation reasoning, performance evaluation, and generation change are performed a predetermined number of times on the individual group. Dynamic setting of learning parameters using a genetic algorithm, such as selecting a higher population with a high evaluation value, and Perform learning using the parameter values, the learning device for the network type information processing system characterized by having a dynamic setting and automatic learning means.
前記、所定回数の学習・評価推論・性能評価・世代交代の後、処理速度向上のための個体数減少を行うことを特徴とする請求項5記載のネットワーク型情報処理システムの学習装置。  6. The learning apparatus for a network type information processing system according to claim 5, wherein after the predetermined number of learning, evaluation reasoning, performance evaluation, and generation change, the number of individuals is reduced to improve processing speed. 前記、所定回数の学習・評価推論・性能評価・世代交代の後、処理速度向上のための個体数減少を行うまでのプロセスを1ステップとし、最終的に必要な個体数になるまで、ステップを所定回数繰り返すことを特徴とする請求項6記載のネットワーク型情報処理システムの学習装置。  After the predetermined number of learning / evaluation inference / performance evaluation / generational change, the process until the decrease in the number of individuals for improving the processing speed is taken as one step, and the steps until the required number of individuals is finally reached. The learning apparatus for a network type information processing system according to claim 6, wherein the learning apparatus repeats a predetermined number of times. 前記請求項〜請求項7のいずれか1項に記載された学習装置の前記動的設定・自動学習手段により学習が施され、学習の結果得られた個体群を用いて評価推論を行い、評価値の高い個体群の推論機構を取得することを特徴とするネットワーク型情報処理システムの学習装置。Learning is performed by the dynamic setting / automatic learning means of the learning device according to any one of claims 5 to 7, and evaluation inference is performed using an individual group obtained as a result of learning, A learning apparatus for a network-type information processing system, which obtains an inference mechanism of a population having a high evaluation value.
JP2002363168A 2002-12-13 2002-12-13 Network type information processing system learning device using genetic algorithm Expired - Lifetime JP3935425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002363168A JP3935425B2 (en) 2002-12-13 2002-12-13 Network type information processing system learning device using genetic algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002363168A JP3935425B2 (en) 2002-12-13 2002-12-13 Network type information processing system learning device using genetic algorithm

Publications (2)

Publication Number Publication Date
JP2004192584A JP2004192584A (en) 2004-07-08
JP3935425B2 true JP3935425B2 (en) 2007-06-20

Family

ID=32761379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002363168A Expired - Lifetime JP3935425B2 (en) 2002-12-13 2002-12-13 Network type information processing system learning device using genetic algorithm

Country Status (1)

Country Link
JP (1) JP3935425B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6643905B2 (en) * 2016-01-15 2020-02-12 クラリオン株式会社 Machine learning method and machine learning device
US20180336453A1 (en) * 2017-05-19 2018-11-22 Salesforce.Com, Inc. Domain specific language for generation of recurrent neural network architectures
JP6824450B2 (en) * 2017-06-28 2021-02-03 リキッド バイオサイエンシズ,インコーポレイテッド Iterative feature selection method
WO2019108923A1 (en) * 2017-11-30 2019-06-06 Google Llc Neural architecture search using a performance prediction neural network
CN111353605B (en) * 2020-01-03 2023-07-25 电子科技大学 Novel planar molecular array antenna array comprehensive array arranging method based on improved genetic algorithm

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3354593B2 (en) * 1992-06-10 2002-12-09 日本政策投資銀行 Learning system for network type information processing equipment
JP3476211B2 (en) * 1992-12-03 2003-12-10 日本政策投資銀行 Network type information processing system and its learning method
JPH11328144A (en) * 1998-05-20 1999-11-30 Yamaha Motor Co Ltd Optimization method for fuzzy neural network

Also Published As

Publication number Publication date
JP2004192584A (en) 2004-07-08

Similar Documents

Publication Publication Date Title
He et al. Damage detection by an adaptive real-parameter simulated annealing genetic algorithm
JP2002230514A (en) Evolutionary optimizing method
CN107609648B (en) Genetic algorithm combined with stacking noise reduction sparse automatic encoder
CN107832789B (en) Feature weighting K nearest neighbor fault diagnosis method based on average influence value data transformation
CN109902808B (en) Method for optimizing convolutional neural network based on floating point digital variation genetic algorithm
CN111832725A (en) Multi-robot multi-task allocation method and device based on improved genetic algorithm
CN112364942B (en) Credit data sample equalization method and device, computer equipment and storage medium
CN113128432B (en) Machine vision multitask neural network architecture searching method based on evolution calculation
CN112365511A (en) Point cloud segmentation method based on overlapped region retrieval and alignment
JP3935425B2 (en) Network type information processing system learning device using genetic algorithm
KR100597089B1 (en) Method for identifying of relevant groups of genes using gene expression profiles
CN116543259A (en) Deep classification network noise label modeling and correcting method, system and storage medium
Hollingworth et al. Simulation of evolvable hardware to solve low level image processing tasks
CN111626368B (en) Image similarity recognition method, device and equipment based on quantum algorithm
JP7468088B2 (en) Image processing system and image processing program
Rosato et al. Finite precision implementation of random vector functional-link networks
Andersen et al. A constructive algorithm for the training of a multilayer perceptron based on the genetic algorithm
Yoshimura et al. Texture image segmentation by genetic algorithms
CN112241726A (en) Posture estimation method based on adaptive receptive field network and joint point loss weight
JP3117204B2 (en) Neural net for control physical variable generation and object identification
Georgiou et al. Evolutionary Adaptive Schemes of Probabilistic Neural Networks
Kim et al. Neural network-based decision class analysis for building topological-level influence diagram
CN113469450B (en) Data classification method, device, computer equipment and storage medium
Abbas et al. An adaptive evolutionary algorithm for Volterra system identification
Abu-Zitar et al. A theoretical approach of an intelligent robot gripper to grasp polygon shaped objects

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060720

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070319

R150 Certificate of patent or registration of utility model

Ref document number: 3935425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term