JPH09500988A - 認識システム - Google Patents

認識システム

Info

Publication number
JPH09500988A
JPH09500988A JP6522895A JP52289594A JPH09500988A JP H09500988 A JPH09500988 A JP H09500988A JP 6522895 A JP6522895 A JP 6522895A JP 52289594 A JP52289594 A JP 52289594A JP H09500988 A JPH09500988 A JP H09500988A
Authority
JP
Japan
Prior art keywords
category
training
vector
categories
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP6522895A
Other languages
English (en)
Inventor
ロバート バートホウルミュー ランバート
リチャード ジョン フライアー
ウィリアム ポール コックショット
Original Assignee
ユニバーシティー オブ ストラスクライド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーシティー オブ ストラスクライド filed Critical ユニバーシティー オブ ストラスクライド
Publication of JPH09500988A publication Critical patent/JPH09500988A/ja
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/76Architectures of general purpose stored program computers
    • G06F15/80Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 自動編成型人工神経ネットワークタイプの認識システムがアレンジされ、訓練プロセスによって決定された保存カテゴリに従って入力データを分類する。訓練プロセスにおいて、当初カテゴリ代表は、一連の訓練パターンに対応し、競争学習ルーチンに従って選択的・反復的に更新される。このルーチンは、代表期間、特に長期利用期間及び短期利用期間に受信された全入力情報に基づいてカテゴリ利用メジャーを使用し、全入手可能なカテゴリが使用されることと、本システムが安定していることとを保証する。更新により、カテゴリ代表に対する修正アマウントを決定する訓練度は各カテゴリに限定的であり、そのカテゴリの成熟性と、内部代表パターンと訓練入力情報との間の類似性メジャーとに基づいており、訓練期間は最短化される。ユーザーが操作する選択操作可能な提案学習入力情報は各カテゴリに提供され、訓練プロセスを修正したり、入力データの分類中にその入力データを訓練パターンとして使用することで二義的訓練を実行させる。それらのカテゴリは、それぞれの重要値を備えた多基準パターンによって代表あるいは表され、入力情報とカテゴリとの間の両立性の程度は、その重要値を利用して計算される。

Description

【発明の詳細な説明】 認識システム 本発明はパターン認識並びパターン分類のための認識システムに関し、必然的 ではないが、特には非管理学習(unsupervised learning )が可能な自動編成式人工神経ネットワーク(self−organising artificial neural network)に関する。 神経ネットワークとは相互接続プロセス要素(interconnected processing elements)のネットワークのことであり、異 なる相互接続強度(interconnection strength)又は 相互接続重量(interconnection weight)をセットする ことで情報を内部保存するものである。このネットワークの各要素はウエイトさ れた(weighted)入力情報の1機能である出力情報を提供し、このネッ トワークは、例えば、一連の訓練パターン(training pattern )に対応して相互接続重量(ウエイト)を調整することでカテゴリ(categ ory)を学習する。このような人工神経ネットワークの利用は従来から知られ ており、訓練によって決定された保存カテゴリに従って入力データを分類するよ うに訓練(train)されている。 1つの特定な訓練様式は競争学習(competitive learnin g)として知られている。ある訓練セットの各入力パターンの提供で、各存在カ テゴリはその入力情報を代表(represent)しようと競争する。その入 力情報に最も近似している理由でその入力情報を代表する(表す)1カテゴリあ るいは複数カテゴリは特定され、さらに修正(modify)され、その入力情 報はそれら修正されたカテゴリによってさらに良好に代表、あるいは表される[ ローゼンブラット(Rosenblatt)F.(1962年)「神経力学の原 理」ニューヨーク:スパルタン社]。この修正程度は訓練度(trainin g rate)として知られている。 この方法の問題点は、訓練の終了時に特定されたカテゴリが、各可能(ポテン シャル)カテゴリの初期内部代表(initial internal rep resentations)の影響を受けることである。初期内部代表の選択が 不十分であれば、このシステムのその後の使用中に、(システム内の物理的又は 実効的能力に対応する)カテゴリによっては使用頻度過多となったり使用頻度不 足となり、場合によっては全く使用されないことになる。この問題を解決しよう といくつかの技術が提案されているが、それぞれに特有な欠点を備えている。 (i)初期カテゴリ代表は、訓練データの「代表例」で予備セットされている 。従って、定義されたカテゴリを適正なユーザー領域に存在させるが、システム ユーザーにその領域内のデータ範囲と分布との詳細な知識を要求する。この技術 は、そのようなデータが訓練以前に入手可能であることを想定している。この要 求や想定は、多数の現実的な問題に対しては実用的ではない。 (ii)別方法[ルメルハート(Rumelhart)D.E.及びジプサー (Zipser)D.(1985年)「競争学習による特性の発見」認識化学9 、ページ75〜112]は、各訓練データ入力の代表後の全カテゴリ代表の更新 (updating)に関係している。各カテゴリ代表はその勝利/敗北状態( win/lose state)に従って更新され、そのネットワークに提供さ れたパターンの敗者(loser)は、勝利カテゴリを修正するのに使用された 訓練度の一部を使用してそれらのカテゴリ代表を修正させる。この技術は全カテ ゴリが利用されるという利点を有している。しかし、学習の不安定さと、それに 関連する敗北とを回避するため、カテゴリが修正される訓練度は非常に低く抑え られなければならない。この結果、非現実的な長期訓練時間が必要となる。 (iii)位相マッピング(topological mapping)がカ テゴリ間に存在するように競争ユニットをアレンジすることは可能である[コホ ネン(Kohonen)T.(1989年)「自動編成及び関連メモリ」第3版 ベルリン スプリンゲル・ベルラグ社]。その後にカテゴリ群は各訓練入力情 報の提供で修正される。典型的には、勝利カテゴリは影響範囲を有しており、更 新すべきカテゴリを決定する。この影響範囲は訓練の進行と共に減少する。影響 範囲が減少する度合(rate)には問題があり、長期訓練時間が必要とされる 。 (iv)各カテゴリの個別初期化(initialisation)の代用として、各カテゴ リ代表を同一代表パターンに初期化するシステムが報告されている[ヘクト− ニールセン(Hecht−Nielsen)R.(1987年)「逆伝達ネット ワーク」応用光学 26 ページ4979〜4984]。訓練が進行するに従っ て、訓練の基礎をなすで表示された各入力パターンは修正され、[α.+( 1−α).](αは制御パラメータであり、当初は0であるが、訓練の進行に 伴って1となる)の形態となる。この技術によってカテゴリ代表は調整され、入 力パターンの全範囲をカバーするとされている。しかし、この調整は(データ分 布及び提供順序の両方で)データに依存するものであり、しかも処理が遅い。全 入手可能なカテゴリの使用は保証されない。 (v)各カテゴリに対して動的しきい値(dynamic threshol d)を適用するためのバイアスターム(bias term)の使用に関して研 究が実行され[ド シエノ(De Sieno)(1988年)「競争学習に対 する自制心の付加」会報 IEEE 神経ネットワーク国際会議 サンディエゴ I ページ117〜124]、使用頻度不足のカテゴリにさらに容易に学習さ せようと試みられた。しかし、そのバイアスは制御が困難であり、通常は不安定 である。結果として、訓練度を低く保つ必要が生じ、長時間の訓練時間を要した 。さらに、バイアスを変動させる度合は非常にデータに依存するものとなり、実 用性に乏しい。 (vi)ノイズを入力パターンに追加し、訓練の進行に連れてその強度を減少 させることは可能である。全カテゴリが訓練中に使用されるようにそのノイズを 構築することも可能である[G.J.フーテル(Hueter)(1988年) 「適応リングを使用した旅セールスマンの問題の解決」会報 IEEE 神経ネ ットワーク国際会議 サンディエゴ I ページ85〜92]。カテゴリの合理 的分布を達成するため、訓練度を非常に低く保つ必要があり、長期間の訓練時間 を要する。 別な問題点は、訓練中に2つの矛盾する条件が発生することである。すなわち 、適応性(plasticity:新パターンの学習能力)と安定性(stab ility:既学習パターンに対する反応の保持能力)である。すなわち、安定 性−適応性ジレンマと呼ばれる問題が発生する。もし訓練度が高く、形成された カテゴリの大修正が行われれば、新パターンは急速に学習されるが、既形成カテ ゴリは犠牲となる。すなわち、このシステムは不安定となる。非常に低い訓練度 で、カテゴリが類似データに対して一定の反応で安定するなら、このシステムが それを認識するまで新パターンを何度も提供することが必要である。訓練度を訓 練の初期に高くし、訓練が進行するに連れて0として安定性を保証することは一 般的に行われている。安定した適正なカテゴリ化されたデータを望むように組合 せるため、カテゴリを秩序正しく進化させるように、訓練データは注意深くオー ダー(oder)されなければならない。 安定性−適応性ジレンマと対処するため、「メモリベース学習(Memory −Based Learning)」が、競争学習への付加物として提案されて おり、(確立されたカテゴリを維持しながら)新カテゴリを形成する訓練パター ンを系統的に保存している。この一般的な方法は、適応性共振理論(Adapt ive Resonance Theory:ART)である[カーペンター( Carpenter)G.A.及びグロスバーグ(Grossberg)S.( 1987年)「自動編成神経パターン認識機用メモリ並行機構」コンピュータビ ジョン グラフィックスと画像処理 37 ページ54〜115]。ARTは、 各々が当初は0値(empty)である無数の入手可能カテゴリの存在を想定し ている。提供される最初のパターンは、第1カテゴリの代表として系統的に保存 される。引き続く訓練パターンは、既成であって、存在する1カテゴリと充分に 類似していれば、そのカテゴリを修正するために使用されるであろうカテゴリと の類似メジャー(measure)を発生させる。存在する1カテゴリと充分に 類似していなければ、その訓練パターンは新カテゴリを初期化(initial ise)するのに使用される。安定性を確保させるため、既成カテゴリは緩やか に修正される。この方法で訓練が速くて安定的であるとき、新カテゴリを確立す べきか否かを決定する基準の設定はユーザーの仕事であるが、この決定は、その 適用領域の理解が充分であっても容易ではない。さらに、この方法はノイズに影 響を受け、訓練セットを充分に代表するとは限らず、カテゴリの最終数が分から ないので、この最終システムの機能の予測を困難にする。 同一データをカテゴリ化するため、各ユニットに同一入力情報を受信させ、各 ユニットに他の全部のユニットと競争させるよう、各競争学習を採用している1 群の競争ユニットをアレンジすることもできる。そのような群は競争隣体(co mpetitive neighbourhood)として定義される。いかな る数の競争隣体でも単層(single layer)に組み入れることができ る。各隣体は同一で、オーバラップする入力パターンか、あるいは異なる入力パ ターンを受信するが、その単層内の競争ユニット出力情報を入力情報として受信 することはできない。 多くの単純な適用においては、単層の競争ユニットで充分である。単純な適用 ケースでは、ポテンシャル(可能)なカテゴリの知識の必要性と、安定性と、長 訓練時間との問題は解決可能である。しかし、単層が扱える情報には限度があり 、カテゴリ化の分量と複雑さが増加するに従って層の追加が必要となる。多層シ ステム(multi−layer system)においては、各層は他層から の出力情報を入力情報として受信する。ほとんどの競争隣体は、外部からではな く、他層の競争隣体から入力情報を受信するので、ユーザーがそれらの層に対す るカテゴリ代表(category representation)を予備セ ット(pre−set)することは実際的でなく、良好なカテゴリ化は決定が非 常に困難である。 多層ネットワークの訓練には安定性が不可欠である。当初層(initial layer)内のカテゴリ化がコンスタントに変化すれば、ネットワークの高 層は、カテゴリ化の基礎となるコンスタントな入力情報を得ることはできないで あろう。訓練度の注意深い選択及び/又は各層内の安定性の達成がなければ、伝 達される情報はほとんど無価値であろう。それでも訓練中は、ネットワークは学 習可能でなければならず、提供のオーダーとは無関係に提供されるパターンの分 類に対応しなければならない。すなわち、安定性−適応性ジレンマと対処できな ければならない。多層訓練において、安定性を得るためのART法は、形成され るカテゴリ数が動的であるため非実用的である。 実際には、多層競争ネットワークは利用され、1層ごとに訓練される。このよ うなネットワークは、各層を訓練するための適切なデータの決定において、設計 者に非常に注意深い設計と、多大な努力とを強いる。各層の訓練が終了してしま えば、それ以上の訓練は不可能となる。これは、その後の層への入力情報を無効 化し、パフォーマンスの改善、及び/又は新分類の学習のためのそれ以上の訓練 を妨害するからである。 本発明の1目的は認識システムの提供であり、本システムにおいては、入力デ ータセットとは無関係に、競争学習プロセスは入力データをカテゴリ化し、その データの分配は形成されたカテゴリによって反映され、各カテゴリは同等に利用 され、ネットワークに保存される情報量は最大となる。 本発明の第1の特徴により、訓練プロセスによって決定された保存ベクトル代 表(vector representation)によってそれぞれ定義され た複数カテゴリのうち少なくとも1つのカテゴリにデータベクトルを分類するシ ステムが提供される。このシステムは、複数の相互接続プロセス要素(elem ent)を含んでおり、訓練プロセスを適用するため、 入力訓練ベクトルを受信する入力手段と、 そのカテゴリのベクトル代表を保存する保存手段と、 各カテゴリの入力ベクトルと保存代表との間の類似性メジャー(measu re)を計算する計算手段と、 訓練プロセス中に反復ベースでカテゴリを再定義するよう、保存ベクトル代 表を選択し、選択された保存ベクトル代表を修正(modify)する選択修正 手段と、 を含んでおり、この選択修正手段は、各カテゴリのプロセス要素のために、 受信された入力ベクトルに関するカテゴリのための複数の異なる学習メジャ ーを記録する記録手段と、 そのカテゴリのための起動値(activation value)を形成 する記録された学習メジャーを組み合わせる組合せ手段と、 この起動値とそれぞれの類似性メジャーとからカテゴリ強度値(stren gth value)を評価する評価手段と、 このシステム内の他のカテゴリのプロセス要素からそのカテゴリ強度値を受 信し、比較カテゴリ強度に基づいて受信側カテゴリ代表を修正すべきかどうかの 判断をする受信判断手段と、 を含んでいる。 本発明の第2の特徴により、分類システムの訓練のためのプロセスが提供され る。一連の入力訓練ベクトルの各入力ベクトルは、複数のカテゴリのうち少なく とも1つのカテゴリに分類され、各入力ベクトルを複数の保存ベクトル代表と比 較し、比較後であって、次の入力ベクトルの比較前に少なくともいくつかの保存 ベクトル代表を修正することで、保存ベクトル代表によってそれぞれ定義される ものであり、この保存ベクトル代表の修正を実施するため、本システムは、 (a) 受信された入力ベクトルに関する各カテゴリのための複数の異なる 学習メジャーを記録し、 (b) 各カテゴリのために、現行の比較(current compar ison)における類似性を定量化し、 (c) 各カテゴリのために、ステップ(a)と(b)からのメジャーを強 度ファクター(strength factor)に組み入れ、 (d) 全カテゴリのために、多数強度ファクターを相関させて比較し、 (e) 所定の分類に入る強度ファクターを有したカテゴリを特定し、 (f) ステップ(e)で特定されたカテゴリを修正する、 ステップを含んでいる。 本発明によって、汎用競争訓練ルールは修正され、カテゴリの修正は、カテゴ リの使用と、内部代表パターンとネットワーク訓練入力情報との間の類似性との 両方に影響を受ける。さらに特定すれば、カテゴリの使用は、訓練プロセス内の カテゴリ利用の複数メジャーで構成され、そのカテゴリを修正するのに使用され る代表期間に受信される全入力情報の割合に基づいている。典型的には、2利用 メジャーが使用され、それぞれ長短期間のカテゴリ学習をモニターする。長期間 メジャーは、そのカテゴリが何度その保存ベクトル代表を修正したかを記録し、 短期間メジャーは、そのカテゴリがその保存ベクトル代表をどの程度最新に修正 したかを記録する。短期間メジャーは、好適には、各未使用入力ベクトルと非線 形的に増加する。本文中で「成熟性(maturity)」と呼ぶことにする長 期間利用基準は、全入手可能カテゴリが訓練中に使用されることを保証する。本 文中で「ポテンシャル(potential)」と呼ぶことにする短期間利用基 準は、成熟性とポテンシャルのプロダクトコンビネーション(product combination:ここでは「起動化(activation)」と呼称 )が、カテゴリ修正において決して「類似性(similarity)」を支配 しないように保証することで、安定性を向上させている。 修正すべきカテゴリの選択に使用されるカテゴリ強度の所定分類は、例えば、 その強度値が平均値以上の全カテゴリによって形成可能であり、あるいは、最大 強度値を有した1カテゴリによって形成可能であり、あるいは、最大強度値を有 したどの任意の数(例えば5)のカテゴリでも形成可能である。 従来技術システムにおいては、カテゴリを修正することができる量(amou nt)は、全カテゴリに適用可能な汎用訓練度によって決定され、カテゴリが理 想的な代表を形成する訓練度は、入力データの分布と、提供されるオーダーと、 各カテゴリ内の当初代表によって変化する。安定性を確保させるため、従来技術 は汎用訓練度を低くしており、カテゴリ代表内の大きな変化を必要とすれば、訓 練時間は長くなるであろう。この問題を解決するため、汎用訓練度は、各カテゴ リに限定された訓練度によって、本発明の1好適特徴に従い置換が可能である。 この限定訓練度はそのカテゴリの成熟性と、内部代表パターンと訓練入力情報と の間の類似性の両方に基づくものである。使用不足カテゴリ、あるいはその内部 代表に対する低類似性を有した(訓練開始時には普通のことである)カテゴリ学 習入力情報は高い限定訓練度を有しており、その内部代表を急速に修正すること ができる。充分に利用されているカテゴリ、あるいはその内部代表に高い類似性 を有するカテゴリ学習パターンは非常に低い限定訓練度を有し、従って安定性を 保証することができる。 複数のカテゴリ利用メジャーと組み合わせて限定訓練度を使用することで、前 の訓練プロセスを反復することを要せず、システムの増加的再訓練を施すことが 可能となる。従って、二義的あるいは第2の訓練プロセス(secondary training process)において追加訓練ベクトルのみがシステ ムに提供されればよい。 多層ネットワーク内で、他層のための入力情報を発生させるのに使用されるカ テゴリの安定性は、層が同時に学習するのであれば必須である。しかし、必要に 応じてカテゴリの再配分(reassignment)を確実にするために適応 性(plasticity)は維持されなければならない。本発明の好適な別特 徴は、各カテゴリに対して「提案学習(suggestive learnin g)」入力情報を導入することである。1操作モードにおいて、この提案学習入 力情報は、重要なカテゴリに対して選択的に利用可能であり、訓練と活性化の両 方に影響を及ぼすことでこれらのカテゴリの形成を安定化させる。さらに別な操 作モードにおいて、提案学習入力情報は新カテゴリの形成をガイドし、ユーザー は望ましいポテンシャル出力カテゴリを提案することができる。このようなガイ ド信号は、望まれる分類のデータ認識を促進させるため、適正に適用されたネッ トワークの層を介して伝達される。さらに、提案学習入力情報は、非重要なカテ ゴリを特定して抑圧し、新セットのパターンを自由にカテゴリ化させることがで きる。この提案学習入力情報は、データを訓練パターンとして使用し、入力デー タの分類中に二義的訓練を進展させるにも使用が可能である。 本発明のさらに別な好適特徴は、ノイズに対する抵抗力を向上させ、限定訓練 度を利用してカテゴリ安定性をさらに向上させるものであり、各カテゴリは多基 準パターン(multiple reference pattern)で代表 が可能である。そのような各基準パターンは、そのカテゴリの典型であると考え られる度合に応じた重要値(importance value)を取り込んで いる。1カテゴリと1入力情報の間の適合性の決定にあたって、各保存基準パタ ーンの重要値は考察される。1入力情報と特定の1カテゴリとの間の適合性の計 算された度合は、その入力情報と各内部基準パターンとの間の類似性の1関数と なり、ケースごとに調整されて、そのパターンの重要値は考察される。 多基準パターンの使用の結果、頻度の低い、あるいは現行で非典型的な入力情 報は、低重要値の内部基準パターンのみの修正に使用が可能となり、全体的カテ ゴリ反応にはほとんど影響を及ぼさない。しかし、もしそのような入力情報が低 重要値の1内部基準パターンを、例えば、さらに頻度が高くなることで修正し続 けるならば、その内部基準パターンの重要値は上がり、やがては全カテゴリを支 配させることになる。全多基準パターンはそのカテゴリに特有な同一限定訓練度 を有するかも知れないが、各内部基準パターンに、それ自体の重要値と、全体と してそのカテゴリの成熟性との両方に基づく限定訓練度を持たせることが望まし い。従って、訓練中に内部基準パターンはシフトし、現存するカテゴリに適合し ない入力情報に反応できる低重要値基準パターンが常に存在するが、1高重要値 内部基準パターンは修正に対して抵抗力を付与され、カテゴリを安定に保つこと ができる。 入力情報と内部代表は、一連式あるいは並行式に提供されたアナログ形態であ ってもデジタル形態であっても構わない。入力データは、例えば、オーディオセ クエンス(sequence)の密度サンプル、又は他の特性、ビデオ画像の密 度メジャー、色彩、又は他の特性、あるいは、産業制御プロセスで発生した信号 を代表することができる。 本発明の実施例は、神経ネットワークタイプの従来式パターン認識システムに 特有な弱点を克服あるいは軽減させるものであり、以下においてそれらを説明す る。特に、それらは分類カテゴリを、比較的に小規模の訓練セットで急速に学習 させるものである。さらに、新カテゴリの学習のために充分な適応性を残したま ま、ユーザーにとっては重要である既学習カテゴリの安定的な保持をも可能とす る。理解を助けるため、これら実施例は、本文中で「マスター成分(maste r component)」及び「スレーブ成分(slave compone nt)」と呼称する2つの特徴的なプロセス要素に基づいて提供されている。隣 体内の各カテゴリは、マスター−スレーブペア(pair)によって代表される 。起動化(activation)を使用することでマスターは、カテゴリ特定 と訓練初期化に対して責任を負う。スレーブは内部基準パターンの保存と修正に 対して責任を負う。マスタースレーブペアは人工神経ネットワークの一部を形成 する。 本発明の理解をさらに助け、どのように実施されるかを説明するため、図面を 添付して解説する。 図1は、1体の競争隣体の略図であり、各カテゴリにはマスター成分とスレー ブ成分とが提供されている。 図2は、図1の改良型好適実施例であり、各マスターは1提案学習入力情報を 有しており、位相接続性(topological connectivity )が使用されている。 図3は、スレーブ成分の好適実施例であり、そのシングル基準パターンは多基 準パターンで置換されている。 図4は、図2のマスター成分の好適実施例の詳細図である。 図5は、図1と図2に示すシステムで実行される主要ステップのフローチャー トである。 図6から図9は、図5のプロセスのそれぞれの特定ステップをさらに詳細に示 す。 図10は、図9のプロセスの1特定ステップをさらに詳細に示す。 図1に略図で示されている本発明の認識システム又は分類システムは、複数の マスター−スレーブペアを有しており、それらの各々はポテンシャルなカテゴリ である。1入力情報を隣体に提供すると(D1.7)、各スレーブ(D1.5. 1〜D1.5.p)は、その入力情報と、その保存パターンとの間の類似性であ るスレーブ強度(slave strength)を決定する。各マスター(D 1.3.1〜D1.3.p)は、その対応するスレーブ(D1.5.1〜D1. 5.p)から入力情報(D1.4.1〜D1.4.p)を受信する。その入力情 報はそのスレーブ強度に対応している。マスターの活性化(その成熟性とポテン シャルとによって決定される)との組み合せで、各マスターはマスター強度(m aster strength)を決定する。このマスター強度はライン(D1 .2.1〜D1.2.p)を介して隣体内の他の全マスターに伝達され、各マス ターはそのカテゴリ出力情報(D1.1.1〜D1.1.p)と、スレーブ訓練 信号(D1.6.1〜D1.6.p)とを決定することができる。 図2において、各マスターには提案学習入力情報(D2.1)が提供され、学 習を安定及び/又はガイドする。カテゴリドリフト(drift)を減少させ、 カテゴリ間の関係の情報を伝達する別な特徴は、マスター−スレーブペア間の位 相接続を利用する。従って、各マスターは隣体(D2.2.1〜D2.2.p) 内の全スレーブから入力情報を受信する。 図1から図10は、マスター−スレーブペアで構成された競争隣体の例である 。これらの例は以下の条件を想定している。 − 1セットのパターンがカテゴリ化される。各パターンはノーマル化された ベクトルである。各ベクトルは物理的メジャメント(physical mea surement)に対応する1要素(element)又は複数要素を有して いる。例えば、1画像内の画素(pixel)であり、各々の画素はグレーレベ ル光度(grey level intensity)を代表している。 − このシステムの必要条件は、このセットのパターンがp個の特異カテゴリ に分割されていることであり、p>1である。 − 各スレーブはm個の内部パターンベクトルを利用しており、m>1である 。(たいていの場合、2<=m=8) − 1入力情報を最良にカテゴリ化するマスター−スレーブペアのみがその入 力情報を学習できる。すなわち、ウイナーテークオール(winner−tak e−all)の学習である。 − オブザーバ(observer)に対し、各入力情報は、バイナリー(b inary)勝利(win)/敗北(lose)状態(state)によって特 定されるシングルカテゴリを活性化させるはずである。 − ユーザーが求めるままに、外部学習制御を学習可能、あるいは学習不能に する。 さらに、図2に示す例、及びその詳細な説明における付加的な想定は以下の通 りである。 − 使用は、マスター−スレーブペア間の距離に基づく1次元(線的)隣体接 続位相学(one dimensional neighbourhood c onnection topology)で成る。マスター−スレーブペアは等 間隔であることが想定されている。 − カテゴリの形成における限定されたガイダンスが必要である。従って提案 学習を含むことが求められる。 隣体を訓練して使用するには、図5のフローチャートに示される手順に従う。 初期化(F1.1)は、全スレーブ内部パターンベクトルをランダムユニットベ クトルとするようにセットする。全マスターとスレーブ制御パラメータは適正な 当初値(initial value)にセットされる。この値はこれらのパラ メータの説明において特定されている。 入力情報へのノーマル化された入力ベクトル(F1.2)の提供に続き、各ス レーブはカテゴリ類似性メジャー(ここではスレーブ強度と呼称)を決定する。 この決定は、その内部パターンベクトルと入力情報(F1.3)との間の類似性 に基づいている。本好適実施例は、マルチ内部パターンベクトル(multip le internal pattern vector)を使用することであ る。 計算が終了すると、各スレーブはその強度を全マスターに送る。マスターはこ れらの入力情報をウエイト(weight)し、望む位相接続を達成する。各マ スターは、ウエイトされたスレーブ強度とその活性に基づいてマスター強度を計 算する。このマスター強度は隣体内の他の全マスターに伝達され、マスターに特 定される最大強度を提供する(F1.4)。 各入力ベクトルは1カテゴリのみにアサイン(assign)が可能であり、 最大強度を有したマスターは、入力情報がアサインされる(F1.5)カテゴリ を特定する。学習が望ましいとすれば(F1.6)、最大強度を有したマスター はそのスレーブに現行入力ベクトルの学習を命令する。(F1.7) このプロセスは、隣体(F1.8)によって処理する入力ベクトルが無くなる まで反復される。 スレーブ強度の決定 好適実施法は、各スレーブにm個の内部パターンベクトルを提供することであ る。各々のベクトルは付加された重要値を有しており、m>1である。スレーブ のこの好適実施法は図3に示されている。内部パターンベクトルは ijで表され 、それらの関連重要値はεijで表されている。iはマスター−スレーブペアのイ ンデックスであり、jは内部パターンベクトルのインデックスである。入力ベク トルのスレーブ(D3.6)への提供に引き続き、その入力情報と各内部パタ ーンベクトル(D3.5.1〜D3.5.m)との間の類似性メジャーが計算さ れる。これらの類似性はそれぞれ対応する重要値と共に、スレーブ強度Si(D 3.2)を獲得するのに使用される適当な選択機構(D3.3)に伝達される( D3. 4.1〜D3.4.m)。 本例において、Γ( ij)で表されている類似性メトリック(similarity metric)は、ベクトルドットプロダクト(vector dot product)である。スレ ーブ強度を決定するための選択機構は、Siを最大にウエイトされた内部パター ンベクトル類似性にセットする。このウエイト化は内部パターンベクトル重要度 (internal pattern vector importance)である。 全内部パターンベクトル重要度が当初は1/sqrt(m)にセットされてい るとして、隣体内の全スレーブ強度の決定法は図6に示されている。 Siの決定において、第1内部パターンベクトルのウエイトされた類似性は、 Si(F2.2)に直接的にアサインされる。 各追加内部パターンベクトルSiは、ウエイトされた内部パターンベクトル類 似性(F2.4)に対してテストされ、もしこのテストで真(true)と評価 されれば、Siは再アサイン(re−assign)され、新規にウエイトされ た類似性(F2.5)と等しくなる。このプロセスは全内部パターンベクトル( F2.7)に対してと、隣体内の全スレーブ(F2.9)に対して反復される。 マスター強度の決定 マスター成分の好適実施法は図4に示されている。各マスターは各スレーブ( D4.1.1〜D4.1.p)から入力情報を受信する。これら入力情報(マス ター自身のスレーブ(D4.1i)からの入力情報以外)の各々はウエイトされ (D4.2)、マスター−スレーブペア間の位相距離を反映する。本例において 、マスター−スレーブペアiとkの距離は、|i−k|であり、1<=k<=p である。ウエイト化は距離とは逆のものであり、スレーブkからのマスターiへ の入力情報はSk/(|i−k|+1)である。もし学習が要求されなければ( カテゴリ化モード)、マスターは自身のもの(D4.3)以外の全スレーブ入力 情報を無視する。 各マスターは、それぞれ成熟性(D4.5)とポテンシャル(D4.6)と命 名された2つの制御値を介して他の全スレーブに関するスレーブ学習に影響を及 ぼす。Ψiと定義された成熟性は、0値から始まる。マスターは(訓練中に)そ のスレーブに、ネットワークへ提供された入力ベクトルの所定の一部を学習する ように命令したと想定すれば、成熟性は増加する。もしパターンの所定部分より も少なく学習されたら、成熟性は降下する。成熟性はマスター−スレーブペアの 長期利用をトラック(track)する。成熟性はシステムが訓練モード(D4 .21)にあるときにのみ修正される。 τiで表されるポテンシャルは短期利用をモニターする。ポテンシャルは当初 は0にセットされる。学習時にスレーブが学習を命令されていなければ、ポテン シャルは、カテゴリ強度と処理カテゴリとの間の差(disparity)を反 映するレートで上昇する。スレーブに学習を命じると、マスターはそのポテンシ ャルを0にセットする。ポテンシャルはシステムが訓練モード(D4.26)に あるときのみ修正される。 その成熟性とポテンシャルとから、マスターはその起動性あるいは活性(ac tivation)を決定する。活性は成熟性(D4.7)の関数(funct ion)と、ポテンシャル(D4.8)の関数の積(product:D4.8 )である。成熟性に対しては、抑制され単純に減少する関数(bounded monotoni c ally decreasing function:D4.7)が使用される。ポテンシャルに対して は、単純減少グラジエント(D4.8)を有した非抑制単純増加関数(unbounde d monotonically increasing function)が使用される。 マスター強度はMiで表されており、ウエイトされたスレーブ入力情報(D4 .4)と活性(D4.10)の合計(D4.11)により提供される。もしカテ ゴリ化モードにあれば、活性は0(D4.10)であろう。計算が終了すれば、 各マスターはその強度を全ての他のマスター(D4.12)に伝達する。全マス ター強度(D4.13)を受信すると、最大強度が特定される(D4.14)。 各マスターの強度と最大強度の計算手順は、図7のフローチャートに示されて いる。 学習(F3.1)が必要であれば、第1マスターM1の強度は等式1(F3. 3)でセットされる。さもなければM1=S1(F3.2)である。 最大強度MMAXは第1マスター(F3.4)の強度に等しくセットされる。そ の後の各マスター強度は計算され、学習していれば、Miは等式2(F3.8) で更新(update)される。さもなければMi=Si(F3.7)である。各 マスター強度が計算されると、MMAXに対してテストされる。もしMiが新最大強 度であれば、MMAXは更新(F3.10)される。この手順は全マスター(F3 .12)に対して反復される。 カテゴリ出力情報の決定 各マスターは、入力情報がアサイン(D4.16)されるカテゴリを特定する バイナリ勝利/敗北出力情報を有している。勝利者は最大強度(D4.15)を 発生させるマスターである。各マスターのカテゴリ出力情報を決定する手順は、 図8のフローチャートにて示されている。 各マスターは、自身の強度を最大マスター強度(F4.2)に対してテストす る。もしその強度が等しければ、マスターはバイナリ「1」を出力し、自身を勝 利者(F4.4)として特定する。さもなければ、バイナリ「0」(F4.5) を出力する。このプロセスは全マスターに対して反復される。 ネットワークの訓練 学習が要求されていると想定すると、その内部勝利/敗北状態を決定するにあ たり各マスターは、その成熟性とポテンシャルとを更新し、そのスレーブに対し て適正な訓練命令を発行するであろう。カテゴリ出力情報とは異なり、内部勝利 /敗北状態は提案学習(D4.18)の使用に影響を受ける。この適用に対して は、1マスターのみが提案学習信号(D4.17)をいつでも発行できる。従っ て、隣体に対する提案学習入力χは、現行入力情報を学習するためのマスターの インデックスを代表する。 成熟性とポテンシャルを修正し、スレーブに学習を命令するための、勝利/敗 北状態Qiを決定する手順は、図9のフローチャートに示されている。 各マスターの勝利/敗北状態は、当初は敗北(F5.2)にセットされている 。使用されているか否かを(F5.6)判定するため、提案学習入力情報がチェ ックされる。使用されおり、χが現行マスター(F5.4)に対応すれば、Qi は勝利状態(F5.6)を表示するようにセットされる。もし提案学習が使用さ れておらず、マスターが最大強度(F5.5)を発生していれば、Qiは勝利状 態(F5.6)を表示するようにセットされる。 マスターが敗北状態(D4.19)にあれば、この成熟性は定数β(F5.8 )によって減少される(D4.20)。β>0。βの値は隣体が成熟するレート を決定する。ポテンシャルの値は増加し(D4.24)、マスターが勝利する( F5.10)(D4.22)のに必要な追加強度を反映する。αの値(D4.2 3)は一定であり、ポテンシャルが上昇できるレートを決定する。たいての適用 においては、0<α<1である。 マスターが勝利状態(D4.19)にあれば、その成熟性はλβp(F5.9 )だけ増加する(D4.20)。λの値は学習中の等価レベルを決定する。1/ (λp+1)は、成熟が発生するなら、学習が必要なパターンの最低部分である 。ほとんどの場合、λ=1でよい。勝利の場合(D4.25)、マスターはその ポテンシャルを0(F5.11)にセットする。最後に、信号がそのスレーブに 送られ、入力ベクトル(F5.12)を学習するように命令する。 このプロセスは隣体(F5.14)内の全マスターに対して反復される。 スレーブ(i)の更新 そのマスターからの学習信号を受信すると、スレーブは、入力ベクトルに最も 近似に合致する内部パターンベクトルを更新し、それら2者間の類似性を増加さ せる。各内部パターンベクトルに取り付けられた重要値は全て、その学習を反映 するように更新される。 シングルスレーブの訓練手順は、図10のフローチャートに示されている。 入力情報に最良に合致する内部パターンベクトルは最初に特定されなければな らない。一時的可変SIMを使用し、第1内部パターンベクトルと入力情報との 間の類似性が計算され、SIM(F6.1)内に保存される。各追加内部パター ンベクトルのための類似性は次に決定され、SIM(F6.3)の値に対して各 々がチェックされる。SIMよりも大きければ(さらに良好な類似性)、SIM はさらに類似性が高くなるように更新される(F6.4)。この手順は全内部パ ターンベクトルに対して反復される(F6.6)。 入力情報(F6.9)と最大の類似性を有した内部パターンベクトルの特定で 、その内部パターンベクトルは更新され、△ ijから ijへの変化は等式3(F 6.10)で提供される。ζは定スケール係数(constant scali ng factor)である。内部パターンベクトルの重要値は、その内部パタ ーンベクトル(F6.11)への修正スケールを反映するように増加される。重 要値の増加は、修正以前の入力情報と内部パターンベクトルとの間の類似性に比 例する。 修正された内部パターンベクトルは、必要に応じて、類似メトリック(F6. 13)によって、単一に再ノーマル化(re−normalized)される。 修正されていない内部パターンベクトルの重要値は、学習後には全て減少され る。これは、その重要値を、単一(unity)となるようにノーマル化される ベクトル要素として処理することで実行される。ステップ(F6.12)はその 重要ベクトル(importance vector)の長さの計算に使用され る。その後、各重要値は分割され、その長さは単一(F6.17)に保持される 。 前記の等式1、2、3は以下の通りである。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 フライアー リチャード ジョン イギリス トランス ジー64 4ディーエ ックス,キングス パーク2 (72)発明者 コックショット ウィリアム ポール イギリス グラスゴー ジー44 5ユージ ェイ,キャスカート,キルメイリング ロ ード32 【要約の続き】 力情報とカテゴリとの間の両立性の程度は、その重要値 を利用して計算される。

Claims (1)

  1. 【特許請求の範囲】 1.訓練プロセスによって決定されている保存ベクトル代表によりそれぞれ定 義される複数のカテゴリのうち少なくとも1つのカテゴリにデータベクトルを分 類するシステムであって、本システムは複数の相互接続プロセス要素を含んでお り、該複数の相互接続プロセス要素は、訓練プロセスを実行するため、 入力訓練ベクトルの受信のための入力手段と、 前記カテゴリのベクトル代表を保存するための保存手段と、 各カテゴリのための入力ベクトルと前記保存代表との間の類似性メジャーを 計算するための計算手段と、 訓練プロセス中に反復ベースで前記カテゴリを再定義するため、前記保存ベ クトル代表を選択し、選択された保存ベクトル代表を修正する選択修正手段と、 を含んでおり、該選択修正手段は、各カテゴリの前記プロセス要素のために、 受信されている入力ベクトルに関するカテゴリのための複数の異なる学習メ ジャーを記録する記録手段と、 該カテゴリのための活性値を形成するために記録された該学習メジャーを組 み合わせる組合せ手段と、 該活性値と、前記それぞれの類似性メジャーとからカテゴリ強度値を評価す る評価手段と、 本システム内の他のカテゴリのプロセス要素から該カテゴリ強度値を受信し 、比較カテゴリ強度に基づいて、受信側カテゴリ代表を修正すべきか否かを決定 する受信決定手段と、 を含んでいることを特徴とする分類システム。 2.前記利用メジャーは長期間カテゴリ学習と短期間カテゴリ学習とをモニタ ーし、長期間メジャーはカテゴリが施したその保存ベクトル代表の過去の修正回 数を記録し、短期間メジャーはカテゴリが施したその保存ベクトル代表の最新修 正からの時間を記録することを特徴とする請求項1記載の分類システム。 3.前記短期間メジャーは各未使用入力ベクトルと非線形に増加することを特 徴とする請求項2記載の分類システム。 4.前記記録メジャーの組合せはプロダクトコンビネーション(produc t combination)であることを特徴とする請求項2又は3記載の分 類システム。 5.カテゴリが修正され得るアマウント(amount)は各カテゴリに限定 されており、そのカテゴリの成熟性と類似性メジャーとの両方に基づいているこ とを特徴とする前記請求項のいずれかに記載の分類システム。 6.各カテゴリは多基準パターンによって代表され、各パターンは、該パター ンが全カテゴリの典型と見なされる程度に対応する関連重要値を有していること を特徴とする請求項5記載の分類システム。 7.各内部基準パターンは、自身の重要値と、カテゴリ全体の成熟性とに基づ く限定訓練度を有していることを特徴とする請求項6記載の分類システム。 8.前記プロセス要素は多層構造内にアレンジされており、提案学習入力情報 は各カテゴリに提供され、該提案学習入力情報はユーザーによって選択的に操作 が可能であることを特徴とする前記請求項のいずれかに記載の分類システム。 9.分類システムを訓練する方法であって、セクエンス(sequence) の入力訓練ベクトル内の各入力ベクトルを、それぞれ保存ベクトル代表によって 定義された複数のカテゴリのうちの少なくとも1つのカテゴリに、各入力ベクト ルを該複数の保存ベクトル代表と比較し、さらに、その比較後であって、前記セ クエンス内の次の入力ベクトルの比較以前に、前記保存ベクトル代表の少なくと もいくつかを修正して前記カテゴリを選択的に再定義することで分類するもので あり、前記保存ベクトル代表の前記修正を実行するために、本システムは、 (a) 受信された入力ベクトルに関する各カテゴリのための複数の異なる 学習メジャーを記録し、 (b) 各カテゴリのために現行の比較における類似性を定量化し、 (c) ステップ(a)と(b)からのメジャーを、各カテゴリのための強 度ファクターに組み入れ、 (d) 全カテゴリのためにその多数の強度ファクターを相関させて比較し 、 (e) 所定の分類に入る強度ファクターを有したカテゴリをを特定し、 (f) ステップ(e)で特定されたカテゴリを修正する、 各ステップを含んでいることを特徴とする訓練方法。
JP6522895A 1993-04-13 1994-04-13 認識システム Ceased JPH09500988A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9307611.5 1993-04-13
GB939307611A GB9307611D0 (en) 1993-04-13 1993-04-13 Object recognition
PCT/GB1994/000777 WO1994024636A1 (en) 1993-04-13 1994-04-13 Recognition system

Publications (1)

Publication Number Publication Date
JPH09500988A true JPH09500988A (ja) 1997-01-28

Family

ID=10733737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6522895A Ceased JPH09500988A (ja) 1993-04-13 1994-04-13 認識システム

Country Status (7)

Country Link
US (1) US6505181B1 (ja)
EP (1) EP0694192B1 (ja)
JP (1) JPH09500988A (ja)
KR (1) KR960702129A (ja)
DE (1) DE69404143T2 (ja)
GB (1) GB9307611D0 (ja)
WO (1) WO1994024636A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69802372D1 (de) 1998-02-05 2001-12-13 Intellix As Frederiksberg Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk
US7318051B2 (en) * 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
US7624074B2 (en) * 2000-08-07 2009-11-24 Health Discovery Corporation Methods for feature selection in a learning machine
US6571228B1 (en) * 2000-08-09 2003-05-27 Po-Tong Wang Hybrid neural networks for color identification
US7129095B2 (en) * 2002-03-29 2006-10-31 Smiths Detection Inc. Method and system for using a weighted response
US9263058B2 (en) 2010-06-24 2016-02-16 Honda Motor Co., Ltd. Communication system and method between an on-vehicle voice recognition system and an off-vehicle voice recognition system
US9336498B2 (en) * 2012-06-19 2016-05-10 Georges Harik Method and apparatus for improving resilience in customized program learning network computational environments
US20150161232A1 (en) * 2013-12-10 2015-06-11 University Of Southern California Noise-enhanced clustering and competitive learning
US11301563B2 (en) 2019-03-13 2022-04-12 International Business Machines Corporation Recurrent neural network based anomaly detection
US11625535B1 (en) * 2019-12-05 2023-04-11 American Express Travel Related Services Company, Inc. Computer-based systems having data structures configured to execute SIC4/SIC8 machine learning embedded classification of entities and methods of use thereof
CN111582498B (zh) * 2020-04-30 2023-05-12 重庆富民银行股份有限公司 基于机器学习的qa辅助决策方法及系统
CN111611910B (zh) * 2020-05-19 2023-04-28 黄河水利委员会黄河水利科学研究院 一种黄河冰坝影像特征识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0457325B1 (en) * 1990-05-16 1997-09-03 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognizing and judging apparatus employing same
US5357597A (en) * 1991-06-24 1994-10-18 International Business Machines Corporation Convolutional expert neural system (ConExNS)

Also Published As

Publication number Publication date
KR960702129A (ko) 1996-03-28
GB9307611D0 (en) 1993-06-02
DE69404143T2 (de) 1998-01-02
WO1994024636A1 (en) 1994-10-27
US6505181B1 (en) 2003-01-07
EP0694192B1 (en) 1997-07-09
DE69404143D1 (de) 1997-08-14
EP0694192A1 (en) 1996-01-31

Similar Documents

Publication Publication Date Title
US11620529B2 (en) Method of continual-learning of data sets and apparatus thereof
JPH09500988A (ja) 認識システム
US20060230008A1 (en) Artificial neural network guessing method and game
US5235673A (en) Enhanced neural network shell for application programs
US5222197A (en) Rule invocation mechanism for inductive learning engine
CN110163433A (zh) 一种船舶流量预测方法
CN113065045B (zh) 对用户进行人群划分、训练多任务模型的方法和装置
US6317730B1 (en) Method for optimizing a set of fuzzy rules using a computer
Smith et al. Adaptive Default Hierarchy Formation
JP3935211B2 (ja) 低減縮小されたニューラルネットワーク
AU2005203266A1 (en) Artificial neural network guessing method and game
Thodoroff et al. Recurrent value functions
JPH10187649A (ja) ニューラルネットワーク
Liner et al. Improving neural network learning through dual variable learning rates
Serrano et al. Inter-Task Similarity for Lifelong Reinforcement Learning in Heterogeneous Tasks.
EP1710735A1 (en) Artificial neural network guessing method and game
CN117784615B (zh) 一种基于impa-rf的火控系统故障预测方法
CN113011551B (zh) 一种基于用户情感反馈的机器人服务认知方法及系统
JPH05242063A (ja) ニューラルネットワークシステム
JP2000122991A (ja) 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法
Setlak Fuzzy-neuro system for decision-making in management
JP3047990B2 (ja) 知識の評価,更新方法およびそのシステム
Pubben QVA-learning for playing the game of Snake
CN117236497A (zh) 一种基于分词方法的自动排课方法、系统、设备及介质
JPH11175494A (ja) ニューラルネットワーク

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041124

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20050221

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20050404

A313 Final decision of rejection without a dissenting response from the applicant

Free format text: JAPANESE INTERMEDIATE CODE: A313

Effective date: 20050711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050906