JP2002519747A - n項組又はRAMベース・ニューラルネットワーク分類システム及び方法 - Google Patents

n項組又はRAMベース・ニューラルネットワーク分類システム及び方法

Info

Publication number
JP2002519747A
JP2002519747A JP2000556291A JP2000556291A JP2002519747A JP 2002519747 A JP2002519747 A JP 2002519747A JP 2000556291 A JP2000556291 A JP 2000556291A JP 2000556291 A JP2000556291 A JP 2000556291A JP 2002519747 A JP2002519747 A JP 2002519747A
Authority
JP
Japan
Prior art keywords
output score
value
training
determining
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000556291A
Other languages
English (en)
Other versions
JP2002519747A5 (ja
Inventor
リンネベルウ,クリスチャン
マルティニ ヨルゲンセン,トーマス
Original Assignee
インテリックス アクティーゼルスカブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテリックス アクティーゼルスカブ filed Critical インテリックス アクティーゼルスカブ
Publication of JP2002519747A publication Critical patent/JP2002519747A/ja
Publication of JP2002519747A5 publication Critical patent/JP2002519747A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Luminescent Compositions (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Catalysts (AREA)
  • Electrotherapy Devices (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 本発明は、n項組又はRAMベース・ニューラルネットワーク分類方法及びシステム、より詳細には、決定基準が出力スコアを得るためにかつ分類を得るために出力スコアを比較するために適用され、トレーニングプロセスの間に決定される、n項組又はRAMベース分類システムに関する。すなわち、本発明は、多数のn項組又はルックアップテーブルから成り、各n項組又はルックアップテーブルが少なくとも可能なクラスのサブセットに対応する多数の行から成り、かつサンプリングされたトレーニング入力データ例の信号又は要素によって番地づけられる多数の列から成るネットワークによって定義できるコンピュータ分類システムをトレーニングするシステム及び方法に関する。

Description

【発明の詳細な説明】
【0001】 (技術分野) 本発明は、一般にn項組又はRAMベース・ニューラルネットワーク分類シス
テム、より詳細には、出力スコアを得るためにかつ分類を得るために出力スコア
を比較するために適用され決定基準がトレーニングプロセスの間に決定される、
n項組又はRAMベース分類システムに関する。
【0002】 (背景技術) ニューラルネットワーク分類システムの入力に適用される電気信号又は2進コ
ード、より正確には、信号のベクトルに代表されるオブジェクト又はパターンを
分類する既知の方法は、いわゆる学習又はトレーニングフェーズの実施を含んで
いる。このフェーズは一般に、学習又はトレーニングセットと呼ばれる一つ又は
それ以上の信号のセットを用いて、想定された分類の実行機能を可能な限り効率
よく満たす分類ネットワークの構成からなり、ここで分類されことが望まれるク
ラスの中の一つのクラスにおけるこれらの信号のそれぞれのメンバーシップは既
知である。この方法は、監督付き学習あるいは教師付き学習として知られている
【0003】 指導付き学習を用いた分類ネットワークのサブクラスは、メモリベース学習を
用いたネットワークである。ここで、最も古いメモリベースネットワークの一つ
は、BledsoeとBrowning(Bledsoe,W.W.and B
rowning,I,1959年,“Pattern Recognition
and reading by machine”,the Eastern
Joint Computer Conferenceの会報、225〜23
2頁)によって提案されたn項組ネットワークであり、最近では、Morcin
iecとRohwer(Morciniec,M,and Rohwer,R.
,1996年、“A theoretical and experiment
al account of n−tuple classifier per
formance”,Neural Comp.,629−642頁)とによっ
て記載されている。
【0004】 このようなメモリベースシステムの利点の一つは、学習フェーズ及び分類時の
非常に速い計算時間である。「RAMネットワーク」あるいは「重みなしニュー
ラルネットワーク」としても知られている既知のn項組ネットワークの場合、学
習は、パターンの特徴をランダムアクセスメモリ(RAM)に記録することによ
って達成し、それは該システムへトレーニングセットを一度だけ実施する必要が
ある。
【0005】 従来のRAMベースニューラルネットワークのトレーニング手順は、Jorg
ensen(本発明の共同発明者)等によってRAMベースニューラルネットワ
ークに関する最近の書籍への寄稿(T.M.Jorgensen,S.S.Ch
ristensen,and C.Liisberg,“Cross−vali
dation and information measures for
RAM based neural networks”,RAM−based
neural networks,J.Austin,ed,World S
icientific,London,77〜88頁、1998年)に記載され
ている。該寄稿は、RAMベースニューラルネットワークがどのように多数のル
ックアップテーブル(LUT)から構成すると判断されるかについて記載されて
いる。各LUTは2進入力データベクトルのサブセットを精査する。従来のスキ
ームにおいては、使われるビットはランダムに選択される。サンプリングされた
ビットシーケンスは、アドレスを構築するのに用いられる。このアドレスは、L
UTの中の特定のエントリ(列)に対応する。LUTの中の行の数は、可能なク
ラスの数に対応する。各クラスのために出力は0又は1の値をとることができる
。1の値は、特定のクラスに関する得票(vote)に対応する。分類を実行す
るとき、入力ベクトルがサンプリングされ、全てのLUTからの出力ベクトルが
加えれ、その後、winner−takes−all決定がなされて入力ベクト
ルが分類される。シンプルなネットワークのトレーニングを実行するために、出
力値は最初に0に設定されうる。トレーニングセットの各例のために、以下のス
テップが実行されるべきである。
【0006】 入力ベクトル及び対象クラスをネットワークへ提供し、全てのLUTのために
対応する行エントリを計算し、全てのアクティブな列の中で対象クラスの出力値
に1を設定する。 このようなトレーニング戦略を用いて各トレーニングパターンが常に真のクラ
スに関する最大数の得票を得ることが保障される。その結果、このようなネット
ワークはトレーニングセットに関して誤分類は行わないが、曖昧な決定が発生す
る場合がある。ここで、ネットワークの汎用化能力は、各LUTへの入力ビット
の数に直接に関係する。LUTが全ての入力ビットをサンプリングすると、LU
Tは純粋にメモリデバイスとして動作し、汎用化は実行されない。入力ビットの
数が減少するにつれて、曖昧な決定の増加という損失をともなって汎用化が増大
する。更に、LUTの分類及び汎用化能力は、調べられた入力ビットの現在のサ
ブセットに大いに依存する。「知的な」トレーニング手順は、入力データの最も
適切なサブセットを選択することである。
【0007】 Jorgensen等はさらに、短い計算時間で低い分類エラー率を得るため
に、LUTごとに使うための入力接続の最適な数を選択する方法を示唆する1個
抜きクロスバリデーションテスト(leave−one−out cross−
validation test)と名付けられたものについて記載している。
このようなクロスバリデーションテストを実行するためには、番地づけられた列
及びクラスに対応するセル又は要素を番地づけする現在のトレーニング例の数に
ついての情報を得ることが必要である。ゆえにこれらの数はLUTに記憶される
ことが提案されている。J rgensen等らはまた、ネットワークの中でL
UTが、連続的にLUTの新しいセットをトレーニングすること及び各LUTに
クロスバリデーションテストを実行することにより、どのようにより最適な方法
で選択できるか示唆している。従って、トレーニングセットを数回システムに提
供することによってLUTが選択されるRAMネットワークを有することが知ら
れている。
【0008】 RAMネットワークからの出力ベクトルは、各可能なクラスのための多数の出
力スコアを含む。上述したように、一つの決定は通常、一つの例を最も大きい出
力スコアを有するクラスに分類することによって実行される。このシンプルなw
inner−takes−all(WTA)スキームは、トレーニング例の真の
クラスが他のクラスのうちの一つに対して敗けることがないということを保障す
る。RAMネット分類スキームの一つの問題は、トレーニングセットに関してト
レーニングするとき、トレーニングクラスの間の例の分布がかなり歪んでおり、
しばしば不完全にふるまうということである。従って、性能に関するアーキテク
チャの特定のパラメータの影響の一般的な理解と同様に、RAM分類システムの
ふるまいについてトレーニングデータの構成の影響を理解する必要が有る。この
ような理解から、分類スキームを修正してその性能及び他のスキームとの競争力
を改良することが可能である。このようなRAMベース分類システムの改良は、
本発明によって提供される。
【0009】 (発明の概要) 最近、Thomas Martini Jorgensen及びChrist
ian Linneberg(本発明の発明者)は、例の分布の確率的パラメー
タ、有効なトレーニング例の数、及び各LUT又はn項組のために用いられるア
ドレスラインnの数に関して、期待されたn項組ネットの出力スコアに関する理
論解析を可能にした統計的な構成を提供した。得られた式から本発明者等は、異
なるシナリオでアーキテクチャのふるまいを研究することができた。さらに本発
明者等は、理論的結果に基づいて最大の帰納的な又は最大見込み推定量に近い近
似として処理するためにn項組分類スキームを修正するための提案を提供するこ
とになった。修正された決定基準は、例えば、トレーニングセットでトレーニン
グされたとき、トレーニングクラスの間の例の分布がかなり歪んでおり、n項組
ネットがしばしば不完全にふるまうといういわゆる歪んだクラスの従来の問題を
処理することができる。従って、提案された分類スキームの変化は、アーキテク
チャの本質的な改良を実現できる。提案された決定基準に関する変化は、ランダ
ム記憶に基づく元のn項組アーキテクチャだけに適用できるものではない。また
、そのうちのいくつかはアドレスラインのより最適な選択を用いたり、拡張した
重みスキームを適用するなどの拡張したn項組スキームに適用できる。
【0010】 本発明の第1の態様によれば、多数のn項組又はルックアップテーブル(LU
Ts)から成り、各n項組又はLUTが少なくとも一つの可能なクラスのサブセ
ットに対応する多数の行から成り、かつ更にサンプリングされたトレーニング入
力データ例の信号又は要素によって番地づけられる多数の列から成り、各列が値
を持ったセルを有するベクトルによって定義される、ネットワークによって定義
できるコンピュータ分類システムをトレーニングする方法であって、対応するセ
ルアドレスが一つ又はそれ以上のトレーニング入力例のセットからサンプリング
された回数に基づいた情報を、少なくともセルの一部が具備する又は示すように
、一つ又はそれ以上の異なるクラスのための入力データ例のトレーニングセット
に基づいて列ベクトルのセル値を決定することからなる方法が提供される。該方
法は、さらに、少なくとも一つの、クラス当たりの出力スコア値の評価のための
一つ又はそれ以上の出力スコア関数を決定することと、及び/又は、勝利クラス
を決定するために得られた出力スコア値の少なくとも一部と組み合せて用いられ
る一つ又はそれ以上の決定規則を決定することからなる。
【0011】 上記出力スコア値は、決定された列ベクトルのセル値の少なくとも一部の情報
に基づいて評価又は決定されることが好ましい。 本発明によれば、上記出力スコア関数及び/又は決定規則は、決定された列ベ
クトルのセル値の少なくとも一部の情報に基づいて決定されることが好ましい。
また、上記出力スコア関数を、一セットのパラメータ値によって決定された一フ
ァミリーの出力スコア関数から決定することも好ましい。このように、上記出力
スコア関数は、パラメータ値のセットからでも、決定された列ベクトルのセル値
の少なくとも一部の情報からでも、あるいは、パラメータ値のセット及び決定さ
れた列ベクトルのセル値の少なくとも一部の情報の両方からでも決定できる。
【0012】 本発明のトレーニング手順としては、2つのステップが考えられることを理解
すべきである。第1のステップは、列ベクトルのセル値を決定することからなり
、第2のステップは、出力スコア関数及び/又は決定規則を決定することからな
る。 既に述べたように、列ベクトルセルは、一つ又はそれ以上の、既知のクラスの
入力データ例のトレーニングセットに基づいて決定されるが、出力スコア関数及
び/又は決定規則は、既知のクラスの入力データ例のバリデーションセットに基
づいて決定される。ここで、該バリデーションセットは、上記トレーニングセッ
トに等しいかあるいはその一部であるが、該バリデーションセットは、トレーニ
ングセットに含まれない1セットの例であってもよい。
【0013】 本発明によれば、上記トレーニング及び/又はバリデーション入力データ例は
、好ましくは、入力信号ベクトルとしてネットワークへ提供される。 出力スコア関数の決定は、2つ又はそれ以上のクラスの中から勝利クラスを見
出すために用いられる出力スコアを計算する間、列ベクトルセルの内容を用いる
異なる方法を可能にするように実行されることが好ましい。列ベクトルセルの内
容が一つのクラスのスコア獲得のために用いられる方法は、どのクラスと比較さ
れるかによる。
【0014】 出力スペースにおいて2つ又はそれ以上のクラスを比較するとき用いられる決
定規則は、WTA決定法に応じた決定規則からそれることができることが好まし
い。2つ又はそれ以上のクラスを選択するための決定規則を変えることは、クラ
スの出力スコアの個々の、変換を可能にすること及び、WTA比較を維持するこ
とに等しい。これらの対応する変換は所定のクラスがどのクラスと比較されるか
による。
【0015】 どれだけの出力スコア関数を使うかの決定及び/又は出力スコア値に適用され
る決定規則の決定と同様に、どのように出力スコア関数が列ベクトルのセル値か
ら計算できるかの決定は、一つ又はそれ以上の、出力スコア関数及び/又は決定
規則のセットの初期化から成る。 さらに、バリデーション例セットにおける性能を評価する情報尺度に基づいて
、出力スコア関数及び/又は決定規則の少なくとも一部を調整することが好まし
い。上記バリデーションセットがトレーニングセット又はその一部に等しい場合
、1個抜きクロスバリデーション評価もしくはこの概念を延長したものを用いる
ことが好ましい。
【0016】 本発明による出力スコア関数及び決定規則を決定又は調整するためには、列セ
ル値が決定されなければならない。ここで、列セル値の少なくとも一部は、対応
するセルアドレスがトレーニング入力例のセットからサンプリングされた回数の
関数として決定されることが好ましい。あるいは、該列セルの情報は、最大列セ
ル値が1であるように決定できるが、該セルの少なくとも一部は、対応するセル
アドレスがトレーニング入力例のセットからサンプリングされた回数の関数であ
る関連した値を有する。好ましくは、列ベクトルのセル値は、出力スコア関数及
び/又は決定規則の決定又は調整の前に決定され、記憶手段に記憶される。
【0017】 本発明によれば、好適な列ベクトルのセル値の決定方法は、 (a)既知のクラスのトレーニング入力データ例を分類ネットワークへ適用し
、一つ又はそれ以上の列ベクトルを番地づけするトレーニングステップと、 (b)既知のクラスの行に対応する該番地づけされた列ベクトルのセル値又は
得票を、好ましくは一つ増分するトレーニングステップと、 (c)全てのトレーニング例が上記ネットワークに適用されるまで上記(a)
〜(b)のステップを繰り返すトレーニングステップとから成る。
【0018】 しかし、本発明が、該セルが入力トレーニングセットによって番地づけされた
回数の代りの関数によって列セルの情報が決定される実施形態を網羅することを
理解すべきである。このように、セル情報は、該セルが番地づけされている全て
の回数を含むことを必要としないが、例えば、セルがゼロ回、1回、1回以上、
及び/または2回及び2回以上等訪ねられたときの表示を含んだ例でもよい。
【0019】 出力スコア関数及び決定規則を決定するためには、これらの出力スコア関数及
び決定規則を調整することが好ましく、その調整は一つ又はそれ以上の繰り返し
ステップを含んでよい。出力スコア関数及び決定規則の調整は、列ベクトルセル
値の少なくとも一部に基づいて包括的品質値を決定するステップと、包括的品質
値が所定の品質基準を満たすかどうかを決定するステップと、包括的品質基準が
満たされるまで、出力スコア関数の少なくとも一部、及び/又は決定規則の一部
を調整するステップとを含んでよい。
【0020】 該調整プロセスはまた、局所的品質値が選択された入力例のための特定の又は
所定の局所的品質基準を満たさない場合、実行される一つ又はそれ以上の調整を
用いた、各サンプリングされたバリデーション入力例のための局所的品質値の決
定を含んでもよい。一例として、出力スコア関数及び/又は決定規則の調整は、 (a)バリデーションセットから入力例を選択するステップと、 (b)サンプリングされたバリデーション入力例に応じて、番地づけされた列
セル値の少なくとも一部の関数である局所的品質値を決定するステップと、 (c)局所的品質値が所定の局所的品質基準を満たすかどうかを決定し、局所
的品質基準が満たされない場合、出力スコア関数及び/又は決定規則の一つ又は
それ以上を調整するステップと、 (d)所定数のバリデーションセットの例から新たな入力例を選択するステッ
プと、 (e)全ての所定のバリデーション入力例について上記の局所的品質テストの
ステップ(b)〜(d)を繰り返すステップと、 (f)局所的品質テストの間に番地づけされる列ベクトルの少なくとも一部に
基づいて包括的品質値を決定するステップと、 (g)前記包括的品質値が所定の包括的品質基準を満たすかどうかを決定する
ステップと、 (h)包括的品質基準が満たされるまで、上記ステップ(a)〜(g)を繰り
返すステップとを含んでよい。
【0021】 好ましくは、上述の調整プロセスのステップ(b)〜(d)がバリデーション
セットの全ての例に対して実行される。 局所的及び/又は包括的品質値は、列セルの少なくとも一部の関数として定義
される。 一つ又はそれ以上の品質値を用い、各々対応する品質基準を用いて出力スコア
関数及び/又は決定規則を調整するとき、所定回数の繰り返しの後、品質基準が
満たされない場合、調整繰り返しプロセスを停止することが好ましいことを理解
すべきである。
【0022】 調整プロセスの間、調整された出力スコア関数及び/又は決定規則は、各調整
の後に好ましくは記憶され、かつ該調整プロセスが包括的品質値の決定を含む場
合、決定した包括的品質値が、以前に別々に記憶された出力スコア関数及び/又
は決定規則あるいは構成値に対応する包括的品質値よりも包括的品質基準を満た
すのに近いならば、包括的品質値の決定のステップが、得られた出力スコア関数
及び/又は決定規則又は分類システム構成値を別々に記憶することに続いてもよ
い。
【0023】 本発明の実施の形態による分類システムをトレーニングする主な理由は、その
後の未知のクラスの入力例の分類プロセスにおいて高い信頼を得るためである。 従って、本発明の別の態様によれば、上述した本発明の方法のいずれかに従っ
て構成されたコンピュータ分類システムを用いて入力データ例を複数のクラスの
うちの少なくとも一つに分類する方法であって、これにより各n項組又はLUT
及び出力スコア関数及び/又は決定規則が、一つ又はそれ以上の、入力データ例
のトレーニング又はバリデーションセットを用いて決定され、 (a)分類される入力データ例を構成された分類ネットワークへ適用し、列ベ
クトルをn項組又はLUTのセットに番地づけすることと、 (b)出力スコア関数及び決定規則の所定のセットを用いて比較されるクラス
のセットを選択し、特定の行をn項組又はLUTのセットに番地づけすることと
、 (c)出力スコア値を列ベクトルセルの関数として決定すること及び決定した
出力スコア関数を用いることと、 (d)決定した決定規則を用いて、計算された出力値を比較することと、 (e)該決定規則に従って、勝利クラスを選択することとを含む方法が提供さ
れる。
【0024】 本発明はまた、上述したトレーニング及び分類方法によるトレーニング及び分
類システムを提供する。 すなわち、本発明によれば、記憶された多数のn項組又はルックアップテーブ
ル(LUT)から成り、各n項組又はLUTが少なくとも可能なクラスのサブセ
ットに対応する多数の行から成り、かつサンプリングされたトレーニング入力デ
ータ例の信号又は要素によって番地づけられる多数の列から成り、各列が値を有
するセルを有するベクトルによって定義される、ネットワークによって定義でき
るコンピュータ分類システムをトレーニングするシステムであって、 ・既知のクラスのトレーニング入力データ例を受入れる入力手段と、 ・受入れた入力データ例をサンプリングし、列ベクトルを記憶されたn項組又
はLUTのセットに番地づけする手段と、 ・既知のクラスに対応する特定の行をn項組又はLUTのセットに番地づけす
る手段と、 ・所定のn項組又はLUTを記憶する記憶手段と、 ・対応するセルアドレスが入力例のトレーニングセットからサンプリングされ
た回数に基づいた情報を具備する又は示すように、列ベクトルのセル値を決定す
る手段と、 ・一つ又はそれ以上の出力スコア関数及び/又は一つ又はそれ以上の決定規則
を決定する手段とを 具備するシステムが提供される。
【0025】 ここで、出力スコア関数及び/又は決定規則の決定手段が、決定した列ベクト
ルのセル値の少なくとも一部の情報に基づいてこれらの関数及び/又は規則を決
定するようになされていることが好ましい。 出力スコア関数を決定する手段は、該関数をパラメータ値のセットによって決
定された出力スコア関数のファミリーから決定するようになされている。このよ
うに出力スコア関数を決定する手段は、パラメータ値のセットからでも、決定さ
れた列ベクトルのセル値の少なくとも一部の情報からでも、あるいは、パラメー
タ値のセット及び決定された列ベクトルのセル値の少なくとも一部の情報の両方
からでも決定できるようになされている。
【0026】 本発明によれば、出力スコア関数及び/又は決定規則を決定する手段が、既知
のクラスの入力データ例のバリデーションセットに基づいて該関数及び/又は決
定規則を決定するようになされている。ここで、該バリデーションセットは、該
列セル値を決定するために用いられるトレーニングセットに等しいか又はその一
部でよいが、該バリデーションセットは、該トレーニングセットに含まれない例
のセットでもよい。
【0027】 本発明の好適な実施の形態による出力スコア関数及び決定規則を決定するため
に、該出力スコア関数及び決定規則を決定する手段は、 一つ又はそれ以上の出力スコア関数及び/又は決定規則のセットを初期化する
手段と、 入力例のバリデーションセットの少なくとも一部を用いて出力スコア関数及び
決定規則を調整する手段とを含む。
【0028】 既に上述したように、列セル値は出力スコア関数及び決定規則を決定するため
に決定されなければならない。ここで、列ベクトルのセル値を決定する手段が、
これらの値を、対応するセルアドレスがトレーニング入力例のセットからサンプ
リングされた回数の関数として決定するようになされていることが望ましい。あ
るいは、列ベクトル値を決定する手段がこれらのセル値を、最大列セル値が1で
あるように決定できるようになされているが、該セルの少なくとも一部は、対応
するセルアドレスが入力例のトレーニングセットからサンプリングされた回数の
関数である関連した値を有する。
【0029】 本発明の一つの実施の形態によれば、既知のクラスに属するトレーニング入力
データ例が分類ネットワークに適用された場合、一つ又はそれ以上の列ベクトル
を番地づけし、列ベクトルのセル値の決定手段が、該既知のクラスの行に対応す
る上記番地づけされた列ベクトルのセルの値又は得票を増分するようになされ、
該値が好ましくは一つ増分されることが好ましい。
【0030】 出力スコア関数及び決定規則の調整プロセスのために、出力スコア関数及び/
又は決定規則を調整する手段が、 列ベクトルのセル値の少なくとも一部に基づいて包括的品質値を決定し、 該包括的品質値が所定の包括的品質基準を満たすかどうかを決定し、 該包括的品質基準が満たされるまで、出力スコア関数及び/又は決定規則の 少なくとも一部を調整するように なされていることが好ましい。
【0031】 本発明による好適な実施の形態の一つの実施例として、出力スコア関数及び決
定規則を調整する手段は、 (a)サンプリングされたバリデーション入力例に応じて、番地づけされたベ クトルのセル値の少なくとも一部の関数である局所的品質値を決定し、 (b)局所的品質値が所定の局所的品質基準を満たすかどうかを決定し、 (c)該局所的品質基準が満たされていない場合、上記出力スコア関数及び/ 又は決定規則の一つ又はそれ以上を調整し、 (d)トレーニング入力例の所定数だけ、上記局所的品質テストを繰り返し、 (e)該局所的品質テストの間に番地づけされる列ベクトルの少なくとも一部 に基づいて包括的品質値を決定し、 (f)該包括的品質値が所定の包括的品質基準を満たすかどうかを決定し、 (g)該包括的品質基準が満たされるまで、上記局所的及び包括的品質テスト を繰り返すようになされている。
【0032】 出力スコア関数及び決定規則を調整する手段は、所定の繰り返し数の後、上記
包括的品質基準が満たされない場合には上記繰り返しプロセスを停止するように
なされている。好適な実施の形態において、n項組又はLUTを記憶する手段は
、調整された出力スコア関数及び決定規則を記憶する手段と、それまでで最良の
出力スコア関数及び決定規則又はそれまでで最良の分類システム構成値を記憶す
る分離手段とを具備する。ここで、出力スコア関数及び決定規則を調整する手段
は、決定した包括的品質値が、以前に別々に記憶されたそれまでで最良の出力ス
コア関数及び決定規則に対応する包括的品質値よりも包括的品質基準を満たすの
に近い場合、以前に別々に記憶されたそれまでで最良の出力スコア関数及び決定
規則を、得られ、調整された出力スコア関数及び決定規則と置き換えるようにな
されている。すなわち、該システムが所定の繰り返し回数内に包括的品質基準を
満たすことができなくても、該システムは常にこれまでで「最良の」システム構
成を構成することができる。
【0033】 本発明の別の態様によれば、未知のクラスの入力データ例を複数のクラスのう
ちの少なくとも一つに分類するシステムであって、 各n項組又はルックアップテーブル(LUT)が少なくとも可能なクラス の数のサブセットに対応する多数の行から成り、かつサンプリングされた入 力データ例の信号又は要素によって番地づけられる多数の列ベクトルから成 り、トレーニング入力データ例の一つ又はそれ以上のセットに基づいて、ト レーニングプロセスの間に、決定されたセル値を有する各列ベクトルからな る、n項組又はLUTの数又はセットを記憶する記憶手段と、 バリデーション入力データ例の一つ又はそれ以上のセットに基づいて、ト レーニング又はバリデーションプロセスの間に決定された各出力スコア関数 及び/又は決定規則、一つ又はそれ以上の出力スコア関数及び/又は一つ又 はそれ以上の決定規則を記憶する記憶手段と、さらに 分類される入力データ例を受入れる入力手段と、 受入れた入力データ例をサンプリングし、列ベクトルを記憶されたn項組 又はLUTのセットに番地づけする手段と、 特定のクラスに対応する前記の行をn項組又はLUTのセットに番地づけ する手段と、 記憶された出力スコア関数及び記憶された列ベクトル値の少なくとも一部 を用いて出力スコア値を決定する手段と、 出力スコア値及び記憶された決定規則に基づいて勝利クラスを決定する手 段と を具備するシステムが提供される。
【0034】 列ベクトルのセル値及び本発明による分類システムの出力スコア関数及び/又
は決定規則は、上述のシステムのいずれかによるトレーニングシステムを用いて
決定されることが好ましいことを理解すべきである。従って、列ベクトルのセル
値及び出力スコア関数及び/又は決定規則は、上述の方法のいずれかによるトレ
ーニングプロセスの間に決定することができる。
【0035】 (発明の詳細な説明) 以降に、アーキテクチャの列セルのトレーニングプロセスの1例と、分類プロ
セスの1例を含む、本発明による分類システムのアーキテクチャと概念について
より詳細に説明する。さらに、本発明の実施例による出力スコア関数および決定
規則のための学習プロセスの別例についても説明する。
【0036】
【表1】
【0037】表記 以降の説明および例では、次のような表記を使用している。 X: トレーニングセット x*: トレーニングセットからの例 Nx: トレーニングセットX内の例の数 xj *: トレーニングセットXの所定の順番からj番目例 y*: 特定の例(トレーニングセットの外において可能) C: クラスラベル C(x*): 例x*に関連したクラスラベル(真(True)のクラス) Cw: 分類で得られた勝者クラス CT: 分類で得られた真のクラス Nc: LUT内の行の最大数に対応したトレーニングクラスの数 Ω: LUTのセット(LUTの各々は、すべての可能なアドレス列のサブセッ トを1つだけ含むことができ、また、異なる列は既存のクラスのサブセッ トのみを登録することができる)。 NLUT: LUTの数 NCOL: 特定のLUT内で番地づけすることができる異なる列の数(LUTに 従属) Xc: クラスCとラベル付けされたトレーニング例のセット νiC: i番目の列とC番目のクラスによって番地づけされたセル用のエントリ カウンタ ai(y*): 例y*によって番地づけされているi番目のLUT中の列の指数 ν*: LUTネットワークのすべてのνic要素を含んだベクトル QL: 局所的品質関数 QG: 包括的品質関数 BCi,Cj: 決定規則マトリックス Mci,cj: コストマトリックス S・: スコア関数 Γ・: 1個抜きクロスバリデーションスコア関数 P: パスマトリックス β*: パラメータベクトル Ξ: 決定規則のセット dc: クラスcにおけるスコア値 D(・): 決定関数 アーキテクチャおよび概念の説明 次に、複数のルックアップテーブル(LUT)を備えたRAM分類ネットワー
クのブロック線図を示す図1と、本発明の1実施例による1つのルックアップテ
ーブル(LUT)を備えた詳細なブロック線図を示す図2とを参照する。
【0038】 RAMネットまたはLUTネットは多数のルックアップテーブル(LUT)(
1.3)から構成されている。LUTの数をNLUTと示す。分類されるべき入力
データベクトルy*の1例を、LUTネットワークの入力モジュール(1.1)に
示すことができる。LUTの各々は、入力データの1部分をサンプリングするこ
とができ、ここで、異なる数の入力信号を別のLUT(1.2)にサンプリング
してもよい(原則として、1つのLUTで全入力スペースをサンプリングするこ
とも可能である)。LUTの出力を、RAM分類ネットワークの出力モジュール
(1.5)に供給(1.4)してもよい。
【0039】 図2では、各々のLUTについて、LUTネットに現れている例のサンプリン
グされた入力データ(2.1)をアドレス選択モジュール(2.2)に供給でき
ることを示している。アドレス選択モジュール(2.2)は、入力データから、
LUT内の1つまたはそれ以上の特定の列(2.3)のアドレスを計算すること
ができる。一つの例として入力例y*によって番地づけされたi番目のLUT内
の列の指数を、ai(y*)として計算する。特定のLUT内の番地づけ可能な列
の数はNCOLと示され、概して、LUTによって異なる。LUTの特定の行内に
記憶されている情報は、特定のクラスC(2.4)に対応する。次に、行の最大
数がクラスの数Ncに対応する。列内のセルの数はLUT内の行数に対応する。
列ベクトルセルは当該の列のクラス特定エントリカウンタに対応してもよい。i
番目の列とクラスCによって番地づけされたセルのエントリカウンタ値はνic
2.5)と示される。
【0040】 稼動中LUT列(2.6)のνic値が、出力モジュール(1.5)に供給(1
.4)され、ここで、各々のクラスについて1つまたはそれ以上の出力スコアが
計算され、また、これらの出力スコアは、多くの決定規則との組合わせにおいて
、勝利クラスを決定する。 x*∈Xはトレーニングで使用される入力データ例を示し、y*はトレーニン
グセットに属さない入力データ例を示すことにする。C(x*)はx*が属するク
ラスを示すことにする。次に、y*に与えられたクラス指定が、各々のクラスに
ついて1つまたはそれ以上の出力スコアを計算することにより得られる。クラス
Cについて得た出力スコアは、y*例によって指定されたνic数の関数として計
算されるが、一般に、パラメータβ*の数にも依存する。クラスcのm番目の出
力スコアをScm(νic,β*)と表す。分類は、すべてのクラスから得た出力ス
コアを多数の決定規則と組合わせることによって得られる。決定規則の効果は、
所定の勝者クラス得るために、出力スコア値によって番地づけされるべき出力ス
コアスペース内に範囲を定義することである。決定規則のセットがΞと示され、
決定ボーダのセットに対応する。
【0041】 図3は、本発明によるコンピュータ分類システムのブロック線図の1例を示す
ものである。ここでは、ビデオカメラやデータベースのようなソースが、分類す
べき例を示す1つまたは複数の入力データ信号(3.0)を供給する。これらの
データが、所定の方法で入力データの特徴の抽出、減衰、及び変換が可能なタイ
プのプレ処理モジュール(3.1)に供給される。このようなプレ処理モジュー
ルの1例に、FFTボード(高速フーリエ変換)がある。次に、変換されたデー
タが、本発明によるRAMネットワークを備えた分類ユニット(3.2)に供給
される。分類ユニット(3.2)は、関連する確実性を備えたランク付けされた
分類リストを出力する。標準のパーソナルコンピュータをプログラミングするた
めの、またはたとえば、RAM回路およびデジタル信号プロセッサと組み合わせ
た、プログラム可能なゲートアレーを用いた、ハードウェアデバイスをプログラ
ミングすることにより、分類ユニットを実現することができる。これらのデータ
は、入手した分類をその他の関連情報と組み合わせるコンピュータモジュールと
いった後処理デバイス(3.3)で解釈することができる。最後に、この解釈の
結果が、アクチュエータのような出力デバイス(3.4)に供給される。
【0042】 アーキテクチャのイニシャルトレーニング 図4のフローチャートは、本発明の1実施例による列ベクトルエントリカウン
タの決定あるいはセル分布、νiC-分布(4.0)のためのワンパス学習スキー
ムまたはプロセスを示し、以下のように説明することができる。 1. セル値ν*をゼロに設定することにより、全てのエントリカウンタまたは
列ベクトルセルをイニシャライズする(4.1)。 2. トレーニングセットXからネットワークに、第1のトレーニング入力例x1 * を与える(4.2,4.3)。 3. 第1のLUTについて番地づけされた列を計算する(4.4,4.5)。 4. x*のクラスラベルに対応する番地づけされた列の行におけるエントリカ
ウンタに1を足す(全てのLUTにおいてνai(x * ),C(x * )を増加する)(4.6
)。 5. 残りのLUTについてもステップ4を繰り返す(4.7,4.8)。 6. 残りのトレーニング入力例についてステップ3〜5を繰り返す(4.9,
4.10)。トレーニング例の数をNxと示す。
【0043】 出力スコア関数と決定規則のイニシャライズ トレーニングしたネットワークを分類に使用する前に、出力スコア関数と決定
規則を初期化する必要がある。未知入力例の分類 LUTが定義するべく列セルに対する値を決定するために本発明のRAMネッ
トワークをトレーニングしたら、そのネットワークを、未知の入力データ例を分
類するために使用することができる。
【0044】 本発明による好ましい例において、分類は、決定規則Ξと、出力スコア関数か
ら得た出力スコアとを用いて実行される。Ξと出力スコアを引き出す決定関数を
D(・)で示す。勝者クラスを次のように表すことができる。
【0045】
【数1】
【0046】 図6は、分類プロセス(6.0)が実行されるコンピュータ分類システムのオ
ペレーションのブロック線図を示す。このシステムは、例えば光センサシステム
を使用して、1つまたはそれ以上の入力信号を入手する(6.1)。入手した入
力データは、例えば低パスフィルタのような処理モジュールで前処理され(6.
3)、本発明の1実施例によればLUTネットワークである分類モジュール(6
.3)に与えられる。次に、分類モジュールからの出力データが、例えば、サイ
クリック冗長チェック合計を計算するCRCアルゴリズムのような後処理モジュ
ールにおいて後処理され(6.4)、その結果が、モニタ画面のような出力デバ
イスに伝送される。
【0047】 出力スコア関数パラメータβ*の調整と決定規則Ξの調整 通常、最初に決定されるβ*の値と、ルールΞの最初のセットは、最良な選択
を示さない。そのため、本発明の好ましい実施例によれば、β*値とΞルールの
最良化あるいは調整を行わなくてはならない。 分類システムの性能を向上するべく、パラメータβ*とルールΞを選択または
調整するために、本発明の1実施例によれば、β*値とΞルールの性能を測定する
ための適切な品質関数の定義が提案される。これにより、局所的品質関数QL
ν*,x*,X,β*,Ξ)が定義され、ここで、ν*はLUTネットワークの全て
のνic要素を含んだベクトルを示している。局所的品質関数は、特定な例x*
出力分類の確実性測定を行ってもよい。品質値が所定の基準を満たさない場合に
は、品質値に基準を満たさせるように、またはそれに近い状態にするために(こ
れが可能であれば)、β*値とΞルールが調整される。
【0048】 さらに、包括的品質関数:QG(ν*,X,β*,Ξ)を定義することができる
。包括的品質関数は、入力トレーニングセットの性能を全体として測定すること
ができる。 図5は、本発明によってβ*値とΞルールを調整または学習するためのフロー
チャートである。
【0049】 実施例1 この例は、決定規則Ξを調整する最適化の方法を示すものである。Ncトレー
ニングクラスについて考える。クラスラベルcは1〜Ncまでの整数である。各
々のクラスcについて、単出力スコア関数を定義する。
【0050】
【数2】
【0051】 ここで、δi,jはクロネッカーのデルタ(i=j、または0である場合、δi,j
1)であり、
【0052】
【数3】
【0053】 出力スコア関数の式は、パラメータベクトルβ*によって決定される関数のフ
ァミリーと考えられることを示す。しかしながら、この例は、決定規則Ξを調整
する方法だけを示すものであり、β*の調整方法ではない。表記を簡単にするた
めに、β*内の全ての値を1に初期化する。そこで、
【0054】
【数4】
【0055】 このβ*の選択で、Scに考えられる出力値は0〜NLUT(両方とも含まれる)の
整数である。 与えられたクラスcの一個抜きクロスバリデーションスコアまたは得票カウン
トは次の通りであり、
【0056】
【数5】
【0057】 ここで、CT(x*)は例x*の真のクラスを示す。 考えられる全てのクラス間の組合わせ(c1,c2)、(c1∈[1,2,…Nc]
,c2∈{1,2,…Nc})∧(c1≠c2)について、2つのクラスでスパンし
たスコアスペース内に適切な決定境界を求めたい。2つの対応した出力スコア値
に適用された所定の決定規則のセットに対応した決定を含むために、すなわち、
クラスc1とクラスc2のどちらが勝つかを求めるために、マトリックスBc1,c2
が定義される。行と列の大きさは、2つの出力スコア値の許容範囲によって与え
られ、つまり、マトリックスの大きさは(NLUT+1)×(NLUT+1)である。
従って、行と列の指数は0〜NLUTである。
【0058】 各々のマトリックス要素は3つの値:c1、c2、kAMBのいずれか1つを含ん
でおり、ここで、kAMBはc1、c2とは異なる定数である。ここでは、kAMB=0
を用いる。クラスc1、クラスc2の各々について求めた2つの出力スコア値S1
、S2は、マトリックスBc1,c2内の要素bc1,c2 s1,s2を、番地づけするために使
われる。番地づけした要素が値c1を含んでいる場合は、クラスc1がクラスc2
に勝つということである。指定された要素がc2を含んでいる場合は、クラスc 2 がクラスc1に勝つということである。最後に、指定された要素が値kAMBを含
んでいる場合には、決定が不確定であるということである。
【0059】 決定規則はWTA決定に対応して初期化される。これは、マトリックスBc1,c 2 内の対角線に沿った決定境界を持つことに対応している。要素は、値kAMBを取
るために、この対角線に沿って初期化される。対角線の上また下において、対向
するクラス値が要素にラベル付けされる。 初期化した決定境界を、νai(x * ),c値を用いる情報尺度に従って調整する方法
を次に示す。
【0060】 以下に与えられた要素を用いてコストマトリックスMc1,c2を作成する。
【0061】
【数6】
【0062】 αc1,c2は、クラスc1からの1例をクラスc2に分類することに対応したコスト
を示し、αc2,c1は、これと反対のエラーに関連したコストを示す。そこで、論
理的真が1と表現され、論理的偽が0と表現される。 m0,0〜mNLUT,NLUTの最小限のコストパスは、以下の擬似コードで示すように
、例えば動的プログラミングアプローチを用いて算出することができる(このコ
ードは、Bc1,c2と同じ大きさのパスマトリックスPc1,c2を使用する)。
【0063】
【表2】
【0064】
【表3】
【0065】 動的プログラミングアプローチは、境界の形状を制約する正則化の項により拡
張することができる。 決定境界を求める別の方法には、関連するコストが最小化されるような方法で
、2つの制御点を伴うBスプラインに当てはまるものがある。 上述の方法から求めた決定境界を用いて、ある例を次の方法で分類することが
できる。 ・ スコア値または得票数
【0066】
【数7】
【0067】 を得るために、この例をネットワークに提示する。 ・ 全てのクラスについてスコア値の新規セットdcを定義し、スコアをゼロに
初期化する。
【0068】
【数8】
【0069】 ・ 可能性のある全てのクラス間の組合わせ(c1,c2)をループし、得票値を
更新する。
【0070】
【数9】
【0071】
【数10】
【0072】 上述した方法で求めた決定境界を使った1個抜きクロスバリデーションテスト
が以下の方法で入手することができる。 ・ 1個抜きスコア値または得票数
【0073】
【数11】
【0074】 を入手するために、例をネットワークに提示する。 ・ 全てのクラスについてスコア値の新規セットdcを定義し、このスコアをゼ
ロに初期化する。
【0075】
【数12】
【0076】 ・ 可能な全てのクラス間の組合わせ(c1,c2)を全てのループし、得票値を
更新する。
【0077】
【数13】
【0078】
【数14】
【0079】 図5を参照すると、上述の決定規則(境界)Ξのための調整方法は以下の通り
に説明することができる。 ・ 全ての値をβ*を1に設定し、2×2ベースでWTAスキームを選択し、n
項組の分類子を、図4のフローチャートに従ってトレーニングすることによって
システムを初期化する。(5.0) ・ バッチモード最適化を選択する(5.1) ・ 上述したように1個抜き分類を実行することで、全ての例をテストし(5.
12)、得られた1個抜きクロスバリデーションエラー率を計算し、これをQG
尺度として使用する。(5.13) ・ β*の値と、対応するQG値とを、Ξルール(Bc1,c2マトリックス)と同様
に記憶する。(5.14) ・ QG値が所定の基準を満たさないか、または、別の停止基準がこの基準を満
たす場合には、上述の動的プログラミングアプローチに従ってΞルールを調整す
る。(5.16,5.15) ・ QG値が満たされた、または別の停止基準が基準に合った場合、合計エラー
率がもっとも低い組み合わせを選択する。(5.17) 上述の場合において、別の停止基準として、調整スキームを通る2つのループ
のみを許容する基準を使用する。
【0080】 実施例2 この例は、β*を調整する最適化方法を示す。 各々のクラスについて、ここでも単出力スコアを定義する。
【0081】
【数15】
【0082】
【数16】
【0083】 この例では、β*=(k1,k2,…,kNc)を使用する。さらに、別のクラス
からの出力スコアと比較した際にWTA決定を記述するために、Ξルールを初期
化する。 ・ 全てのkc値を1に設定し、WTAスキームを選択し、図4のフローチャー
トに従って、n項組の分類子をトレーニングすることによりシステムを初期化す
る。(5.0) ・ バッチモード最適化を選択する。(5.1) ・ 1個抜きクロスバリデーションテスト(5.12)を使って、QGとして用
いられる、求めた1個抜きクロスバリデーションエラー率を算出して、全ての例
をテストする。(5.13) ・ β*の値と対応するQGの値とを記憶する。(5.14) ・ kcj、kc1、K、kcncの可能な組み合わせを全てループし、ここで、kj
{1,2,3、…kMAX}である。(5.16,5.15) ・ 最も低い総エラー率との組み合わせを選択する。(5.17) 実用的な使用について、kMAX値は、前のクラスの非対称度と、RAMネット
システムで使用されるアドレス指定ラインの数に依存している。
【0084】 実施例3 この例も、β*の調整方法を最適化する方法について説明しているが、しかし
ここでは局所的品質関数QLを使用している。 各クラスに対して、多くの出力スコアに多くの競合クラス、すなわち、Nc
1出力スコア、があると定義する。
【0085】
【数17】
【0086】 これらのスコア値を用いて、次の方法で決定を行う。 ・ 全てのクラスについてスコア値の新規セットdcを定義し、これらのスコア
をゼロに初期化する。
【0087】
【数18】
【0088】 ・ 全ての可能なクラス間の組み合わせ(c1,c2)をループし、得票値を更新
する。
【0089】
【数19】
【0090】
【数20】
【0091】 この例では次の式を用いる。
【0092】
【数21】
【0093】 さらに、別のクラスからの出力スコアと比較する際にWTA決定を記述するた
めに、Ξルールを初期化する。 ・ 全てのkc1,c2-値を例えば2に設定し、WTAスキームを選択し、図4のフ
ローチャートに従って、n項組の分類子をトレーニングすることにより、システ
ムを初期化する。(5.0) ・ バッチモードの最適化と対置するオンラインモードが選択される。(5.1
) ・ トレーニングセット(5.2,5.7,5.8)の全ての例について、以下
を実行する。 ・ 1個抜きクロスバリデーションで勝者クラスCWを得るために、各例をテス
トする。QL-尺度と真のクラスCTを持ったCWとを比較する。(5.3、5.4
) ・ CW≠CTで1個抜きエラーが生じた場合、kCW,CTの値とkCW,CTとは、例
えば0.1のように少量だけ増加することによって、また、0.05のように少
量だけ減少させることによって調整される。調整によって値が1未満になってし
まう場合には、調整は行わない。(5.5,5.6) ・ 全ての例の処理が終わったら、包括的情報尺度QG(例えば、1個抜きエラ
ー率)が計算され、β*とQGの値が記憶される。(5.9,5.10) ・ QGまたは別の停止基準が満たされない場合には、上述のループを繰り返す
。(5.11) ・ QGが満たされたか、または別の停止基準が満たされた場合には、記憶され
ているQG値の最良値が、対応するパラメータ値β*、決定規則Ξと共に選択され
る。(5.17,5.18) 前述の本発明の好ましい例証的実施例の説明は、例証および説明の目的で行わ
れた。本発明を説明した通りの正確な形式に網羅的であったりまたは制限するこ
とを目的としたものではなく、また、当業者にとって本発明に多くの変更、応用
を加えることが可能である。ここで開示および請求した、基本的な趣旨を保持し
た上でのこのような変更の全ては本発明の範囲内に入るものである。
【図面の簡単な説明】
【図1】 ルックアップテーブル(LUT)が備えられたRAM分類ネットワークのブロ
ック線図である。
【図2】 本発明の1実施例による単独のルックアップテーブル(LUT)の詳細なブロ
ック線図である。
【図3】 本発明によるコンピュータ分類システムのブロック線図である。
【図4】 本発明の1実施例によるLUT列セル用の学習プロセスのフローチャートであ
る。
【図5】 本発明の1実施例による学習プロセスのフローチャートを示す。
【図6】 本発明による分類プロセスのフローチャートを示す。
【手続補正書】
【提出日】平成13年1月23日(2001.1.23)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,UG,ZW),E A(AM,AZ,BY,KG,KZ,MD,RU,TJ ,TM),AE,AL,AM,AT,AU,AZ,BA ,BB,BG,BR,BY,CA,CH,CN,CU, CZ,DE,DK,EE,ES,FI,GB,GD,G E,GH,GM,HR,HU,ID,IL,IN,IS ,JP,KE,KG,KP,KR,KZ,LC,LK, LR,LS,LT,LU,LV,MD,MG,MK,M N,MW,MX,NO,NZ,PL,PT,RO,RU ,SD,SE,SG,SI,SK,SL,TJ,TM, TR,TT,UA,UG,US,UZ,VN,YU,Z A,ZW

Claims (34)

    【特許請求の範囲】
  1. 【請求項1】 多数のn項組又はルックアップテーブル(LUT)から成り
    、各n項組又はLUTが少なくとも可能なクラスのサブセットに対応する多数の
    行から成り、さらにサンプリングされたトレーニング入力データ例の信号又は要
    素によって番地づけられる多数の列から成り、各列が値を有するセルを有するベ
    クトルによって定義される、ネットワークによって定義できるコンピュータ分類
    システムをトレーニングする方法において、 対応するセルアドレスが一つ又はそれ以上のトレーニング入力例のセットから
    サンプリングされた回数に基づいた情報を、少なくともセルの一部が具備する又
    は示すように、一つ又はそれ以上の異なるクラスのための入力データ例のトレー
    ニングセットに基づいて、列ベクトルのセル値を決定することと、 少なくとも一つの、クラス当たりの出力スコア値の評価のための一つ又はそれ
    以上の出力スコア関数を決定することと、及び/又は、 勝利クラスを決定するために得られた出力スコアの少なくとも一部と共同して
    用いられる一つ又はそれ以上の決定規則を決定することと を含み、 前記出力スコア関数及び/又は決定規則は、前記決定された列ベクトルのセル
    値の少なくとも一部の情報に基づいて決定されることを特徴とする方法。
  2. 【請求項2】 前記出力スコア関数及び/又は決定規則は、入力データ例の
    バリデーションセットに基づいて決定されることを特徴とする請求項1に記載の
    方法。
  3. 【請求項3】 前記バリデーションセットは、前記入力データ例のトレーニ
    ングセットの少なくとも一部からなることを特徴とする請求項2に記載の方法。
  4. 【請求項4】 前記出力スコア関数は、パラメータ値のセットによって決定
    されることを特徴とする請求項1から3のいずれか1項に記載の方法。
  5. 【請求項5】 前記出力スコア関数及び/又は決定規則の決定は、バリデー
    ション例セットに関する性能を評価する情報尺度に基づいており、前記尺度の評
    価は好ましくは、1個抜きクロスバリデーションテストであることを特徴とする
    請求項1から4のいずれか1項に記載の方法。
  6. 【請求項6】 出力スコアスペースが、出力スコア値を含んだ出力スコア変
    数によって与えられ、かつ前記決定規則は、勝利クラスを得るために得られた出
    力スコア値によって番地づけられる前記出力スコアスペースの中に領域を定義す
    ることを特徴とする請求項1から5のいずれか1項に記載の方法。
  7. 【請求項7】 前記出力スコア関数及び/又は決定規則の決定は、前記出力
    スコア関数及び/又は決定規則を初期化することからなることを特徴とする請求
    項1から6のいずれか1項に記載の方法。
  8. 【請求項8】 前記出力スコア関数の初期化は、セットアップパラメータの
    数を決定することからなることを特徴とする請求項7に記載の方法。
  9. 【請求項9】 前記出力スコア関数の初期化は、全ての出力スコア関数を所
    定のマッピング関数に設定することからなることを特徴とする請求項7又は8に
    記載の方法。
  10. 【請求項10】 前記決定規則の初期化は、前記決定規則を所定の決定スキ
    ームに設定することからなることを特徴とする請求項7から9のいずれか1項に
    記載の方法。
  11. 【請求項11】 前記出力スコア関数及び/又は決定規則を調整することを
    さらに含み、前記調整は、好ましくは情報尺度評価に基づくものであることを特
    徴とする請求項1から10のいずれか1項に記載の方法。
  12. 【請求項12】 前記情報尺度評価は、1個抜きクロスバリデーションテス
    トであることを特徴とする請求項11に記載の方法。
  13. 【請求項13】 前記調整は、前記セットアップパラメータの値を変化させ
    ることからなることを特徴とする請求項8及び請求項11から12のいずれか1
    項に記載の方法。
  14. 【請求項14】 前記列ベクトルのセル値の決定が、 (a)既知のクラスのトレーニング入力データ例を分類ネットワークへ適用し
    それにより、一つ又はそれ以上の列ベクトルを番地づけするトレーニングステッ
    プと、 (b)前記既知のクラスの行に対応する前記番地づけされた列ベクトルの前記
    セルの値又は得票を、好ましくは一つ増分するトレーニングステップと、 (c)全てのトレーニング例が前記ネットワークに適用されるまで上記(a)
    〜(b)のステップを繰り返すトレーニングステップと を含むことを特徴とする請求項1から13のいずれか1項に記載の方法。
  15. 【請求項15】 前記調整プロセスが、 前記列ベクトルセル値の少なくとも一部に基づいて包括的品質値を決定するス
    テップと、 前記包括的品質値が所定の品質基準を満たすかどうかを決定するステップと、 前記包括的品質基準が満たされるまで、出力スコア関数の少なくとも一部、及
    び/又は前記決定規則の一部を調整するステップと を含むことを特徴とする請求項11から14のいずれか1項に記載の方法。
  16. 【請求項16】 前記調整プロセスが、 (a)前記バリデーションセットから入力例を選択するステップと、 (b)サンプリングされたバリデーション入力例に応じて、前記番地づけされ
    た列セル値の少なくとも一部の関数である局所的品質値を決定するステップと、 (c)前記局所的品質値が所定の局所的品質基準を満たすかどうかを決定し、
    前記局所的品質基準が満たされない場合、前記出力スコア関数及び/又は決定規
    則の一つ又はそれ以上を調整するステップと、 (d)所定数のバリデーションセットの例から新たな入力例を選択するステッ
    プと、 (e)全ての所定のバリデーション入力例について上記の局所的品質テストの
    ステップ(b)〜(d)を繰り返すステップと、 (f)前記局所的品質テストの間に番地づけされる列ベクトルの少なくとも一
    部に基づいて包括的品質値を決定するステップと、 (g)前記包括的品質値が所定の包括的品質基準を満たすかどうかを決定する
    ステップと、 (h)前記包括的品質基準が満たされるまで、上記ステップ(a)〜(g)を
    繰り返すステップと を含むことを特徴とする請求項11から15のいずれか1項に記載の方法。
  17. 【請求項17】 前記ステップ(b)〜(d)が前記バリデーションセット
    の全ての例について実行されることを特徴とする請求項16に記載の方法。
  18. 【請求項18】 前記局所的及び/又は包括的品質値が前記列セルの少なく
    とも一部の関数として定義されることを特徴とする請求項15から17のいずれ
    か1項に記載の方法。
  19. 【請求項19】 前記調整繰り返しプロセスは、所定の繰り返し数の後、前
    記品質基準が満たされない場合には停止されることを特徴とする請求項15から
    18のいずれか1項に記載の方法。
  20. 【請求項20】 請求項1から19のいずれか1項に従って構成されたコン
    ピュータ分類システムを用いて入力データ例を複数のクラスのうちの少なくとも
    一つに分類する方法であって、これにより、各n項組又はLUT及び出力スコア
    関数及び/又は決定規則のための列セル値が、一つ又はそれ以上の、入力データ
    例のトレーニング又はバリデーションセットを用いて決定され、 (a)分類される入力データ例を前記構成された分類ネットワークへ適用し、
    列ベクトルをn項組又はLUTのセットに番地づけすることと、 (b)出力スコア関数及び決定規則の所定のセットを用いて比較されるクラス
    のセットを選択し、特定の行をn項組又はLUTのセットに番地づけすることと
    、 (c)決定した出力スコア関数を用いて、出力スコア値を列ベクトルセルの関
    数として決定することと、 (d)決定した決定規則を用いて、計算された出力値を比較することと、 (e)前記決定規則に従って、勝利するクラスを選択することと を含むことを特徴とする方法。
  21. 【請求項21】 記憶された多数のn項組又はルックアップテーブル(LU
    T)から成り、各n項組又はルックアップテーブルが少なくとも可能なクラスの
    サブセットに対応する多数の行から成り、かつサンプリングされたトレーニング
    入力データ例の信号又は要素によって番地づけられる多数の列から成り、各列が
    値を有するセルを有するベクトルによって定義されるネットワークによって定義
    できる、コンピュータ分類システムをトレーニングするシステムにおいて、 (a)既知のクラスのトレーニング入力データ例を受入れる入力手段と、 (b)受入れた入力データ例をサンプリングし、列ベクトルを記憶されたn項
    組又はLUTのセットに番地づけする手段と、 (c)既知のクラスに対応する特定の行をn項組又はルックアップテーブルの
    セットに番地づけする手段と、 (d)所定のn項組又はLUTを記憶する記憶手段と、 (e)対応するセルアドレスが入力例のトレーニングセットからサンプリング
    された回数に基づいた情報を含む又は示すように、列ベクトルのセル値を決定す
    る手段と、 (f)一つ又はそれ以上の出力スコア関数及び/又は一つ又はそれ以上の決定
    規則を決定する手段とを含み、前記出力スコア関数及び/又は決定規則の決定手
    段が、決定した列ベクトルのセル値の少なくとも一部の情報に基づいて前記関数
    及び/又は決定規則を決定するようになされていることを特徴とするシステム。
  22. 【請求項22】 前記出力スコア関数の決定手段が、上記関数をパラメータ
    値のセットによって決定された出力スコア関数のファミリーから決定するように
    なされていることを特徴とする請求項21に記載のシステム。
  23. 【請求項23】 前記出力スコア関数及び/又は決定規則の決定手段が、既
    知のクラスの入力データ例のバリデーションセットに基づいて前記関数及び/又
    は決定規則を決定するようになされており、前記バリデーションセットが、好ま
    しくは列ベクトル値の決定に用いられるトレーニングセットの少なくとも一部か
    らなることを特徴とする請求項21又は22に記載のシステム。
  24. 【請求項24】 前記出力スコア関数及び決定規則の決定手段が、一つ又は
    それ以上の出力スコア関数及び/又は決定規則のセットを初期化する手段と、入
    力例のバリデーションセットの少なくとも一部を用いて出力スコア関数及び決定
    規則を調整する手段とを含むことを特徴とする請求項21から23のいずれか1
    項に記載のシステム。
  25. 【請求項25】 列ベクトルのセル値の決定手段が、それらの値を、対応す
    るセルアドレスがトレーニング入力例のセットからサンプリングされた回数の関
    数として決定するようになされていることを特徴とする請求項21から24のい
    ずれか1項に記載のシステム。
  26. 【請求項26】 既知のクラスに属するトレーニング入力データ例が前記分
    類ネットワークに適用された場合、一つ又はそれ以上の列ベクトルを番地づけし
    、前記列ベクトルのセル値の決定手段が、前記既知のクラスの行に対応する前記
    番地づけされた列ベクトルのセルの値又は得票を増分するようになされ、前記値
    が好ましくは一つ増分されることを特徴とする請求項21から25のいずれか1
    項に記載のシステム。
  27. 【請求項27】 前記出力スコア関数及び/又は決定規則を調整する手段が
    、 列ベクトルのセル値の少なくとも一部に基づいて包括的品質値を決定し、 前記包括的品質値が所定の包括的品質基準を満たすかどうかを決定し、 前記包括的品質基準が満たされるまで、前記出力スコア関数及び/又は決定規
    則の少なくとも一部を調整するようになされていること を特徴とする請求項24から26のいずれか1項に記載のシステム。
  28. 【請求項28】 前記出力スコア関数及び決定規則を調整する手段が、 (a)サンプリングされたバリデーション入力例に応じて、前記番地づけされ
    たベクトルのセル値の少なくとも一部の関数である局所的品質値を決定し、 (b)前記局所的品質値が所定の局所的品質基準を満たすかどうかを決定し、 (c)前記局所的品質基準が満たされていない場合、前記出力スコア関数及び
    /又は決定規則の一つ又はそれ以上を調整し、 (d)トレーニング入力例の所定数だけ、前記局所的品質テストを繰り返し、 (e)前記局所的品質テストの間に番地づけされる列ベクトルの少なくとも一
    部に基づいて包括的品質値を決定し、 (f)前記包括的品質値が所定の包括的品質基準を満たすかどうかを決定し、 (g)前記包括的品質基準が満たされるまで、前記局所的及び包括的品質テス
    トを繰り返すようになされていること を特徴とする請求項24から27のいずれか1項に記載のシステム。
  29. 【請求項29】 前記出力スコア関数及び決定規則を調整する手段が、 所定の繰り返し数の後、前記包括的品質基準が満たされない場合には上記繰り返
    しプロセスを停止するようになされていることを特徴とする請求項27又は28
    に記載のシステム。
  30. 【請求項30】 前記n項組又はLUTを記憶する手段が、調整された出力
    スコア関数及び決定規則を記憶する手段と、それまでで最良の出力スコア関数及
    び決定規則又はそれまでで最良の分類システム構成値を記憶する分離手段とを含
    むことを特徴とする請求項21から29のいずれか1項に記載のシステム。
  31. 【請求項31】 前記出力スコア関数及び決定規則を調整する手段は、決定
    した包括的品質値が、以前に別々に記憶されたそれまでで最良の出力スコア関数
    及び決定規則に対応する包括的品質値よりも包括的品質基準を満たすのに近い場
    合、以前に別々に記憶されたそれまでで最良の出力スコア関数及び決定規則を、
    得られ、調整された出力スコア関数及び決定規則と置き換えるようになされてい
    ることを特徴とする請求項30記載のシステム。
  32. 【請求項32】 未知のクラスの入力データ例を複数のクラスのうちの少な
    くとも一つに分類するシステムにおいて、 各n項組又はルックアップテーブル(LUT)が少なくとも可能なクラスの数 のサブセットに対応する多数の行から成り、かつサンプリングされた入力デー タ例の信号又は要素によって番地づけられる多数の列ベクトルから成り、かつ トレーニング入力データ例の一つ又はそれ以上のセットに基づいて、トレーニ ングプロセスの間に、決定された、セル値を有する各列ベクトルから成るn項 組又はルックアップテーブルの数又はセットを記憶する記憶手段と、さらに バリデーション入力データ例の一つ又はそれ以上のセットに基づいて、トレー ニング又はバリデーションプロセスの間に各出力スコア関数及び/又は決定規 則が決定される、一つ又はそれ以上の出力スコア関数及び/又は一つ又はそれ 以上の決定規則を記憶する記憶手段と、 分類される入力データ例を受入れる入力手段と、 受入れた入力データ例をサンプリングし、列ベクトルを記憶されたn項組又は ルックアップテーブルのセットに番地づけする手段と、 特定のクラスに対応する特定の行をn項組又はLUTのセットに番地づけする 手段と、 記憶された出力スコア関数及び記憶された列ベクトル値の少なくとも一部を用 いて出力スコア値を決定する手段と、及び 出力スコア値及び記憶された決定規則に基づいて勝利クラスを決定する手段と を含むことを特徴とするシステム。
  33. 【請求項33】 請求項21から31のいずれか1項によるトレーニングシ
    ステムを用いて、前記列ベクトルのセル値及び前記分類システムの出力スコア関
    数及び/又は決定規則が決定されることを特徴とする請求項32に記載のシステ
    ム。
  34. 【請求項34】 請求項1から19のいずれか1項によるトレーニングプロ
    セスの間に、前記列ベクトルのセル値及び前記出力スコア関数及び/又は決定規
    則が決定されることを特徴とする請求項32に記載のシステム。
JP2000556291A 1998-06-23 1999-06-21 n項組又はRAMベース・ニューラルネットワーク分類システム及び方法 Pending JP2002519747A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DKPA199800883 1998-06-23
DK199800883 1998-06-23
PCT/DK1999/000340 WO1999067694A2 (en) 1998-06-23 1999-06-21 N-tuple or ram based neural network classification system and method

Publications (2)

Publication Number Publication Date
JP2002519747A true JP2002519747A (ja) 2002-07-02
JP2002519747A5 JP2002519747A5 (ja) 2006-08-03

Family

ID=8098603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000556291A Pending JP2002519747A (ja) 1998-06-23 1999-06-21 n項組又はRAMベース・ニューラルネットワーク分類システム及び方法

Country Status (12)

Country Link
US (1) US6999950B1 (ja)
EP (1) EP1093638B1 (ja)
JP (1) JP2002519747A (ja)
CN (1) CN1256700C (ja)
AT (1) ATE228691T1 (ja)
AU (1) AU753822B2 (ja)
CA (1) CA2335060C (ja)
DE (1) DE69904181D1 (ja)
IL (1) IL140397A0 (ja)
NZ (1) NZ508930A (ja)
PL (1) PL345044A1 (ja)
WO (1) WO1999067694A2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7478192B2 (en) * 2004-11-03 2009-01-13 Saffron Technology, Inc. Network of networks of associative memory networks
CN101639937B (zh) * 2009-09-03 2011-12-14 复旦大学 一种基于人工神经网络的超分辨率方法
CN106529609B (zh) * 2016-12-08 2019-11-01 郑州云海信息技术有限公司 一种基于神经网络结构的图像识别方法及装置
US11222260B2 (en) * 2017-03-22 2022-01-11 Micron Technology, Inc. Apparatuses and methods for operating neural networks
JP6718405B2 (ja) * 2017-03-31 2020-07-08 三菱重工業株式会社 情報提供装置、情報提供システム、情報提供方法及びプログラム
CN113918481A (zh) 2017-07-30 2022-01-11 纽罗布拉德有限公司 一种存储器芯片
CN109948632B (zh) * 2017-12-19 2021-03-26 杭州海康威视数字技术股份有限公司 数据训练方法、装置及系统、计算机设备
CN108595211B (zh) * 2018-01-05 2021-11-26 百度在线网络技术(北京)有限公司 用于输出数据的方法和装置
US11688160B2 (en) 2018-01-17 2023-06-27 Huawei Technologies Co., Ltd. Method of generating training data for training a neural network, method of training a neural network and using neural network for autonomous operations
US11836615B2 (en) 2019-09-20 2023-12-05 International Business Machines Corporation Bayesian nonparametric learning of neural networks
US11768916B2 (en) * 2019-12-11 2023-09-26 Paypal, Inc. Detection of sensitive database information
US11379601B2 (en) 2019-12-11 2022-07-05 Paypal, Inc. Detection of sensitive database information

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4975975A (en) 1988-05-26 1990-12-04 Gtx Corporation Hierarchical parametric apparatus and method for recognizing drawn characters
JPH02195400A (ja) * 1989-01-24 1990-08-01 Canon Inc 音声認識装置
GB9014569D0 (en) * 1990-06-29 1990-08-22 Univ London Devices for use in neural processing
DE4131387A1 (de) 1991-09-20 1993-03-25 Siemens Ag Verfahren zur erkennung von mustern in zeitvarianten messsignalen
US5359699A (en) 1991-12-02 1994-10-25 General Electric Company Method for using a feed forward neural network to perform classification with highly biased data
US5790754A (en) * 1994-10-21 1998-08-04 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
WO1997046929A2 (en) * 1996-06-04 1997-12-11 Werbos Paul J 3-brain architecture for an intelligent decision and control system
US6571227B1 (en) * 1996-11-04 2003-05-27 3-Dimensional Pharmaceuticals, Inc. Method, system and computer program product for non-linear mapping of multi-dimensional data
DK0935212T3 (da) * 1998-02-05 2002-02-25 Intellix As n-tupel- eller RAM-baseret neuralt netværksklassifikationssystem og fremgangsmåde
US6238342B1 (en) * 1998-05-26 2001-05-29 Riverside Research Institute Ultrasonic tissue-type classification and imaging methods and apparatus

Also Published As

Publication number Publication date
DE69904181D1 (de) 2003-01-09
CN1313975A (zh) 2001-09-19
PL345044A1 (en) 2001-11-19
IL140397A0 (en) 2002-02-10
EP1093638B1 (en) 2002-11-27
WO1999067694A2 (en) 1999-12-29
NZ508930A (en) 2002-12-20
US6999950B1 (en) 2006-02-14
ATE228691T1 (de) 2002-12-15
AU4498699A (en) 2000-01-10
AU753822B2 (en) 2002-10-31
CN1256700C (zh) 2006-05-17
CA2335060A1 (en) 1999-12-29
WO1999067694A3 (en) 2000-02-10
EP1093638A2 (en) 2001-04-25
CA2335060C (en) 2009-09-01

Similar Documents

Publication Publication Date Title
Firpi et al. Swarmed feature selection
US5263124A (en) Method for producing a binary tree, pattern recognition and binary vector classification method using binary trees, and system for classifying binary vectors
JPH04229384A (ja) パターン認識用ニューラルネットワーク装置及び方法
CN111950656B (zh) 图像识别模型生成方法、装置、计算机设备和存储介质
Yu et al. Complex-valued full convolutional neural network for SAR target classification
JP2002519747A (ja) n項組又はRAMベース・ニューラルネットワーク分類システム及び方法
US11914448B2 (en) Clustering device and clustering method
US5446829A (en) Artificial network for temporal sequence processing
Adamczak et al. New developments in the feature space mapping model
CN113139651A (zh) 基于自监督学习的标签比例学习模型的训练方法和设备
CN113744251A (zh) 基于自注意力机制从病理图片预测微卫星不稳定性的方法
EP0935212B1 (en) N-Tuple or ram based neural network classification system and method
CN111507396B (zh) 缓解神经网络对未知类样本产生错误分类的方法及装置
Junco et al. Using the Adaboost algorithm to induce fuzzy rules in classification problems
JP2002503002A (ja) N−タプル又はramベースのニューラルネットワーク分類システム及び方法
WO2022199148A1 (zh) 分类模型的训练及图像分类方法、电子设备及存储介质
CN113177627B (zh) 优化系统、重新训练系统及其方法及处理器和可读介质
CN111860673B (zh) 基于分箱置信度筛选深度森林的机器学习分类方法
Randall et al. Investigations of the self organising tree map
KR20040014577A (ko) 인공 신경망에서 프로토타입의 수를 실질적으로증가시키는 방법 및 그 회로
CN113221676B (zh) 基于多维度特征的目标追踪方法及装置
CN117892838A (zh) 基于特征选择的增量宽度学习方法及系统
CN113269796A (zh) 一种图像分割方法、装置及终端设备
Wang Vector Quantization on RGBD image using Simulated Grossberg Network and Modified ART2 Network
Austin Rapid learning with a hybrid neural network

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060616

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223