JP2822909B2 - データ分類装置 - Google Patents

データ分類装置

Info

Publication number
JP2822909B2
JP2822909B2 JP4153995A JP4153995A JP2822909B2 JP 2822909 B2 JP2822909 B2 JP 2822909B2 JP 4153995 A JP4153995 A JP 4153995A JP 4153995 A JP4153995 A JP 4153995A JP 2822909 B2 JP2822909 B2 JP 2822909B2
Authority
JP
Japan
Prior art keywords
reference vector
data
learning
unit
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP4153995A
Other languages
English (en)
Other versions
JPH08235154A (ja
Inventor
伸克 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP4153995A priority Critical patent/JP2822909B2/ja
Publication of JPH08235154A publication Critical patent/JPH08235154A/ja
Application granted granted Critical
Publication of JP2822909B2 publication Critical patent/JP2822909B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、複数のデータを自動分
類するデータ分類装置に関する。
【0002】
【従来の技術】コンピュータの最も重要な用途の一つと
してデータの自動分類がある。例えば、コンピュータ上
のデータベースに入力された顧客のデータを基に、顧客
の購買活動の予測等にデータ分類装置が利用されてお
り、現代社会には不可欠な技術となっている。このよう
に、産業上重要な技術となったデータ分類装置である
が、一般のデータ分類装置は、分類データに正規分布等
の分布構造がない場合は十分な性能を発揮することはで
きない。これに対し、LVQやBPといったニューラル
ネットワークを用いたデータ分類装置は、分類データに
特定の分布構造の想定を必要とせず、任意のデータに対
して適用可能な優れた分類装置である。
【0003】この中でもLVQを利用したデータ分類装
置(以下LVQデータ分類装置と呼ぶ)は、分類を目的
としたニューラルネットワークであり、高い性能を得る
ことが可能である。さらに、他のニューラルネットワー
クを用いた分類装置と比較して、その構造を単純化する
ことが容易であり、データの学習ならびに分類に要する
時間が大幅に節約できるという利点を持った優れた分類
装置である。
【0004】このLVQ分類装置では学習ベクトル量子
化法というアルゴリズムに基づいて、学習ならびに分類
を行っている。このアルゴリズムを用いて学習を行う場
合、まず、学習に用いるデータ(以下学習データと呼
ぶ)をそのデータ数より少ない個数で代表する例である
参照ベクトルを乱数に基づいて生成する。次に、この参
照ベクトルが学習データの典型例となるように繰り返し
修正を行う(この過程は学習と呼ばれる)。以上によっ
て、データの分類を可能にする。修正アルゴリズムとし
ては扱うデータがN次元の場合、例えば、ある学習デー
タXa =(xa1,xa2,・・・,xaN),(1≦a≦
J,Jは学習データの個数)、に対して、全ての参照ベ
クトルMk =(mk1,mk2,・・・,mkN),(k=
1,2,・・・,K,Kは参照ベクトルの個数)、との
距離を計算し、最近接である参照ベクトルMb (1≦b
≦K)を特定し、その値を修正する。推定時には、分類
対象データ(以下未知データと呼ぶ)に対してこの修正
済の参照ベクトルの中で最近接のものを探索し、その属
性を未知データの属性とする。この属性を以下ではカテ
ゴリと呼ぶ。
【0005】図6は、前述した従来用いられていたLV
Qデータ分類装置の構成を示したブロック図である。以
下、この図面を用いてこの装置を説明する。
【0006】学習データ記憶部10は、学習データを記
憶し学習ベクトル量子化部18から参照を受ける。参照
ベクトル設定部23では、乱数を用いて参照ベクトルを
発生し、参照ベクトル記憶部12に送る。参照ベクトル
記憶部ではこの参照ベクトルを一時的に記憶し、学習ベ
クトル量子化部18から参照を受ける。
【0007】学習ベクトル量子化部18では、学習デー
タ記憶部10から学習データを、また参照ベクトル記憶
部12から参照ベクトルを参照し、学習ベクトル量子化
のアルゴリズムにしたがって、参照ベクトルの修正を繰
り返す。修正が終わった参照ベクトルは推定部19に送
られる。
【0008】推定部19では、学習ベクトル量子化部1
8から修正済参照ベクトルを受け取り、未知データを得
て、未知データと最近接の修正済参照ベクトルの属性を
分類結果として出力する。
【0009】なお、学習ベクトル量子化のアルゴリズム
については、例えば「ザ・セルフ・オーガナイズイング
・マップ、プロシーディング・オブ・アイ・トリプル・
イー、第78巻、第9号」(T.Kohonen:Th
e Self−Organizing Map,Pro
c.IEEE,Vol.78,No.9,Septem
ber,1990)に詳しい。
【0010】
【発明が解決しようとする課題】しかしながら、上述の
装置では、参照ベクトル設定部が設定する参照ベクトル
の初期値の分布と学習データの分布に関連がないため、
(a)分類精度にバラツキが多い(b)学習回数等を最
適値に設定することが困難という問題があった。これら
は、参照ベクトルの初期値を乱数を用いて設定している
ことが原因と考えられる。
【0011】本発明が解決しようとする課題は、学習デ
ータの分布に基づいて参照ベクトルを選択することによ
り、安定して高速・高性能な分類を実現するLVQを用
いたデータ分類装置を提供することにある。
【0012】
【0013】
【課題を解決するための手段】の発明は、学習デー
タを受け取り記憶する学習データ記憶部と、参照ベクト
ルを受け取り記憶する参照ベクトル記憶部と、前記学習
データ記憶部を参照して学習データを、前記参照ベクト
ル記憶部を参照して参照ベクトルをそれぞれ得て、学習
ベクトル量子化のアルゴリズムにより参照ベクトルの修
正を行う学習ベクトル量子化部と、 前記学習ベクトル
量子化部から前記参照ベクトルを受け取り、未知データ
を得て、未知データを分類する推定部とを有する、性質
の異なる少なくとも2種以上のデータをその性質ごとに
分類する、データ分類装置において、前記学習データを
受け取り、前記参照ベクトルを選択する参照ベクトル選
択部と、前記参照ベクトル記憶部を参照して前記参照ベ
クトルを、前記学習データ記憶部を参照して前記学習デ
ータを得て、その学習データに対応する参照ベクトルを
探索し、その学習データのラベルと参照ベクトルのラベ
ルを出力する最近接参照ベクトル探索部と、前記最近接
参照ベクトル探索部から前記参照ベクトルのラベルを受
け取り、修正する参照ベクトルを選択し、その参照ベク
トルのラベルを出力する被修正参照ベクトル選択部と、
前記参照ベクトル記憶部を参照して被修正参照ベクトル
のラベルに対応した参照ベクトルのデータを得て、この
参照ベクトルを修正する参照ベクトル修正部と、前記最
近接参照ベクトル探索部から最近接である学習データと
参照ベクトルのラベルの組を受け取って、学習データを
それぞれの最近接参照ベクトルに対応して分類する学習
データ分類部と、前記参照ベクトル記憶部を参照して前
記参照ベクトルを得て、前記学習データ分類部から各参
照ベクトルに対応して分類した学習データを受け取っ
て、各々の参照ベクトルのカテゴリ付きの参照ベクトル
を出力するカテゴリ決定部と、を備えることを特徴と
【0014】第2の発明は、第1の発明において、前記
学習データ分類部から前記各参照ベクトルを最近接とす
る学習データの集合を受け取り、複製および削除する前
記参照ベクトルのラベルを出力する複製・削除判定部
と、前記参照ベクトル記憶部を参照して複製および削除
する前記参照ベクトルのラベルを得て、参照ベクトルの
複製および削除を行い、新たな参照ベクトルを出力する
複製・削除部とを、さらに備えることを特徴とする。
【0015】第3の発明は、第1または第2の発明にお
いて、前記学習ベクトル量子化部から前記参照ベクトル
を受け取り、あらかじめ設定した条件に適合しているか
否かを判定し、前記参照ベクトルを条件に適合していな
ければ学習ベクトル量子化部に戻し、条件に適合してい
れば前記参照ベクトルデータを出力する収束判定部を、
さらに備えることを特徴とする。
【0016】
【作用】本発明においては、学習データの中から参照ベ
クトルの初期値を選択することによって、分類精度向上
に貢献しない参照ベクトルが選ばれることを防いでい
る。
【0017】また、参照ベクトルの初期値を学習データ
の個数、分布密度およびカテゴリに応じて自動的に決定
することにより、分布の把握が困難な学習データを持つ
応用にも高精度なデータ分類を行うことができる。
【0018】さらに、学習ベクトル量子化部における参
照ベクトルの修正の状態を調べて、学習回数を自動的に
決定するために、最短の時間で学習を終了することがで
きる。
【0019】
【実施例】以下では、人間の脳内で1個または複数個の
部位が活動していると仮定される場合に、頭皮上で計測
される脳波データからその活動部位の個数を推定する例
についての本データ分類装置の動作を説明する。このと
き、脳波データ(電場データ)のかわに磁場データを用
いてもよい。この推定問題は以下に示すとおりに、デー
タ分類として捉えることができる。人間の脳内活動は電
気的な活動であり、その活動部位は頭皮上で計測される
脳波データの源泉として仮定された双極子として捉える
ことができる。したがって、頭皮上で計測される脳波デ
ータから脳内の活動部位の個数を推定する問題は、計測
した脳波データをそのもととなった双極子の個数に応じ
て分類する問題として捉えることができる。
【0020】図1は、本発明に関連する技術の構成例
示したブロック図である。以下この例を本発明に関連す
る技術の例と呼ぶ。
【0021】このデータ分類装置は、学習データ記憶部
10と、参照ベクトル選択部11と、参照ベクトル記憶
部12と、学習ベクトル量子化部18と、推定部19と
から構成されている。
【0022】学習データ記憶部10は、双極子の個数、
位置、モーメントからなる双極子の学習データを受け取
り、これに一意なラベル例えば番号をつけて記憶する。
【0023】参照ベクトル選択部11は、学習データ記
憶部10から学習データを受け取り、その一部を参照ベ
クトルとして選択し、参照ベクトル記憶部12に送る。
この選択方法としては例えば、乱数を発生させてその乱
数をラベルの番号に持つ学習データを選択する、あるい
は各カテゴリから数個ずつの学習データを選択する等の
方法がある。
【0024】参照ベクトル記憶部12は、記憶している
参照ベクトルがあらかじめ設定した条件に満たない場合
に参照ベクトル要求信号を学習データ記憶部10に送
り、参照ベクトル選択部11から参照ベクトルを受け取
り、これを記憶する。その条件とは、例えば各カテゴリ
に対して一定数以上の参照ベクトルが存在することある
いは、各カテゴリの学習データ数に対して一定比率以上
の個数の参照ベクトルが存在すること等である。また、
参照ベクトル記憶部12は、参照ベクトルがあらかじめ
設定した条件を満たすと、参照ベクトルを学習ベクトル
量子化部16に送る。その条件とは、例えば一定回数の
参照ベクトルの修正を行うこと等である。
【0025】学習ベクトル量子化部18は、学習データ
記憶部10を参照して学習データを、参照ベクトル記憶
部12を参照して参照ベクトルをそれぞれ得て、学習ベ
クトル量子化のアルゴリズムにより参照ベクトルの修正
を繰り返し、修正された参照ベクトルを推定部19に送
る。学習ベクトル量子化のアルゴリズムは扱うデータの
次元数がNのとき、ある学習データXa =(xa1
a2,・・・,xaN)(1≦a≦J,Jは学習データの
個数)、に対して、あらかじめ定義された距離で最近接
である参照ベクトルMb =(mb1,mb2,・・・,
bN)(1≦b≦K,Kは参照ベクトルの個数)、を探
索し、その参照ベクトルMb に限って修正を行う。ここ
で用いる距離とは、例えばユークリッド距離あるいはマ
ンハッタン距離等である。参照ベクトルMb =(mb1
b2,・・・,mbN),の要素mbN(n=1,2,・・
・,N)の修正の方法は次の修正式に従う。学習データ
j と参照ベクトルMk のカテゴリが等しい場合は、 mbn(t+1)=mbn(t)+α(t)(xan(t)−
bn(t)) 学習データXj と参照ベクトルMk のカテゴリが異なる
場合は、 mbn(t+1)=mbn(t)−α(t)(xan(t)−
bn(t)) ここで、α(t)は、学習係数であり学習が進むにつれ
て徐々に0に近づく。学習ベクトル量子化のアルゴリズ
ムについては、例えば「ザ・セルフ・オーガナイズイン
グ・マップ、プロシーディング・オブ・アイ・トリプル
・イー、第78巻、第9号」(T.Kohonen:T
he Self−OrganizingMap,Pro
c.IEEE,Vol.78,No.9,Septem
ber,1990)に詳しい。
【0026】推定部19は、学習ベクトル量子化部18
から参照ベクトルを受け取り、未知の電磁場データを得
て、分類推定を行う。この推定方法としては例えば、前
記同様あらかじめ定義した距離上で最近接の参照ベクト
ルのカテゴリを未知データのカテゴリとする、あるいは
近接の参照ベクトルのカテゴリのうち最多数のものを未
知データのカテゴリとする等の方法がある。
【0027】以上の各部を用いて、双極子の個数が既知
である頭皮上の電磁場データを学習データとして、その
学習データの中から選択した参照ベクトルを用いて、学
習ベクトル量子化のアルゴリズムにより学習を行い、そ
の学習後の参照ベクトルを用いて、双極子の個数が未知
の電磁場データを双極子の個数に対応するカテゴリに分
類することができる。
【0028】前記学習データ記憶部10、参照ベクトル
記憶部12は、例えば磁気ディスク装置、半導体メモリ
記憶装置などを用いて実現することができる。
【0029】前記参照ベクトル選択部11、学習ベクト
ル量子化部18、推定部19は、例えば日本電気(株)
製のPC−9801シリーズ等のパーソナル・コンピュ
ータ、日本電気(株)製のEWS4800等のエンジニ
アリング・ワークステーション等を用いて実現すること
ができる。
【0030】図2は、第の発明の一実施例の構成を示
したブロック図である。以下この実施例を第の実施例
と呼ぶ。
【0031】このデータ分類装置は、学習データ記憶部
10と、参照ベクトル選択部11と、参照ベクトル記憶
部12と、最近接参照ベクトル探索部13と、被修正参
照ベクトル選択部14と、参照ベクトル修正部15と、
学習データ分類部16と、カテゴリ決定部17と、学習
ベクトル量子化部18と、推定部19とから構成されて
いる。
【0032】学習データ記憶部10は、双極子の個数、
位置、モーメントからなる双極子の学習データを受け取
り、これに一意なラベル例えば番号をつけて記憶する。
【0033】参照ベクトル選択部11は、学習データ記
憶部10から学習データを受け取り、その一部を参照ベ
クトルとして選択し、参照ベクトル記憶部12に送る。
この選択方法としては例えば、乱数を発生させてその乱
数をラベルの番号に持つ学習データを選択する。あるい
は各カテゴリから数個ずつの学習データを選択する等の
方法がある。
【0034】参照ベクトル記憶部12は、記憶している
参照ベクトルがあらかじめ設定した条件に満たない場合
に参照ベクトル要求信号を学習データ記憶部10に送
り、参照ベクトル選択部11から参照ベクトルを受け取
り、これを記憶する。その条件とは、例えば各カテゴリ
に対して一定数以上の参照ベクトルが存在することある
いは、各カテゴリの学習データ数に対して一定比率以上
の個数の参照ベクトルが存在すること等である。また、
参照ベクトル記憶部12は、被修正参照ベクトル選択部
14から修正する参照ベクトルのラベルを受け取り、そ
のラベルを持つ参照ベクトルを参照ベクトル修正部15
に送る。さらに、参照ベクトル記憶部12は、参照ベク
トルがあらかじめ設定した条件を満たすと、参照ベクト
ルを学習ベクトル量子化部16に送る。その条件とは、
例えば一定回数の参照ベクトルの修正を行うこと等であ
る。
【0035】最近接参照ベクトル探索部13は、学習デ
ータ記憶部10を参照して学習データを、参照ベクトル
記憶部12を参照して参照ベクトルをそれぞれ得て、そ
の学習データにあらかじめ定義した距離を用いて最近接
の参照ベクトルを探索し、その参照ベクトルを被修正参
照ベクトル選択部14に、最近接となった学習データの
ラベルと参照ベクトルのラベルの組を学習データ分類部
16に送る。用いる距離としては例えば、ユークリッド
距離、マンハッタン距離等がある。
【0036】被修正参照ベクトル選択部14は、最近接
参照ベクトル探索部13からある学習データに最近接な
参照ベクトルデータを受け取り、修正を施す参照ベクト
ルをある方法で決定し、その参照ベクトルのラベルを参
照ベクトル記憶部12に送る。その修正を施す参照ベク
トルを選択する方法としては例えば、各参照ベクトルを
2次元の座標に写像し、その2次元座標で最近接参照ベ
クトルを中心とする一定範囲の参照ベクトルを選択する
方法等がある。
【0037】参照ベクトル修正部15は、学習データ記
憶部10を参照して学習データを、参照ベクトル記憶部
12を参照して修正する参照ベクトルをそれぞれ得て、
参照ベクトルを修正し、修正した参照ベクトルを参照ベ
クトル記憶部12に送る。この修正は、例えば次の様に
行う。扱うデータがN次元の場合、ある学習データXa
=(xa1,xa2,・・・,xaN)(1≦a≦J,Jは学
習データの個数)、Xa に最近接である参照ベクトル
を、Mb =(mb1,mb2,・・・,mbN)(1≦b≦
K,Kは学習データの個数)とするとき、その参照ベク
トルMb の要素mbN (n=1,2,・・・,N)の修正
式は、次のようになる。 mbn(t+1)=mbn(t)+α(t)(xan(t)−
bn(t)) ここで、α(t)は、学習係数であり学習が進むに連れ
て徐々に0に近づく。
【0038】学習データ分類部16は、最近接参照ベク
トル探索部13から最近接である学習データと参照ベク
トルの組を受け取り、参照ベクトルごとに学習データを
分類する。
【0039】カテゴリ決定部17は、学習データ分類部
16から参照ベクトルごとに分類された学習データを受
け取って、各参照ベクトルのカテゴリを決定する。その
カテゴリ決定方法としては例えば、参照ベクトルごとに
分類された学習データのカテゴリによる多数決などの方
法がある。
【0040】学習ベクトル量子化部18は、学習データ
記憶部10を参照して学習データを、参照ベクトル記憶
部12を参照して参照ベクトルをそれぞれ得て、学習ベ
クトル量子化のアルゴリズムにより参照ベクトルの修正
を繰り返し、修正された参照ベクトルを推定部19に送
る。学習ベクトル量子化のアルゴリズムは扱うデータの
次元数がNのとき、ある学習データXa =(xa1
a2,・・・,xaN)(1≦a≦J,Jは学習データの
個数)、に対して、あらかじめ定義された距離で最近接
である参照ベクトルMb =(mb1,mb2,・・・,
bN)(1≦b≦K,Kは参照ベクトルの個数)、を探
索し、その参照ベクトルMb に限って修正を行う。ここ
で用いる距離とは、例えばユークリッド距離あるいはマ
ンハッタン距離等である。参照ベクトルMb =(mb1
b2,・・・,mbN),の要素mbN(n=1,2,・・
・,N)の修正の方法は次の修正式に従う。学習データ
j と参照ベクトルMk のカテゴリが等しい場合は、 mbn(t+1)=mbn(t)+α(t)(xan(t)−
bn(t)) 学習データXj と参照ベクトルMk のカテゴリが異なる
場合は、 mbn(t+1)=mbn(t)−α(t)(xan(t)−
bn(t)) ここで、α(t)は、学習係数であり学習が進むにつれ
て徐々に0に近づく。学習ベクトル量子化のアルゴリズ
ムについては、例えば「ザ・セルフ・オーガナイズイン
グ・マップ、プロシーディング・オブ・アイ・トリプル
・イー、第78巻、第9号」(T.Kohonen:T
he Self−OrganizingMap,Pro
c.IEEE,Vol.78,No.9,Septem
ber,1990)に詳しい。
【0041】推定部19は、学習ベクトル量子化部18
から参照ベクトルを受け取り、未知の電磁場データを得
て、分類推定を行う。この推定方法としては例えば、前
記同様あらかじめ定義した距離上で最近接の参照ベクト
ルのカテゴリを未知データのカテゴリとする、あるいは
近接の参照ベクトルのカテゴリのうち最多数のものを未
知データのカテゴリとする等の方法がある。
【0042】以上の各部を用いて、双極子の個数が既知
である頭皮上の電磁場データを学習データとして、その
学習データの中から選択した参照ベクトルの分布を学習
データの分布の特徴に適合させてから学習ベクトル量子
化のアルゴリズムにより学習を行い、その学習後の参照
ベクトルを用いて、双極子の個数が未知の電磁場データ
を双極子の個数に対応するカテゴリに分類することがで
きる。
【0043】次に図2を用いて、脳波計で計測したNチ
ャネル(N個の電極で計測した)の脳波データ(N次元
の電場データ、電位差)を脳内の双極子の(活動部位)
個数l(1≦l≦L)に対応するカテゴリに分類する場
合のより具体的な説明を行う。
【0044】まず、学習データつまり源泉となる双極子
の個数が明らかである頭皮上の脳波(電場)データを計
算する。学習データXj =(xj1,xj2,・・・,
jN)(j=1,2,・・・,J,Jは学習データの個
数)、の各要素xjn(n=1,2,・・・,N)は、次
式で表すことができる。
【0045】 xjn=Σl=1 Lψjn(pl )Sl ,(1≦l≦L) ここで、ψjn(pl ):チャネル(電極)nにおける電
位差であり、pl の関数、 pl :l番目の双極子を表すパラメタ、 Sl :ある時刻におけるl番目の双極子による振幅値で
ある。 ψjn、Sl の具体的な式は、「ザ・ポテンシャル・ディ
ストリビューション・イン・ア・レイヤード・アニソト
ロピィック・スフェロイダル・ヴォリューム・コンダク
タ、ジャーナル・オブ・アプライド・フィジックス、6
4(2)巻」(J.C.de Munck,The p
otential distribution in
a layered anisotropic sph
er oidal volume conducto
r,Journal of Applied Phys
ics.64(2),15 July 1988)に詳
しい。
【0046】N次元の学習データの例を図7に示す。学
習には図7に示すような学習データを十分な個数、例え
ばJ個用意する。
【0047】学習データ記憶部10は、前記学習データ
を記憶する。記憶する際に学習データXj (j=1,
2,・・・,J)に一意なラベルをつける。このラベル
は、例えば番号j(j=1,2,・・・,J)で代用で
きる。
【0048】次に参照ベクトル選択部11は前記学習デ
ータ記憶部10を参照して、記憶している学習データX
j (j=1,2,・・・,J)の中から参照ベクトルと
して用いるデータMk =(mk1,mk2,・・・,
kN),(k=1,2,・・・,K,K(<J)は参照
ベクトルの個数)を選択する。その選択方法は、例えば
乱数を発生して、その乱数に等しい番号(ラベル)の付
いた学習データを選択する方法がある。参照ベクトル
は、学習データから選択するので形式は図7の学習デー
タと同様である。
【0049】参照ベクトル記憶部12は、前記参照ベク
トル選択部11で選択された参照ベクトルMk を記憶す
る。参照ベクトル記憶部12は、記憶している参照ベク
トルがあらかじめ設定した条件に満たない場合に参照ベ
クトル要求信号を前記学習データ記憶部10に送り、前
記参照ベクトル選択部11から新たな参照ベクトルを受
け取り、これを記憶する。このときの条件としては例え
ば、各カテゴリの学習データの個数を調べて、カテゴリ
ごとに学習データの数の1/H(Hは定数)の個数の参
照ベクトルを用意する、等がある。
【0050】あらかじめ設定した条件にあったK個の参
照ベクトルMk =(mk1,mk2,・・・,mkN),(k
=1,2,・・・,K)が用意できると以下の方法で参
照ベクトルを学習データの分布密度およびカテゴリに適
合させる。
【0051】最近接参照ベクトル探索部13は、学習デ
ータ記憶部10を参照して学習データXj =(xj1,x
j2,・・・,xjN)(j=1,2,・・・,J)を、参
照ベクトル記憶部12を参照して参照ベクトル、Mk
(mk1,mk2,・・・,mkN),(k=1,2,・・
・,K)をそれぞれ得て、学習データに最近接である参
照ベクトルを探索する。最近接参照ベクトルとは、学習
データに対して全ての参照ベクトルとの間の距離、例え
ばユークリッド距離等を計算して、その距離が最小であ
る参照ベクトルである。例えば、ある学習データXa
(xa1,xa2,・・・,xaN),(1≦a≦J,Jは学
習データの個数)、参照ベクトルMb =(mb1,mb2
・・・,mbN),(1≦b≦K,Kは参照ベクトルの個
数)、の間のユークリッド距離は式 √((xa1−mb12 +(xa2−mb22 +・・・+(xaN−mbN2 )(1) で表されるので式(1)が最小になる参照ベクトルが、
この学習データに対する最近接参照ベクトルである。こ
こで、ユークリッド距離の代わりにマンハッタン距離等
の他の距離を用いても良い。
【0052】被修正参照ベクトル選択部14は、最近接
参照ベクトル探索部13からある学習データXa (1≦
a≦J)に最近接な参照ベクトルMb (1≦b≦K)を
受け取り、被修正参照ベクトルをある方法で選択して、
その参照ベクトルのラベルを参照ベクトル記憶部12に
送る。被修正参照ベクトルを選択する方法としては例え
ば、各参照ベクトルMk (k=1,2,・・・,K)を
2次元の座標に写像し、その2次元座標上で最近接参照
ベクトルを中心とする一定範囲の参照ベクトルを選択す
る方法等がある。被修正参照ベクトルの選択例を図8で
説明する。100個の参照ベクトルを(1,1)〜(1
0,10)の2次元座標に1対1写像する。最近接参照
ベクトルの2次元座標が(5,5)であり、修正する参
照ベクトルの選択範囲が4であるとき、被修正参照ベク
トルは図8の内側の長方形に囲まれた、(2,2),・
・・,(9,2),(2,3),・・・,(9,3),
・・・,(2,9),・・・,(9,9)である。
【0053】参照ベクトル修正部15は、学習データ記
憶部10を参照して学習データを、参照ベクトル記憶部
12を参照して修正する参照ベクトルをそれぞれ得て、
該当する参照ベクトルを修正し、修正した参照ベクトル
を参照ベクトル記憶部12に送る。この修正は、例えば
次の様に行う。ある学習データXa =(xa1,xa2,・
・・,xaN)(1≦a≦J,Jは学習データの個数)、
に最近接である参照ベクトルMb =(mb1,mb2,・・
・,mbN),(1≦b≦K,Kは参照ベクトルの個
数)、であるとき、参照ベクトルMb の要素mbn(n=
1,2,・・・,N)の修正式は、次のようになる。 mbn(t+1)=mbn(t)+α(t)(xan(t)−
bn(t)) ここで、α(t)は、学習係数であり、例えば0.2な
どの初期値から修正が進むにつれて徐々に0に近づく。
学習係数の修正法は例えば次式で示される。
【0054】α(t)=α(0)(1−t/T) ここで、Tは全学習回数、tは学習ステップ数、α
(0)は学習係数の初期値である。
【0055】前記参照ベクトル記憶部12、最近接参照
ベクトル探索部13、被修正参照ベクトル探索部14、
参照ベクトル修正部15による参照ベクトルの修正は、
あらかじめ決めた条件、例えば定数回修正する等、を満
たすまで繰り返される。この参照ベクトルの修正によっ
て、参照ベクトルの分布密度が学習データの分布密度に
適応する。
【0056】学習データ分類部16は、最近接参照ベク
トル探索部13から学習データとそれに最近接である参
照ベクトルとの組を受け取り、参照ベクトルごとに学習
データを分類する。その分類法としては例えば、次の方
法がある。前記最近接参照ベクトル探索部13によって
学習データには最近接となる参照ベクトルが探索されて
いる。したがって、最近接参照ベクトルごとに学習デー
タを分類することが可能である。
【0057】カテゴリ決定部17は、学習データ分類部
16から参照ベクトルごとに分類された学習データを受
け取って、各参照ベクトルのカテゴリを決定する。その
カテゴリ決定方法としては例えば、各参照ベクトルに対
応する学習データのカテゴリによる多数決等の方法があ
る。
【0058】ここまでで、学習データの分布密度に加え
て、カテゴリに適応した参照ベクトルが用意できてい
る。この参照ベクトルを学習ベクトル量子化部18に渡
す。
【0059】学習ベクトル量子化部18は、学習データ
記憶部10を参照して学習データを、参照ベクトル記憶
部12を参照して参照ベクトルをそれぞれ得て、学習ベ
クトル量子化のアルゴリズムにより学習を行い、その結
果の参照ベクトルを推定部19に送る。学習ベクトル量
子化のアルゴリズムは、ある学習データXa =(xa1
a2,・・・,xaN)(1≦a≦J,Jは学習データの
個数)、に対して、あらかじめ定義された距離で最近接
である参照ベクトルを探索し、その参照ベクトルに限っ
て修正を行う。最近接参照ベクトルの探索方法は前記最
近接参照ベクトル選択部13と同様である。ここで用い
る距離とは、例えばユークリッド距離あるいはマンハッ
タン距離等である。学習データXa に最近接である参照
ベクトルがMb =(mb1,mb2,・・・,mbN),(1
≦b≦K,Kは参照ベクトルの個数)の修正式は、次の
ようになる。学習データと参照ベクトルのカテゴリが等
しい場合は、 mbn(t+1)=mbn(t)+α(t)(xan(t)−
bn(t)) 学習データと参照ベクトルのカテゴリが異なる場合は、 mbn(t+1)=mbn(t)−α(t)(xan(t)−
bn(t)) この修正を全学習データXk (k=1,2,・・・,
K)に対して、定数回繰り返す。この参照ベクトルの修
正の繰り返しを学習と呼ぶ。ここで、α(t)は、学習
係数であり例えば0.01などの初期値から学習が進む
につれて徐々に0に近づく。学習係数の修正法は例えば
次式で示される。
【0060】α(t)=α(0)(1−t/T) ここで、Tは全学習回数、tは学習ステップ数、α
(0)は学習係数の初期値である。学習ベクトル量子化
のアルゴリズムについては、例えば「ザ・セルフ・オー
ガナイズイング・マップ、プロシーディング・オブ・ア
イ・トリプル・イー、第78巻、第9号」(T.Koh
onen:TheSelf−Organizing M
ap,Proc.IEEE,Vol.78,No.9,
September,1990)に詳しい。
【0061】前記学習ベクトル量子化部18によって学
習された参照ベクトルは推定部19に渡される。
【0062】推定部19は、学習ベクトル量子化部18
から参照ベクトルを受け取り、新たに計測した源泉とな
る双極子(脳内活動部位)の個数が未知である脳波(電
場)データを得て、その双極子の個数l(1≦l≦L)
を推定する。つまり、その新たな脳波データを脳内の双
極子の個数lに対応するカテゴリに分類する。ここで用
いられる推定方法としては参照ベクトルのカテゴリは既
知であることから、例えばあらかじめ定義した距離上で
最近接の参照ベクトルを前記同様に探索して、そのカテ
ゴリを未知データのカテゴリとする方法が考えられる。
あるいは近接の参照ベクトルのカテゴリのうち最多数の
ものを未知データのカテゴリとする等の方法等もある。
【0063】前記学習データ記憶部10、参照ベクトル
記憶部12は、例えば磁気ディスク装置、半導体メモリ
記憶装置などを用いて実現することができる。
【0064】前記参照ベクトル選択部11、最近接参照
ベクトル探索部13、被修正参照ベクトル選択部14、
参照ベクトル修正部15、学習データ分類部16、カテ
ゴリ決定部17、学習ベクトル量子化部18、推定部1
9は、例えば日本電気(株)製のPC−9801シリー
ズ等のパーソナル・コンピュータ、日本電気(株)製の
EWS4800等のエンジニアリング・ワークステーシ
ョン等を用いて実現することができる。
【0065】図3は、第の発明の一実施例の構成を示
したブロック図である。以下この実施例を第の実施例
と呼ぶ。
【0066】このデータ分類装置は、図2に示す第
実施例の構成部分に加えて、複製・削除判定部20と、
複製・削除部21を付加して構成されている。
【0067】複製・削除判定部20は、あらかじめ設定
した条件、例えば一定回数の参照ベクトルの修正を行
う、各参照ベクトルの修正量がある値以下になる、等を
満たすと学習データ分類部16から各参照ベクトルを最
近接とした学習データの集合を受け取って、複製または
削除する参照ベクトルを、あらかじめ設定した条件で選
択し、複製または削除する参照ベクトルのラベルを参照
ベクトル記憶部12に送る。このときの条件としては例
えば、ある参照ベクトルを最近接とする学習データの個
数がある個数以上のときは複製し、そのような学習デー
タが1つもない場合には削除する等が考えられる。
【0068】複製・削除部21は、参照ベクトル記憶部
12が前記複製・削除判定部20から受け取ったラベル
に対応する参照ベクトルつまり、複製または削除する参
照ベクトルを受け取り、それぞれ複製または削除を行
う。
【0069】複製・削除判定部20、複製・削除部21
を付け加えることにより、分布密度、カテゴリに加えて
個数も学習データに適合した参照ベクトルを用いて、学
習ベクトル量子化のアルゴリズムにより学習することが
できる。
【0070】前記複製・削除判定部20、複製・削除部
21は、例えば日本電気(株)製のPC−9801シリ
ーズ等のパーソナル・コンピュータ、日本電気(株)製
のEWS4800等のエンジニアリング・ワークステー
ション等を用いて実現することができる。
【0071】図4は、第の発明の一実施例の構成を示
したブロック図である。
【0072】このデータ分類装置は、図2に示す第
実施例の構成部分に加えて、収束判定部22を付加して
構成されている。
【0073】収束判定部22は、学習ベクトル量子化部
18から参照ベクトルを受け取り、これがあらかじめ設
定した条件を満たしている場合には参照ベクトルを推定
部19に送る。参照ベクトルが、あらかじめ設定した条
件を満たしていない場合は、参照ベクトルを学習ベクト
ル量子化部18に送る。このときの条件としては例え
ば、全参照ベクトルの修正量の和の変化がある値以下で
ある、あるいはいったん推定部19に参照ベクトルを送
り、その求める分類性能に達しているか否か、等があ
る。
【0074】収束判定部22を付け加えることにより、
前記のようなあらかじめ設定した条件により、自動的に
学習回数を決定することができる。
【0075】収束判定部22は、例えば日本電気(株)
製のPC−9801シリーズ等のパーソナル・コンピュ
ータ、日本電気(株)製のEWS4800等のエンジニ
アリング・ワークステーション等を用いて実現すること
ができる。
【0076】図5は、第の発明の一実施例の構成を示
したブロック図である。
【0077】このデータ分類装置は、図3に示す第
実施例の構成部分に加えて、学習ベクトル量子化部18
から参照ベクトルを受け取り、これがあらかじめ設定し
た条件を満たしている場合には参照ベクトルを推定部1
9に送り、参照ベクトルが、あらかじめ設定した条件を
満たしていない場合は、参照ベクトルを学習ベクトル量
子化部18に送る、収束判定部22に付加して構成され
ている。
【0078】収束判定部22を付け加えることにより、
前記のようなあらかじめ設定した条件により、自動的に
学習回数を決定することができる。
【0079】
【発明の効果】本発明を用いることにより、参照ベクト
ルの初期値を学習データの個数、分布密度およびカテゴ
リに応じて自動的に設定することが可能になるため、高
い精度でのデータ分類を行うことができる。また、参照
ベクトルの修正量の変化等から自動的に学習を終了する
ため、最少の学習回数つまり最短の学習時間で学習を行
うことができる。
【0080】実際の30チャネルの脳波データの分類実
験の結果、本装置は従来の技術に記載した装置に比べて
分類結果の正答率が平均8.2%向上することが確認さ
れた。
【図面の簡単な説明】
【図1】本発明に関連する技術であるデータ分類装置の
構成を示したブロック図である。
【図2】第の発明の一実施例であるデータ分類装置の
構成を示したブロック図である。
【図3】第の発明の一実施例であるデータ分類装置の
構成を示したブロック図である。
【図4】第の発明の一実施例であるデータ分類装置の
構成を示したブロック図である。
【図5】第の発明の一実施例であるデータ分類装置の
構成を示したブロック図である。
【図6】従来のデータ分類装置の構成を示したブロック
図である。
【図7】N次元の学習データの例。
【図8】被修正参照ベクトル選択例。
【符号の説明】
10 学習データ記憶部 11 参照ベクトル選択部 12 参照ベクトル記憶部 13 最近接参照ベクトル探索部 14 被修正参照ベクトル選択部 15 参照ベクトル修正部 16 学習データ分類部 17 カテゴリ決定部 18 学習ベクトル量子化部 19 推定部 20 複製・削除判定部 21 複製・削除部 22 収束判定部 23 参照ベクトル設定部
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 G06T 1/00 G06F 17/00 JICSTファイル(JOIS)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】学習データを受け取り記憶する学習データ
    記憶部と、参照ベクトルを受け取り記憶する参照ベクト
    ル記憶部と、前記学習データ記憶部を参照して学習デー
    タを、前記参照ベクトル記憶部を参照して参照ベクトル
    をそれぞれ得て、学習ベクトル量子化のアルゴリズムに
    より参照ベクトルの修正を行う学習ベクトル量子化部
    と、前記学習ベクトル量子化部から前記参照ベクトルを
    受け取り、未知データを得て、未知データを分類する推
    定部とを有する、性質の異なる少なくとも2種以上のデ
    ータをその性質ごとに分類する、データ分類装置におい
    て、 前記学習データを受け取り、前記参照ベクトルを選択す
    る参照ベクトル選択部と、 前記参照ベクトル記憶部を参照して前記参照ベクトル
    を、前記学習データ記憶部を参照して前記学習データを
    得て、その学習データに対応する参照ベクトルを探索
    し、その学習データのラベルと参照ベクトルのラベルを
    出力する最近接参照ベクトル探索部と、 前記最近接参照ベクトル探索部から前記参照ベクトルの
    ラベルを受け取り、修正する参照ベクトルを選択し、そ
    の参照ベクトルのラベルを出力する被修正参照ベクトル
    選択部と、 前記参照ベクトル記憶部を参照して被修正参照ベクトル
    のラベルに対応した参照ベクトルのデータを得て、この
    参照ベクトルを修正する参照ベクトル修正部と、 前記最近接参照ベクトル探索部から最近接である学習デ
    ータと参照ベクトルのラベルの組を受け取って、学習デ
    ータをそれぞれの最近接参照ベクトルに対応して分類す
    る学習データ分類部と、 前記参照ベクトル記憶部を参照して前記参照ベクトルを
    得て、前記学習データ分類部から各参照ベクトルに対応
    して分類した学習データを受け取って、各々の参照ベク
    トルのカテゴリ付きの参照ベクトルを出力するカテゴリ
    決定部と、 備えることを特徴とするデータ分類装置。
  2. 【請求項2】前記学習データ分類部から前記各参照ベク
    トルを最近接とする学習データの集合を受け取り、複製
    および削除する前記参照ベクトルのラベルを出力する複
    製・削除判定部と、 前記参照ベクトル記憶部を参照して複製および削除する
    前記参照ベクトルのラベルを得て、参照ベクトルの複製
    および削除を行い、新たな参照ベクトルを出力する複製
    ・削除部とを、 さらに備えることを特徴とする請求項記載のデータ分
    類装置。
  3. 【請求項3】前記学習ベクトル量子化部から前記参照ベ
    クトルを受け取り、あらかじめ設定した条件に適合して
    いるか否かを判定し、前記参照ベクトルを条件に適合し
    ていなければ学習ベクトル量子化部に戻し、条件に適合
    していれば前記参照ベクトルデータを出力する収束判定
    部を、さらに備えることを特徴とする請求項1または2
    記載のデータ分類装置。
JP4153995A 1995-03-01 1995-03-01 データ分類装置 Expired - Lifetime JP2822909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4153995A JP2822909B2 (ja) 1995-03-01 1995-03-01 データ分類装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4153995A JP2822909B2 (ja) 1995-03-01 1995-03-01 データ分類装置

Publications (2)

Publication Number Publication Date
JPH08235154A JPH08235154A (ja) 1996-09-13
JP2822909B2 true JP2822909B2 (ja) 1998-11-11

Family

ID=12611230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4153995A Expired - Lifetime JP2822909B2 (ja) 1995-03-01 1995-03-01 データ分類装置

Country Status (1)

Country Link
JP (1) JP2822909B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5244438B2 (ja) * 2008-04-03 2013-07-24 オリンパス株式会社 データ分類装置、データ分類方法、データ分類プログラムおよび電子機器
JP6439728B2 (ja) * 2016-03-23 2018-12-19 株式会社デンソー 搭載角度学習装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
北島伸克、上條憲一、「LVQのパラメタ設定法−参照ベクトルの初期値および個数・学習回数・学習係数に関する検討−」、電子情報通信学会技術研究報告、VOL.93、No.537 (NL93−128)、P.123−P.130 (1994)

Also Published As

Publication number Publication date
JPH08235154A (ja) 1996-09-13

Similar Documents

Publication Publication Date Title
Liu et al. Learning to propagate labels: Transductive propagation network for few-shot learning
US20110299721A1 (en) Projection based hashing that balances robustness and sensitivity of media fingerprints
US5870729A (en) Self-organizing neural network for pattern classification
CN104731882B (zh) 一种基于哈希编码加权排序的自适应查询方法
US20230185998A1 (en) System and method for ai-assisted system design
Yang et al. Parallel chaos search based incremental extreme learning machine
Si et al. Dynamic topology representing networks
Chen et al. An effective feature selection scheme for healthcare data classification using binary particle swarm optimization
Burrascano A norm selection criterion for the generalized delta rule
CN116681104A (zh) 分布式空间图神经网络的模型建立及实现方法
JP2822909B2 (ja) データ分類装置
Kundu et al. Gan-tree: An incrementally learned hierarchical generative framework for multi-modal data distributions
CN111865690B (zh) 基于网络结构和时序的机会网络链路预测方法
CN113076319A (zh) 基于离群值检测技术和位图索引的动态数据库填充方法
CN112052251A (zh) 目标数据更新方法和相关装置、设备及存储介质
Cai et al. Extrapolated random tree for regression
Lipor et al. Margin-based active subspace clustering
JPH07225749A (ja) データ分類装置
Du et al. [Retracted] A Dynamic Density Peak Clustering Algorithm Based on K‐Nearest Neighbor
Arevalillo-Herráez et al. Improving distance based image retrieval using non-dominated sorting genetic algorithm
Hsu et al. A study of data fusion in Cayley graphs G (s/sub n/, p/sub n/)
CN112948502A (zh) 多来源传输数据分类存储方法、装置、设备及存储介质
Stanković et al. A p-Laplacian inspired method for graph cut
CN115244545A (zh) 用于多模式分布式学习的模型池
CN110647944A (zh) 一种基于支持向量机的加权knn分类方法及其系统

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980804