JPH05265998A - ニューラルネットワークの学習方式 - Google Patents

ニューラルネットワークの学習方式

Info

Publication number
JPH05265998A
JPH05265998A JP4066200A JP6620092A JPH05265998A JP H05265998 A JPH05265998 A JP H05265998A JP 4066200 A JP4066200 A JP 4066200A JP 6620092 A JP6620092 A JP 6620092A JP H05265998 A JPH05265998 A JP H05265998A
Authority
JP
Japan
Prior art keywords
cluster
data
learning
neural network
clusters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4066200A
Other languages
English (en)
Inventor
Masanori Yamamoto
正典 山本
Kazumi Yoshida
和美 吉田
Kazuteru Aragai
和照 新貝
Takashi Karasawa
隆 柄沢
Hideaki Uekusa
秀明 植草
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Fuji Facom Corp
Original Assignee
Fuji Electric Co Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd, Fuji Facom Corp filed Critical Fuji Electric Co Ltd
Priority to JP4066200A priority Critical patent/JPH05265998A/ja
Publication of JPH05265998A publication Critical patent/JPH05265998A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Abstract

(57)【要約】 【目的】 パターン認識、文字認識等のカテゴリ識別を
行うニューラルネットワークの学習方式に関し、必ずし
もすべてのサンプルデータを学習させることなく、代表
データのみを学習させて、学習を高速化させることを目
的とする。 【構成】 同一カテゴリ毎にすべてのサンプル入力デー
タの階層的クラスタ化を行い、同一クラスタに属するデ
ータを合成して新しい学習データを作成し、該作成され
た学習データをニューラルネットワークに学習させるよ
うに構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はパターン認識、文字認識
などの、従来の数学的手法を用いるだけでは必ずしも容
易でない感覚的なカテゴリ識別法に係わり、さらに詳し
くはそのようなカテゴリ識別を行うニューラルネットワ
ークの学習方式に関する。
【0002】
【従来の技術および発明が解決しようとする課題】パタ
ーン認識、文字認識などのカテゴリ識別をニューラルネ
ットワークを用いて行う場合には、第1の方式としてサ
ンプルデータを全て学習させる方式か、または第2の方
式として最初は全てのサンプルデータを学習データとし
て与え、学習中に誤差が収束した学習データを学習デー
タから取り除いて、その他のサンプルデータに対して学
習を続行する補習学習の学習方式のいずれかが用いられ
ている。
【0003】しかしながら、第1の方式では全てのサン
プルデータを同時に学習するために学習に時間がかかる
という問題点があった。第2の方式では学習対象から除
かれた学習済みのデータはしだいに忘却される傾向があ
り、学習済みのデータを正しく識別できるか検査を行う
必要があるという問題点があった。
【0004】本発明は、必ずしも全てのサンプルデータ
を学習させることなく代表的なサンプルデータのみを学
習させる場合の代表データの選択基準を与え、学習デー
タを少なくしてニューラルネットワークの学習を高速化
することである。
【0005】
【課題を解決するための手段および作用】図1は本発明
の機能ブロック図である。同図は複数のカテゴリに分類
されるデータを学習し、その学習後に与えられるカテゴ
リ不明のデータに対してカテゴリ識別を行うニューラル
ネットワークにおける学習方式の機能ブロック図であ
る。
【0006】図1において、1で同一カテゴリ毎に全て
のサンプル入力データ、すなわちニューラルネットワー
クの入力層ユニットへの入力データの階層的クラスタ化
が行われ、2で同一クラスタに属するデータが合成され
て新しい学習データが作成され、3でその作成された学
習データがニューラルネットワークによって学習され
る。
【0007】例えばこの学習後にすべてのサンプル入力
データに対するカテゴリ識別ができた場合には学習を終
了することになるが、識別できなかったデータがある場
合には別の学習データを作成して学習を続けることにな
る。
【0008】その場合には図1の4で複数のカテゴリの
いずれかに属するすべてのサンプルデータがカテゴリを
区別することなく階層的にクラスタ化され、5で識別不
可能であったサンプルデータを含み、かつ異種カテゴリ
のデータを含まない最上位階層クラスタとしての極大ク
ラスタが探索され、6でその極大クラスタに属するデー
タの合成によって再び新しい学習データが作成され、7
で作成されたデータが追加された学習データを用いてニ
ューラルネットワークの学習が行われる。
【0009】本発明においては、例えばニューラルネッ
トワークのn個の入力層ユニットに与えられるn個の入
力データをn次元ユークリッド空間の座標値としてサン
プル入力データを1つの点で表し、対応する点の間の距
離が小さいサンプル入力データを統合することによって
階層的クラスタ化が行われる。2つのサンプルデータに
おいて、対応するn個の入力データの値の差が小さい時
にはそれらのサンプルデータは同一のクラスタに含まれ
ることになり、この性質を利用して学習サンプルを少な
くすることが可能になる。
【0010】
【実施例】図2は本発明の学習方式を用いるカテゴリ識
別システムの実施例の構成ブロック図であり、図3はこ
のシステムの各構成部の動作の説明図である。図2およ
び3を用いて、システムの動作を説明する。
【0011】図2において、学習制御情報設定部11に
対して各種の制御情報が利用者によって設定される。制
御情報としては最初に学習データを取り出すクラスタの
数、後述する図4でループを打ち切る回数、およびニュ
ーラルネットワークによってカテゴリ識別ができたか否
かを判定するための、例えば誤差の境界値などがある。
設定された制御情報は学習制御情報記憶部12に記憶さ
れる。
【0012】同様にサンプルデータ設定部14に対して
入力層の各ユニットに与えられるサンプルデータの情
報、すなわちデータの名称、入力値、および所属するカ
テゴリの設定が利用者によって行われ、設定されたサン
プルデータはサンプルデータ記憶部15に記憶される。
【0013】本発明の学習方式の制御は主として学習制
御部13の制御によって行われる。まずクラスタ化処理
部17によりサンプルデータ、または合成データを対象
としてデータのクラスタ化が行われる。このクラスタ化
においては、後述するように同一カテゴリのみ、または
異種カテゴリを混同したデータが対象とされる。クラス
タ化処理の結果はクラスタ記憶部18に記憶され、その
内容を用いて学習制御部13により合成されたデータは
合成データ記憶部16に記憶される。
【0014】学習対象記憶部19には、ニューラルネッ
トワークで学習すべきデータやそのデータがどのクラス
タに由来するかなどが記憶され、ニューラルネットワー
ク部20は学習データの入力に対して、繰り返しニュー
ラルネットワークにバックプロパゲーションによって学
習を行わせ、学習後のニューラルネットワークにカテゴ
リ不明のデータを与えてカテゴリ認識を行わせ、誤差を
求める。ニューラルネットワーク記憶部21には、ニュ
ーラルネットワークの各層の間の重みの情報などが記憶
される。
【0015】図4は本発明の学習方式の全体処理実施例
フローチャートである。同図において処理が開始される
と、S(ステップ)31で与えられたサンプル入力デー
タに対して各カテゴリ毎に同一カテゴリのサンプルデー
タのみを含む形でクラスタ化が行われる。クラスタ化の
詳細については後述する。次にS32で各カテゴリ毎に
学習するクラスタ数が決定される。例えば、すべての各
カテゴリ毎に2個の学習データが用いられるが、その数
については利用者によって設定される。
【0016】続いてS33で学習データを抽出すべきク
ラスタ毎に、そのクラスタに属するサンプルデータから
代表的な学習データが合成され、S34でその学習デー
タを用いてバックプロパゲーション方式で学習が行わ
れ、S35で学習の終了したニューラルネットワークが
全てのサンプル入力データのカテゴリ識別を行うことが
できるか否かが判定され、S36で識別可能の時には処
理を終了する。
【0017】S36で識別できないサンプルがある場合
には、S37でカテゴリを無視して全てのサンプルデー
タを対象としてクラスタ化が行われ、S38でS35で
識別できなかったサンプルデータを含み、かつ異種カテ
ゴリのサンプルデータを含まない極大のクラスタ(極大
クラスタの探索については後述する。)を対象としてデ
ータの合成が行われ、S39で合成されたデータが学習
済みのデータと同一でなく、追加可能か否かが判定さ
れ、すでに学習したデータと同じで追加できない時には
処理を終了する。
【0018】S39で学習データとして追加可能であれ
ば、S40でそのデータを学習データとしてS33で合
成された学習データに追加し、S34以降の処理が繰り
返される。
【0019】S34からS40までのループは、S36
で全てのサンプルデータについて識別可能と判定される
か、またはS39で学習済みのデータに追加できないと
判定された時に終了するが、2回目以降のループにおい
てS37は全く同一であるので実行する必要がなく、S
38で例えばデータの合成法を変化させることによりル
ープの処理が続行され、図3で説明したように学習制御
情報設定部11に設定されたループ打ち切り回数が例え
ばS36で判定されて、処理が打ち切られることにな
る。
【0020】図5はサンプルデータのクラスタ化の実施
例である。同図においては識別すべきカテゴリをA,B
の2種類、各カテゴリのサンプルデータ数を5個とす
る。図(a)はカテゴリAのみのクラスタ構造図、
(b)はカテゴリBのみのクラスタ構造図、(c)はカ
テゴリを混在させたクラスタ構造図であり、A1〜A5
はカテゴリAに属するサンプル、B1〜B5はカテゴリ
Bに属するサンプルである。
【0021】図4はS31ではカテゴリA,Bのそれぞ
れについてクラスタ化を行い、図5(a),(b)が結
果として得られる。ここで実線で示されるクラスタが最
上位のものであり、それぞれ全てのサンプルデータを含
んでいる。S32で決定される学習するクラスタ数につ
いては、ここではA,B共に2個の学習データを合成す
るものとする。
【0022】図4のS33でカテゴリAに対してはクラ
スタCA1から、学習データA6が、クラスタCA2か
ら学習データA7が合成される。ここでクラスタCA1
はサンプルデータA1,A2,およびA3からなり、ク
ラスタCA2はサンプルデータA4およびA5からなっ
ており、これらのサンプルデータから学習データの合成
が行われる。同様にカテゴリBに対してはサンプルデー
タB1,B2,B3,およびB4から成るクラスタCB
1から学習データB6が合成され、またサンプルデータ
B5のみを含むクラスタCB2のデータがそのまま学習
データとして用いられる。
【0023】S34ではA6,A7,B5およびB6を
学習データとしてバックプロパゲーション学習が行わ
れ、S35で10個のサンプルデータについて全て識別
できるか否かが調べられる。ここではサンプルデータA
4,B1,B2の3つが識別できないものとし、S37
の処理が行われる。
【0024】S37では10個のサンプルデータ全てに
ついてカテゴリを無視してクラスタ化が行われ、図5
(c)の結果が得られるものとする。S38では、図5
(c)でX印が付けられた、識別できなかったデータA
4,B1,およびB2を対象として極大クラスタの探索
が行われる。この探索法については詳しく後述するが、
まずA4についてはその上位クラスタC3の中に異種カ
テゴリのデータB3およびB4が含まれているためにC
3は除外され、データA4と一致するクラスタC4が選
ばれ、A4が学習データとされる。
【0025】次にB1の上位クラスタはC1およびC2
であるが、C2は異種カテゴリのデータA5を含んでい
るために極大クラスタとしてC1が選ばれる。C1に属
するデータB1とB2から合成されたデータB7が学習
データとして追加される。データB2については、B1
と共にクラスタC1を構成しているために、再度極大ク
ラスタを探索する必要はない。
【0026】図4のS39で、データA4およびB7が
学習データに追加可能であるため、これらが追加され、
S34に戻ってバックプロパゲーション学習が行われ
る。この例で示されるように初期の学習データ数は4
個、追加された学習データ数は2個であり、合計10個
のサンプルデータ数より少なくなっている。
【0027】次にサンプルデータの階層的クラスタ化に
ついて詳細に説明する。ここではクラスタの個々の要
素、本発明ではサンプルデータを個体と呼び、クラスタ
を{クラスタ内の個体}のように表示する。階層的クラ
スタ化とは、個体をクラスタ化する時にボトムアップ的
に積み上げていく方式であり、個体を集めてクラスタを
作り、それらのクラスタを更に統合して行き、最終的に
は全個体を含むクラスタを作る方式である。
【0028】クラスタとは類似した個体を集めたグルー
プのことであり、個体の類似性は、2つの個体の間に距
離を定義し、距離が大きければ類似性が少なく、小さけ
れば類似性が大きいものとみなすことにする。この距離
は一般に0より大きい正の値である。
【0029】図6はクラスタ化処理実施例のフローチャ
ートである。同図において処理が開始されると、まずS
41で個体1個ずつがそれぞれクラスタとされる。例え
ばn個の個体a1 ,a2 ,・・・,an の1個ずつが、
クラスタ{a1 },{a2 },・・・{an }とされ
る。
【0030】次にS42でそれぞれのクラスタ間の距離
が求められ、図示しないバッファに格納される。ここで
は各クラスタ間の距離はそれぞれのクラスタの個体の間
の距離である。個体としての2つのサンプル入力データ
間の距離は次の2つのいずれかの方法によって定義され
る。
【0031】第1の定義は2つのサンプルデータ、すな
わちニューラルネットワークの入力層ユニットへの入力
データn個の値をそれぞれn次元ユークリッド空間にお
ける座標の値とし、各サンプルデータをユークリッド空
間内の点によって表し、その点の間の距離を求めるもの
であり、この場合にはサンプルデータA1とA2との間
の距離d(A1,A2)は、入力層のi番目のユニット
へのデータをA1(i)、およびA2(i)として、次
式によって与えられる。
【0032】
【数1】
【0033】(1)式の定義から次の性質が成り立つ。 d(A1,A2)=d(A2,A1), d(A1,A
1)=0 d(A1,A2)≧0 2つのサンプルデータ間の距離の第2の定義として、2
つのサンプルデータA1,A2の間の相関係数を‘1’
から引いた次式を用いることもできる。
【0034】
【数2】
【0035】ここで、A1(o)はA1(i)の平均
値、A2(o)はA2(i)の平均値図6のS43で
は、バッファ内の距離のうちで最小のものに対応する2
つのクラスタが統合され、最下層のクラスタの上位のク
ラスタとされる。そしてS44で統合された2つのクラ
スタに関係する距離、すなわち統合された2つのクラス
タのそれぞれと他のクラスタとの間の距離がバッファか
ら削除され、統合されたクラスタと他の統合されていな
いクラスタとの間の距離がバッファに追加される。続い
てS45でバッファ内の距離が1個になったか否かが判
定され1個になった時には処理を終了し、まだ1個にな
っていない場合にはS43からの処理が繰り返される。
【0036】図6のS44でバッファ内に追加される距
離は次のように求められる。例えばS43で統合された
2つのクラスタがC1とC2であり、この統合されたク
ラスタとの間の距離が求められる他のクラスタがC3で
あるとすると、統合されたクラスタとC3との距離を求
めるため後述の最遠隣法を使用するものとして、クラス
タC1とC3の距離とクラスタC2とC3の距離のうち
の大きい方の値が、統合されたクラスタとC3との距離
とされる。
【0037】一般に統合されたクラスタの間、または統
合されたクラスタと個体1個のみから成るクラスタとの
間の距離を求める方法として最近隣法、最遠隣法、およ
び重心法の3つがある。最近隣法では2つのクラスタの
間で個体相互間の距離のうちの最小値が、最遠隣法では
最大値が、また重心法では2つのクラスタそれぞれを構
成する個体の重心の間の距離がクラスタ間の距離とされ
る。
【0038】次に図6にフローチャートを示したクラス
タ化処理の例を説明する。今A1,A2,A3、および
A4の4つのサンプルデータ、すなわち個体を1つずつ
含む4つのクラスタがあり、S42で2つのクラスタ間
の距離dがそれぞれ次のように与えられるものとする。 d({A1},{A2})=8 d({A2},{A3})=2 d({A1},{A3})=3 d({A2},{A4})=6 d({A1},{A4})=5 d({A3},{A4})=2 この場合、最小の距離はA2とA3の間、A3とA4の
間の2つであり、このように最小の値が複数個ある場合
にはどれを選択してもよいが、ここではサンプルデータ
A2とA3とを統合するものとする。
【0039】S44でサンプルデータA2とA3に関係
する距離,,,、を削除し、統合されたクラ
スタと他のクラスタとの間の距離として、最遠隣法を用
いて次のおよびが追加される。 d({A1},{A2,A3})=max 〔d({A1},{A2}),d( {A1},{A3})〕=8 d({A4},{A2,A3})=max 〔d({A2},{A4}),d( {A3},{A4})〕=6 S45でバッファ内にある距離は,およびの3個
であり、再びS43でバッファ内で最小の距離、すなわ
ち‘5’に対応する2つの個体A1とA4とが統合さ
れ、S44でA1とA4に関係する距離,および
が削除され、今統合されたクラスタと前回統合されたク
ラスタ(A2とA3から成るクラスタ)との距離が追
加され、S45でバッファ内の距離がの1個だけと判
定されて処理を終了する。なお距離は次のように求め
られる。 d({A1,A4},{A2,A3})=max 〔d({A1},{A2,A 3}),d({A4},{A2,A3})〕=8 図7は、結果としてのクラスタ構造図である。ここで階
層的クラスタ化において、クラスタの階層をレベルで表
わすことにする。クラスタのレベルは、そのクラスタが
何番目に作られたかで定義するものとし、最初の個体1
個のみのクラスタをレベル0とし、クラスタが作られる
たびに1つずつレベルが上るものとする。そこで図7に
示すようにサンプルデータA2とA3から成るクラスタ
はレベル1,A1とA4とから成るクラスタはレベル
2,全ての個体を含むクラスタはレベル3となる。
【0040】次に図4のS38における極大クラスタの
探索について図8によって説明する。ここでS38にお
ける極大クラスタとは、その上位レベルのクラスタの全
ては異種カテゴリのデータを含んでしまうが、該当クラ
スタでは異種カテゴリのデータを含まないクラスタであ
る。
【0041】図8で処理が開始されると、まずS51で
識別不可能であったデータが1つ取り出され、S52で
データが取り出されたか否かが判定され、取り出せない
場合には処理を終了する。取り出された場合にはS53
で取り出されたデータのみを要素とするクラスタが極大
クラスタの候補とされ、S54でその候補がすでに極大
クラスタ中に含まれているか否かが判定され、含まれて
いる時には他の識別不可能データを対象としてS51以
降の処理が繰り返される。
【0042】極大クラスタに含まれていない場合には、
S55で極大クラスタの候補のすぐ上位のクラスタに異
種データが含まれているか否かが調べられ、含まれてい
る場合にはS56で極大クラスタの候補が極大クラスタ
とされ、S51以降の処理が繰り返される。含まれてい
ない時にはS57でそのすぐ上位のクラスタが極大クラ
スタの候補とされ、その候補に対するS54以降の処理
が繰り返される。
【0043】次に図8にフローチャートを示した極大ク
ラスタ探索処理を適用する具体例として、図5(c) の例
を更に詳細に説明する。まず認識不可能データのうちA
4がS51で取り出され、S53で極大クラスタの候補
とされ、S54でこの候補はまだ極大クラスタに含まれ
ていないのでS55で上位クラスタ、すなわちC3に異
種カテゴリのデータが含まれているか否かが判定され、
この場合は含まれているのでS56で{A4}が極大ク
ラスタとされて、S51に戻る。
【0044】次にS51でデータB1が取り出され、S
53で極大クラスタの候補とされ、この候補はS54の
判定ですでに極大クラスタとして選ばれている{A4}
には含まれておらず、S55の判定で{B1}の上位ク
ラスタ、すなわちC1に異種データが含まれていないた
めに、S57でクラスタC1が極大クラスタの候補とさ
れ、S54でこの候補が極大クラスタに含まれていない
ためにS55で更に上位のクラスタC2が異種データを
含んでいるかどうかが判定されるが、この場合にはデー
タA5が含まれているためにS56でクラスタC1が極
大クラスタとされて、S51に戻る。
【0045】続いてS51でデータB2が取り出され、
S53で極大クラスタの候補とされ、S54でこの候補
が極大クラスタに含まれておらず、S55で{B2}の
上位クラスタC1に異種カテゴリのデータが含まれてい
ないので、S57でこのクラスタが候補とされ、S54
でこの候補がすでに極大クラスタに含まれていると判定
されS51に戻るが、すでに識別不可能データは全て取
り出されているために処理を終了する。
【0046】次に学習データの合成について説明する。
図4のS33およびS38におけるクラスタ内での学習
データの合成は、ニューラルネットワークの各ユニット
への入力データの相加平均、または相乗平均を取ること
によって行われる。例えば図5(b) において、サンプル
データB1,B2,B3、およびB4を合成してデータ
B6を相加平均を用いて作成する場合には、i番目の入
力層ユニットへの入力を例えばB1(i)のように表わ
すと、合成データは次式によって求められる。 B6(i)=〔B1(i)+B2(i)+B3(i)+B4(i)〕/4 ・・・・・・(3) 図4のS38で極大クラスタから合成されたデータにつ
いては、S39で学習データとして追加できるか否か、
すなわちすでに学習されているデータと一致していない
かを判定する必要があるが、この判定については学習済
みのデータのそれぞれについてそのデータがどのクラス
タから取り出されたかを記憶しておき、極大クラスタか
らの合成データについて記憶されているデータと一致す
るものがあるか否かが調べられ、一致するものがなけれ
ば合成されたデータが学習データに追加される。例えば
図5において、学習データA6はクラスタCA1から、
A7はCA2から、B6はCB1から、B5はCB2か
ら取り出されており、仮にB5が識別不可能であれば、
これに対応する極大クラスタがCB2、すなわち{B
5}であることが分かっても、これはすでに学習済みで
あるため、この極大クラスタからは学習データを追加す
ることができない。この一致の検出は、合成方法が一種
類に限られていれば全ての入力層ユニットへの入力デー
タをすべて比較することなく行うことができ、全てのデ
ータを比較する場合に比べて処理時間を短くすることが
できる。
【0047】本実施例においては図4で説明したよう
に、識別不可能なデータに対しては異種カテゴリのサン
プルデータと同時にクラスタ化を行うので、レベルの高
いクラスタでは他のカテゴリのデータが入り混じるが、
クラスタのレベルを下げることにより同一カテゴリから
成るクラスタが得られる。このクラスタ、すなわち極大
クラスタは他のカテゴリのデータと分離されているため
に、ここから代表データを合成することにより識別不可
能なデータを代表し、かつ他のカテゴリと区別できる学
習データを選択できることになる。
【0048】すなわち類似したものを集めたのがクラス
タであり、同一カテゴリのデータは当然類似性が高いた
め、レベルの低いクラスタでは同一カテゴリのデータの
みを含むのは一般的と考えられる。例えば手書きの
「A」と「B」のサンプルを集めてクラスタ化した場合
には、高いレベルのクラスタでは「A」と「B」の両方
を含む可能性が大きくなるが、レベルの低いクラスタで
は要素間の類似性が高いために「A」または「B」のど
ちらか一方の個体のみを含むことになると考えられる。
【0049】このような異種カテゴリを含むクラスタ化
の有効性について図9および図10を用いて説明する。
図9は大小と白黒の2つの性質を含む認識対象の例とし
ての円を示す。図10は異種カテゴリを含むクラスタ化
の例の説明図である。同図(a) は図9の円を大小の性質
に従ってクラスタ化した構造図である。同図(b) は黒の
三角を含んで、白黒の性質を中心として作成されたクラ
スタ構造図である。このように円と三角を含むクラスタ
化では円のみのクラスタ化において分類に用いられた性
質、すなわち大小と異なる白黒の性質による分類を得る
ことができ、カテゴリ識別にとってより有効となる可能
性がある。
【0050】
【発明の効果】以上詳細に説明したように、本発明によ
れば全てのサンプルデータを用いることなく、合成され
た学習データのみを用いてニューラルネットワークを学
習させることにより学習時間を短縮させることができ、
ニューラルネットワークを用いた認識システムの実用性
の向上に寄与するところが大きい。
【図面の簡単な説明】
【図1】本発明の機能ブロック図である。
【図2】本発明の学習方式を用いるカテゴリ識別システ
ムの実施例の構成を示すブロック図である。
【図3】図2のシステムの各部の動作を説明する図であ
る。
【図4】本発明における学習方式の全体処理実施例のフ
ローチャートである。
【図5】サンプルデータのクラスタ構造の実施例を示す
図である。
【図6】クラスタ化処理の実施例のフローチャートであ
る。
【図7】図6のクラスタ化処理のフローチャートによっ
て得られたクラスタ構造の例を示す図である。
【図8】極大クラスタ探索処理実施例のフローチャート
である。
【図9】大小と白黒の2つの性質を含む識別対象の例を
示す図である。
【図10】異種カテゴリを含むクラスタ化の例を説明す
る図である。
【符号の説明】
11 学習制御情報設定部 12 学習制御情報記憶部 13 学習制御部 14 サンプルデータ設定部 15 サンプルデータ記憶部 16 合成データ記憶部 17 クラスタ化処理部 18 クラスタ記憶部 19 学習対象記憶部 20 ニューラルネットワーク部 21 ニューラルネットワーク記憶部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 新貝 和照 神奈川県川崎市川崎区田辺新田1番1号 富士電機株式会社内 (72)発明者 柄沢 隆 東京都日野市富士町1番地 富士ファコム 制御株式会社内 (72)発明者 植草 秀明 東京都日野市富士町1番地 富士ファコム 制御株式会社内

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 複数のカテゴリに分類されるデータを学
    習し、該学習後に与えられるカテゴリ不明のデータに対
    してカテゴリ識別を行うニューラルネットワークにおい
    て、 同一カテゴリ毎に全てのサンプル入力データの階層的ク
    ラスタ化を行い(1)、 同一クラスタに属するデータを合成して新しい学習デー
    タを作成し(2)、 該作成された学習データを前記ニューラルネットワーク
    に学習させる(3)ことを特徴とするニューラルネット
    ワークの学習方式。
  2. 【請求項2】 前記作成された学習データのニューラル
    ネットワークによる学習(3)の後に、 複数のカテゴリのいずれかに属する全てのサンプル入力
    データをカテゴリを区別することなく階層的クラスタ化
    を行い(4)、 前記学習(3)後に識別不可能であったサンプル入力デ
    ータを含み、かつ異種カテゴリのデータを含まない最上
    位階層クラスタとしての極大クラスタを探索し(5)、 該極大クラスタに属するデータを合成して再び新しい学
    習データを作成し(6)、 該作成されたデータを学習データに追加して前記ニュー
    ラルネットワークに学習させる(7)ことを特徴とする
    請求項1記載のニューラルネットワークの学習方式。
  3. 【請求項3】 前記階層的クラスタ化(1),(4)に
    おいて、 前記各サンプル入力データとしての個体をそれぞれ1個
    だけ含む各クラスタを最下層のクラスタとし、 該各クラスタのうち、クラスタ間で定義される距離が最
    小となる2つのクラスタを統合して次の上位層における
    クラスタを合成し、 該合成されたクラスタと統合されなかった各クラスタと
    の距離を求め、合成されたクラスタと統合されなかった
    クラスタとの全てを対象として前記距離最小となる2つ
    のクラスタを統合しての次の上位層におけるクラスタ合
    成以降の処理を、最上位層クラスタが1個となるまで繰
    り返すことを特徴とする請求項1、または2記載のニュ
    ーラルネットワークの学習方式。
  4. 【請求項4】 前記最下層クラスタとしての各サンプル
    入力データが、前記ニューラルネットワークの入力層ユ
    ニットのn個に対応するn個の値を持つ時、該n個の値
    をn次元ユークリッド空間の各座標値に対応させ、該n
    次元空間中の点の間の距離として該最下層クラスタとし
    ての個体間の距離を定義することを特徴とする請求項3
    記載のニューラルネットワークの学習方式。
  5. 【請求項5】 前記合成されたクラスタと最下層のクラ
    スタの間、または合成されたクラスタ相互間の距離を、
    2つのクラスタの間における個体相互間の距離のうちの
    最大の距離として定義することを特徴とする請求項3、
    または4記載のニューラルネットワークの学習方式。
  6. 【請求項6】 前記極大クラスタの探索(5)におい
    て、 前記サンプル入力データのうちでカテゴリの識別できな
    かったデータを取り出して極大クラスタの候補とし、 該候補がすでに極大クラスタに含まれているかを調べ、
    すでに含まれている時には前記識別できなかったデータ
    を取り出して極大クラスタの候補とする処理以降を繰り
    返し、 含まれていない時には該極大クラスタの候補のすぐ上位
    階層のクラスタに異種カテゴリのサンプルデータが含ま
    れているかを調べ、含まれている時には該極大クラスタ
    の候補を極大クラスタとして、前記識別できなかったデ
    ータを取り出して極大クラスタの候補とする処理以降を
    繰り返し、 含まれていない時には該上位階層のクラスタを極大クラ
    スタの候補として、前記該候補がすでに極大クラスタに
    含まれているかを調べる処理以降を繰り返すことを特徴
    とする請求項2記載のニューラルネットワークの学習方
    式。
JP4066200A 1992-03-24 1992-03-24 ニューラルネットワークの学習方式 Withdrawn JPH05265998A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4066200A JPH05265998A (ja) 1992-03-24 1992-03-24 ニューラルネットワークの学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4066200A JPH05265998A (ja) 1992-03-24 1992-03-24 ニューラルネットワークの学習方式

Publications (1)

Publication Number Publication Date
JPH05265998A true JPH05265998A (ja) 1993-10-15

Family

ID=13308971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4066200A Withdrawn JPH05265998A (ja) 1992-03-24 1992-03-24 ニューラルネットワークの学習方式

Country Status (1)

Country Link
JP (1) JPH05265998A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020205026A (ja) * 2019-06-11 2020-12-24 富士電機株式会社 情報処理装置、情報処理システム、モデルの学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020205026A (ja) * 2019-06-11 2020-12-24 富士電機株式会社 情報処理装置、情報処理システム、モデルの学習方法

Similar Documents

Publication Publication Date Title
US7362892B2 (en) Self-optimizing classifier
CN109670528B (zh) 面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法
Tieu et al. Boosting image retrieval
CN106126581B (zh) 基于深度学习的手绘草图图像检索方法
CN108268838B (zh) 人脸表情识别方法及人脸表情识别系统
US20050286772A1 (en) Multiple classifier system with voting arbitration
JP2001202523A (ja) 画像処理方法及びその装置
CN110619059B (zh) 一种基于迁移学习的建筑物标定方法
US20060013475A1 (en) Computer vision system and method employing illumination invariant neural networks
CN110443257B (zh) 一种基于主动学习的显著性检测方法
JP2000099632A (ja) 検索装置、検索方法及び検索プログラムを記録したコンピュータ読み取り可能な記録媒体
CN111815582B (zh) 改进背景先验和前景先验的二维码区域检测方法
Xu et al. Gland instance segmentation by deep multichannel neural networks
CN110689044A (zh) 一种结合目标间关系的目标检测方法及系统
Amores et al. Fast spatial pattern discovery integrating boosting with constellations of contextual descriptors
JP4802176B2 (ja) パターン認識装置、パターン認識プログラム及びパターン認識方法
JP6958719B2 (ja) 画像解析装置、画像解析方法および画像解析プログラム
JP3903613B2 (ja) 検索装置及び検索プログラムを記録したコンピュータ読み取り可能な記録媒体
CN114510594A (zh) 一种基于自注意力机制的传统纹样子图检索方法
CN107941210A (zh) 一种结合神经网络技术及三角形算法的星图识别方法
JPH05265998A (ja) ニューラルネットワークの学習方式
Kiranyaz et al. Dominant color extraction based on dynamic clustering by multi-dimensional particle swarm optimization
CN110956177A (zh) 一种混合型验证码的识别方法及系统
Agahi et al. Handwritten digits recognition using an ensemble technique based on the firefly algorithm
CN111310712B (zh) 一种基于指纹词袋特征的快速搜索方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990608