JP3485420B2 - 大規模ニューラルネットワーク構築装置 - Google Patents

大規模ニューラルネットワーク構築装置

Info

Publication number
JP3485420B2
JP3485420B2 JP21466596A JP21466596A JP3485420B2 JP 3485420 B2 JP3485420 B2 JP 3485420B2 JP 21466596 A JP21466596 A JP 21466596A JP 21466596 A JP21466596 A JP 21466596A JP 3485420 B2 JP3485420 B2 JP 3485420B2
Authority
JP
Japan
Prior art keywords
neural network
unit
input
input layer
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21466596A
Other languages
English (en)
Other versions
JPH1063632A (ja
Inventor
裕一 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP21466596A priority Critical patent/JP3485420B2/ja
Publication of JPH1063632A publication Critical patent/JPH1063632A/ja
Application granted granted Critical
Publication of JP3485420B2 publication Critical patent/JP3485420B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、パターン認識など
の処理に用いるニューラルネットワーク装置に関し、特
に処理対象の多様化に伴うニューラルネットワークの大
規模化に対応するための大規模ニューラルネットワーク
構築方法及びそれを実現する装置に関する。
【0002】
【従来の技術】パターン認識などの処理を行うニューラ
ルネットワークにおいて、認識などの処理の対象を増や
そうとした場合、最も単純な解決策としては、ニューロ
ンの数を増やすという方法が考えられる。しかしなが
ら、フィードフォワード型のニューラルネットワークで
は、ニューロンの数をNとすれば、ニューロン間のリン
クの数はN2 のオーダーで増加し、これに伴って計算量
もN2 のオーダーで増加する。しかもニューラルネット
ワークの学習の収束時間は、ネットワークのサイズの増
加よりも遥かに高い割合で増加する。従って、単純にニ
ューロンの数を増やす方法では、ニューロンの数の増大
に伴って学習時間の爆発的な増大や学習の収束性の急速
な低下を招いてしまう。また、ネットワークを実装する
のに必要な記憶容量の増え方は、ネットワークのサイズ
(すなわちニューロンの数)の増加に対して線形ではな
いため、ネットワークの大規模化は記憶容量の爆発的な
増大を招き、ハードウエア資源の面から実現困難とな
る。また、ネットワークを大規模化した場合、学習の例
題を増やしていかないと識別の誤りが増大することも知
られている。
【0003】このような問題を解決するための従来の研
究としては、例えばY.Mori,K.Joe:“A Large Scale Ne
ural Network which Recognizes Handwritten Kanji Ch
aracters”,Advances in Neural Information Process
ing Systems,2.pp415-421,1989. が知られている。この
従来技術では、役割別に分類された複数の部分ニューラ
ルネットワークを組み合わせて1つの大規模ニューラル
ネットワークを構成する。具体的には、統合型と選択型
の2つの方式が示されている。統合型では、入力データ
を複数の部分ネットワークに並列的に与え、その結果の
出力同士を所定の規則に従って順次上位のニューラルネ
ットワークに入力して統合し、最上位のニューラルネッ
トワークの出力結果が1つの認識結果を与える。また、
選択型では、その逆に、入力データを最上位のニューラ
ルネットワークに与え、このニューラルネットワークが
その入力データを処理するのに適当な下位の部分ネット
ワークを選択し、選択された部分ネットワークにて入力
データを認識する。
【0004】この従来技術によれば、個々の部分ネット
ワーク自体は規模が小さいので容易に学習させることが
でき、上述の諸問題を解消することができた。
【0005】
【発明が解決しようとする課題】しかしながら、従来技
術では、部分ネットワークを組み立てて大規模なネット
ワークを構築するためには、対象に応じた認識「ルー
ル」を事前にある程度分析しておき、この「ルール」に
従ってニューラルネットワークを構築する必要があっ
た。すなわち、従来技術では、システム設計の段階で、
分析により求めた「ルール」に従って、各部分ネットワ
ークの役割や、下位のネットワークと上位のネットワー
クとの接続関係など、ネットワークの構造を厳密に決定
しておく必要があり、このような作業のためには多大の
労力、時間を要していた。このことは、例えば特開平6
−266688号に示された認識回路においても同様で
あった。
【0006】本発明は、このような問題を解決するため
になされたものであり、事前のルール分析やそれに従っ
た構造設計などが不要な大規模ニューラルネットワーク
構築方法及び装置を提供することを目的とする。
【0007】
【課題を解決するための手段】前述の目的を達成するた
めに、本発明に係る大規模ニューラルネットワーク構築
装置は、複数の単位ニューラルネットワークを、それぞ
れ対応する学習パターン群を用いて学習させる手段と、
各単位ニューラルネットワークそれぞれについて、出力
層の出力結果に対する影響度が所定値以下の典型入力層
ニューロンを求める手段と、各単位ニューラルネットワ
ークについて求められた典型入力層ニューロンを入力層
に配した高次ニューラルネットワークを構築する手段
と、前記各学習パターン群に含まれる学習パターンを前
記高次ニューラルネットワークに入力し、学習パターン
に対応する単位ニューラルネットワークを識別するよう
学習させる手段と、この学習の結果に基づき前記高次ニ
ューラルネットワークの各識別出力に対して各単位ニュ
ーラルネットワークを対応づけ、大規模ニューラルネッ
トワークを形成する手段と、を含むことを特徴とする。
【0008】この構成では、学習済みの複数の単位ニュ
ーラルネットワークを組み合わせることにより大規模ニ
ューラルネットワークを構築する。この際、本発明で
は、学習済みの各単位ニューラルネットワークのそれぞ
れについて典型入力層ニューロンが求める。これら典型
入力層ニューロンは、出力層の出力結果に対する影響度
が小さい入力層ニューロンである。すなわち、典型入力
層ニューロンに対する入力値の変化は出力層の出力結果
の変化にあまり影響を及ぼさず、この意味で、典型入力
層ニューロンは、当該単位ニューラルネットワークが学
習した各パターンに共通する典型的部分を示し、いわば
当該学習済み単位ニューラルネットワークの高次概念を
示しているものと言える。従って、各単位ニューラルネ
ットワークから求めた典型入力層ニューロンを入力層に
配した新たなニューラルネットワークを構成すれば、こ
の新たなニューラルネットワークは、入力パターンが属
する高次概念の判別、すなわち入力パターンがどの単位
ニューラルネットワークに対応するかの判別に用いるこ
とができる。この新たなニューラルネットワークを高次
ニューラルネットワークと呼ぶ。本発明では、高次ニュ
ーラルネットワークに対して、順次学習パターンを与
え、各学習パターンがどの単位ニューラルネットワーク
に対応するか識別するよう学習させる。高次ニューラル
ネットワークは、入力層が典型入力層ニューロンのみで
構成されており、パターンの識別も高次概念のレベルで
よいので、学習の収束性は高く、学習に要する時間も短
くて済む。この学習結果に基づいて、高次ニューラルネ
ットワークの識別出力に対してそれぞれ対応する単位ニ
ューラルネットワークを対応づけることにより、大規模
ニューラルネットワークを構築することができる。この
ようにして構築された大規模ニューラルネットワークで
は、高次ニューラルネットワークにて入力パターンの高
次概念に対応する単位ニューラルネットワークを求め、
求められた単位ニューラルネットワークにて入力パター
ンを詳細に識別することにより、入力パターンを認識す
ることができる。
【0009】本発明では、各単位ニューラルネットワー
クや高次ニューラルネットワーク自体は比較的小規模な
ニューラルネットワークなので学習の収束性や学習時間
も良好であり、リンク数も少ないため実装に必要なメモ
リ量も少なくて済む。従って、本発明によれば、現実的
な時間、コストで大規模ニューラルネットワークを構築
することができる。また、本発明では、典型入力層ニュ
ーロンの抽出や高次ニューラルネットワークの構築及び
学習などのすべての処理が、人間の知識や洞察などを必
要としない機械的な処理で実現できるので、事前のルー
ル分析やそれに基づくニューラルネットワークの構造設
計などは不要となり、労力や時間を大幅に節減すること
ができる。なお、本発明は、ソフトウエア的なニューラ
ルネットワークだけでなく、ハードウエア的なニューラ
ルネットワークの構築にも有効である。
【0010】ここで、本発明では、典型入力層ニューロ
ンの具体的な求め方として、学習済みの各単位ニューラ
ルネットワークについて、各入力層ニューロンごとに入
力値の変化に対する出力層の出力結果の変化率を調べ、
この変化率が所定値以下の入力層ニューロンを典型入力
層ニューロンとする。
【0011】また、このほかにも、各単位ニューラルネ
ットワークについて、対応する学習パターン群を入力し
た場合の各入力層ニューロンの入力値の変化率を調べ、
この変化率が所定値以下の入力層ニューロンを典型入力
層ニューロンとすることもできる。
【0012】本発明の好適な態様では、大規模ニューラ
ルネットワークを形成する手段は、前記各単位ニューラ
ルネットワークから、それぞれ各自の典型入力層ニュー
ロンを除去する。本発明によって構築される大規模ニュ
ーラルネットワークでは、高次ニューラルネットワーク
により入力パターンがどの単位ニューラルネットワーク
に対応するかが求められているので、その入力パターン
は、当該単位ニューラルネットワークが認識対象とする
各パターンに共通する部分を有していることになる。従
って、高次ニューラルネットワークの識別結果に応じ
て、ある単位ニューラルネットワークに入力されるパタ
ーンは、必ず共通部分を有している。この共通部分に対
応するニューロンである典型入力層ニューロンは、当該
単位ニューラルネットワークから取り除いたとしても認
識に対する影響はなく、これを取り除くことにより、単
位ニューラルネットワークの規模を小さくすることがで
き、処理速度が向上する。
【0013】
【0014】また、本発明に係る大規模ニューラルネッ
トワーク構築装置は、それぞれ別々の学習パターン群に
よって学習した複数の単位ニューラルネットワークを結
合して大規模ニューラルネットワークを構築する装置で
あって、前記各学習パターン群を記憶すると共に、各学
習パターン群と各単位ニューラルネットワークとの対応
関係を記憶する学習パターン記憶部と、各単位ニューラ
ルネットワークについて、対応する学習パターン群を前
記学習パターン記憶部から取り出し、この学習パターン
をそれら各単位ニューラルネットワークに入力して学
習させ、その学習による学習済みの各単位ニューラルネ
ットワークの入力層ニューロンのうち、出力層の出力結
果に対する影響度が所定値以下となる入力層ニューロン
当該単位ニューラルネットワークの典型入力層ニュー
ロンとして求める典型ニューロン判別部と、各単位ニュ
ーラルネットワークの典型入力層ニューロンを組み合わ
せて入力層を形成し、これに中間層と、少なくとも前記
各単位ニューラルネットワークを識別できるだけの出力
パターンが表現可能な出力層とを付加して高次ニューラ
ルネットワークを生成する高次ニューラルネットワーク
生成部と、生成された高次ニューラルネットワークに対
して、前記学習パターン記憶部から取り出した学習パタ
ーン及びこの学習パターンに対応する単位ニューラルネ
ットワークを示す識別パターンをそれぞれ入力データ及
び教師データとして与え、高次ニューラルネットワーク
を学習させる高次ニューラルネットワーク学習制御部
と、学習済みの前記高次ニューラルネットワークの各出
力パターンに対して各単位ニューラルネットワークを対
応づけ、大規模ニューラルネットワークを構築するネッ
トワーク構築部とを有する。
【0015】この構成では、典型ニューロン判別部が、
各単位ニューラルネットワークのそれぞれについて、対
応する学習パターン群を用いて典型入力層ニューロンを
求める。求め方としては、例えば各学習パターンを単位
ニューラルネットワークに入力し、入力層の各ニューロ
ンごとに、入力値の変化に対する出力層の出力結果の変
化の度合を求め、この度合の小さいものを典型入力層ニ
ューロンとすればよい。また、各入力層ニューロンにお
いて、学習パターンを順次入力していくときの入力値の
変化率を求め、この変化率の小さいものを選んでもよ
い。このようにして求められた典型入力層ニューロンを
入力層に配した高次ニューラルネットワークを構築し、
学習パターン群を用いて学習させることにより、高次ニ
ューラルネットワークは、入力パターンに対応する単位
ニューラルネットワークを識別することが可能となる。
従って、ネットワーク構築部により、この高次ニューラ
ルネットワークの各識別出力に対して、それぞれ対応す
る単位ニューラルネットワークを関連づけることによ
り、各単位ニューラルネットワークの認識対象パターン
のすべてを認識することができる大規模ニューラルネッ
トワークを構築することができる。
【0016】 また、本発明により作成されるニューラ
ルネットワーク装置は、それぞれ異なるカテゴリを認識
対象とし、それぞれ対象とするカテゴリに含まれる各パ
ターンを認識する複数の単位ニューラルネットワーク
と、前記各単位ニューラルネットワークの出力結果に対
する影響度が所定値以下の典型入力層ニューロンを組み
合わせた入力層を有し、入力されたパターンが複数の前
記カテゴリのいずれに対応するかを識別するよう学習し
た高次ニューラルネットワークと、与えられた入力パタ
ーンを前記高次ニューラルネットワークに入力し、この
入力に対応して前記高次ニューラルネットワークで求め
られたカテゴリの識別結果を受け取り、求められたカテ
ゴリに対応する単位ニューラルネットワークに対して当
該入力パターンを入力する制御部とを含む。
【0017】この構成では、認識すべきパターンが入力
された場合、制御部はこの入力パターンを高次ニューラ
ルネットワークに入力する。高次ニューラルネットワー
クは、この入力パターンに対応するカテゴリを識別す
る。制御部は、この結果求められたカテゴリに対応する
単位ニューラルネットワークに対して当該入力パターン
を入力する。この単位ニューラルネットワークは、その
入力パターンを認識可能なニューラルネットワークであ
り、入力パターンの認識処理を実行する。このニューラ
ルネットワーク装置は、各単位ニューラルネットワーク
が認識可能なカテゴリのすべてを認識可能な大規模ニュ
ーラルネットワークとなる。
【0018】 また、ニューラルネットワークのある構
では、前記制御部は、各単位ニューラルネットワーク
ごとに典型入力層ニューロンを記憶し、単位ニューラル
ネットワークに対して入力パターンを入力する際に、入
力パターンのうちで当該単位ニューラルネットワークの
典型入力層ニューロンに対応する箇所をマスクする。
【0019】この構成において、入力パターンのうち典
型入力層ニューロンに対応する箇所は、単位ニューラル
ネットワークでのパターンの識別に影響が少ない。従っ
て、この構成では、単位ニューラルネットワークに与え
る入力パターンにおいてこのような箇所をマスクするこ
とにより、入力データが小さくなり、認識処理の速度が
向上する。
【0020】 また、ニューラルネットワークのある構
では、前記制御部は、出力結果のレベルに関するユー
ザの指示入力を受け付け、この指示入力に応じて前記高
次ニューラルネットワークの認識結果及び前記各単位ニ
ューラルネットワークの認識結果のいずれかを選択して
出力する。
【0021】この構成によれば、高次概念レベルの認識
でよいのかそれとも詳細なパターン認識を必要とするの
かについてユーザの指示を受付け、その指示に応じたレ
ベルでの認識結果を出力することができる。
【0022】
【発明の実施の形態】
[実施形態の原理]本実施形態における大規模ニューラ
ルネットワーク構築の原理について説明する。本実施形
態では、複数の小規模ニューラルネットワーク(以下、
「ニューラルネットワーク」のことを『NN』と略す)
をそれぞれ学習させ、学習済みの各小規模NNを組み合
わせて構造化することにより、大規模NNを構築する。
以下では、大規模NNの構成要素となる小規模NNのこ
とを単位NNと呼ぶ。
【0023】本実施形態の方法又は装置によって構築す
る大規模NNの概略構成を図1に示す。図1において、
大規模NNは、高次NN20と複数の単位NN10(A
1 ,A2 ,…,An )とを含む。この構成において、各
単位NN10は、それぞれ別々のパターン群を用い、バ
ックプロパゲーション法などの公知の学習アルゴリズム
に従って学習したものであり、各々自己の学習した範囲
(カテゴリ)内においてパターン認識ができるものとす
る。これに対して、高次NN20は、入力されたパター
ンがどの単位NN10で認識できるかを判定するニュー
ラルネットワークである。従って、入力パターンが与え
られた場合、まず高次NN20にてその入力パターンが
認識可能な単位NN10を求め、この単位NN10に対
して入力パターンを与えることにより、当該入力パター
ンの認識を行う。このような構成により、大規模NN
は、個々の単位NNが認識できるパターンのすべてを認
識することができる。
【0024】本実施形態では、各単位NNの情報に基づ
き高次NNを自動生成することにより、大規模NNを機
械的な処理にて構築する。以下、本実施形態における高
次NNの生成の原理を説明する。
【0025】本実施形態では、各単位NNの入力層から
典型入力層ニューロンを選び、これら典型入力層ニュー
ロンを用いて高次NNの入力層を構成する。この典型入
力層ニューロンは、出力結果への影響度という評価値に
基づき決定する。
【0026】この影響度は、佐野らの研究(佐野秀輝他
『層状ニューラルネットワークの注視領域の抽出』信学
技報 NC93-135(1994-03),PP175-182)において提案され
ている『依存度』という評価値を発展させたものであ
る。ここで、依存度について説明する。
【0027】図2に示すような典型的なフィードフォワ
ード結合のNNを考える。図2では、説明を簡単にする
ため、中間層が1層のみのNNを示している。このNN
は、すでに与えられたパターン群を用いて学習済みであ
るとする。ここで、入力IはI1 ,I2 ,…Ii ,…I
I の成分を含み、図2のNNには、入力Iの各成分に対
応してI個の入力層ニューロン11が設けられている。
中間層ニューロン12はJ個設けられており、それぞれ
がすべての入力層ニューロン11とリンクで結ばれてい
る。また、出力層ニューロン13はK個設けられ、それ
ぞれがすべての中間層ニューロン12とリンクで結ばれ
ている。各リンクには重みWが定義され、入力層ニュー
ロンiと中間層ニューロンjを結ぶリンクの重みはw1
ijと、中間層ニューロンjと出力層ニューロンkとを結
ぶリンクの重みはw2 jkと表す。また、中間層ニューロ
ン12及び出力層ニューロン13には内部状態があり、
中間層ニューロンjの内部状態はu2 j と、出力層ニュ
ーロンkの内部状態はu3 k と表す。また、O2 j は中
間層ニューロンjからの出力を表し、Ok は出力層ニュ
ーロンkからの出力を表す。
【0028】このような構成のNNにおいて、入力層ニ
ューロンiへの入力Ii の変化に対する出力層ニューロ
ンkからの出力Ok の変化率は、次式で求められる。
【0029】
【数1】 上式(1)において、関数fは、中間層及び出力層ニュ
ーロンにおける内部状態uと出力Oとの関係を表す関数
であり、f´はfの一階微分である。関数fとしては、
例えばシグモイド関数が用いられる。
【0030】そして、次式のごとく、この変化率を2乗
して入力空間全体で積分することにより、入力層ニュー
ロンiへの入力が入力空間全体にわたって変化したとき
の、出力層ニューロンkの出力の変化の総量を示す値を
得ることができる。
【0031】
【数2】 この値が大きいということは、出力層ニューロンkの出
力値Ok が入力層ニューロンiの入力値Ii に強く影響
されるということを示し、逆にこの値が小さいというこ
とは、出力層ニューロンkの出力値が入力層ニューロン
iの入力値にあまり影響を受けないということを示す。
佐野らは、この値を用いてNNが入力パターンのどの部
分に注目して認識を行うか(すなわちパターンのどの部
分が認識の決め手となるか)を評価しようとした。ただ
し、佐野らは、入力空間が大きな場合には上式(2)の
計算量が膨大となってしまい事実上計算不能になると
し、次式で示すD(k,i)を上式(2)の代用とし、
『依存度』と名付けた。
【0032】
【数3】 佐野らは、この依存度が大きい入力層ニューロンを、N
Nがパターン認識を行う際の注視点と考え、この注視点
の近傍で入力層ニューロンが密になるように入力層ニュ
ーロンを再配置することにより、ニューロンの数を増や
さずに認識率を向上させることができると論じている。
【0033】本実施形態では、この依存度に基づき各入
力層ニューロンの『影響度』を定義する。影響度の定義
を行う前に、本実施形態における依存度の定義を示す。
佐野らは入力空間が連続であるとして上述の式(2)を
考えたが、本実施形態では、入力空間を離散空間とし、
出力層ニューロンkの入力層ニューロンiに対する依存
度mkiを次のように定義する。
【0034】
【数4】 すなわち、佐野らは計算量の観点から依存度を式(3)
のごとく最大値にて定義したが、実際のところ入力空間
全体で積分するのも入力空間中の最大値を求めるのもサ
ンプリングする入力空間によっては計算量としてはほと
んど変わらないので、本実施形態では上式(4)のごと
く依存度を定義した。なお、説明を簡単にするため、本
実施形態では各ニューロンの内部状態や出力値は区間
[0,1]の範囲の実数とする。
【0035】さて、本実施形態では、式(4)で示され
る依存度を出力層全体について積算したものを、入力層
ニューロンiの出力に対する『影響度』とする。すなわ
ち、本実施形態では、入力層ニューロンiの影響度は次
式で定義される。ただし、次式では、影響度は、区間
[0,1]に規格化してある。
【0036】
【数5】 ここで、入力層のある部分が出力結果に対して影響が少
ないということは、学習の際にその部分に対する入力に
あまり変化がなかったことを意味する。従って、影響度
の値が小さい入力層ニューロンは、NNが学習した各パ
ターンの共通部分に対応するニューロンと考えることが
できる。例えば、『うかんむり』を部首とする漢字の識
別を学習したNNでは、この『うかんむり』の部分が各
パターンに共通する部分であり、この部分の入力は認識
結果にほとんど影響しない。従って、NNの入力層にお
いて『うかんむり』の部分に対応するニューロンは、影
響度が小さくなる。
【0037】本実施形態では、このような影響度の小さ
い入力層ニューロンを、NNの学習したパターン群に典
型的な部分を示すニューロンと捉え、典型入力層ニュー
ロンと名付ける。そして、各単位NNから典型入力層ニ
ューロンを抽出し、高次NNの入力層を構成する。
【0038】具体的には、典型入力層ニューロンは、次
式のような集合である。
【0039】
【数6】 上式(6)において、θは典型入力層ニューロンを選抜
するための0以上1以下のしきい値であり、Rは実数の
集合を示す。この式(6)を満たす入力層ニューロンi
が典型入力層ニューロンに選ばれる。集合Mは典型入力
層ニューロンの集合である。
【0040】一つの単位NNから選ばれた典型入力層ニ
ューロン群は、その単位NNが学習したパターン群の共
通部分に対応している。そして、この共通部分は、単位
NNの学習したカテゴリを代表する高次概念を表してい
ると捉えることができる。従って、各単位NNから抽出
した典型入力層ニューロンを組み合わせて高次NNの入
力層を構成すれば、この高次NNは、入力パターンが属
する高次概念の判別、すなわち入力パターンがどの単位
ニューラルネットワークに対応するかの判別に用いるこ
とができる。もっとも、高次NNはすぐに入力パターン
の高次概念を判別できるわけではなく、これを可能とす
るには高次NNに対して高次概念の判別を学習させる必
要がある。このためには、高次NNに、パターンを入力
すると共に、その入力パターンが属する高次概念を示す
コードを教師データとして与えることにより、学習を行
わせればよい。
【0041】このようにして学習が完了した高次NNを
各単位NNと結合することにより、図1に示すような大
規模NNが構成できる。
【0042】なお、以上では、影響度を、式(5)のよ
うに入力に対する出力の変化の総和の形で定義し、この
影響度に基づき典型入力層ニューロンを定義した。しか
し、典型入力層ニューロンは、単位NNが学習したパタ
ーン群において変化が少ない部分に対応するニューロン
と捉えられるので、次式のように定義してもよい。
【0043】
【数7】 上式(7)では、入力層ニューロンiの影響度mi を、
当該入力層ニューロンiへの入力Ii の時間変化率の積
分(ただし、変化率の絶対量をみるためにここでは二乗
したものを積分している)と定義している。この式にお
ける入力1Iiは、当該単位NNの学習で用いた学習パ
ターンにおいて、入力層ニューロンiに入力される部分
の値である。従って、入力Ii の時間変化率は、各学習
パターンを一定の時間間隔ごとに順に入力していった場
合の、入力層ニューロンiでの入力値の変化を表す。式
(7)でも、θは典型入力層ニューロンを選抜するため
のしきい値を表す。
【0044】この方法では、学習に用いた各学習パター
ンの共通部分に対応する入力層ニューロンの影響度が小
さくなり、そのような入力層ニューロンが典型入力層ニ
ューロンとして選別される。この方法は、個々のニュー
ロンがある程度の大きさを持った物理的な存在であり、
情報の伝播にも局所性があることを考えた場合、より自
然な影響度の定義ということができる。
【0045】この方法によれば、各入力層ニューロンの
影響度を、出力層とは無関係に当該入力層ニューロンに
対する入力値のみから求めることができ、このようにし
て求めた影響度に基づき典型入力層ニューロンを求める
ことができる。
【0046】なお、式(7)では、影響度を入力の時間
変化率の積分と定義したが、その式における時間は、学
習パターンの変化を表すために導入したものなので、時
間を用いずに、n番目の学習パターンと(n+1)番目
の学習パターンとの間で入力層ニューロンiに対応する
部分の値の差分を取り、その差分を全学習パターンにつ
いて総和した結果を影響度と定義することもできる。
【0047】[実施形態1]ここでは、本発明を漢字認
識に適用した場合の例について説明する。この例は、印
刷文字認識、手書き文字認識のいずれにも適用可能であ
る。
【0048】図3は、本実施形態の大規模NN構築方法
の手順を示すフローチャートである。以下、図3を参照
して本実施形態の処理手順を説明する。
【0049】本実施形態では、まず複数の単位NN(A
1 ,A2 ,…,An )を用意し、それら各単位NNに対
して学習させる(S10)。各単位NNは、それぞれ異
なるカテゴリの漢字の識別を学習する。ここでは、漢字
を部首によってカテゴリ分けする。すなわち、各単位N
Nは、『うかんむり』、『てへん』、『にんべん』など
特定のカテゴリの漢字の識別を学習する。
【0050】図4に、単位NNの構成を概念的に示す。
図4において、単位NNは、入力層32、中間層33及
び出力層34から構成され、入力層32にはスキャナ等
から取り込まれた画像31が入力される。入力層32か
ら出力層34まではフィードフォワード結合がなされて
いる。文字認識処理においては、文字のドットパターン
そのもの、つまり各画像又はブロックの輝度値に基づき
認識を行う方法のほかに、文字の方向特徴などの特徴抽
出を前処理として行い、この特徴情報に基づき認識を行
う方法や、前処理で得られた特徴情報とドットパターン
とを併用して認識精度を高める方法など、が知られてい
る。本発明は、これら前処理の方式に限定されるもので
はなく、NNによる認識処理一般に広く適用可能なの
で、説明を簡単にするために以下では最も単純なドット
パターンを入力する場合を例にとって説明する。
【0051】簡単のため、入力層32にはニューロンが
平面上に一様に整列配置されているものとする。従っ
て、各入力層ニューロンは、画像31上の各位置にそれ
ぞれ対応しており、画像31からそれぞれ対応する位置
のデータ値を入力として取り込む。これら入力層ニュー
ロンに内部状態を持たせて閾値処理などを行わせてもよ
いが、これも話を単純にするために、入力層ニューロン
には内部状態を仮定せず、各入力層ニューロンは入力さ
れた値をそのまま出力するものとする。
【0052】出力層34には、当該単位NNが認識すべ
き全漢字を識別できる出力パターンを表現できる数のニ
ューロンが設けられればよく、従ってニューロン数を減
らそうとすれば、分散表現(いくつかのニューロンの組
み合わせで1つの文字を表す方法。例えば“0101”
というビット表現で“あ”を表現するような方法)によ
って各漢字を表現すればよい。しかし、以下では、説明
を簡単にするために、出力層ニューロンと漢字とは1対
1対応、すなわち出力層ニューロンの1つ1つがそれぞ
れ文字1字1字に対応するものとする。図4には、各出
力層ニューロンが、それぞれ各漢字に対応している様子
が示されている。なお、本発明は、上記いずれの出力方
式に対しても適用できることはいうまでもない。
【0053】単位NNの学習は、バックプロパゲーショ
ン法などの公知の学習アルゴリズムを用いて行われる。
図4は、『うかんむり』のカテゴリの漢字が学習された
様子を示している。
【0054】このようにして、各単位NNが、それぞれ
割り当てられたカテゴリの認識を学習する。
【0055】各単位NNの学習がすべて完了すると、次
に各単位NNごとに入力層ニューロンの影響度を計算し
(S12)、これに基づき、各単位NNからそれぞれ典
型入力層ニューロンを抽出する(S14)。すなわち、
各単位ネットごとに、実施形態の原理において説明した
計算式(式(5)及び(6)、又は式(7))に従い、
各入力層ニューロンの影響度を求め、典型入力層ニュー
ロンを選び出す。この結果、例えば図4の単位NNで
は、『うかんむり』の部分に対応する各入力層ニューロ
ンが典型入力層ニューロンとして抽出される。この処理
を各単位NNについて行うことにより、各単位NNから
それぞれ典型入力層ニューロンを求める。
【0056】次に、各単位NNから抽出された典型入力
層ニューロンから高次NNを生成する(S16)。より
詳しくは、各典型入力層ニューロンから入力層を構成す
ると共に、単位NNの数に等しいだけのニューロンを持
つ出力層を構成し、これらを中間層を介してフィードフ
ォワード結合することにより高次NNを生成する。すな
わち、本実施形態の高次NNの出力層ニューロンは、そ
れぞれ各単位NN、すなわち各カテゴリに対応する。
【0057】高次NNの構成例を図5に示す。図5の例
では、『うかんむり』のカテゴリを学習した単位NN
と、『てへん』のカテゴリを学習した単位NNとに基づ
き生成される高次NNを示している。高次NNも、単位
NNと同様、入力層42、中間層43及び出力層44か
ら構成され、これら各層がフィードフォワード結合され
ている。高次NNでは、入力層42は、『うかんむり』
に対応する典型入力層ニューロンと『てへん』に対応す
る典型入力層ニューロンとから構成されている。すなわ
ち、S16では、高次NNの入力層には、各単位NNか
ら抽出された各典型入力層ニューロンに対応する各位置
に、入力層ニューロンが配置される。すなわち、図5の
高次NNは、入力される画像41のうち、『うかんむ
り』及び『てへん』に対応する部分のデータのみを注目
して認識処理を行うことになる。そして、出力層44に
は、識別すべき2つのカテゴリ(『うかんむり』及び
『てへん』)に対してそれぞれニューロンが設けられて
いる。
【0058】このような高次NNが生成されると、次に
この高次NNに対してカテゴリの識別(すなわち単位N
Nの選択)を学習させる(S18)。具体的には、高次
NNに対して、各単位NNの学習に用いた学習パターン
を入力データとして与えると共に、出力層に対して、そ
の学習パターンの属するカテゴリ(すなわち学習パター
ンに対応する単位NN)に対応するニューロンの値が1
で他のニューロンの値が0である教師データを与え、バ
ックプロパゲーション法などにより学習を行わせる。こ
の学習を、入力パターンに対応するカテゴリが所定以上
の認識率で認識可能となるまで繰り返す。
【0059】なお、本実施形態では、高次NNの出力層
は、簡単のためニューロンと識別結果(カテゴリ)とを
1対1対応させたものとするが、本発明は、高次NNの
出力層で分散表現を採用する場合にも適用可能であるこ
とはいうまでもない。分散表現を採用する場合には、学
習において教師データとして各カテゴリ(単位NN)に
対応するビット配列を出力層に与えればよい。
【0060】このようにして高次NNの学習が完了する
と、最後にこの高次NNの出力に対して各単位NNを結
合して構造化することにより、大規模NNを構築する
(S20)。
【0061】図6に、以上の手順によって構築された大
規模NNの構成を概念的に示す。図6では、高次NN4
0の各出力層ニューロン44に対して、それぞれ『うか
んむり』の漢字を識別する単位NN30及び『てへん』
の漢字を識別する単位NN50が、それぞれリンク45
及び46により結合されている。ただし、これらリンク
45及び46は、出力層ニューロンからの出力値が単位
NNに伝送されるという物理的な結合ではなく、制御の
流れを表す論理的な結合を示す。すなわち、リンクは、
高次NNの出力結果に従って複数の単位NNのいずれか
が選択されるという意味での結合を示している。図6の
例では、入力画像41として『宙』が高次NN40に入
力されると、高次NN40により当該入力が『うかんむ
り』のカテゴリに属すると識別される。この結果、その
入力画像は、『うかんむり』のカテゴリを対象とした単
位NN30に入力され、この単位NN30が当該入力画
像について詳細な認識処理を行う。この結果、単位NN
30にて、当該入力画像が漢字『宙』であることが認識
される。
【0062】次に、本実施形態の方法を実施するための
装置構成について、図7を参照して説明する。図7にお
いて、単位NN群60には、複数の単位NN60aが含
まれる。一方、学習パターンデータベース61には、各
単位NN60aの学習に用いる学習パターンが格納され
ている。学習パターンデータベース61において、パタ
ーン記憶部63は各学習パターンを格納し、対応テーブ
ル62は各学習パターンがどのカテゴリに属するか、す
なわち各学習パターンがどの単位NNに対応するもので
あるか、を示す対応情報を保持している。各学習パター
ンのカテゴリ分けは予め行われているものとする。本実
施形態の装置では、まず、この学習パターンデータベー
ス61の情報を用いて、各単位NN60aをそれぞれ対
応するカテゴリの学習パターン群にて学習させる。
【0063】ニューロン抽出部64は、学習済みの各単
位NN60aから典型入力層ニューロンを抽出するため
の構成であり、入出力記憶部65、影響度演算部66、
及び典型入力層ニューロン判別部67を含む。入出力記
憶部65は、学習済みの各単位NN60aの入力及び出
力が互いに関係づけて記憶される。すなわち、本実施形
態では、学習が完了した単位NN60aに対して、当該
単位NN60aが学習に用いた学習パターン群の各パタ
ーンデータが学習パターンデータベース61から入力さ
れ、それら各パターンを入力したときの各入力層ニュー
ロンiの入力値Ii 及び各出力層ニューロンkの出力値
k が入出力記憶部65にそれぞれ記憶される。次に、
影響度演算部66は、入出力記憶部65に記憶された入
出力値に基づき、前記式(5)式又は式(7)に基づ
き、単位NN60aの各入力層ニューロンiの影響度m
i を算出する。そして、典型入力層ニューロン判別部6
7は、式(6)又は式(7)を用い、単位NN60aの
入力層ニューロンの中から典型入力層ニューロンを選び
出す。入出力記憶部65、影響度算出部66及び典型入
力層ニューロン判別部67は、これらの処理を各単位N
N60aについて行い、各単位NN60aそれぞれにつ
いて典型入力層ニューロン群を求める。求められた典型
入力層ニューロンの情報は、例えば当該典型入力層ニュ
ーロンの番号iの形で出力される。
【0064】高次NN生成部68は、ニューロン抽出部
64から入力される典型入力層ニューロンの情報に基づ
き、高次NN70を生成する。高次NN生成部68は、
まず入力層として各単位NN60aから抽出された典型
入力層ニューロンに対応する各位置にニューロンを配置
し、出力層として単位NN60aの数に等しいだけのニ
ューロンを設ける。そして、入力層と出力層の間に適切
な数のニューロンを有する中間層を設け、これら各層の
ニューロン同士をフィードフォワード結合することによ
り高次NN70を生成する。なお、出力結果を分散表現
で表示して、出力層のニューロン数を減らすことも可能
である。
【0065】次に、このようにして生成された高次NN
70に、学習パターンデータベース61のパターン記憶
部63に記憶された学習パターンの一部を順次入力し、
学習パターンの各カテゴリに分類できるよう学習を行わ
せる。この学習においては、入力した学習パターンのカ
テゴリの情報が対応テーブル62から読み出され、この
カテゴリを表す教師信号が高次NN70の出力層に供給
される。
【0066】高次NN70の学習が完了すると、構造化
処理部69が高次NN70の出力と各単位NN60aと
を論理的に結合して構造化することにより、大規模NN
75が完成する。
【0067】図8は、本実施形態において構築される大
規模ニューラルネットワーク装置の概略構成を示してい
る。
【0068】図8において、画像入力部81は、認識の
対象となる画像を装置内に取り込むための機構であり、
例えばスキャナなどが該当する。制御部84は、高次N
N82及び各単位NN83のデータの入出力を制御す
る。すなわち、ユーザインタフェース85を介してユー
ザから認識処理の実行命令が入力された場合、制御部8
4は、画像入力部81を起動して画像パターンを取り込
み、この画像パターンを高次NN82に入力する。そし
て、制御部84は、高次NN82から出力されるカテゴ
リ識別結果をモニタし、このカテゴリに対応する単位N
N83に対して画像パターンを供給する。そして、単位
NN83によって得られた認識結果がユーザインタフェ
ース85によって表示される。
【0069】なお、図8の大規模NN装置は、認識結果
のレベルを設定し、当該設定レベルに応じた認識結果を
表示することもできる。すなわち、認識処理の目的によ
っては当該パターンの属するカテゴリ(漢字認識の場合
は、例えば部首)が分かるだけでよい場合もあり、図8
の装置はこのような場合にも対応することができる。こ
の場合、ユーザがユーザインタフェース85から認識レ
ベルの指示を入力すると、制御部84は、その指示がカ
テゴリレベルであれば高次NN82の出力結果をユーザ
インタフェース85に表示させる。この場合、単位NN
83には、入力画像を供給しない。そして、ユーザから
の指示が個別パターン識別レベルであれば、制御部84
は、単位NN83の出力をユーザインタフェース85に
表示させる。
【0070】以上説明したように、本実施形態によれ
ば、人間が構造設計などを行わなくても、機械的な処理
にて大規模NNを構築することができる。また、本実施
形態によれば、大規模NNを、単位NNと高次NNとの
結合構造として構成したことにより、単純なフィードフ
ォワード構造のままでニューロンの数を増やして大規模
化する方式よりも、学習時間を大幅に短縮することがで
きる。すなわち、本実施形態の方式よれば、大規模NN
が機能するために必要な学習の時間は個々の単位NNの
学習時間と高次NNの学習時間との和であり、これは単
位NNの学習時間を仮に平均して1とし、高次NNの学
習時間もこれと同じオーダーとし、単位NNの数をn個
とすると、(n+1)程度の時間である。これに対し
て、同規模のNNを単純なフィードフォワード構造のN
Nとして構築した場合、ニューロン数は単位NNのn倍
程度になると考えられるので、リンクの数は単位NNの
2 程度となり、学習に要する時間も同程度すなわちn
2 程度のオーダーと、膨大なものとなる。この例から
も、本実施形態の利点は明らかであろう。
【0071】また、本実施形態では、個々の単位NNや
高次NNは比較的小規模となるため、学習の収束性は良
好である。また、すでに構築されている小規模なNNが
存在する場合には、それらを単位NNとして利用してさ
らに大規模なNNを構築することができる。この場合、
大規模NNの構築のために要する時間は、実質的に高次
NNの学習のみに必要な時間だけである。また、本実施
形態の高次NNは、入力層が典型入力層ニューロンのみ
から構成されているので、学習の収束性は高く、学習に
要する時間も短くて済む。
【0072】なお、以上の例は、漢字を部首によってカ
テゴリ分けするという直観的に分かりやすい例であった
が、本実施形態は、カテゴリの高次概念が直観的にはわ
かりづらい場合であっても、高次概念を代表する典型入
力層ニューロンを自動的に抽出して高次NNを構成する
ことができる。
【0073】なお、本実施形態において求められる典型
入力層ニューロンは、単位NNが認識対象とする各パタ
ーンの共通部分に対応するので、原理上、典型入力層ニ
ューロンがなくても対象パターンの認識は可能である。
そこで、本実施形態の変形例として、各単位NNからそ
れぞれ各自の典型入力層ニューロンを除去すれば、各単
位NNにおける認識処理を高速化することができる。こ
れを実現する方法としては、次の2つが考えられる。
【0074】一つは、大規模NN構築の過程において、
典型入力層ニューロンを求めた段階で、各単位NNから
典型入力層ニューロンを除去してしまうという方法であ
る。典型入力層ニューロンの具体的な除去の方法として
は、例えば典型入力層ニューロンの入力をマスクしてし
まう方法が考えられる。もう一つの方法は、大規模NN
が構築されてしまった後、個々のパターンを認識する際
に、入力パターンのうち典型入力層ニューロンに対応す
る部分をマスクして単位NNに供給するという方法であ
る。この方法を例えば図8の構成において実現する場合
には、制御部84に各単位NN83の典型入力層ニュー
ロンを登録しておき、高次NN82の識別結果に基づい
て単位NN83にパターンを入力する際に、制御部84
が当該単位NN83の典型入力層ニューロンに対応する
部分をマスクする。これらいずれの方法を用いた場合で
も、単位NNの規模が小さくなるため、認識処理に要す
る時間が短縮される。
【0075】
【0076】
【0077】
【0078】
【0079】
【0080】以上、本発明の好適な実施形態について説
明した。以上の各実施形態では、本発明の文字認識や画
像認識などへの適用例について説明したが、本発明は広
くニューラルネットワーク一般に適用可能であり、音声
認識や経済指標分析など他の分野にも適用可能である。
【0081】
【発明の効果】以上説明したように、本発明によれば、
現実的な時間、コストで大規模ニューラルネットワーク
を構築することができるとともに、典型入力層ニューロ
ンの抽出などのすべての処理が、人間の知識や洞察など
を必要としない機械的な処理で実現できるので、事前の
ルール分析やそれに基づくニューラルネットワークの構
造設計などは不要となり、労力や時間を大幅に節減する
ことができる。
【0082】また、本発明では、学習済みの各単位ニュ
ーラルネットワークについて、各入力層ニューロンごと
に入力値の変化に対する出力層の出力結果の変化率を調
べることにより、典型入力層ニューロンを求めることが
できる。
【0083】また、本発明では、各単位ニューラルネッ
トワークについて、対応する学習パターン群を入力した
場合の各入力層ニューロンの入力値の変化率を調べるこ
とにより、典型入力層ニューロンを求めることができ
る。
【0084】また、本発明では、大規模ニューラルネッ
トワークを形成する工程において、前記各単位ニューラ
ルネットワークから、それぞれ各自の典型入力層ニュー
ロンを除去することにより、大規模ニューラルネットワ
ークにおける各単位ニューラルネットワークの規模が小
さくなり、各単位ニューラルネットワークの計算効率を
向上させることができる。
【0085】
【0086】また、本発明に係る大規模ニューラルネッ
トワーク構築装置によれば、典型入力層ニューロンの抽
出などのすべての処理が機械的な処理で実現できるの
で、大規模ニューラルネットワーク構築の効率を向上さ
せることができる。
【0087】 また、本発明により作成されるニューラ
ルネットワーク装置は、多くの認識対象を認識すること
ができるとともに、構築の際の学習時間や必要とするメ
モリ資源などが少なくて済む。
【0088】 また、単位ニューラルネットワークに対
して入力パターンを入力する際に、入力パターンのうち
で当該単位ニューラルネットワークの典型入力層ニュー
ロンに対応する箇所をマスクすることにより、単位ニュ
ーラルネットワークに入力されるパターンのデータ量が
小さくなるため、認識処理の速度が向上する。
【0089】 また、出力結果のレベルに関するユーザ
の指示入力を受け付け、この指示入力に応じて前記高次
ニューラルネットワークの認識結果及び前記各単位ニュ
ーラルネットワークの認識結果のいずれかを選択して出
力することにより、ユーザの所望するレベルの認識結果
を出力することができる。
【図面の簡単な説明】
【図1】 本発明に係る大規模ニューラルネットワーク
の構成を示す概念図である。
【図2】 フィードフォワード型のニューラルネットワ
ークの構造を示す図である。
【図3】 本発明に係る大規模ニューラルネットワーク
構築方法の処理手順を示すフローチャートである。
【図4】 実施形態1における単位ニューラルネットワ
ークの構成を示す説明図である。
【図5】 実施形態1における高次ニューラルネットワ
ークの構成を示す説明図である。
【図6】 実施形態1における大規模ニューラルネット
ワークの構成を示す説明図である。
【図7】 本発明に係る大規模ニューラルネットワーク
構築装置の構成を示す図である。
【図8】 本発明に係る大規模ニューラルネットワーク
装置の構成を示す図である
【符号の説明】
10 単位NN(ニューラルネットワーク)、11 入
力層ニューロン、12中間層ニューロン、13 出力層
ニューロン、20 高次NN、60 単位ニューラルネ
ットワーク群、61 学習パターンデータベース、62
対応テーブル、63 パターン記憶部、64 ニュー
ロン抽出部、65 入出力記憶部、66 影響度演算
部、67 典型入力層ニューロン判別部、68 高次ニ
ューラルネットワーク生成部、69 構造化処理部、7
0 高次ニューラルネットワーク、75 大規模ニュー
ラルネットワーク。
フロントページの続き (56)参考文献 特開 平4−175964(JP,A) Mark W. Mao and J ames B. Kuo,”A Cod ed Block Adaptive Neural Network Sys tem With a Radical −Partitioned Struc ture for ・・・”,Neur al Networks,1992年 9 月,Vol.5, No.5,pp. 835−841,ISSN:0893−6080 久間、中山,「ニューロコンピュータ 工学」,日本,株式会社工業調査会, 1992年 2月 3日,初版,pp.33− 36,ISBN:4−7693−5053−8 鈴木良次・他,「ニューロ・ファジ ィ・AIハンドブック」,日本,株式会 社オーム社,1994年 5月25日,初版, pp.600−604,ISBN:4−274− 03446−1 萩原将文,「ニューロ・ファジィ・遺 伝的アルゴリズム」,日本,産業図書株 式会社,1994年 9月12日,初版,p p.124−126,ISBN:4−7828− 5539−7 大友照彦・他,「神経回路モデルを用 いた手書き漢字の2段階認識法」,電子 情報通信学会論文誌,日本,社団法人電 子情報通信学会,1991年 2月25日,V ol.J74−D−II, No.2,p p.158−165,ISSN:0915−1923 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G06K 9/00 - 9/03 G06K 9/46 - 9/52 G06K 9/62 - 9/82 G06T 7/00 G06T 7/20 - 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 複数の単位ニューラルネットワークを、
    それぞれ対応する学習パターン群を用いて学習させる手
    段と、 各単位ニューラルネットワークそれぞれについて、出力
    層の出力結果に対する影響度が所定値以下の典型入力層
    ニューロンを求める手段と、 各単位ニューラルネットワークについて求められた典型
    入力層ニューロンを入力層に配した高次ニューラルネッ
    トワークを構築する手段と、 前記各学習パターン群に含まれる学習パターンを前記高
    次ニューラルネットワークに入力し、学習パターンに対
    応する単位ニューラルネットワークを識別するよう学習
    させる手段と、 この学習の結果に基づき前記高次ニューラルネットワー
    クの各識別出力に対して各単位ニューラルネットワーク
    を対応づけ、大規模ニューラルネットワークを形成する
    手段と、 を含むことを特徴とする大規模ニューラルネットワーク
    構築装置。
  2. 【請求項2】 前記典型入力層ニューロンを求める手段
    は、学習済みの各単位ニューラルネットワークについ
    て、各入力層ニューロンごとに入力値の変化に対する出
    力層の出力結果の変化率を調べ、この変化率が所定値以
    下の入力層ニューロンを典型入力層ニューロンとするこ
    とを特徴とする請求項1に記載の大規模ニューラルネッ
    トワーク構築装置。
  3. 【請求項3】 前記典型入力層ニューロンを求める手段
    は、各単位ニューラルネットワークについて、対応する
    学習パターン群を入力した場合の各入力層ニューロンの
    入力値の変化率を調べ、この変化率が所定値以下の入力
    層ニューロンを典型入力層ニューロンとすることを特徴
    とする請求項1に記載の大規模ニューラルネットワーク
    構築装置。
  4. 【請求項4】 前記大規模ニューラルネットワークを形
    成する手段は、前記各単位ニューラルネットワークか
    ら、それぞれ各自の典型入力層ニューロンを除去したも
    のを、前記高次ニューラルネットワークの前記各識別出
    力に対応づけることを特徴とする請求項1〜請求項3の
    いずれかに記載の大規模ニューラルネットワーク構築装
    置。
  5. 【請求項5】 それぞれ別々の学習パターン群によって
    学習した複数の単位ニューラルネットワークを結合して
    大規模ニューラルネットワークを構築する装置であっ
    て、 前記各学習パターン群を記憶すると共に、各学習パター
    ン群と各単位ニューラルネットワークとの対応関係を記
    憶する学習パターン記憶部と、 各単位ニューラルネットワークについて、対応する学習
    パターン群を前記学習パターン記憶部から取り出し、こ
    の学習パターン群をそれら各単位ニューラルネットワー
    クに入力して学習させ、その学習による学習済みの各単
    位ニューラルネットワークの入力層ニューロンのうち、
    出力層の出力結果に対する影響度が所定値以下となる入
    力層ニューロンを当該単位ニューラルネットワークの典
    型入力層ニューロンとして求める典型ニューロン抽出部
    と、 各単位ニューラルネットワークの典型入力層ニューロン
    を組み合わせて入力層を形成し、これに中間層と、少な
    くとも前記各単位ニューラルネットワークを識別できる
    だけの出力パターンが表現可能な出力層とを付加して高
    次ニューラルネットワークを生成する高次ニューラルネ
    ットワーク生成部と、 生成された高次ニューラルネットワークに対して、前記
    学習パターン記憶部から取り出した学習パターン及びこ
    の学習パターンに対応する単位ニューラルネットワーク
    を示す識別パターンをそれぞれ入力データ及び教師デー
    タとして与え、高次ニューラルネットワークを学習させ
    る高次ニューラルネットワーク学習制御部と、 学習済みの前記高次ニューラルネットワークの各出力に
    対して各単位ニューラルネットワークを対応づけ、大規
    模ニューラルネットワークを構築するネットワーク構築
    部と、 を有することを特徴とする大規模ニューラルネットワー
    ク構築装置。
JP21466596A 1996-08-14 1996-08-14 大規模ニューラルネットワーク構築装置 Expired - Fee Related JP3485420B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21466596A JP3485420B2 (ja) 1996-08-14 1996-08-14 大規模ニューラルネットワーク構築装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21466596A JP3485420B2 (ja) 1996-08-14 1996-08-14 大規模ニューラルネットワーク構築装置

Publications (2)

Publication Number Publication Date
JPH1063632A JPH1063632A (ja) 1998-03-06
JP3485420B2 true JP3485420B2 (ja) 2004-01-13

Family

ID=16659546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21466596A Expired - Fee Related JP3485420B2 (ja) 1996-08-14 1996-08-14 大規模ニューラルネットワーク構築装置

Country Status (1)

Country Link
JP (1) JP3485420B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7428516B2 (en) * 2005-06-23 2008-09-23 Microsoft Corporation Handwriting recognition using neural networks
JP6164639B2 (ja) 2013-05-23 2017-07-19 国立研究開発法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、及びコンピュータプログラム
JP6818275B2 (ja) * 2017-05-25 2021-01-20 株式会社教育ソフトウェア 要因分析装置
EP4181033A4 (en) * 2020-07-10 2024-01-31 Panasonic Ip Man Co Ltd INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING SYSTEM

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3329806B2 (ja) * 1990-11-09 2002-09-30 株式会社日立製作所 ニューラルネット構築装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Mark W. Mao and James B. Kuo,"A Coded Block Adaptive Neural Network System With a Radical−Partitioned Structure for ・・・",Neural Networks,1992年 9月,Vol.5, No.5,pp.835−841,ISSN:0893−6080
久間、中山,「ニューロコンピュータ工学」,日本,株式会社工業調査会,1992年 2月 3日,初版,pp.33−36,ISBN:4−7693−5053−8
大友照彦・他,「神経回路モデルを用いた手書き漢字の2段階認識法」,電子情報通信学会論文誌,日本,社団法人電子情報通信学会,1991年 2月25日,Vol.J74−D−II, No.2,pp.158−165,ISSN:0915−1923
萩原将文,「ニューロ・ファジィ・遺伝的アルゴリズム」,日本,産業図書株式会社,1994年 9月12日,初版,pp.124−126,ISBN:4−7828−5539−7
鈴木良次・他,「ニューロ・ファジィ・AIハンドブック」,日本,株式会社オーム社,1994年 5月25日,初版,pp.600−604,ISBN:4−274−03446−1

Also Published As

Publication number Publication date
JPH1063632A (ja) 1998-03-06

Similar Documents

Publication Publication Date Title
Chiang Choquet fuzzy integral-based hierarchical networks for decision analysis
JP2940933B2 (ja) パターン認識方式
Murtagh Multilayer perceptrons for classification and regression
Ebadzadeh et al. IC-FNN: a novel fuzzy neural network with interpretable, intuitive, and correlated-contours fuzzy rules for function approximation
CN111368926B (zh) 图像筛选方法、装置和计算机可读存储介质
Zhang et al. Spiking echo state convolutional neural network for robust time series classification
CN113749657A (zh) 一种基于多任务胶囊的脑电情绪识别方法
Rabuñal et al. A new approach to the extraction of ANN rules and to their generalization capacity through GP
Tsang et al. Refinement of generated fuzzy production rules by using a fuzzy neural network
JP3485420B2 (ja) 大規模ニューラルネットワーク構築装置
McAulay et al. Improving learning of genetic rule-based classifier systems
CN113255543A (zh) 基于图卷积网络的面部表情识别方法
Valdez et al. Ant colony optimization for the design of Modular Neural Networks in pattern recognition
CN114254686A (zh) 对抗样本的识别方法及装置
Kim et al. Facial emotional expression recognition with soft computing techniques
Al-Nima et al. Design a technology based on the fusion of genetic algorithm, neural network and fuzzy logic
CN114943330A (zh) 一种神经网络模型的训练方法、装置、设备及存储介质
JPH06266688A (ja) 大規模情報認識回路
Gaxiola et al. New Backpropagation Algorithm with Type-2 Fuzzy Weights for Neural Networks
Zhang Granular Neural Networks
Smith et al. Variable activation functions and spawning in neuroevolution
Saxena et al. Analytical and Systematic Study of Artificial Neural Network
Barreiro-Gomez et al. Recurrent neural network ODE output for classification problems follows the replicator dynamics
JPH07152714A (ja) 部分線形回帰モデル
Hidalgo et al. Optimization of modular neural networks with interval type-2 fuzzy logic integration using an evolutionary method with application to multimodal biometry

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees