JP3329806B2 - ニューラルネット構築装置 - Google Patents

ニューラルネット構築装置

Info

Publication number
JP3329806B2
JP3329806B2 JP30244090A JP30244090A JP3329806B2 JP 3329806 B2 JP3329806 B2 JP 3329806B2 JP 30244090 A JP30244090 A JP 30244090A JP 30244090 A JP30244090 A JP 30244090A JP 3329806 B2 JP3329806 B2 JP 3329806B2
Authority
JP
Japan
Prior art keywords
input
neural network
output
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30244090A
Other languages
English (en)
Other versions
JPH04175964A (ja
Inventor
重夫 阿部
昌宏 鹿山
寛 武長
泰男 諸岡
潤三 川上
政雄 高藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP30244090A priority Critical patent/JP3329806B2/ja
Priority to US07/744,263 priority patent/US5546503A/en
Publication of JPH04175964A publication Critical patent/JPH04175964A/ja
Application granted granted Critical
Publication of JP3329806B2 publication Critical patent/JP3329806B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24317Piecewise classification, i.e. whereby each classification requires several discriminant rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2451Classification techniques relating to the decision surface linear, e.g. hyperplane

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、多層ニューラルネットを構築する装置、並
びに多層ニューラルネットの各種の応用装置(認識,予
測,推定,関数近似,制御等を行う装置)に関する。
〔従来の技術〕
ニューラルネットワークを用いてパターン認識,予
測,推定,関数近似,制御等を行なう方法について、エ
ム・アイ・ティー プレス(1986年)パラレル ディス
トリビューティド プロセシング第318頁から362頁(Pa
rallel Distributed Processing,Vol.1,MIT Press,Camb
ridge MA,1986 pp318−362)において論じられてい
る。
ここでパターン認識を例にとってニューラルネットを
説明する。ニューラルネットは、ニューロンをカスケー
ド状に多層に結合したもので第2図は3層ニューラルネ
ットの例を示している。図において1000,1001は入力ニ
ューロン、1003,1004は中間層ニューロン、1006,1007は
出力ニューロン、1002,1005はバイアスニューロンであ
る。入力及びバイアスニューロンは、入力をそのまま出
力するが、中間層及び出力ニューロンは、第3図に示す
ようなシグモイド関数と呼ばれる飽和特性のある入出力
関係を持ち入力をx、出力をZとすると となる。ここでTは、シグモイド関数の傾きを決める定
数である。
入力側から各層の番号を打つとし、i番目の層j番目
のニューロンの入力、及び出力を各々xj(i),Z
j(i)とすると、入力ニューロンの入出力関係は、上
述したことにより、 xj(i)=Zj(i) j=1,…,n(i),i=1 Zn(i)+1(1)=1 ……(2) となる。ここでn(i)はi番目の層への入力数であ
り、Zn(i)+1(1)はバイアス項となる。
第2、及び第3層のi番目のニューロンの出力は、 Zj(i)=f(xj(i)) j=1,…,n(i),i=2,3 Zn(i)+1(i)=1 i=2,3 ……(3) となる。ここでZn(i)+1(i)はバイアス項である。
各層間のニューロンはシナプスを介して完全に結合さ
れており、各シナプスは重みを持ち、ニューロンの出力
にその重みを乗じたものを次段のニューロンへの入力と
する。従って第2,3層目のj番目のニューロンへの入力
は次式で与えられる。
xj(i)=wj(i−1)Z(i−1) i=2,3,j=1,…n(i−1) ……(4) 但し、 wj(i−1)=(wj1(i−1),…,wj,
n(i-1)+1(i−1))は重みベクトルでwjk(i−1)
は、(i−1)番目の層のk番目のニューロンとi番目
の層のj番目のニューロンの間のシナプスの重みであ
り、 Z(i−1)=(Z1(i−1),…,Zn(i-1)(i−
1),1)は(i−1)層ニューロンの出力ベクトル
で、tは行列の転置を示している。
上記のニューラルネットで入力データをn(3)個の
パターンで分離する場合は、i番目の出力ニューロンを
パターンiに対応させ、ある入力に対してi番目の出力
ニューロンが1で他が0のときパターンiであるという
ように判定する。このようにパターン分離ができるため
には、重みwij(i)(i=2,3)を適切に決める必要が
あるが、そのために入出力データを教師データとして学
習により重みを決める。今m個の教師データの値 {(xil(1),sjl)} i=1,…,n(1),j=1,…,n(3),l=1,…,m ……(5) とすると、 となるように重みwih(i)を決める。但しZjl(3)は
教師データ入力xil(1)に対応する出力ニューロンの
出力である。重みを決める方法としては、上記文献に示
されている逆伝播法が広く用いられている。この方法で
は、1組の教師データの入力xil(1),i=1,…,n
(1)に対して出力Zjl(3)がsjl j=1,…,n(3)
に近づくように出力側から順次入力側に重みを修正し、
それが終ったら次の教師データについて上記を同じ手順
を繰り返し、 |Zjl(3)−sjl|<ε ……(7) i=1,…,n(3),l=1,…,m が成り立つまで修正を繰り返す。但しεは、収束を判定
するための小さな正の数である。
このようにしてニューラルネットの重みを決定した後
で、未学習データに対するネットワークの出力を調べる
ことによりパターン認識が可能となる。
この方式では、入出力パターンに基づいた学習により
パターン識別ネットを構成できるため、識別アルゴリズ
ムを作る必要がないという大きな利点がある。
予測,推定等によりニューラルネットを用いる場合
は、ニューラルネット出力が離散値でなく連続値を取る
だけで本質的な差異はない。
このようなニューラルネットの構成特に多層ニューラ
ルネットの構成のうちとりわけ中間層ニューロン数を最
適化する手法として従来の装置は、電子情報通信学会技
術報告NC89−104,P85〜90における『淘汰機能を有する
バックプロパゲーション』に記載のように、中間層ユニ
ットを学習時に動的に追加,削除することにより、その
最適化を図っていた。
さらにIJCNN'90−WASH−DC,1−739〜1−742における
『Analysis of the Hidden Units of Back−Propagatio
n Model by Singular Value Decomposition(SVD)』に
記載のように、入力層と中間層の間のシナプスの重みを
行列化し、この行列のRANKの値に着目して中間層ニュー
ロン数を決定する方法が知られている。
〔発明が解決しようとする課題〕
上記従来技術のうち前者については、ニューロンを削
除するかどうか(本文中では不良ユニットかどうか)の
臨界値に対しては言及されておらず、最も不良なものを
次々と削除していく場合には、その都度学習を必要とす
るため、従来の試行錯誤的シミュレーションと変わりな
い演算量を必要とする。またこの操作を打切る指標につ
いて記載されていないため、最小構成の状態からさらに
削除した場合には、ネットワークが収束しなくなること
が問題となる。
また、後者の方式では、条件として中間層ニューロン
数は、入力層ニューロン数以下の値となるため、中間層
で情報が圧縮されるタイプのニューラルネットにしか適
用できないことが大きな問題となる。
また、入力層のニューロン数やその内容に関して、有
効な最適化手法は知られていない。
また、一旦学習したネットワークでパターン識別ある
いは予測等を行なったとき誤認識あるいは大きな予測誤
差が発生してもその対策は、その誤まったデータを追加
して再度学習するという方法しかなく識別あるいは、予
測等の精度を上げるために試行錯誤になるという問題が
あった。また逆伝播法は、教師データを一個ずつ逐次的
に処理するために学習が極めて遅いという問題があっ
た。
本発明の目的は、与えられた条件に対して最適なニュ
ーラルネットを構成する手法を提供することにある。与
えられた条件とは、(イ)ニューラルネットの規模の最
適化(例えば、入力層のニューロン数,中間層のニュー
ロン数,入力層と中間層のニューロン数の積を最小化す
るなどがある。)、(ロ)学習の精度の指定(ハ)学習
時間の指定(ニ)教師データ以外の入力データに対する
誤動作の最小化等ニューラルネットを構築する際に指定
する条件を言う。本発明の他の目的は、学習によって得
られたニューラルネットワークで未学習データに誤認識
あるいは大きな予測誤差が生じたときに、重みをチュー
ニングする、あるいはネットワークを再構築することに
よりこれらを回避する手段を提供することにある。本発
明の他のもう1つの目的は、高速な学習方式を提供する
ことにある。
〔課題を解決するための手段〕
本発明は、(イ)与えられた条件に対するニューラル
ネットの構築方法、(ロ)ニューラルネットの重みチュ
ーニング方法、(ハ)ニューラルネット再構築方法、
(ニ)学習の高速化方法、などに特徴を有するものであ
り、これらの独立した手段,方法のみならず、種々な組
合せにも夫々特徴がある。
以下問題を解決するための手段の一例を理論的に説明
する。
(イ)与えられた条件に対するニューラルネットの構築
方法 規模最適化するという条件のもとでパターン認識用ニ
ューラルネットを構築する方法について説明を行なうが
予測等の問題でも同様に適用が可能である。パターン認
識をニューラルネットで行なう場合は、教師データに対
するニューラルネットの出力は1あるいは0であり、シ
グモイド関数の飽和特性が極めて重要な意味を持つ。ニ
ューラルネットの出力(ニューラルネットの中間層又は
出力層のニューロンの出力)1,0に対応する出力ニュー
ロンへの入力は、+∞,−∞に対応するため、1,0を各
々1−ε,εとして、学習の打切りを(7)式で行なう
とすると、(7)式は、 ・sil=1−εのとき 1Zjl(3)1−2ε ……(8) ・sil=εのとき 2εZjl(3)0 ……(9) となる。これを出力ニューロンへの入力で考えると、第
4図に示す如く、 ・sil=1−εのとき ∞>xjl(3)α ……(10) ・sil=εのとき −αxjl(3)2−∞ ……(11) 但し α=−Tlog(1/(1−2ε)−1)=Tlog(1/2ε−1) 即ち出力側での有限な区間が入力側では半無限区間に
対応することになる。これにより(6)式の最小化が、
中間層と出力層の間の重みの決定に関しては、不等式を
解くことで求まりうることが分かる。ここでもう少し一
般化すれば1,0に対応する出力ニューロンの値は1−
ε′,ε′(ε′0)としたときε′εがあればよ
い。従ってε′=0としてもε>0ととれば上記と同じ
ことが言える。以下ではε=ε′(>0)として話を進
めるが、ε>ε′としても同じことが成り立つ。
ニューラルネットの重みは、超平面を記述する方程式
の係数と解釈できる。(4)式でxj(i)=0とすると wj(i−1)Z(i−1)=0 ……(12) は、n(i−1)次元空間の超平面を表わし、バイアス
項の重みwj,n(i-1)+1(i−1)の値を変えることは、
超平面を平行移動することに対応する。(1)式より
(12)式を満足するxj(i)に対応するZj(i)の値は
1/2となる。ここでn(i−1)次元の点(Z1(i−
1),…Zn(i-1)(i−1))は、 xj(i)>0あるいはZj(i)>1/2 ……(13) のとき超平面の正の側にあり、 xj(i)<0あるいはZj(i)<1/2 ……(14) のとき超平面の負の側にあるということにする。またあ
るパターンは、そのパターンに属する全ての教師データ
がk個の超平面の同じ側にあり、他のパターンのデータ
は存在しないとき、そのパターンはk個の超平面で単一
分離可能と呼ぶ。またあるパターンの教師データが単一
分離可能な集合に分割されるときそのパターンは分離可
能と呼ぶ。これら分離可能な超平面を以下分離超平面と
いう。
第5図の平面上の3つのパターンの分離を考える。3
つの平面P1,P2,P3の矢印は、平面の正の側を示すとし、
平面上の各点は教師データを示すとする。パターンIの
全ての教師データはP2,P3の正の側にあり他の教師デー
タは存在しないので、パターンIは平面P2,P3で単一分
離可能である。同様にパターンIVは平面P1,P2,P3で単一
分離可能である。また、パターンIIは単一分離可能な部
分集合からなるから分離可能である。
以上のことから次のことを示すことができる。n
(1)次元データをn(3)個のパターンに分離するこ
とを考える。n(1)次元空間にn(2)個の超平面が
存在し、n(3)個のパターン全てがn(2)個の超平
面の部分集合で単一分離可能なとき、入力n(1)個,
中間層ニューロンn(2)個,出力n(3)個の3層の
ニューラルネットでパターン分離が可能である。
これは次のようにして分かる。n(2)個の超平面を wj(1)Z(1)=0 j=1,…,n(2)……(15) とする。ここで Zj(2)=1/(1+exp(−xj(2)/T)), Zj(2)=wj(1)Z(1) j=1,…,n(2) ……(16) として、ニューラルネットの第1,第2層に対応するよう
にする。そうすると仮定により、教師データに対応する
Zi(2)は、 Zi(2)>1/2あるいはZi(2)<1/2 ……(17) のいずれかになる。
従ってwj(1)に正の定数をかけると、教師データに
対応するZj(2)を Zj(2)=1あるいはZj(2)=0 ……(18) のどちらかにすることができる。
次に出力と中間層ニューロンの間の重みを求める。出
力ニューロンの入力xi(3)を xi(3)=wi(2)Z(2) i=1,…,n(3) ……(19) で与えられるとする。wi(2)はi番目のパターンに対
してxi(3)が1−εでそれ以外のパターンに対して
は、εとなるように決めればよい。そのためには wi(2)Z(2)α パターンi ……(20) wi(2)Z(2)−α パターンi以外のパターン ……(21) とすればよい。
第5図のパターンIのようにパターンiがn(2)個
より少ない超平面で分離されるときは、分離に貢献して
いない平面に対応する重みを0とすればよいので、パタ
ーンiはn(2)個の平面で分離されると仮定する。こ
の仮定によりパターンiに対するZi(2),…,Z
n(2)(2)の出力は一意に決まる。ここで、 (Z1(2),…,Zn(2)(2))=(1,…,0,…,0) パターンi ……(22) とする。即ち最初のs個の出力が1で残りが0であると
する。
さらに wij(2)=2α j=1,…,s ……(23) wij(2)=−2α j=s+1,…,n(2) ……(24) とすると、(20),(21)式は各々次のようになる。
wi,n(2)+1(2)α−25α パターンi ……(25) パターンiは単一分離可能であるから、Zj(2)=0
がj=1,…,sのどれかのjで成立するか、Zj(2)=1
がj=s+1,…,n(2)のどれかのjで成立する。従っ
て(25),(26)式を満たすwi,n(2)+1(2)を決める
ことができる。それには例えばwi,n(2)+1(2)=α
(1−2s)とすればよい。
以上の証明より、もしパターンiが分離可能であるな
らば、3層目でパターンiの各々の分離領域を分離し、
4層目でそれらを合成することにより4層のニューラル
ネットで分離が可能となることが分かる。
なお同一パターンが超平面によりいくつかの領域に分
離されるときも、それらの領域が異なるパターンに対応
する領域と1つの超平面で分離できるときは3層で合成
することができる。
またここで証明を簡略化するために、中間層の出力を
1と0としたが、実際はその必要がない。
上記の手順を行なうと第5図の平面上の点の分離を行
なうニューラルネットは次のようになる。入力と中間層
の重みは、図の直線を表現する方程式の係数に設定す
る。このとき重みの符号は図の矢印の方向が正の側にな
るようにとる。重みに正の数をかけることにより中間層
の出力が1,0をとるようにすると各パターンに対する入
力は次のようになる。
パターンIでZ1(2)が1と0をとるが、Z2(2)と
Z3(2)がどちらの場合も1であるからZ1(2)はパタ
ーン分離に貢献していない。従ってパターンIは直線
P2,P3により単一に分離可能である。同様にパターンIV
は直線P1,P2,P3で単一に分離可能である。これに対しパ
ターンIIは分離可能である。従って第6図のようにネッ
トワークが構成される。図において、1010〜1012は入力
ニューロン、1013〜1016,1018,1019は中間層ニューロ
ン,1017,1020,1021は出力ニューロンである。1013,101
4,1015は各々直線P1,P2,P3に対応している。また1017,1
021,1020は各々パターンI,V,IVに対応しているパターン
Iは、直線P2,P3により単一分離可能であるから1013と1
017とはつながっていない。パターンIIは、2つの単一
分離可能な領域を合成することになるので4層ネットで
構成される。4層目の重みは、 となるように重みを決めればよいので w21+w41α w31+w41α w41−α が成立するようにとればよいので w41=−α とすれば、 w21+w31=2α とすればよい。
ここで1018,1019どちらの出力も1となることはない
がそのときも1021の出力は1となる。
以上の手順によればネットワーク規模を最小化でき
る。また分離平面を教師データのない境界上にとれるた
め誤認識に強いネットとすることができる。
規模を最適化するという条件を達成する別の手順とし
て、入力信号セットと出力信号セットからなる教師情報
(ニューラルネット系の入力と出力に関する既知の対応
関係)の内容を基に、ニューラルネット左の各シナプス
の重みを決定する同定手順を備えたニューラルネット構
築装置に、これらと情報交換しつつ動作するニューラル
ネット最適設計手順を備えたものである。
また該ニューラルネット最適設計手段に、入力信号最
適化手段と中間層ニューロン数最適化手段を備えたもの
である。
(ロ)ニューラルネットの重みのチューニング方法 (イ)の最初の方法でパターン認識を行なうネットワ
ークが構成されているとする。但しこのとき入力と中間
層の重みは、各パターンを分離するように設定されてい
ればよく、教師データに対する中間層出力が1,0となる
必要はない。各パターンを分離とは、各パターンの教師
データの少なくとも2つ以上教師データを含む部分集合
に対して、中間層出力Zi(2)が Zi(2)>1/2あるいはZi(2)<1/2 ……(27) のどちらかになっていることを言う。
未学習データxi(1),i=1,…,n(1)をニューラル
ネットに入力して、誤認識が生じたとき、xi(1)に対
応する中間層入力及び出力をxj(2),Zj(2)j=1,
…,n(2)とする。このとき、未学習データがパターン
kに属するとするとき、パターンkに対応する教師デー
タに対応する中間層の入力あるいは出力と比較し、未学
習データが教師データが存在しない超平面の側に存在す
る中間層ニューロンを検出する。このニューロンが誤認
識を生じる原因となっていることが分かる。
次にその中間層ニューロンの重みを調整し、未学習デ
ータが、同一パターンの学習データとその平面に対して
同一の側にあるようにする。このとき他のパターンに属
する教師データのその平面に対する位置関係を変えては
ならない。この調整の仕方としては例えば、超平面を平
行移動即ちバイアス項を変化させればよい。予測等を行
なう場合も、同様の方法により重みのチューニングが可
能である。
(ハ)ニューラルネット再構築方法 上記目的を達成するために、ニューラルネットの性能
(制御性能,認識率,汎化能力,予測情報等)を評価す
る手段と、性能が低下したときに教師データの内容を更
新する手段と、この後ニューラルネット系最適設計手段
に再度起動をかける再構築指令発生手段よりなるニュー
ラルネット再構築手段を備えたものである。
(ニ)学習の高速化方法 (イ)の考え方を用いれば従来のパターン認識の学習
法も高速化ができる。ここでxil(1),silの教師デー
タを用いて学習がある程度進んだ段階で、 ・sil=1に対して Zil(3)>1/2+εあるいはxil(3)>ε ……(28) ・sil=0に対して Zil(3)<1/2−εあるいはxil(3)<ε ……(29) が全てのi=1,…,n(3),l=1,…,mに対して成立する
か調べる。ここでε1は、学習の打切りを指定する
正の小さな定数である。もし成立すれば学習を終了し、 を求める。ここでMi<αのときwki(2)を次のように
修正する。
wki(2)←(α/Mi)wki(2),k=1,…,n(2)+1 ……(31) Miαのときはwki(2)を修正する必要はない。
ここで(28)あるいは(29)が成立すれば、パターン
は既に分離されているから、(30),(31)の手順で重
みを定数倍にすることによりネットワークの出力が1,0
になるように調整できる。
なおwki(2)だけの調整だけでなく、wij(1)が分
離超平面に対応するように調整した後にwki(2)を調
整した方が、誤認識に強いネットとすることができる。
〔作用〕
(イ)学習の打切りを(8),(9)式あるいは(1
0),(11)式とすることにより、中間層と出力層の重
みを不等式を解くことにより求めることが可能となる。
また入力層と中間層の重みを、パターンを分離する超平
面に対応させることにより、パターン分離を行なうニュ
ーラルネットを3層あるいは4層で構成できる。
また規模を最適化する別の方法で入力信号最適化手段
は、前記記憶手段の情報を取込み、実施例に詳述する手
法で、出力の決定に貢献している無意味な入力と、他の
入力の線形和で表わされる冗長な入力を指摘する。
中間層ニューロン数最適化手段は、同定を終えたネッ
トワークに、入力信号セットを入力し、このときの各中
間層ニューロンの出力の振舞いを分析する。
(ロ)入力と中間層の重みをパターンを分離する超平面
に対応させることにより、誤認識が生じたときに重みを
調整することにより誤認識を解消することができる。
(ハ)ニューラルネット再構築方法 ニューラルネットの性能を評価する手順は、教師デー
タに含まれない入力データに関し、対応するニューラル
ネットの出力が、所望の出力データとなっているかどう
かを検出する。そして所望の出力データが得られていな
いとき、性能が低下したことを判定する。このとき教師
データの内容を更新する手段は、所望の出力データが得
られなかった入力データと、これに対応する所望の出力
データの組合せを教師データに追加する。再構築指令発
生手段は、前に述べたニューラルネット最適設計手段を
駆動し、ニューロン数の最小化、シナプスの重みの再構
築を行う。
(ニ)全ての教師データが、パターン毎に分離された段
階で学習を終らせることにより、学習の高速化を図るこ
とができる。
〔実施例〕
以下、本発明の一実施例を第1図を用いて説明する。
図において、101はニューラルネット構築装置、102はニ
ューラルネット演算手段、103は記憶手段、105はニュー
ラルネット系最適設計手段である。102は、多層のニュ
ーラルネットの構成に基づいて入力信号に対する出力信
号を演算する手段である、入力に対する望ましい出力の
組合せ(教師データ)は、後述する第15図に示す記憶内
容のとおり、記憶手段103に記憶されており、ニューラ
ルネット系最適設計手段105は指定された条件と教師デ
ータとにより条件を満たすニューラルネットを構築す
る。
第7図に、ニューラルネット系最適設計手段105の処
理フローを示す。
ステップ10では、ニューラルネットを最初から構築す
る場合はステップ11へ、そうでないときはステップ12に
進む。
ステップ11では、ニューラルネットワークを構築し終
了する。
ステップ112では、誤りが生じたデータを教師データ
を用いて、ニューラルネットの重みをチューニングして
誤りを解消して処理を終了する。
ネットワーク規模の最小化及び誤認識に強いことを条
件にパターン認識用ネットを構築するステップ11の手順
を第8図に示す。
ステップ11において、教師データ(xil(1),sil
i=1,…,n(1),j=1,…,n(3),l=1,…,mを用いて
n(3)個のパターンに分離する平面を決定し、それに
よりニューラルネットの中間層数n(2)及び入力と中
間層間の重みWij(1)i=1,…,n(2),j=1,…,n
(1)を決める。
次にステップ112において、n(3)個の各パターン
に対して、(20),(21)式が成立するように重みWij
(2),i=1,…,n(3),j=1,…,n(2)を決める。
ここで111のステップにおける分離平面の決定は、例
えば、“パターン認識に学習機械”昭晃堂(昭和45年)
38頁−41頁の手順で行なうことができる。
また112のステップは、中間層の出力を1,0になるよう
に調整したときは、(22),(23)式に従って重みを決
め、また単一分離可能でないときは、3層あるいは4層
で合成する。1,0になるように調整していないときは、
(20),(21)式の不等式を解けば求めることができ
る。なお112のステップで分離に貢献していない中間層
ニューロンの出力は、対応する出力ニューロンには入力
しないようにする。
第7図のステップ12のパラメータチューニングのステ
ップは、第9図のようになる。即ち、先ずステップ121
において、誤認識を生じた入力データxi(1)i=1,
…,n(1)の中間層の入力xj(2)(あるいは出力Z
j(2))とそのデータに対応するパターンjの教師デ
ータの中間層の入力(あるいは出力)とを比較し、教師
データが存在しない超平面の側にある中間層ニューロン
を検出する。
次にステップ122において、検出された中間層ニュー
ロンに対して誤認識を生じたデータが同一パターン教師
データと同じ側になるように重みを調整する。このとき
その超平面により分離されている教師データの位置関係
を変えない範囲で調整する。それが終ったら第8図のス
テップ112と同じ手順で出力層の重みを調整する。
最も簡単な重みの調整法は、バイアス項を変えて、超
平面を平行移動することにより行なうことができるが、
第8図のステップ111と同じ方法を用いてもよい。
第7図のステップ11の別の実施例を第10図に示す。
先ず、ステップ113において、教師データ(x
il(1),sil)を用い、逆伝播法、その他の手法でニュ
ーラルネットの重みを修正する。
次にステップ114において、(28),(29)式が成立
していれば、収束したとして、ステップ115へ進む。そ
うでなければ、ステップ113へ戻る。
ステップ115においては、入力側の重みが分離超平面
となるように、重みをチューニングする。具体的には、
例えばバイアス項を変えて分離超平面を平行移動するこ
とにより行なう。
次にステップ116において、入力側の調整に従い、出
力側の重みを、第8図のステップ112と同じ手順で修正
する。このときもパターン分離貢献していない中間層ニ
ューロンと出力ニューロンとは結ばないことにする。
なお上の手順でステップ115を行なう必要はなく、そ
のときは、(30),(31)式の手順でWkj(2)を修正
すればよい。
第5図において、パターンVをパターンIIとパターン
IVの2つに分けて単一分離可能として、第10図の113,11
4のステップを実行したときの平面の学習結果を第11図
に示す。このとき113のステップの学習は、入力データ
を一括して層毎に重みを決める方式とした。このとき第
11図において、P1,P2,P3のバイアス項を調整して平行移
動させると、第5図のように各パターンを分離でき、11
5,116のステップを実行できる。
このようにすることにより誤認識に強いニューラルネ
ットを構築することができる。
以下、本発明の他の実施例を図に従って詳細に説明す
る。まず第12図により装置全体の構成を説明する。本実
施例でニューラルネット構築装置101は、入力信号に後
述する所定の演算を施した後出力するニューラルネット
演算手段102,入力信号に対するニューラルネット演算手
段102の操作として望ましい入力と出力の組合せ(以下
教師信号)を格納しておく記憶手段103と信号の交換を
行う。ニューラルネット構築装置101は記憶手段103に格
納されている教師信号を基に、ニューラルネット演算実
行手段102の演算定数を決定する同定手段104,記憶手段1
03の内容および同定手段104の学習結果を基に、ニュー
ラルネット演算手段102の最適な構成を決定するニュー
ラルネット系最適設計手段105から構成される。またニ
ューラルネット系最適設計手段105は、ニューラルネッ
ト演算手段102へ入力される入力信号の内容を最適化す
る入力信号最適化手段106と、102の内部構造である中間
層のニューロン数の最適な値を決定する中間層ニューロ
ン数最適化手段107からなる。以下各手段の機能を順次
詳細に説明する。
ニューラルネット演算手段102は第13図に示すよう
に、入力演算手段201,中間演算手段202,出力演算手段20
3により構成される。入力演算手段には、ニューラルネ
ット演算に必要な入力信号(制御応用の場合には制御対
象からの帰還信号,認識応用の場合には認識対象の図形
情報等)が入力される。また出力演算手段203からは演
算支結果として、制御指令や認識結果に対応した信号が
出力される。各演算手段は複数の演算単位204からな
る。演算単位204を結合するアーク205は演算単位間の信
号の流れを表わしており、図に示すように、隣接した演
算手段に含まれる演算単位と結合される。演算単位204
は入力アークにより結ばれている他の演算単位の出力値
を入力データとして取込み、後述する演算を行い、その
結果を出力アークにより結ばれている他の演算単位へ出
力する。第13図は0〜9の数字を認識するシステムにニ
ューラルネット演算装置101を適用した例を示してい
る。この場合入力演算手段201には数字を弁別するため
の特徴量として、図形に含まれる穴の数等が各ニューロ
ンに入力される。入力情報としてはこの他に、図形を適
当数に分割し、各領域の情報(画素があるかないか等)
を、領域に対応づけたニューロンに入力する方法も考え
られる。また出力演算手段203の各ニューロンは、例え
ば0〜9の各数字に対応したものが用意される。各出力
ニューロンは、割付けられた数字に該当した信号が入力
されたときアクティブとなり、これらの結果が出力され
る。
第14図に演算単位204が実行する演算の内容を中間演
算手段202に含まれる演算単位の動作を例にして示す。
他の演算単位からの入力値X1〜Xnを取込んだ後、各入力
値に対応した重みWiを乗じ、その結果を加算しuとす
る。すなわちuは、 で与えられる。uを定められた関数fで写像し、出力値
Yを決定する。関数fの形は種々考えられるが、一般に
広く用いられる例としてはシグモイド関数と呼ばれる。
(33)式の非線形飽和関数がある。
第14図は中間演算手段202に属する演算単位について
示したが、入力演算手段201に属する演算単位の場合、
入力は第13図から自明なように唯一となる。したがつて
第14図でn=1の場合と考えればよい。また出力演算手
段203に属する演算単位の場合には、逆に出力が唯一と
なる。ニューラルネット演算手段102の構成としては、
中間演算手段を2つ以上設けた多段構造や、入力演算手
段201の出力に直接出力演算手段203を結合した構成をも
考えられる。また入力演演算手段201の関数fによる変
換を省略することも考えられる。
記憶手段103は、ニューラルネット演算手段102におけ
る入力信号セットと出力信号セットの望ましい組合せを
データの対として、たとえば第14図に示す形態で記憶す
る。本実施例で入力信号セットは前述した図形情報によ
り構成され、出力信号セットは0〜9に対応しており、
例えば図のように該当する数字を1、他を0で与える。
これらは同定手段104における同定用のデータとして用
いられる。詳しくは後述するが記憶手段103には、この
他に同定結果の評価用データとして、第15図の形態で入
力信号セットと出力信号セットの対を格納しておくこと
も考えられる。
同定手段104は、記憶手段103に蓄えられている入力信
号セットと出力信号セットの組合せから、学習によりそ
れらの関係を同定する。同定は(32)式に示した各ニュ
ーロンのシナプスの重みWiの変更により行われ、最終的
な同定結果によりニューラルネット演算手段102へ転送
されるシナプスの重みが決定される。第16図の同定手段
104の構成を示す。本実施例では、繰返しの学習により
同定を行う例を示す。ニューラルネット演算模擬手段50
0に含まれ、ニューラルネット演算手段102の構成に対応
した、入力演算手段501,中間演算手段502,出力演算手段
503に加え、記憶手段103から取込んだ教師信号である入
力信号セットと出力信号セットをそれぞれ受信する機
能、出力演算手段503の出力と出力信号セットとの差分
を基に各ニューロンのシナプスの重みWiを修正する機能
を備えている。以下学習動作の代表例であるバックプロ
パゲーション法について説明する。
まず記憶手段103に蓄えられている入力信号セットと
出力信号セットの対を一つ抽出し、入力信号を入力演算
手段501の対応したニューロンに入力する。このとき各
演算単位の前述した演算の後、出力演算手段503から出
力される各ニューロンの値を、対応した出力信号セット
の値と比較し、不一致の差分を検出する。そしてバック
プロパゲーションの名で知られるアルゴリズムに従い、
差分がなくなるように各演算手段501〜503に属する演算
単位の重みWiを変更していく。変更アルゴリズムの詳細
は、たとえば『ニューラルコンピュータ』(東京電機大
学出版局,合原一幸著)のp110〜113に述べられてい
る。総てのニューロンの重み変更が終了すると、同定手
段104は記憶手段103から別の信号の対を同様に抽出し、
同じ手順で重みの変更を行う。これを記憶手段103に蓄
えられている総ての信号の対について行う。この動作
を、前述した不一致の差分が許容値以下になるまで繰返
す。このようにして決定された各演算単位の重みをWij
(iはアーク番号、jはニューロン番号)とする。同定
手段104はWijをニューラルネット演算手段102に転送
し、102の各シナプスの重みを決定する。
本発明で新たに備えられたニューラルネット系最適設
計手段105は、記憶手段103に格納されている信号を分析
して入力信号セットに含まれる信号の内容を最適化する
入力信号最適化手段106と、学習手段104の学習結果とし
て構築されたニューラルネット演算模擬手段500に入力
信号セットを次々と入力したときの中間演算手段の各ニ
ューロンの出力に着目して中間層ニューロンの最適数を
決定する中間層ニューロン数最適化手段107を備えてい
る。
第17図のニューラルネット系最適設計手段105の機能
を示すアルゴリズムと、同定手段104との間の情報交換
方式を示す。T*(T1〜T3)が入力信号最適化手段106
の機能、T4が中間層ニューロン数最適化手段107の機能
であり、本実施例では入力信号最適化手段106の後、中
間層ニューロン数最適化手段が動作する。入力信号最適
化手段106は、まずT1で記憶手段103より教師信号(入力
信号セットと出力信号セット)を取込む。T2とT3ではこ
れらを用いて出力に貢献しない入力と冗長な入力を指摘
する。
出力に貢献しない入力特定方法として本実施例では、
教師データの各入力ニューロンと出力ニューロンの値に
着目する方法を示す。まず1つずつの入力ニューロンと
出力ニューロンを抽出し、これに対応した教師信号の値
をXi,Ti(i=1,2,…N;Nは教師信号数)とする。入力値
のフルスケールを適当数NTに分割し、分割された各エリ
ア(1,…NT)に属するXiに対応したTiの値を求める。こ
こで例えばTiの平均値であるTmeanを用いて、Ti≧Tmean
である場合とTi<Tmeanである場合のXiの個数をカウン
トすることにより、第18図(a)の2つのヒストグラム
が得られる。
各エリアを1,…,k,…,NTとし、Ti≧TmeanのXiの個数
を▲U* k▼、Ti<TmeanのXiの個数を▲U** k▼とする。
次に2つのヒストグラムについて各エリア毎に▲U* k
と▲U** k▼の小さい方の値であるMIN(▲U* k▼,▲U
** k▼)を求め、第18図(b)のヒストグラムを求め
る。このヒストグラムを本願ではANDヒストグラムと呼
ぶ。ここでANDヒストグラムには第19図の3つのパター
ンが存在する。(a)の場合、抽出した入力値は抽出し
た出力値をそれ以外の出力値と完全に分離する能力を備
えていることを示している。また(b)の場合、抽出し
た入力値は、抽出した出力値を他の出力値とともに、そ
れ以外の出力値と分離する能力を備えている。(c)の
場合には、抽出した入力は抽出した出力と無相関であ
る。結局、抽出した入力値が抽出した出力値を弁別する
能力がないのは、(c)の場合であり、それはANDヒス
トグラムの要素数が多く、しかもそれらが入力値のスケ
ール全体に分散している場合である。そこで例えば要素
数(ANDヒストグラムにおけるエリア番号数)と要素の
分散(ヒストグラム値MIN(U,U**)とエリア番号
の積の各値と全平均値の差を2乗した総和を個数で除し
た値)を、抽出した入力が抽出した出力を弁別する能力
の指標とできる。この値が大きいときは、ANDヒストグ
ラムの形状は第19図(c)となり、弁別能力が少ないと
判定される。この値をDij(i=1,…,p;iは入力信号セ
ットのデータ番号、j=1,…,q;jは出力信号セットのデ
ータ番号)とすると、各入力信号と出力信号のDijの値
を用いて、第20図のテーブルが構築できる。このとき適
当な臨界値(Dijthを設定し、各入力信号について(D
ijthより小さいDijの値を2つ以上有していないもの
を、出力に貢献しない入力として指摘する。
次にT3の動作を説明する。冗長な入力を指摘する手法
として本実施例では、他の入力信号の線形和で表わされ
る割合を指標とした場合を示す。この割合を与える統計
量として、本実施例では寄与率R2を用いた。R2は以下の
式で表わされる。
但し、 各入力信号についてR2の値を求めたとき、R2が最大の
入力信号が最も冗長な入力として指摘される。統計量と
してはR2の他にも残差平方和の値等種々考えられる。
入力信号の削除によりニューラルネット演算手段102
の性能を低下させないため、102の性能を確認しながら
入力信号を削除する方法を次に示す。まずT2で出力に貢
献しない入力がいくつか指摘されると、データパス1に
より、これらの番号を同定手段104へ転送する。次にT3
において、T2で除かれた信号以外の入力信号の中で、最
もR2の大きい入力信号の番号をデータパス2により、同
定手段104に伝える。S1では今回転送された信号番号とT
2で転送された信号番号を除いた入力信号セットと、出
力信号セットを教師信号の入力信号セットとして学習を
行う。この結果構築されたネットワークを、記憶手段10
3から取込んだ評価用の入力信号セットと出力信号セッ
トを用いて評価する。本実施例では出力信号セットと、
入力信号セットを入力したときのニューラルネット演算
模擬手段500の出力を比較した結果を、認識率として評
価の指摘にすればよい。S2で性能の低下が許容範囲内で
あることを確認したうえで、S3でこの入力を除くことを
決定する。この後データパス3で次の入力信号をニュー
ラルネット系最適設計手段105に要求する。105は前回転
送した入力信号をさらに除いた入力信号セットの組合せ
て同様に各入力信号のR2を算出し、最もR2が大きい入力
信号の番号をデータパス2により同定手段104に送る。
以下S1〜S3の演算が繰返される。S2で性能が低下した場
合には、S4で前回までに除いた入力信号を削除可能と判
定する。
また、第17図に示す入力信号最適化手段T*の他の実
施例を第21図に示す。この手法は、次の考え方に基づい
ている。すなわち、ニューラルネットは、第15図の示す
学習データ(入力信号セットと出力信号セットの組合
せ)からパターン認識の法則を学習していく。そのた
め、第15図の入力信号セット(X1,X2,…Xp)の中に冗長
な入力(Xi,Xj,…;1i,j…p)が含まれていない場
合は、それがパターン認識の法則に与えない影響、すな
わち入力の変動に対する出力の感度が低くなると考えら
れる。そこで、第21図の実施例では、学習済みのニュー
ラルネットの入力の変動と出力の関係を表わす感度特性
に着目し、その特性を解析することにより冗長な入力を
検出し、それを削除することで最適な入力を選択する。
本実施例に基づく入力信号最適化手段106は、まずT11
で記憶手段103より第15図に示す学習データ(入力信号
セットと出力信号セットの組合せ)を読込み、これをカ
テゴリー毎に分類する。カテゴリー毎に分類する方法と
しては、第15図に示すN個の学習データの中から出力信
号セット(T1,T2,…Tq)が同じものをグループ化して、
それを1つのカテゴリーとする方法を用いればよい。す
なわち、例えば番号1の出力信号セット(0.99,0.01,
…,0.01)と同じ出力信号セットを番号2〜Nの学習デ
ータから選択してグループ化して、それをカテゴリー1
とする。次に、番号2の出力信号セット(0.01,0.09,
…,0.01)と同じ出力信号セットを番号3〜Nから選択
してグループ化し、それをカテゴリー2とする。以下こ
の操作を繰り返して学習データをカテゴリー毎に分類す
る。T11では、T10で分類したカテゴリー毎に入力信号セ
ット(X1,X2,…,Xp)の中のXi(i=1〜p)を変動さ
せ、そのときのニューラルネットの出力を観測する。こ
のとき、Xi以外の入力信号セットとしてはカテゴリーの
代表値を入力する。代表値としては、下式に示すように
カテゴリー毎に分類した複数の(n(Cm)個)の入力信
号セットの平均値Xjmean(j≠i,j=1〜p)を用いる
か、あるいは、平均値Xjmeanに最も距離の近い入力信号
セットを用いることが考えられる。
ここでn(Cm)はカテゴリーCmの学習に用いられた入
力信号セットの個数である。
また、T11で観測するニューラルネットの出力は、カ
テゴリーCmを認識する出力ニューロンCmとそれ以外の出
力ニューロンである。そして、入力信号Xiを変動させた
ときの出力ニューロンCmとそれ以外の出力ニューロンの
各々の出力を第22図のようにグラフ化する。グラフ化し
た入出力特性、すなわち感度特性から、例えば第22図
(a)のように出力ニューロンCmの出力値が、出力ニュ
ーロンCm以外の出力ニューロンの出力値と交差しない場
合はその入力XiはカテゴリーCmの認識に影響を与えない
入力であるため○と評価する。一方、第22図(b)のよ
うに出力ニューロンCmの出力値が、出力ニューロンCm
外の出力ニューロンの出力値と交差する場合はその入力
XiはカテゴリーCmの認識に影響を与える入力であるため
×と評価する。評価結果の○あるいは×を、例えば第23
図に示すように、カテゴリーを縦の欄に、入力信号セッ
トを横の欄にとった表の中に記入していく。カテゴリー
Cmについて、全ての入力信号を1つずつ変動させたとき
の感度特性を調べて○,×を表に記入する。カテゴリー
Cmが終了したら次に別のカテゴリーに対して同様に感度
特性を調べて○,×を表に記入し、第23図の表(感度特
性表)を完成させる。
最後に、第21図のT12では、T11で作成した感度特性表
を入力信号Xi(i=1〜p)について縦方向に調べ、ほ
とんど全てのカテゴリーについて○となっているXiを検
出し、それを削除可能な入力信号として指摘する。
削除可能と指摘された入力信号の番号iをは第17図の
データパス1あるいは2を介して同定手段104へ転送さ
れる。
前述した入力信号最適化手段の別の実施例の場合と同
様に、T12から転送された信号番号を除いた入力信号セ
ットと出力信号セットを学習データとして学習を行な
う。この結果構築されたニューラルネットの認識率を評
価し、入力信号を削除する前の認識率に比べて認識率の
低下がないことを確認したうえで、S3でこの入力を除く
ことを決定する。認識率が低下した場合は、削除する前
の入力信号セットに戻して終了する。この後データパス
3で次に削除可能な入力信号をニューラルネット系最適
設計手段105に要求する。ニューラルネット系最適設計
手段105は、削除可能な入力信号を除いた入力信号セッ
トを用いて学習したニューラルネットについて再び感度
特性を取り、次に削除可能な入力信号があるかどうかを
調べる。削除可能な入力信号があれば上記を繰り返し、
なければ中間層ニューロン数最適化手段107に移る。
次に、T4の中間層ニューロンの最適数決定の方法を説
明する。同定手段104は、S4で除かれなかった入力信号
により構築されたニューラルネット演算模擬手段500に
入力信号セットを次々に入力したときの、中間演算手段
502の各ニューロンの出力(Y1,…,Ym)を、データパス
4により、ニューラルネット系最適設計手段106に転送
する。中間層ニューロン数最適化手段107は、各入力信
号セットに対応したY1〜Ymの出力を統計処理し、その値
から、最適なニューロン数を決定する。本実施例は各ニ
ューロンの教師信号に対応した出力値の線形関係を演算
の重複分とし、これに相当するニューロン数を除くこと
で最適化する手法を示す。
第24図に本手法のアルゴリズムを示す。まずS1でiを
1にする。S2で転送されたY1〜Ymの値より、YiをYi+1
Ymの線形和で近似した値をとする。このとき =b0+bi+1・Yi+1+…bm・Ym ……(38) 近似式は良く知られた線形重回帰分析等により、容易に
求められる。次にYiがYi+1〜Ymの線形和で記述できた割
合として、Yiの重相関数の絶対値Ciを求め記憶す
る。Ciは、次式で与えられる。
但し N :教師信号数 Yij :j番目の教師信号の入力信号セットを入力
したときのi番目の中間層の出力 ij:j番目の教師信号の入力信号セットを入力
したとき、(38)式で与えられる値 Ciは0〜1の値をとり、Ci=1のときYiはYi+1〜Ymの線
形和で完全に記述できたことを示している。逆にCi=0
のとき、YiはYi+1〜Ymの総てと全く無相関である。S4
iの値をインクリメントし、S5でiが中間演算手段502
のニューロン数mと一致しているか判定する。一致して
いないとき、S2〜S4の処理を繰返す。一致していれば、
S6で、 SUM=m−(C1+C2+…+Cm-1) ……(43) を計算し、SUMの値を最適なニューロン数とする。実際
にはニューロン数は整数であるため、S7で値を整数化す
る。ニューロン数はデータパス5を通して同定手段104
へ送られる。
本実施例では、各ニューロンの出力値の線形関係を定
量化して抽出する手法として、統計量である寄与率と重
相関係数に着目したが、各ニューロンの出力値の分散等
の他統計量に着目したアルゴリズムも考えられる。また
統計量でなく、各シナプスに与えられている重みWiの値
を評価して求めることも考えられる。さらに本実施例で
は、各ニューロンの出力の重複機能分を評価するのに、
出力の間の線形関係成分と非線形関係成分に着目して行
ったが、重複機能分を他の成分で評価することも考えら
れる。またニューラルネット系最適設計手段105を入力
信号最適化手段106と中間層ニューロン数最適化手段107
から構成したが、必要に応じて一方のみの構成とするこ
ともできる。入力信号最適化手段106を除いた構成の場
合、第6図に示した同定手段104の処理のうちS1〜S4
省略される。また中間層ニューロン数最適化手段107を
除いた構成の場合、S5〜S6が省略できる。また本実施例
で入力信号最適化手段106には、入力信号の中から不要
と思われるものを次々と指摘していく機能を備えたが、
入力信号の内容からこれらを適当に合成することにより
信号数を減らしても良い。さらに第12図に記載した各手
段は同一の装置に搭載した一体型の構成としても良い
し、別個の装置としてネットワーク等でデータを交換す
る形態としても良い。また同定手段104に備えたニュー
ラルネット演算模擬手段500は必要に応じて省略し、ニ
ューラルネット演算手段102を兼用して同定を行っても
良い。
次の実施例として第25図に、ニューラルネット最適設
計手段105の動作をユーザに報知するための表示手段110
1を設けた例を示す。表示手段1101では、入力信号最適
化手段106で除かれた入力の番号や、中間層ニューロン
数最適化手段107で決定された中間演算手段202のニュー
ロン数をディスプレイ等に表示する。またこの他に学習
の進行状況等を合わせて表示することもできる。
本発明の次の実施例として、演算量が最小のネットワ
ークを設計する手法を示す。第26図はこれを実現するア
ルゴリズムであり、本実施例では、一旦適当な構成に決
定されたネットワーク(入力層ニューロン数p,中間層ニ
ューロン数m)に対して、この構成を演算量最小化の観
点からさらに最適化する例を示す。したがって本アルゴ
リズムは、例えば第17図のS5の後に実行すればよい。第
26図において、まずS1で入力量として適当なものを1つ
追加することにより、入力層のニューロンを1つ追加す
る。次にS2でこの条件における中間層ニューロンの最適
数m*を決定する。最適数は第24図のアルゴリズムによ
り算出すれば良い。次にS3で、pとmの積と(p+1)
とm*の積の大小関係を比較する。p×m>(p+1)
×m*のとき、入力層ニューロンと出力層ニューロンの
積を減少させられ、したがってこれらの間の接続シナプ
ス数が減少させられることになる。この場合にはS5で、
p+1をp,m*をmと置いた後、S1に戻り、以上の処理
を繰返す。S3で、p×m>(p+1)×m*ではないと
き、演算量の更なる最小化を図ることはできないため、
入力層ニューロン数p,中間層ニューロン数mのネットワ
ークを最終的な構成に決定する。
本実施例では、入力層のニューロン数と中間層のニュ
ーロン数の積を最小化したが、さらに出力層のニューロ
ン数を乗じた値を最小化することもできる。
本実施例の次の実施例として、第27図にユーザにより
与えられた学習精度で学習を打切る手法を示す。N個の
学習サンプルによる学習において、S1でこれらのおのお
のにおける出力層ニューロンの出力値と教師信号との差
分(エラー)が所定の範囲(eth)以下に収まっている
かどうかを調べる。そしてN個の学習サンプルのうち、 を満足するもののパーセンテージを算出する。S2でこの
パーセンテージがユーザにより指定された値以下かどう
かの判定を行う。以上の場合にはS3で学習を打切る。パ
ーセンテージに達していないときにはS4で学習を継続す
る。本アルゴリズムは、学習中に適当なタイミング(通
常学習は再帰的に行われるため、例えばN個の学習サン
プルに対する演算が一区切りしたタイミング等)で実行
し、学習の終了もしくは継続を判定する。
本発明の次の実施例として、第1図の条件指定として
学習時間が指定された場合のネットワーク設計手法を示
す。ここでは、学習アルゴリズムとしてバックプロパゲ
ーションアルゴリズム(例えば、『ニューラルコンピュ
ータ』(東京電機大学出版局,合原一幸著)のp110〜11
3参照)を用いる場合について述べるがこれに限定され
るものではない。
バックプロパゲーションアルゴリズムによる1つのシ
ナプス結合の重みの修正に要する時間Tは、そのアルゴ
リズムを実行する手段(プログラムあるいはハードウェ
ア)によって決まってしまう。また、ニューラルネット
の全てのシナプス結合の重みを出力層から入力層に向っ
て1回だけ修正する時間は、ニューラルネットのシナプ
ス結合の総数(以下、結合総数と呼ぶ)に比例する。
したがって、ニューラルネットの学習時間LTは、出力
層から入力層に向って重みを修正する回数(ここでは学
習回数と呼ぶ)と結合総数を用いて、次式で表現するこ
とができる。
LT=T×(結合総数)×(学習回数) ……(44) したがって、学習時間LTが指定された場合、重みの修
正時間Tは既知であるので、結局結合総数と学習回数を
LT以内に納まるように決定すればよい。決定する戦略と
しては、結合総数学習回数とも小さくなるように選ぶこ
とが考えられる。第28図は、本実施例を実現する装置構
成であり、第29図は第28図の装置で実行されるアルゴリ
ズムである。第28図の装置構成は第12図の装置構成とほ
とんど同一であるが、第28図では同定手段104から記憶
手段103に向う信号を付加した所が特徴となっている。
以下、第29図のアルゴリズムに従って説明する。第29図
のアルゴリズムは同定手段104で実行され、T20とT21
機能からなる。T20は、結合総数を小さく選ぶ方法であ
り、そのために入力信号の中に冗長な入力がないかを検
出する。検出手段としては、第17図の入力信号最適化手
段106の機能T3を用いればよい。冗長な入力信号が含ま
れていないことがわかっている場合は、学習時間LTをオ
ペレータが指定するときに入力信号の冗長性の検出を行
わないことを指定すればよい。
次に、T21では学習回数を少なくする。学習回数を決
定する要因は、前述した学習精度の他に学習データの個
数,重みの初期値、重みの修正式に用いられる学習定数
(η)、安定化定数(α)などがあるが、これらのデー
タと学習回数との間に明確な関係式は現在ない。そこ
で、これらのデータと学習回数との関係を、例えば第30
図に示すような学習回数データベースとして同定手段10
4から記憶手段103に登録するようにした。
T20で結合総数が決まれば、(44)式より学習回数が
決まる。そこで、同定手段104は記憶手段103から学習回
数データベースを読み込み、(44)式で求めた学習回数
に近いものを探索する。近いものがあれば、そのときの
学習データの精度や学習データの個数などのパラメータ
を選択してニューラルネット演算手段102を用いて学習
を行う。但し、学習データの個数は記憶手段103に格納
されている学習データの個数と一致しない場合が発生す
る。学習回数データベースから得られた学習データの個
数が、記憶手段103に格納されている実学習データの個
数より小さい場合は、実学習データから選択する必要が
ある。この選択方法としては、各カテゴリー毎にほぼ同
数となるように実学習データから無作為に抽出する方
法、あるいは各カテゴリー毎に入力信号の分布を求め分
布に比例して抽出する方法などが考えられる。
一方、(44)式で求めた学習回数に近いものが、学習
回数データベースにない場合は、学習回数データベース
の内容から推測して、学習精度,学習データ個数などの
パラメータを決めればよい。このとき、実学習データ個
数とに違いが出れば、前述した選択方法で実学習データ
から選択すればよい。
第30図の学習回数データベースには、当然のことであ
るが、本発明の装置を用いて学習を行う毎に追加が行わ
れる。
第30図のデータベースに、ニューラルネットを構築す
るのに要した学習時間,ニューラルネットの規模(例え
ばシナプス結合の総数など)も登録することも可能であ
る。この場合は、条件指定された学習時間で直接データ
ベースを参照して、学習に必要なパラメータを推定する
ことができる。
本発明の次の実施例として、第31図にニューラルネッ
ト構築装置101に、ニューラルネット演算手段102の性能
が所望でないときにこれを再構築する手段を追加した例
を示す。ニューラルネット再構築手段1401は、性能評価
手段1402,教師データ更新手段1403,再構築指令発生手段
1404からなる。性能評価手段1402はニューラルネット演
算手段102が取込んだ入力と、この入力に対する演算結
果である出力を取込み、出力が入力に対応した所望の値
であるかどうかを評価する。評価はユーザが望ましい出
力値を提示し、この値とニューラルネット演算手段102
との出力との差分を検出すれば容易に行える。評価結果
が所望のレベルに達していないとき、性能評価手段1402
により教師データ更新手段1403が信号1により駆動さ
れ、差分の大きかった入力と、これに対応した望ましい
出力の組合せを追加することで、記憶手段103の内容を
更新する。このとき既に記憶手段103に蓄えられている
入力のうち追加した入力に近い値の入力と、これに対応
した出力の組を削除する等の操作を、さらに行っても良
い。この後再構築指令発生手段1404に、記憶手段103の
更新が終了したことを信号2により伝えると、再構築指
令発生手段1404はニューラルネット系最適設計手段105
を再起動する信号を、信号3により提示する。ニューラ
ルネット系最適設計手段105は、前述した処理を再度行
うことにより、ニューラルネット演算手段102の構成の
最適化を行う。
次に本発明で与えられたニューラルネット演算手段10
2が、各種システムに組込まれた例を示す。第32図は制
御システムの制御ループの中に本装置が組込まれた例で
ある。ニューラルネット演算手段102は、制御対象1201
からの帰還信号を入力値とし、制御対象1201を駆動する
ための信号を出力する。
第33図はニューラルネット演算手段102を、制御系130
1のチューニング手段として用いた例である。102は制御
対象1201からの帰還信号や、他のセンサからの信号を入
力信号とし、制御系1301にとって最適な制御仕様や各部
の制御定数を出力信号とする。
第34図は制御対象1201に与える目標値の発生部に適用
した例である。ニューラルネット演算手段102は、制御
対象1201からの帰還信号や各種センサの信号を入力と
し、制御対象1201に与える最適な目標値を出力信号とす
る。この出力信号は制御対象1201からの対応した帰還信
号と比較され、これらの偏差に対応した値が制御1401に
入力される。1401はこれらの値を基に制御対象1201に出
力する信号を演算により求める。帰還信号との比較は必
要に応じて省略し、フィードフォワード制御を行っても
良い。
尚、上記制御対象としては、例えば圧延機,発電プラ
ント等をいう。
第35図は認識装置に適用した実施例である。ニューラ
ルネット演算手段102は、認識対象1501からの情報を入
力信号とし、認識結果を出力信号とする。認識対象1501
としては、数字,文字,音声,人の顔,人間の性別,物
体の色やりんかく等、種々考えられる。認識結果は例え
ば数字の場合、認識結果表示装置1502においてランプで
明示することもできるし、ディスプレイや音声出力装置
で表示してもよい。
〔発明の効果〕
以上説明した本発明の実施例の効果を説明する。
(イ) ニューラルネットの構築方法 従来ブラックボックスとしてしか扱えなかったニュー
ラルネットが、本発明を実施することにより解析的に構
築でき、しかも誤認識のおこりにくい構成とすることが
できる。
入力信号最適化手段を設けたことにより、ニューラル
ネット演算装置へ入力すべき信号を最小数の組合せに最
適化できる。また中間層ニューロン数最適化手段を設け
たことで、中間演算手段のニューロン数が最適な値に自
動設定できる。以上2つの手段を設けたことにより、ニ
ューラルネット演算手段の構成を簡易な演算で必要最小
にできるので、従来行われていた試行錯誤的なシミュレ
ーションを省略できる。またこれをハードで実現した場
合には小型,安価,低工数となり、ソフトで実現した場
合には、高応答の装置が提供される。
また決定されたニューロン数等のニューラルネット構
築装置の演算内容を表示する手段を設けたことにより、
ユーザインターフェイスが向上できる。
(ロ) ニューラルネットの重みのチューニング方法 従来誤認識が生じたとき、誤認識が生じたデータを追
加して再学習する方法しかなかったが、本発明を実施す
ることにより、できあがったニューラルネットの重みを
チューニングすることにより誤認識が解消できる。
(ハ) ニューラルネット再構築方法 ニューラルネット再構築手段を設けたことにより、ニ
ューラルネットの性能を装置の稼動状況を把握しなが
ら、随時向上させられる。したがって装置の適用対象が
経年変化等により動的に特性を変える場合においても、
本発明を問題なく適用できる。また完全な教師データを
事前に揃えておかなくて良いので、システム立上げが高
速化される。
(ニ) 学習の高速化 従来広く用いられている逆伝播法は、教師データを一
個ずつ処理するために極めて収束が悪かったが本発明を
実施することにより、高速化が可能となる。またその他
の学習方法についても本発明を実施することにより高速
化が可能である。
本発明をパターン認識予測等の種々なシステムに適用
する際、ニューラルネットワークの解析が行なえるた
め、誤認識誤った予測等に強くかつ誤認識誤った予測等
が生じたとき容易に対応することが可能となる。
具体的なアプリケーションの例として車番認識システ
ムにおける例を第36図に示す。図において車のナンバー
プレートは、工業用テレビで画像認識装置に取りこまれ
る。画像認識装置では、ナンバープレートの切り出しを
行ない、その中から文字を1つずつ切り出し、文字画の
特徴量を抽出する。抽出された特徴量は、ニューラルネ
ットワークに入力され、その識別結果が出力される。
このニューロンの学習及び誤認識が生じたときのパラ
メータのチューニング及びネットワークの再構成に本発
明を実施することにより、誤認識に強くかつ高速な学習
を実現することが可能となる。
【図面の簡単な説明】
第1図は本発明の一実施例、第2図は、ニューラルネッ
トの構成図、第3図はシグモイド関数を示した図、第4
図は、収束判定条件を説明した図、第5図は、2次元デ
ータのパターン分離の例、第6図は、第5図のパターン
を分離するニューラルネットを示した図、第7図は、最
適化の手段を示した図、第8図は、ニューラルネットワ
ークを構成する方法を説明した図、第9図は重みのチュ
ーニング法を説明した図、第10図は学習の高速化を説明
した図、第11図は第10図の方法で学習した例を示す図、
第12図は本発明の他の一実施例の構成図、第13図乃至第
14図は、ニューラルネット演算の説明図、第15図は教師
信号の例、第16図は同定手段の説明図、第17図はアルゴ
リズム、第18図乃至第20図は入力信号最適化手段の処理
の説明図、第21図は入力信号最適化手段の別の実施例、
第22図乃至第23図は、第21図の方式を説明した図、第24
図は、アルゴリズム、第25図は構成図、第26図は、演算
量最小の条件でネットを構成する実施例、第27図は学習
精度を条件として、ネットを構成する実施例、第28図は
指定演算時間内にネットを構成する実施例、第29図乃至
第30図は、第28図の方式を説明する図、第31図はネット
を再構築する実施例、第32図乃至第35図は本発明を適用
したシステムの構成図、第36図は車番認識に適用した例
である。 11……ニューラルネットを構築するステップ、12……パ
ラメータをチューニングするステップ、101……ニュー
ラルネット構築装置、102……ニューラルネット演算手
段、103……記憶手段、104……同定手段、105……ニュ
ーラルネット系最適設計手段、106……入力信号最適化
手段、107……中間層ニューロン数最適化手段、1101…
…表示手段。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 川上 潤三 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 (72)発明者 高藤 政雄 茨城県日立市久慈町4026番地 株式会社 日立製作所日立研究所内 審査官 久保 光宏 (56)参考文献 特開 平2−235170(JP,A) 特開 平3−83157(JP,A) 特開 平2−308359(JP,A) 特開 平1−263859(JP,A) 特開 平2−294768(JP,A) 特開 平1−183763(JP,A) 特開 平3−48363(JP,A) 甘利俊一,「認知科学選書22 神経回 路網モデルとコネクショニズム」,日 本,財団法人東京大学出版会・発行, 1989年,初版,pp.123−129 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G05B 13/00 - 13/04 G06F 19/00 CSDB(日本国特許庁) JSTファイル(JOIS)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】入力データに対する望ましい出力データを
    教師データとし、いくつかの教師データの入出力データ
    をいくつかのニューロンを多層に接続したニューラルネ
    ットに記憶させるニューラルネット構築装置において、 前記入力データに含まれる複数の信号の中から、ネット
    ワークの性能に与える影響の少ない信号を検出して、入
    力信号を最適化する入力信号最適化手段を有し、 前記入力信号最適化手段は、前記入力データと前記出力
    データの相関関係を評価し、入力データに含まれる各信
    号のうち出力データの決定に貢献していないものを指摘
    する機能と、前記入力データの各信号の線形関係を評価
    し、他の信号により良好に線形近似できるものを冗長な
    信号として指摘する機能を備えたことを特徴とするニュ
    ーラルネット構築装置。
  2. 【請求項2】請求項1に記載のニューラルネット構築装
    置において、 入力層と中間層の間の各ニューロン結線に設定された重
    み係数を、入力パターンを分離する方程式の係数に設定
    し、前期中間層のニューロン数を最適値に設定する中間
    層ニューロン数最適設定手段を有すことを特徴とするニ
    ューラルネット構築装置。
  3. 【請求項3】請求項1に記載のニューラルネット構築装
    置において、 入力層と中間層の間の各ニューロン結線に設定された重
    み係数を、入力パターンを分離する方程式の係数に設定
    し、入力層のニューロン数と中間層のニューロン数との
    積を最小化するニューラルネット系最適設計手段を設け
    たことを特徴とするニューラルネット構築装置。
JP30244090A 1990-11-09 1990-11-09 ニューラルネット構築装置 Expired - Fee Related JP3329806B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP30244090A JP3329806B2 (ja) 1990-11-09 1990-11-09 ニューラルネット構築装置
US07/744,263 US5546503A (en) 1990-11-09 1991-08-13 Apparatus for configuring neural network and pattern recognition apparatus using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30244090A JP3329806B2 (ja) 1990-11-09 1990-11-09 ニューラルネット構築装置

Publications (2)

Publication Number Publication Date
JPH04175964A JPH04175964A (ja) 1992-06-23
JP3329806B2 true JP3329806B2 (ja) 2002-09-30

Family

ID=17908962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30244090A Expired - Fee Related JP3329806B2 (ja) 1990-11-09 1990-11-09 ニューラルネット構築装置

Country Status (2)

Country Link
US (1) US5546503A (ja)
JP (1) JP3329806B2 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0713951A (ja) * 1992-10-01 1995-01-17 Sony Electron Inc ニューラルネットワークを訓練する方法
JP3374476B2 (ja) * 1993-10-22 2003-02-04 株式会社デンソー ニューラルネットワーク構築方法
JP3491317B2 (ja) * 1994-02-21 2004-01-26 株式会社デンソー フィードフォワード型ニューラルネットワークの構築方法
US5903884A (en) * 1995-08-08 1999-05-11 Apple Computer, Inc. Method for training a statistical classifier with reduced tendency for overfitting
US6134537A (en) 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
US5734796A (en) * 1995-09-29 1998-03-31 Ai Ware, Inc. Self-organization of pattern data with dimension reduction through learning of non-linear variance-constrained mapping
US5727128A (en) * 1996-05-08 1998-03-10 Fisher-Rosemount Systems, Inc. System and method for automatically determining a set of variables for use in creating a process model
JP3485420B2 (ja) * 1996-08-14 2004-01-13 三菱電機株式会社 大規模ニューラルネットワーク構築装置
US5734797A (en) * 1996-08-23 1998-03-31 The United States Of America As Represented By The Secretary Of The Navy System and method for determining class discrimination features
EP1049030A1 (en) * 1999-04-28 2000-11-02 SER Systeme AG Produkte und Anwendungen der Datenverarbeitung Classification method and apparatus
JP3892614B2 (ja) * 1999-04-30 2007-03-14 新日本製鐵株式会社 設備及び製品プロセス異常状態の診断方法及び装置
US6587844B1 (en) * 2000-02-01 2003-07-01 At&T Corp. System and methods for optimizing networks of weighted unweighted directed graphs
EP1128278B1 (en) * 2000-02-23 2003-09-17 SER Solutions, Inc Method and apparatus for processing electronic documents
EP1182577A1 (en) * 2000-08-18 2002-02-27 SER Systeme AG Produkte und Anwendungen der Datenverarbeitung Associative memory
US9177828B2 (en) 2011-02-10 2015-11-03 Micron Technology, Inc. External gettering method and device
US20020120435A1 (en) * 2001-02-28 2002-08-29 Frazier John D. Implementing a neural network in a database system
PT1288792E (pt) * 2001-08-27 2012-02-29 Bdgb Entpr Software Sarl Método para indexar automaticamente documentos
US7170891B2 (en) * 2001-08-30 2007-01-30 Messenger Terabit Networks, Inc. High speed data classification system
US20030222977A1 (en) * 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
EP1378855B1 (en) * 2002-07-05 2007-10-17 Honda Research Institute Europe GmbH Exploiting ensemble diversity for automatic feature extraction
US7152051B1 (en) * 2002-09-30 2006-12-19 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP4571628B2 (ja) 2003-06-30 2010-10-27 本田技研工業株式会社 顔認識システム及び方法
US7546280B1 (en) * 2005-08-30 2009-06-09 Quintura, Inc. Use of neural networks for keyword generation
US7620607B1 (en) * 2005-09-26 2009-11-17 Quintura Inc. System and method for using a bidirectional neural network to identify sentences for use as document annotations
US7475072B1 (en) 2005-09-26 2009-01-06 Quintura, Inc. Context-based search visualization and context management using neural networks
CN101310294A (zh) * 2005-11-15 2008-11-19 伯纳黛特·加纳 神经网络的训练方法
US7437370B1 (en) * 2007-02-19 2008-10-14 Quintura, Inc. Search engine graphical interface using maps and images
US8515473B2 (en) * 2007-03-08 2013-08-20 Bae Systems Information And Electronic Systems Integration Inc. Cognitive radio methodology, physical layer policies and machine learning
US8180754B1 (en) 2008-04-01 2012-05-15 Dranias Development Llc Semantic neural network for aggregating query searches
US9213756B2 (en) * 2009-11-02 2015-12-15 Harry Urbschat System and method of using dynamic variance networks
US9152883B2 (en) * 2009-11-02 2015-10-06 Harry Urbschat System and method for increasing the accuracy of optical character recognition (OCR)
US8321357B2 (en) * 2009-09-30 2012-11-27 Lapir Gennady Method and system for extraction
US9158833B2 (en) * 2009-11-02 2015-10-13 Harry Urbschat System and method for obtaining document information
US9665822B2 (en) 2010-06-30 2017-05-30 International Business Machines Corporation Canonical spiking neuron network for spatiotemporal associative memory
US20130275444A1 (en) 2012-04-16 2013-10-17 International Business Machines Corporation Management of Log Data in a Networked System
US9400955B2 (en) * 2013-12-13 2016-07-26 Amazon Technologies, Inc. Reducing dynamic range of low-rank decomposition matrices
JP6453681B2 (ja) * 2015-03-18 2019-01-16 株式会社東芝 演算装置、演算方法およびプログラム
US20180232574A1 (en) * 2017-02-14 2018-08-16 The Board Of Trustees Of The Leland Junior University Systems and Methods for Transmitting and Receiving Data Using Machine Learning Classification
JP6815296B2 (ja) * 2017-09-14 2021-01-20 株式会社東芝 ニューラルネットワーク評価装置、ニューラルネットワーク評価方法、およびプログラム
JP6854248B2 (ja) * 2018-01-18 2021-04-07 株式会社日立製作所 境界探索テスト支援装置および境界探索テスト支援方法
JP6554193B1 (ja) 2018-01-30 2019-07-31 三菱電機インフォメーションシステムズ株式会社 記入領域抽出装置および記入領域抽出プログラム
US11494587B1 (en) 2018-10-23 2022-11-08 NTT DATA Services, LLC Systems and methods for optimizing performance of machine learning model generation
CN112149708A (zh) * 2019-06-28 2020-12-29 富泰华工业(深圳)有限公司 数据模型选择优化方法、装置、计算机装置及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
US5111531A (en) * 1990-01-08 1992-05-05 Automation Technology, Inc. Process control using neural network
US5142612A (en) * 1990-08-03 1992-08-25 E. I. Du Pont De Nemours & Co. (Inc.) Computer neural network supervisory process control system and method
US5197114A (en) * 1990-08-03 1993-03-23 E. I. Du Pont De Nemours & Co., Inc. Computer neural network regulatory process control system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
甘利俊一,「認知科学選書22 神経回路網モデルとコネクショニズム」,日本,財団法人東京大学出版会・発行,1989年,初版,pp.123−129

Also Published As

Publication number Publication date
US5546503A (en) 1996-08-13
JPH04175964A (ja) 1992-06-23

Similar Documents

Publication Publication Date Title
JP3329806B2 (ja) ニューラルネット構築装置
Tzanakou Supervised and unsupervised pattern recognition: feature extraction and computational intelligence
Ma et al. Facial expression recognition using constructive feedforward neural networks
Balakrishnan et al. A study of the classification capabilities of neural networks using unsupervised learning: A comparison with K-means clustering
US5226092A (en) Method and apparatus for learning in a neural network
CN110929029A (zh) 一种基于图卷积神经网络的文本分类方法及系统
EP0454037B1 (en) Neural network for processing a plurality of informations and learning method
Louati et al. Deep convolutional neural network architecture design as a bi-level optimization problem
Pal Soft computing for feature analysis
WO2020095321A2 (en) Dynamic structure neural machine for solving prediction problems with uses in machine learning
CN111709523A (zh) 一种基于内部集成的宽度学习方法
Qian Exploration of machine algorithms based on deep learning model and feature extraction
Dennis et al. An analysis of activation function saturation in particle swarm optimization trained neural networks
Zhang et al. Dendritic learning-incorporated vision transformer for image recognition
Laar et al. Partial retraining: A new approach to input relevance determination
Sekeroglu et al. Review and analysis of hidden neuron number effect of shallow backpropagation neural networks
FAKHOURI et al. Towards a new approach to improve the classification accuracy of the kohonen’s self-organizing map during learning process
CN115601578A (zh) 基于自步学习与视图赋权的多视图聚类方法及系统
De Veaux et al. A brief introduction to neural networks
Jiang et al. Heterogeneous graph convolutional network integrates multi-modal similarities for drug-target interaction prediction
JPH08305855A (ja) 画像のパターン認識方法及び装置
Hassan et al. Rough neural classifier system
Zhang Granular Neural Networks
JP2699447B2 (ja) 信号処理装置
Fischer Fundamentals in neurocomputing

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees