JPH0264846A - ネットワーク構成データ処理装置の学習処理監視装置 - Google Patents

ネットワーク構成データ処理装置の学習処理監視装置

Info

Publication number
JPH0264846A
JPH0264846A JP63216863A JP21686388A JPH0264846A JP H0264846 A JPH0264846 A JP H0264846A JP 63216863 A JP63216863 A JP 63216863A JP 21686388 A JP21686388 A JP 21686388A JP H0264846 A JPH0264846 A JP H0264846A
Authority
JP
Japan
Prior art keywords
weight
learning
evaluation function
value
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63216863A
Other languages
English (en)
Other versions
JP2732603B2 (ja
Inventor
Akira Kawamura
旭 川村
Kazuo Asakawa
浅川 和雄
Shigemi Osada
茂美 長田
Nobuo Watabe
信雄 渡部
Takashi Kimoto
木本 隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63216863A priority Critical patent/JP2732603B2/ja
Publication of JPH0264846A publication Critical patent/JPH0264846A/ja
Application granted granted Critical
Publication of JP2732603B2 publication Critical patent/JP2732603B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概 要〕 複数の入力と重みとの積和を闇値関数によって変換する
基本ユニットを基本単位にして階層ネットワークを構成
することで、入カバターンに対しての所望の出カバター
ンを得るよう処理するネットワーク構成データ処理装置
において 重みの値が学習により設定されていく際に、より学習の
実現状況を視覚的に表示できるようにすることを目的と
し 入力層の基本ユニットに対して入力信号を供給すること
で、出力層の基本ユニットから対応する出力信号とこの
出力信号がとるべき値を指示する教師信号とを使い、2
つの信号の不一致の大きさを表す誤差値を算出し、算出
された誤差値の総和に基づいて算出することになる重み
の更新量に従って1重みを初期値から順次更新してい(
ことで。
誤差値の総和が所定の許容範囲に入ることになる重みの
値を求めるよう処理する重み学習手段とを備えると共に
、上記階層ネットワークの構造に関する情報と学習パタ
ーン保持部に保持されている学習パターンに関する情報
とを受取って、任意適宜に選択された少数個の結合の重
みの変化に対応して、学習の進捗状況を表わす評価関数
の分布を視覚的に表示可能にする評価関数分布表示部と
重み学習手段による学習の進捗にともなって変化する結
合の重みを受取って、上記評価関数分布表示部によって
得られた表示画像上にプロットする重み探索経路表示部
とを備え、学習の進捗状況に影響を与える係数(ε及び
/又はα)の設定の良否を視覚的に観察できるよう構成
する。
〔産業上の利用分野〕
本発明は、ネットワーク構成データ処理装置の学習処理
監視装置に関するものである。
従来の逐次処理コンピュータ (ノイマン型コンピュー
タ)では、使用方法や環境の変化に応じてコンピュータ
のデータ処理機能を調節することが難しいので、適応性
を有するデータ処理方式として、新たに階層ネットワー
クによる並列分散処理方式が提唱されてきている。特に
、バック・プロパゲーション法と呼ばれる処理方式(D
、 E。
Rumelhart、 G、 E、 H4nton、 
and R,J、 Williams。
” Learning Internal Repre
sentations by ErrorPropag
ation、”PARALLEL DISTRIBtl
TEDPROCESSING、 Vol、1. Pp、
 318−364. The MITPress、 1
986)がその実用性の高さから注目されている。
バック・プロパゲージジン法では、基本ユニソトと呼ぶ
一種のノードと重みを持つ内部結合とから階層ネットワ
ークを構成している。第8図に基本ユニット1の基本構
成を示す。この基本ユニノ)1は、多大カー出力系とな
っており、複数の入力に対し夫々の内部結合の重みを乗
じてそれらの全乗算結果を和算する累算処理部2と、こ
の累算値に非線型の闇値処理を施して一つの最終出力を
出力する闇値処理部3とを備える。そして、このような
構成の多数の基本ユニット1が、第9図に示すように階
層的に接続されることで階層ネットワークが構成され、
入力信号のパターンを対応する出力信号のパターンに変
換するというデータ処理機能を発揮することになる。
このバック・プロパゲーション法では2選択された入力
信号に対しての出力信号が、とるべき信号値を指示する
教師信号となるように、所定の学習アルゴリズムに従っ
て階層ネットワーク中の内部結合の重みを決定していく
ことになる。そして。
この処理により重みが決定されると3例え想定していな
かった入力信号が入力されることになっても、この階層
ネットワークから、それらしい出力信号を出力すること
で、゛柔らかい°゛並列分散のデータ処理機能が実現さ
れるのである。
このような構成のネットワーク構成データ処理装置を実
用的なものにしていくためには9重みの学習処理をより
短時間で実現できるようにしていく必要がある。このこ
とは、複雑なデータ処理を実現していくために3階層ネ
ットワークをより大規模にしていく必要があるという背
景のもとで。
どうしても解決していかなくてはならない課題の1つな
のである。
〔従来の技術〕
hliを前段層としてi層を後段層とすならば。
基本ユニット1の累算処理部2で行われる演算は。
次の(1)式に示すものであり、また、闇値処理部3で
行われる演算は次の(2)式に示すものである。
Xpi=Σ)’pbWtb−θ、(1)式y、、w 1
 / (1+exp(Xpt ))     (2)式
但し。
h :h層のユニット番号 :i層のユニット番号 P :入力信号のパターン番号 θ、:iJiのi番目のユニットの闇値WIh:h  
i層間の内部結合の重みXpi’P番目パターンの入力
信号に関して、h層の各ユニットからi層の1番目ユニ
ットへの人力の積和 )’ph’P番目パターンの入力信号に対するhlHの
出力 )’pt’P番目パターンの入力信号に対するi層の出
力 バック・プロパゲーション法では、この重みW8.と閾
値θえとを誤差のフィードバックにより適応的に自動調
節することになる。この(1)式及び(2)式から明ら
かなように1重みWLhと閾値θiとの調節は同時に実
行される必要があるがこの作業は、相互に干渉する難し
い作業となる。
次に3重みの学習処理の従来技術について説明する。こ
の説明は、第10図に示すようなh層−1層−j層とい
う構造の階層ネットワークをもって行うことにする。
重みの学習処理では、最初に、下式に従って。
教師信号と出力層からの出力信号との誤差の二乗和であ
る誤差ベクトルE、を2階層ネットワークの誤差として
計算する。ここで、教師信号とは。
出力信号のとるべき信号となるものである。
E、 ==!4Σ(3’p=−(L=)”      
 (3)式E=ΣE、             (4
)式但し。
Ep’P番目パターンの入力信号に対しての誤差ベクト
ル E :全パターンの入力信号に対しての誤差ベクトルの
総和(評価関数に相当する) ds+jjP番目パターンの入力信号に対するj層j番
目ユニットへの教師信号 ここで、誤差ベクトルと出力信号との関係を求めるため
、(3)式をy□に関して偏微分すると。
8y□ を得る。更に、誤差ベクトルE、とj層への入力との関
係を求めるため、誤差ベクトルE、をXpjで偏微分す
ると。
8E、    θEp     f3ypjaXpj 
   a Ypj    a Xpj−δpj)’p=
 (I  Vpi)    (6)式を得る。更に、誤
差ベクトルE、とi−j層間の重みとの関係を求めるた
め、誤差ベクトルEl、をW、Iで偏微分すると。
a Ep    a Ep    a Xpja W、
+i    a X pj    a WJi−δpj
ypj(1ypi) Ver  (7)式の積和で表さ
れる解を得る。
次に、i層の出力)’++iに対する誤差ベクトルEp
の変化を求めると。
axpi    ’  aXpj     ayp=−
ΣδpJ)’ pj (1)’ pj) Wa+(8)
式 を得る。更に、i屑入カニニットへの総和Xptの変化
に対する誤差ベクトルの変化を計算すると。
a Xpt    ’  aypj     axpt
−(Σδajyp=(1−y□) W、I’)  y 
p+(1y p;)(9)弐 の積和で表される解を得る。更に、h−1層間の重みの
変化に対する誤差ベクトルの変化の関係を求めると。
aWlh       ’    axpi     
   aWih=(ΣδpJYp、(1−y□) WJ
i)  yp;(1−ypt)  yph(10)式 の積和で表される解を得る。
これらから、全人カバターンに対する誤差ベクトルとi
−j層間の重みとの関係を求めると、以下のようになる
a WJ、       a Wjム また。全入カバターンに対する誤差ベクトルとh−j層
間の重みとの関係を求めると、以下のようになる。
して2次の如きものも利用される。
θW、h      a Wih (11)式及び(12)式は、各層間の重みの変化に対
する誤差ベクトルの変化率を示していることから。
この値が常に負になるように重みを変化させると、公知
の勾配法により、誤差ベクトルの総和(評価関数)巳を
漸近的にOとすることができる。
そこで、従来のバンク・プロパゲーション法では重みの
一回当たりの更新量ΔWJ、とΔW、1とを以下のよう
に設定し、この重みの更新を反復することにより、誤差
ベクトルの総和Eを掻小値に収束させている。
3 w、。
aW、h 但し、εは学習の制御パラメータに対応する係数である
更に、 (13)弐及び(14)式を発展せしめたもの
と但し、αは制御パラメータに対応する係数である。ま
た、tは更新回数である。
第11図は学習処理を表すフローチャートを示している
〔発明が解決しようとする課題〕
バック・プロパゲーション法の最大の問題点は。
収束に要するまでの学習回数が長いことにある。
この問題点は、ネットワーク構造を大規模にすればする
ほど大きなものとなる。
上記制御パラメータに対応する係数のεとαとを十分小
さくすれば、はぼ確実に誤差ベクトルの総和Eは収束す
ることになるが2収束するまでの学習回数は多くなって
しまうことになる。一方学習回数を減らそうとして両パ
ラメータを大きくとると、今度は、誤差ベクトルの総和
Eが振動してしまうというおそれがでてくる。人力層の
ユニット数が“13″で、中間層のユニット数が“8m
で。
出力層のユニット数が7″という階層ネットワークを想
定し、62個の入カバターン信号とそれに対応する教師
パターン信号とを使って学習したときの学習結果を第1
2図に示す。この第12図において。
横軸は学習回数で、縦軸はそのときの誤差ベクトルの総
和である。ここで、制御パラメータに対応する係数は、
ε=0.3 、  α=0.2に設定した。
この第12図からも明らかとなるように、バラメークの
設定の違いにより多少の違いはでるものの。
最適の重みが決定されるまでに相当回数の学習が繰返さ
れる。そして、上記係数ε及び/又はαΦ値を如何に設
定するかが、最適の重みが得られるまでの学習回数に大
きく影響する。
このことから、上記係数ε及び/又はαの値を。
複数個の夫々の重みW、やWji毎に如何に選ぶかによ
って、上記学習がどのような状況を経つつ完成していく
かを、視覚的に表示し、上記係数ε及び/又はαの値の
設定の良否を例えばオペレーション訓練要員に自覚させ
ることが望まれる。
本発明は、ネットワーク構成データ処理装置において1
重みの値が学習によって設定されていく際に、学習の実
現状況を視覚的に表示できるようにすることを目的とし
ている。
[課題を解決するための手段〕 第1図は本発明の原理構成図である。
図中、1は階層ネットワークの基本単位をなす基本ユニ
ットであり、?3[数の入力とこれらの入力に対して乗
算されるべき重みとを受は取って積和を得るとともに、
この得られた積和値を闇値関数によって変換して最終出
力を得るよう処理する。
1−hは人力層を構成する複数個の基本ユニット1−i
 は1つ又は複数段の中間層を構成する複数個の基本ユ
ニット、1〜jは出力層を構成する1つ又は複数個の基
本ユニットである。基本ユニット1−hと基本ユニット
1−i との間、基本ユニット1−i の相互間、基本
ユニット1−i と基本ユニット1−j との間で接続
がなされ、かつこの各接続に対応して設定される重みに
より、 10で示される階層ネットワークが構成される
ことになる。
20は重みの学習処理のために必要となる学習パターン
を保持する学習パターン保持部であって。
複数の所定の人力信号を保持する入力信号(又は入力信
号保持域)21と、この所定の入力信号に対しての出力
信号となるべき教師信号を保持する教師信号(又は教師
信号保持域)22とを備えるもの。
13は出力信号導出手段であって9人力層号保持域21
が保持する入力信号を階層ネットワーク10に対して供
給した結果の各層のユニットの出力を得るもの、12は
結合の重みであって上述のWihやWjiを保持するも
の、 30は重み学習手段であり、33は誤差値算出手
段であって出力信号導出手段13からの出力信号と保持
されている教師信号22とからこの2つの信号の不一致
度合を表す誤差値を算出するとともに供給されるすべて
の入力信号の誤差値の総和を求めるよう処理するもので
ある。
重み学習手段30は1重み更新量ΔW算出のための制御
パラメータ(係数ε、α)32と重み更新のための更新
規則31とを備え1階層ネットワーク10における結合
の重み12を初期値から学習回数が進む毎に順次更新し
て、新しい結合の重み12として格納する。即ち。
8Wムh や。
にしたがって、結合の重みW、LhやWハを更新してい
く。
評価関数分布表示部50は、評価関数の分布の算出処理
51と、切断平面の算出処理52と、評価関数の分布の
表示処理53とを行うものである。
階層ネットワーク10の構造が与えられ、かつ学習パタ
ーンが与えられると、上述の個々の結合の重みW8.や
W j Lが如何なる値にあるときに、上記誤差ヘクト
ルの総和即ち評価関数Eが如何なる値をとるかについて
は2知ることができる。即ち。
数多くの結合の重みについて、いわばカット・アンド・
l・ライによって評価関数Eの値を算出することができ
る。本発明の監視装置の場合には、このような評価関数
の分布の算出は、オフライン処理的に実行され終ってい
るものと考えてもよい。
評価関数の分布の状況が算出されると、上述の如く数多
く存在する結合の重みのうちのいずれの重みが、当該重
みの変化にもとづいて上記の評価間と 数Eの値が大きく影チ草けているかについて知ることが
できる。本発明の監視装置の場合には、成る結合の重み
W、を選択的に抽出し、当該重みWXを学習的に決定さ
せていく上での上述の係数ε及び/又はαを選定した際
に、学習が進捗していく毎に、当該重みが、あるべき最
適の重みに対して如何なる経路をへて近づいていくかを
視覚的に表示できるようにする。
このことから2図示の切断平面の算出処理52において
は、所望する成る重みWつについての監視を行うべく当
該重みW8に注目した際に、視覚的な表示を2次元平面
上で行う上で好ましい平面を決定する。そして、評価関
数の分布の表示処理53は、当該決定された平面上で重
みW8の値に対応して評価関数の値がどのように対応す
るかを表示する図形を得る。
重み探索経路表示部60は5重み学習手段30が学習回
数が進む毎に新しい結合の重みを生成する状況を受取り
、上記評価関数分布表示部50において表示しようとし
ている図形上で、上記新しい結合の重みがどのような位
置に位置するかを算出する。この算出は2図示の重み探
索経路の算出処理61において行われる。そして、算出
された結果にもとづいて9重み探索経路の表示処理62
は、上記図形上での新しい結合の重みの位置をプロット
する。
これらの結果が表示装置70において表示される。
即ち、係数ε及び/又はαとして成る値を設定した際に
1重み学習手段30による学習回数が進捗していくにつ
れて、上記プロットの位置がどのような状況の下で、最
適な重みに近づいていくかが視覚的に表示される。
勿論8本発明の前堤としては、最適な重みについては予
め判明しているものであるが、上記係数ε及び/又はα
の値の設定の如何によって、如何に最適な重みに近づい
ていくかを訓練者に知らせるようにする。
〔作 用〕
階層ネッ]・ワーク10の構造に関する情報と学習パタ
ーン保持部20の内容とが評価関数分布表示部50に与
えられ、所望する平面でみたときの評価関数の分布が例
えば2次元図形の等筋線を表す如く表示される。そして
、対応する重みWXについての係数ε及び/又はαが制
御パラメータ32として設定され、かつ結合の重み12
として初期値がセントされる。
この状態の下で2重み学習手段30における学習が進捗
する毎に(あるいは適当な回数毎に)1重み探索経路表
示部60が、新しく生成された重みW8についての上記
図形上の位置をプロットしていく。
上記係数ε及び/又はαの値の与え方の如何によっては
、非所望な発振が生じることも視覚的に判る。
〔実施例] 評価関数の分布についての特徴が把握されている状態で
、その特徴が良く現われるような表示を行うために、第
1図図示の切断平面の算出処理52が行われる。上記の
如く特徴が良く現われるような表示を得るための平面を
得るに当って2次の2つの方式が考慮される。
(八)切断平面選択方式(その1) 今仮に、3種類の重みW、、W、、W、について最適な
重みを得るものとし、最適な重みWcが座標(W c+
 、 W c! 、 W c3 +で与えられているも
のとすると、最適な重みについての位置ベクトルは。
第2図図示(Wc)の如く表わされる。このことから、
当該位置ベクトル(Wc)を含むような平面Sを考慮す
る。当該位置ベクトル(Wc)を含む平面はいわば無限
に存在するが、今任意のベクトル(W8)を考慮して、
ベクトル(Wc)とベクトル(W8)とを含む平面を切
断すべき平面とすると、当該平面S上の任意の点W、は
w、=aWc +bW* (但し、a、bは任意の実数) で表わされる。このような平面Sを選んだ場合には、最
適な重みに対応する位置ベクトル(Wc)の先端に向う
ように学習が行われることが好ましいものであり、実際
の学習に当って、当該先端に向って如何なる経路をへて
学習が進んでいくかを効率よく監視することができる。
(B)切断平面選択方式(その2) 今、最適な重みについて座標(Wc、、 Wc、。
w c、lが与えられているとし2例えば重みW2につ
いては固定値Wctに固定しておいて重みWIとW、と
について値を変化するものと考え、第3図図示の如く、
固定値WCZを通る平面S′を切断面に選定する。この
ように平面S′を選択しておくと、当該平面S′上の点
(位置ベクトル(Wc)の先端)に向うように学習が行
われることが好ましいものであり、実際の学習に当って
、当該先端に向って如何なる経路をへて学習が進んでい
くかを効率よく監視することができる。
この切断方式について一般的に表わすと9次のようにな
る。即ち。
上記(1)式において、X□は’/phについて線形で
ある。このことから、X9、とy。とを座標軸とする空
間で考えると、(1)式は超平面の方程式となる(但し
、pとiとは固定する)。仮に、yいが2次元でX□が
1次元であるとして。
χp+=Wt+ ypl + wily pg−〇五で
あると考えると、第4図図示の如<+Xpiはxp+=
W++yp+ +Wiz)’pg−θ、=Oなる直線を
含みかつ座標軸(xpt)をθ1できる平面となる。
上記X−一〇なる直線の位置はWihとθ、との間の比
だけに依存し、X□の絶対値の変化には影響されない。
この絶対値に依存するのは超平面の(頃きである。
したがって、第4図に代えて、Xpiとy2.との間の
闇値関数として階段関数を用いたものを第5図に示すと
、第5図においても、成る入力についての重みwthと
閾値θ1との間の比のみに依存することになる。闇値関
数として1階段関数を鈍らせたS字状関数とすると1位
置関係はW、hとθ1との比に依存し、絶対値ly9.
1はその錬りの効果が反映されたものとなる。
したがって1階層ネットワークの使用目的が識別にある
場合、境界線を決定するのに寄与するものは重み同士の
比であり、絶対値は境界線の曖昧さに寄与する。したが
って2例えば2つの重みを2次元座標軸として、その2
次元平面上の各点について上述の評価関数Eの値をプロ
ットした3次元図形を考えると、当該3次元図形は、座
標の原点から放射状に拡がる峡谷または円錐状の分布を
もつ形が現われる。
第6図はベクトルWcとW、、とに対応する評価関数E
の図形の一例を示している。
a Wc + b Wx で与えられる点での評価関数Eの値が示され、3次元図
形となっている。
第7図は第6図図示の3次元図形に対して切断平面選択
方式(その1)に対応した平面を考慮して評価関数Eの
値を等直線で表した表示図形を示している。この表示図
形上に、学習によって新しく生成された重みをプロット
していき、学習の進捗状況を監視する。上記切断平面選
択方式(その1)の場合には、上述した「座標の原点か
ら放射状に拡がる峡谷又は円錐状の分布をもつ形」の縦
断面をみることとなり、最適重み探索過程がほぼその切
断平面上に載る。第7図図示の場合には図示右斜め上方
に延びる峡谷の谷に沿って進む如(学習が進捗するのが
好ましい形である。
なお上述の切断平面選択方式(その2)に対応した平面
をもって表示する図形の場合には上記峡谷又は円錐につ
いての横断面をみることとなる。
この表示図形上に、上述の如く新しく生成された重みが
プロットされていく。
〔発明の効果] 以上説明した如く1本発明によれば、学習の進捗状況を
視覚的にみることが可能となり、オペレション訓練者が
自己の与えた係数ε及び/又はαの値についての良否を
観察することが可能となる。
【図面の簡単な説明】
第1図は本発明の原理構成図、第2図及び第3図は夫々
切断平面の選択方式について説明する説明図2第4図及
び第5図はユニットにおける計算を説明する説明図、第
6図は評価関数Eを表わす図形、第7図は切断平面選択
方式に対応した平面で表わした表示図形、第8図は基本
ユニットの構成図、第9図は階層ネットワークの構成図
、第10図はバンク・プロパゲーション法の説明図、第
11図は学習処理を表わすフローチャート第12図は学
習により重みが変化していく状況を表わす図を示す。 図中、1は基本ユニット、2は累算処理部、3は闇値処
理部、10は階層ネットワーク、20は学習パターン保
持部、 30は重み学習手段、50は評価関数分布表示
部360は重み探索経路表示部、70は表示装置を表わ
す。

Claims (1)

  1. 【特許請求の範囲】 前段層からの1つ又は複数の入力と当該入力に対して乗
    算されるべき結合の重み(12)とを受取って積和を得
    るとともに、当該得られた積和値を閾値関数によって変
    換して最終出力を得る基本ユニット(1)を基本単位と
    し、 複数個の当該基本ユニット(1−h)を入力層とし、か
    つ複数個の当該基本ユニット(1−i)を中間層として
    1つ又は複数段の中間層を備え、かつ1つ又は複数個の
    当該基本ユニット(1−j)を出力層とし、入力層と最
    前段の中間層との間、中間層相互間、及び最終段の中間
    層と出力層との間で内部結合を構成するとともに、当該
    内部結合に対応して上記重みが設定されることで階層ネ
    ットワーク(10)を構成するデータ処理装置において
    、 上記入力層の基本ユニット(1−h)に対して複数の所
    定の入力信号(21)を供給することで、上記出力層の
    基本ユニット(1−j)から当該入力信号に対応する出
    力信号を得る出力信号導出手段(13)と、当該出力信
    号導出手段(13)により得られた各層ユニットの出力
    信号と学習パターン保持部(20)に保持されている所
    の当該出力信号がとるべき値を指示する教師信号(22
    )とを使い、2つの信号の不一致の大きさを表す誤差値
    を算出する誤差値算出手段(33)と、 当該誤差値算出手段(33)により算出された当該誤差
    値の総和に基づいて算出することになる重みの更新量に
    従って、上記結合の重み(12)を初期値から順次更新
    していくことで、当該誤差値の総和が所定の許容範囲に
    入ることになる上記重みの値を求めるよう処理する重み
    学習手段(30)とを備え、当該重み学習手段(30)
    が、少なくとも前回の更新サイクル時に決定された当該
    重みの更新量に係るデータ因子を考慮して、現時点の更
    新サイクル時の当該重みの更新量を決定するよう処理す
    ると共に、 上記階層ネットワーク(10)における構造に関する情
    報と、上記学習パターン保持部(20)に保持されてい
    る学習パターンに関する情報とを受取って、上記結合の
    重み(12)を変化せしめた際に生じる上記入力信号(
    21)と上記教師信号(22)との誤差値にもとづいて
    、当該誤差値を変数とする評価関数を上記結合の重み(
    12)を座標軸とした評価関数の分布を得た上で、上記
    評価関数の値に比較的大きい影響を与える任意の少数の
    結合の重みを特定し、当該特定された結合の重みを座標
    軸とする切断平面上で上記評価関数を投影して表示した
    評価関数の分布の表示画像を得る評価関数分布表示部(
    50)と、上記重み学習手段(30)によって学習が進
    行する間における上記結合の重み(12)の変化状況を
    受取り、上記評価関数の分布の表示と対応する表示画像
    上に、上記結合の重み(12)の変化状況をプロットす
    る重み探索経路表示部(60)と、 上記評価関数分布表示部(50)で得られている評価関
    数の分布の表示画像と、上記重み探索経路表示部(60
    )で得られたプロットとを視覚的に表示する表示装置(
    70)とをそなえ、 上記重み学習手段(30)による上記結合の重み(12
    )の変化状況に影響を与える係数(ε及び/又はα)に
    対して値を設定する当該値設定の良否を視覚的に観察で
    きるようにした ことを特徴とするネットワーク構成データ処理装置の学
    習処理監視装置。
JP63216863A 1988-08-31 1988-08-31 ネットワーク構成データ処理装置の学習処理監視装置 Expired - Fee Related JP2732603B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63216863A JP2732603B2 (ja) 1988-08-31 1988-08-31 ネットワーク構成データ処理装置の学習処理監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63216863A JP2732603B2 (ja) 1988-08-31 1988-08-31 ネットワーク構成データ処理装置の学習処理監視装置

Publications (2)

Publication Number Publication Date
JPH0264846A true JPH0264846A (ja) 1990-03-05
JP2732603B2 JP2732603B2 (ja) 1998-03-30

Family

ID=16695086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63216863A Expired - Fee Related JP2732603B2 (ja) 1988-08-31 1988-08-31 ネットワーク構成データ処理装置の学習処理監視装置

Country Status (1)

Country Link
JP (1) JP2732603B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9002757B2 (en) 2011-07-25 2015-04-07 Fujitsu Limited Parameter setting apparatus, non-transitory medium storing computer program, and parameter setting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9002757B2 (en) 2011-07-25 2015-04-07 Fujitsu Limited Parameter setting apparatus, non-transitory medium storing computer program, and parameter setting method

Also Published As

Publication number Publication date
JP2732603B2 (ja) 1998-03-30

Similar Documents

Publication Publication Date Title
JP6438450B2 (ja) レーザ加工ロボットの加工順序を学習する機械学習装置、ロボットシステムおよび機械学習方法
Hwang et al. The cascade-correlation learning: A projection pursuit learning perspective
Bingul et al. Comparison of inverse kinematics solutions using neural network for 6R robot manipulator with offset
KR20170136357A (ko) 인공 신경망 기반 예측 모델 생성 장치 및 방법
CN111590581A (zh) 机器人的定位补偿方法及装置
Siregar et al. Implementation of artificial neural network to assesment the lecturer‘s performance
Gorinevsky et al. Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example
US5228113A (en) Accelerated training apparatus for back propagation networks
Engin et al. Fuzzy control of an ANFIS model representing a nonlinear liquid-level system
Yoshimura et al. New regularization by transformation for neural network based inverse analyses and its application to structure identification
EP0384709B1 (en) Learning Machine
WO2023210665A1 (ja) 計算グラフの改善
JPH0264846A (ja) ネットワーク構成データ処理装置の学習処理監視装置
Lavaei et al. Dynamic analysis of structures using neural networks
Fortuna et al. Improving back-propagation learning using auxiliary neural networks
JP2897220B2 (ja) 信号処理装置
Buessler et al. Additive composition of supervised self-organizing maps
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
JP3130326B2 (ja) 階層ネットワーク構成演算素子
Chowdary Back‐propagation artificial neural network approach for machining centre selection
Shen et al. A new multi-output neural model with tunable activation function and its applications
Dhahri et al. Designing beta basis function neural network for optimization using particle swarm optimization
Wielgus et al. Software Tool for FAM-based Modeling and Simulation of Fuzzy Systems
JP2766858B2 (ja) ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置
JP2000122991A (ja) 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees