JPH0325562A - ニューラルネットを用いた情報処理装置 - Google Patents

ニューラルネットを用いた情報処理装置

Info

Publication number
JPH0325562A
JPH0325562A JP1160122A JP16012289A JPH0325562A JP H0325562 A JPH0325562 A JP H0325562A JP 1160122 A JP1160122 A JP 1160122A JP 16012289 A JP16012289 A JP 16012289A JP H0325562 A JPH0325562 A JP H0325562A
Authority
JP
Japan
Prior art keywords
signal
neural network
past
characteristic
coupling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1160122A
Other languages
English (en)
Inventor
Kenji Okuma
建司 大熊
Toshiaki Tanaka
俊明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1160122A priority Critical patent/JPH0325562A/ja
Publication of JPH0325562A publication Critical patent/JPH0325562A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) 本発明は、最適化問題やパターン認識等に応用される二
x−ラルネットを用いた情報処理装置に関する。
(従来の技術) 近年、ニネーラルネットを用いた情報処理の有効性が見
直され、各所で盛んに研究がなされている。二島一ラル
ネットの応用分野は非常に広いと考えられているが、特
に二島−ラルネットの学習機能を利用した一臂ターン認
識が注目されている。
ニエーラルネフトの構成こしては、第2図に示すように
(&)の全結合タイプ、(b)の階層ネッ} , (c
)のランダム結合ネットなどが主に利用されている。
各二為一ロン間の結合には、結合係数Wllが定義され
る。各二エーロンでは例えば第3図に示すように y = f ( ’j:, Wl jXドθ)1−1 なる計算が行なわれる。
第4図は従来の三層ネットの二島−ラルネットを用いた
情報処理装置であう、入力層1、中間層2、出力層3、
ステッデ数計数部6、信号提示部7および結合定数修正
部8によシ構成されている。
入力層1、中間層2および出力層3には二纂一ロン素子
4が設けられ、さらに中間層2と出力層3にはニューロ
ン素子4間の結合部5が設けられている。
入力層1に入力信号( I1) (=II  I2 ,
・・・I, )が与えられたとき、出力層3から得られ
る出力信号{Oi}(=01,02,・・・a Oii
 )によって、パターン識別や連想学習などが行なわれ
る.二島−ラルネットの学習は、例えばノ9ツクープロ
一苛グーシlン(逆伝播)法を例にとると、望筐しい出
力信号(これを教師信号という){Oj}を予め各入力
信号{I1}に対して設定してかき、各ステッデで得ら
れる結果と、教師信号{Oj}との差を用いて、結合部
5に定義された結合定数である、結合係数Wij>よび
閾値を修正するステップを繰返すことによって、種々の
入力信号に対して望筐しい出力信号が得られるようにす
るものである。
ところで、学習に際しては結合定数が不当な解を与える
、いわゆる局所解に落ち込むことがある。
このような場合、従来では+z−ラルネットを初期状態
に戻して計算をやシ直している。従って、例えばニュー
ラルネットの状態を最終状態から数ステップだけ後戻シ
させて計算をや夕直せば工いような場合は、無駄な計算
を多数行なわなければならず、効率が極めて悪い。
一方、各ステップにかける結合定数を全てメモリに保存
してかけば、計算終了後に任意のステップに逆戻Dする
ことが可能である.しかしながら、過去の全てのステッ
プでの結合定数を保存するには膨大なメモリ容量を必要
とするので、この方法は現実的でない。
(発明が解決しようとする課題) 上述したように、従来の技術では学習の途中でニネーラ
ルネットの特性(結合定数など)が不適切になったよう
な場合、二島一ラルネットを初期状態に戻して最初から
学習をやや直さなければならず、非常に無駄がめった。
1た、各ステッデでの二島−ラルネットの特性情報を全
て保存してかく方法は、膨大なメモリ容量を必要とし、
現実的でないという問題があった.本発明は、箇易な構
或により、二具−ラルネットの特性を過去の任意のステ
ップでの特性に戻すことができる二エーラルネットを用
いた情報処理装置を提供することを目的とする. [発明の構成] (課題を解決するための手段) 本発明は、信号提示手段によう提示された入力信号およ
び望ましい出力信号に対応させてニューラルネットの特
性を逐次修正する修正手段による現在の修正結果と、過
去に信号提示手段で提示された入力信号及び出力信号に
基づいて,二島一ラルネットの過去の特性を算出し、ニ
ューラルネットの特性をその過去の特性に戻すアン・ド
ゥ処理手段を備えることを特徴とする。
(作用) 本発明では、二島−ラルネットの過去の特性、例えばl
ステップ前に修正された結合定数(結合係数および閾値
)が計算にょや求められる。この計算に必要な変数は、
現在のステップで修正された特性ε、信号提示手段に保
持されてぃるlステップ前に提示された入力信号および
望筐しい出カ信号のみである。
従って、過去の修正ステップにかける結合定数などの特
性情報を保存しておくことなく、ニネーラルネットの特
性を過去の特性に戻すことが可能となる。
(実施例) 以下、図面を参照して本発明の実施例を説明する。第1
図は本発明の一実施例に係る情報処理装置の構成を示し
たもので、学習法として前述しfi i4ック・グロa
4)f−シaン法を適用した三層ネット構成のニューラ
ルネットを用いた場合を示している。
第1図に示す情報処理装置は、入カ層l,中間層2、出
力層3、ステップ数計数部6、信号提示部7、結合定数
修正部8$−よびアン・ドゥ処理部9によ,Dll戒さ
れている。入力層1、中間層2シよび出力層3には二為
一ロン素子4が設けられ、さらに中間層2と出力層3に
は二瓢一ロン素子4間の結合部5が設けられている. 入力層1に入力信号I,12 p・・・,!、が与えら
れ、出力層3から出力信号01 , o2。・・・,O
Nが出力される。結合部5には結合定数が定義される。
ステップ数計数部6は、結合定数修正部7による結合定
数(己の実施例の場合、具体的には結合係数および閾値
)の修正のステップ数を計数する。
ステップ数計数部6が計数するステップ数は、学習開始
時の初期状態では1=0であり、結合定数の修正を1ス
テップ行なうごとに1つずつ増え、1たアン・ドク処理
部9がアン・ドゥ処理を1回行なうごとに1つずつ減る
ものとする.信号提示部7は、ステップ数計数部6が1
つ値を進めるかtft.は値を1つ戻す毎に、入力層1
に対して新たな入力信号を提示し、さらK結合定数修正
部8に対しで教師信号を提示する.教師信号とは、入力
層1に与えられた入力信号に対応して望まれる、出力層
3の出力信号である。
信号提示部7の実現方法は、信号の出現順序が周期的で
あるかランダムであるかによって種々考見られるが、ど
のような場合でも有効なのは、各信号パターンに各々異
なる整数値または記号を付け、それを出現するステクプ
の番号と合わせて記録してかく方法である.周期的な信
号パターンが現れる場合は、ステップの番号を周期で割
ったときの余υで信号パターンを特定できるので、ステ
ップの番号と上記の整数値會たは記号との対応付けは必
要ない。
本実施例カエ従来の二為一ラルネットを用−た情報処理
装置と異欧る点は,信号提示部7がステップの前進・後
進の両方向に対して動作することと、アン・ドゥ処理部
9が付加されたことである。
アン・ドク処理部9は、信号提示部7が新たな入力信号
と教師信号を提示し、それに基づいて結合定数修正部8
によって結合定数が修正される学習過程において、ニュ
ーラルネットの過去の状態にかける特性、この場合、1
ステップ前にかける結合部5での結合定数を算出し、結
合定数をその1ステッ!前の結合定数に戻す処理(これ
をアン・ドゥ処理という)を行なうものである.アン・
ドク処理部9によるlステップ前の結合定数の算出は、
後述するようにニューラルネットの現在の結合定数と、
信号提示部7によってlステッグ前に提示された入力信
号及び教師信号に基づいて行なわれる。
次に、本実施例の動作をよシ詳しく説明する。
例として手書き数字のパターン識別を行なうニューラル
ネットを考える。
入力層1は、手書き数字を読取って得られた2次元パタ
ーンを24X24のメッシ為に切り、これを1次元に並
べて各メッシュの値を″1”か″O″かに割シ当てる。
従って、入力層1には二瓢一ロン素子4がN=576(
=24X24)個用意される。
このとき、中間層2には二為一ロン素子4がL=50個
用意され、出力層3には二為−ロン素子4がM=10個
用意される。
入力層1の第i (i.si≦576)の二具一ロン素
子と、中間層2の第j(1≦j≦50)の二島一ロン素
子との結合係数を81j,中間層2の第1のニューロン
素子と出力層3の第k(1≦1c51 0 )の二Δ−
ロン素子との結合係数をTjkとする。また、入力層1
の第lのニネーロン素子の出力信号をxi、中間層2の
第jのエ為−ロン素子の出力信号をy3 ,出力層3の
第kの二為一ロン素子k出力信号をzkとする。このと
き、ニューラルネットの動作方程式は、以下の通υとな
る。
1ず、結合定数< 813 )  ( T3klは範囲
を制限した乱数で与えられる。その後、学習のために結
合係数の値が少しずつ修正される結果、入力信号である
手書き数字をある程度正しく識別できるようになったD
1あるいは特定の数字についてはうまく識別できなかっ
たシする状態となる。
ここで、学習法としては前述のようにパック・f+2,
J?  pf−シ1ン法が用いられる。学習に際しては
、出力層3の二為−ロン素子に予め1〜9,Oの数字が
設定される。すなわち、1〜9に対してはそれ自身、O
にFiIOをそれぞれ対応させる.入力信号が数字″′
5”のノ臂ターンであるとすると、望筐しh出力信号は
Z5 ” 1 * Z,” Z2 =ZB ” Z4=
 Z6 = Z7 = 221 = Z9 = Z10
 =O テアルe コレらの値を使って、パック・グロ
パーr−シ璽ン法により学習が行なわれる. パック・ブロー母一デーシ1ン法は前述したように、ニ
ューラルネットに入力信号が与えられた時の実際の出力
信号と、望筐しい出力信号(教師信号)との差が0とな
るように結合係数を修正する方法である。この方法には
従来よう様々の改良が試みられているが、ここでは最も
単純な方法を考える。出力信号の誤差関数Eを次のよう
に定義する。
ここで、Okは望1しい出力信号(教師信号〉である.
出力信号skは入力信号!1,結合係数SIJ.Tjk
および閾値θj,αkの関数である。ステッグt−1の
状態からステップtの状態への修正は、次の動作方程式
で表わされる。
Xf(zk(t−1))(1−fhk(t−D))Xf
(yj( t−1) )(1−.f(yj( t−1)
 }yj( t−1)・・・・・・(3) = Tjk(t−1)一η(zk(t−1) −o; 
(t−1) 1Xf(”k(t−1))(1 .f(!
k(t−1))lyj(t−1)・・・・・・(4) =θj(i−1)+ηΣ{zk( t−1) 一% (
 t−1 )1k瞠1 X f {zk( t−1) )( 1 −f czk
(t−1) ) ]×.f(yj(t−1))CI−.
f (yj−(t−1)))・・・・・・(5) モαk(t−1)+η[zk(i−1)−0; (t−
1))×f (sk(t−1)}〔1−f hk(t−
1))]・・・・・・(6) ここで、()内はステップ数であり、またηは修正の際
のノやラメータである。
本実施例にかけるアン・ドゥ処理とは、ニューラルネッ
トの状態、特に結合係数811に関して、ステッftの
状態からステッ7’t−1の状態を再現する処理でTo
や、最も単純には上記の方程式(3)〜(6)を解けば
よい。数値的に解を探す方法として、二島一トン法など
を用いることが考えられるが、ここでは計算時間を節約
できる近似法を示す。
ηが十分小さいとき、式(3)〜(6)から程度の大き
さであることが分かる。そこで、式(3)〜(6)を近
似して、η 程度の精度で次の式が得られる。
・・・・・・(7) 上記の式(7)〜(ト)で使う入力信号および望ましい
出力信号は、ステップt−1でのものである.式(7)
〜(ト)の導出過程の概略を以下に示す。
まず、順方向の学習の式(3)〜(6)でηのかかった
項を反対の辺に移すことによう, 出力信号は、ステップ数計数部6の計数値を1つ減らし
、それを信号提示部2に与えることによって、信号提示
部2から得られる。
ステップtを連続変数と仮定し、この変数についてテイ
ラー展開を行なうと、次式が得られる。
ここで、式αリ〜α◆の右辺に現れるステップに関する
整数が全部tであれば問題は解けたことになるが、第2
項は1ステク!前であるステッf t−1での量である
。第2項をステッデtでの結合定数と、ステクプt−1
での入力信号および望壇しい出力信号で表現するには、
次のようにすればよい。
なか、ステッデt−iでの入力信号および望筐しい・・
・・・・α0 ・・・・・・αカ 左辺を ・・・・・・(自) 式0〜(至)の右辺の各項は、ηが十分小さいとき、右
に1項ずつ移るにつれてオーダーがηずつ小さは、η0
のオーダーの量である。誤差関数E (t)の変数でt
の従属変数ぱSij = ”jk ” ! ’αkであ
るから、tに関する微分は次のように書き直すことがで
きる。
・・・・・・(至) ここで、元の学習の式0〜CLJを変数のtに関する一
階微分を与える近似式と読み替える。すなbち、式0に
かいて 右辺を と近似すると、ηの精度で となる。Tjk,θj,αkについても同様である。
この近似式をtに関する微分の式(至)に代入したもの
で(ロ)〜(至)式を近似し、式0〜a◆に適用すれば
、(7)〜(ト)式が得られる。
以上の導出過楊からわかるように、(7)〜(ト)式は
ステップtKThける変数とステッ7”t−1にかける
入力信号および望ましい出力信号のみから、ステッ7”
t−1の状態にかける特性、すなわち結合係数Slj(
t−1) − Tjk(t−1)シよび關値Oj(t−
x>−αk(t−x)を求める形となっている。すなわ
ち,ステッ!t−1にかける二為一ラルネットの特性を
再現するアン・ドゥ処理が実現されていることが分かる
噴た、上記の近似式でη2の項を落とすと、順方向の学
習で変化の大きさをその11で反対方向に動かすことに
なる。これはηが0に近い極限を考えると、直観的に納
得のゆく結果である。
なか、上記の実施例では3層ネットのエ為一ラルネクト
であって、パック・デロ,J?y−シ冒冫法によ妙二1
−ラルネットの特性を修正する学習法を用いた場合につ
いて述べたが、さらに複雑な他の構成の二具一ラルネッ
トや、他の学習法を用いた場合にも本発明を適用するこ
とができ、特に二島−ラルネットの特性の修正(学習)
のためめ計算時間がかかるものほど、本発明の有効性が
顕著となる。
[発明の効果コ 本発明によれば、現在のステツデで修正された特性と信
号提示手段に保持されている1ステッグ前に提示された
入力信号および望ましい出力信号を用いて、ニネーラル
ネットの過去の特性を計算によう求め、任意の時にその
過去の特性に戻すアン・ドゥ処理を実現することができ
る。
従って、例えばニネーラルネットにかける結合定数が局
所解に落ち込んだ時など、保合定数の修正を/?ラメー
タを変えてからやり直して学習を再開することによう対
応でき、最初から学習をやb直すなどの無駄を省くこと
ができ、学習効率が著しく向上する。
また、本発明では二,−ラルネクトの過去の修正ステッ
グでの結合定数などの特性情報を保存するための大容量
のメモリのような、大規模なノ・一ドウェアを必要とせ
ず、構或が簡易なものとなる。
【図面の簡単な説明】
第1図は本発明に係る二島一ラルネットを用いた情報処
理装置の一実施例を示す機能ブロック図、第2図は従来
の二為一ラルネットの構成例を示す図、第3図は従来の
二島−ラルネットで用いられているニエーロン素子とそ
の入出力特性を説明するための図、第4図は従来のJ々
ツク・デロノ臂r−シ1ン法による三層ネットのニエー
ラルネクトを用いた情報処理装置の構成を示す機能プロ
ック図である。 1・・・入力層、2・・・中間層、3・・・出力層、4
・・・ニエーロン素子、5・・・結合部、6・・・ステ
ップ数計数部、2・・・信号提示部(信号提示手段)、
8・・・結合定数修正部(特性修正手段)、9・・・ア
ン・ドク処理部(アン・ドゥ処理手段)。

Claims (1)

  1. 【特許請求の範囲】 ニューラルネットに処理対象の入力信号を与えてニュー
    ラルネットから処理された出力信号を得る情報処理装置
    において、 ニューラルネットへの入力信号および該入力信号に対応
    して望まれるニューラルネットの出力信号を逐次提示す
    る信号提示手段と、 この信号提示手段により提示された入力信号および出力
    信号に対応させてニューラルネットの特性を逐次修正す
    る修正手段と、 この修正手段による現在の修正結果と、過去に前記信号
    提示手段で提示された入力信号及び出力信号に基づいて
    、前記ニューラルネットの過去の特性を算出し、ニュー
    ラルネットの特性をその過去の特性に戻すアン・ドゥ処
    理手段とを具備することを特徴とするニューラルネット
    を用いた情報処理装置。
JP1160122A 1989-06-22 1989-06-22 ニューラルネットを用いた情報処理装置 Pending JPH0325562A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1160122A JPH0325562A (ja) 1989-06-22 1989-06-22 ニューラルネットを用いた情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1160122A JPH0325562A (ja) 1989-06-22 1989-06-22 ニューラルネットを用いた情報処理装置

Publications (1)

Publication Number Publication Date
JPH0325562A true JPH0325562A (ja) 1991-02-04

Family

ID=15708345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1160122A Pending JPH0325562A (ja) 1989-06-22 1989-06-22 ニューラルネットを用いた情報処理装置

Country Status (1)

Country Link
JP (1) JPH0325562A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242734A (ja) * 1990-12-28 1992-08-31 Dainippon Screen Mfg Co Ltd 製版カメラの露光制御方法及び露光制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04242734A (ja) * 1990-12-28 1992-08-31 Dainippon Screen Mfg Co Ltd 製版カメラの露光制御方法及び露光制御装置

Similar Documents

Publication Publication Date Title
Lane et al. Theory and development of higher-order CMAC neural networks
Skapura Building neural networks
Holcomb et al. PLS/neural networks
Piramuthu et al. A classification approach using multi-layered neural networks
Stornetta et al. A dynamical approach to temporal pattern processing
Valle-Lisboa et al. Multiplicative processing in the modeling of cognitive activities in large neural networks
JPH0438587A (ja) 入力領域適応型ニューラルネットワーク文字認識装置
JPH0325562A (ja) ニューラルネットを用いた情報処理装置
US5485548A (en) Signal processing apparatus using a hierarchical neural network
Li et al. A capsule-unified framework of deep neural networks for graphical programming
JPH0581227A (ja) 神経系回路網信号処理装置及び信号処理方法
JPH06161978A (ja) 多層パーセプトロン形神経状回路網における学習プロセスを実現するために適用されるバックプロパゲーション・アルゴリズムの収束の加速方法
JPH09138786A (ja) ニューラルネットワークの学習装置
Bandman Cellular-Neural computations. Formal model and possible applications
Lane et al. Higher-order CMAC neural networks-theory and practice
JP2699447B2 (ja) 信号処理装置
Anderson Neural information processing systems
CN112699797B (zh) 基于联合特征对关系网络的静态人脸表情识别方法及系统
Imran et al. Convolutional Neural Network (CNN) with Randomized Pooling
Owens et al. A multi-output-layer perceptron
Edwards An Overview of Temporal Backpropagation
Yang A Recursive Least Squares Training Approach for Convolutional Neural Networks
Castillo et al. Introduction to Neural Networks
JPH01116869A (ja) ダイナミックプログラミング機能を有するニューラルネットワーク
LEE Center for Nonlinear Studies, LANL, NM 87545 Institute for Advanced Computer Studies Department of Physics and Astronomy University of Maryland, College Park, MD 20740