JPH04130952A - しきい値論理回路網とその学習法 - Google Patents

しきい値論理回路網とその学習法

Info

Publication number
JPH04130952A
JPH04130952A JP2253674A JP25367490A JPH04130952A JP H04130952 A JPH04130952 A JP H04130952A JP 2253674 A JP2253674 A JP 2253674A JP 25367490 A JP25367490 A JP 25367490A JP H04130952 A JPH04130952 A JP H04130952A
Authority
JP
Japan
Prior art keywords
threshold
value
differential value
function
weighted sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2253674A
Other languages
English (en)
Inventor
Yutaka Harada
豊 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Research Development Corp of Japan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Development Corp of Japan filed Critical Research Development Corp of Japan
Priority to JP2253674A priority Critical patent/JPH04130952A/ja
Publication of JPH04130952A publication Critical patent/JPH04130952A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はしきい値論理回路の学習法、特にノ<・ツクプ
ロパゲーション法により学習を行なうしきい値論理回路
網とその学習法に係わる。
(発明の背景) 従来の計算機はANDまたはOR回路を組み合わせた論
理回路システムで構築されている。これらの計算機は極
めて高速に動作し、人間の計算能力を遥かに上回る性能
を発揮し、社会に貢献していることは周知の事実である
。しかし、従来の計算機は、人間が日常行なっている認
識動作、判断動作には不適当であることも次第に明らか
になってきた。このため、認識、判断に好適な計算機を
構築する目的で、人間の脳細胞にューロン)を手本にし
てしきい値論理回路とそれを使って計算機システム技術
が例えば、せ利俊−「神経回路網の数理」産業図書、昭
和53年、L、D、 Jacklel。
R,E、 Howard、 H,P、 Craf、 B
、 Straughn、 and J。
D、 Denker、“Artificial neu
ral networks forcomputing
 、  Journal  of Vacuum Sc
ienceTechnology B4(1)、  J
an/Feb、  1986.  pp、 61−63
に開示されている。
以下に、しきい値論理回路の動作説明を行い、本発明の
位置付けを明らかにする。第2図はしきい値論理回路の
動作を示す図である。しきい値論理回路はしきい部10
1重み部20、複数個の入力端子101、入力線102
と少なくとも1個の出力線103を持つ回路である。し
きい値論理回路では、複数の入力端子に信号Xiが印加
され、その信号Xiの重み加算料ΣWiXiがしきい値
Tを超えれば出力は“1”に、それ以外は“θ″になる
論理動作を行なう。ここで、Wiは重みを表わす。しき
い値論理回路の特徴は学習機能にある。即ち、学習によ
り、重みWiを変化させ、最終的に目的に適応した回路
システムを構築する。従って、しきい値論理回路を構成
するには、入力信号の重み加算を行ない素子をスイッチ
させる機能だけでな(、重みWiを変化させる学習機能
を持たなければならない。通常、この重みを制御端子1
04から入力する重み制御信号で制御する。
通常、複雑な論理関数を実現するには第2図に示すしき
い値論理回路を多段に複雑に組み合わせる。該重みを更
新する学習は、論理関数の出力信号とその時に期待され
る出力信号(教師信号)を比較して、その誤差を基に重
みを変える学習方法が用いられる。第3図は第2図のし
きい値論理回路を接続した論理関数の構造例を示してお
り、3個のしきい部10と2個の重み部20から構成さ
れている。ここで、j番目のしきい部の入力重み加算料
ΣW++ y+をU、とし、しきい関数をf(U、)、
出力信号をylとする。本発明での着目点は重みを変更
する学習法にある。いくつかある学習法の内でパックプ
ロパゲーション法は最も有効な手段として認められてい
る。このパックプロパゲーション法は最も有効な手段と
して認められている。
このパックプロパゲーション法は例えば、中野薫「ニュ
ーロコンピュータの基礎」コロナ社(1990年4月)
他に詳しく記載されている。パックプロパゲーション法
では、(1)式に示される、各種入力パターンにおける
論理関数の出力信号と教師信号の誤差の2乗和(誤差関
数)Eを最小にするように重みを変える。
E=Σ (y 、 −y 、)2/2       ・
・・・・ (1)ここで、y2は論理関数の出力信号で
あり、y。
はその時の教師信号である。重みの変更は最急降下法に
より(2)式で表わされる。
ここでεは収束の度合を決めるパラメータである。
従来の方法では、複雑に接続されている回路網では(2
)式(DaE/aW、、は例えば(3) (4)式に示
す方法で求める。
・・・・・ (4) この従来方法では重みの変更に最小項を得るのに4回の
乗算を必要としていた。一般に乗算は加算に比べ複雑で
あり、計算結果を得るのに多くの時間を必要とする。こ
のため重みを更新するためのハードウェア、ソフトウェ
アの構成が複雑になり、更新のために多(の処理時間を
必要とする欠点がある。従来技術では学習機能をソフト
ウェアで実現していたが、学習速度の高速化、高効率化
を図るためには学習機能を含めハードウェアでニューロ
システムを実現しなければならない。この場合、ハード
ウェアで重みを更新する処理系を実現するには乗算の回
数が少ないほど有利である。
また、学習機能を有するしきい値論理回路の単位を規定
し、該単位を複数個並べて各種の論理関数を実現するこ
とは論理回路のりピータビリティイをあげハードウェア
の設計や検査を容易にする。
(発明の目的) 本発明の目的は、バックプロパゲーション法による重み
の更新方法で乗算回数を少なくし、簡単な構成で高速に
重みを変えられるしきい値論理回路の学習方法を提供し
、しきい値論理回路を使った高速かつ多機能の学習を行
なう認識、判断機能に優れた計算機を実現することにあ
る。
(発明の概要) この目的の為に、本発明では学習機能を有するしきい値
論理回路の単位を規定し、該単位を複数個並べて論理関
数を実現するしきい値論理回路網であって、(1)式で
表わされる誤差関数を入力信号の重み加算料U、に着目
して展開し、好適にはしきい値開数f(U+)を2本の
指数関数の合成で表わすことを特徴とする。
(発明の実施例) 以下に実施例を用いて本発明を説明する。
第1図は本発明による学習方法を示している。
第1図に示す学習方法で、誤差関数、及び重みの更新方
法は(1)式、(2)式で表わされる。本発明では誤差
関数の微分値δE/δW11を入力信号の重み加算料U
、に着目して展開し、(5)式、(6)式で表わす。
・・・・・ (6) (5)式、(6)式から明らかな様に、誤差関数の微分
値aB/aW、、を得るのに3回の乗算でよい。また誤
差関数Eの重み加算料Uによる微分aE/aUは各しき
い値論理回路でその値を保持しておけば、その値を使っ
て内部のBElaU値を(6)式をつかって出力端から
逆伝般させることができる。第1図は本発明による、(
5)式、(6)式による重み更新法を実現する回路構成
の実施例である。第1図の実施例では、各しきい値論理
回路は重み部20ji、しきい部10jと誤差関数の重
み加算料による微分値aE/aU、の保持部30j、し
きい植機係数部40j1乗算器50 ji、乗算器60
kjから構成される。乗算器60kjは逆伝般される誤
差関数の重み加算器よる微分値aElaUk、重みWk
、、しきい植機係数f’(U、)の積を計算し、その値
を微分値a Era U、の保持部30jに累積加算す
る。また、乗算器50jiは前段の出力y1と該微分値
aE/aHの積を計算し、その値を使って重みLiを更
新する。第1図の実施例では、例えば、微分値δE/δ
U1の保持部30jはレジスタと加算器からなるアキュ
ムレータで、しきい植機係数部40jは関数発生器また
はテーブルで、重み部20jiはアキュムレータまたは
加減カウンタで実現できることは明かであり、さらに専
用のハードウェアを用いることもできる。
従来技術によっバックプロパゲーション法ではしきい値
関数f (U)を(7)式で示すフェルミ関数を採用す
る方法が提案されている。
Y= f(U)= 1/(1+Exp(刊))    
 −−−−−(7)この関数を使った場合、その微係数
f’ ([1)は(8)式で表わされる。
f’ (U)= y(1−Y ) ・・・・・ (8) しきい値関数に(7)式を使った場合、その微係数はy
の乗算を含む関数で煩雑であり、ハードウェアで実現す
るには多くの回路が必要である。この欠点を無くすため
本発明では、しきい値関数f(U)を(9)式に示す、
2個の指数関数を合成した関数で表わす。
y=f(U)=Exp(U/α)/2    ;[1<
=1−Exp(−U/α)/2  ;  U≧0 −−
− (9)(8)式と(9)式で表わされる2個のしき
い値関数を第4図に比較して第4図では(9)式はα=
1の場合を示している。αを選択すれば両式はほぼ一致
させることが出来る。(9)式のしきい値関数を使うと
、その微係数はα0)式で表わせる。
f’ (U)=Min(y、 t−y )/a    
    −−−−(10)(10)式から明かな様に、
微係数f’ (U)はyそのものか、その加減算で表わ
すことができる。従ってこの場合、第1図に示すしきい
値論理回路を更に簡略化出来る。第5図は0口)式のし
きい値関数を使った場合のしきい値論理回路の実施例で
ある。第5図の構成では、第1図のしきい植機係数部4
0jをスイッチ46jと減算器45jで構成する。
該減算器45jではi−yを算出する。更にスイッチ4
6jでyまたはt−yを選択し該乗算器60kjに出力
する。第5図での採用している減算器は乗算器より回路
構成が簡単であり、回路構成を簡略化出来ることは明か
第6図は第5図の構成を更に簡単化した実施例である。
しきい値関数として(9)式を使うと、誤差関数の微分
値δE/θU、は0口式で表わされる。
従って、この場合は重みW、を変化させるため゛変化量
y、aE/JUhを使って、誤差関数の微分値aEla
U、の加算値を計算できる。第6図の実施例では、重み
W、の加算量を計算する乗算器50kjの出力と減算器
70kjで出力される該出力と誤差関数の微分値aE/
aU、の差をスイッチ71kjで選択して該しきい値関
数の微係数とする方法である。この場合、該乗算器60
kjは2個号の乗算を行なえばよく、第5図に比べて乗
算回数を1回生なくすることが出来る。
以上の説明ではしきい値θを一定とした。一方、高い学
習効果をあげるにはしきい値θの学習が必要である。し
きい値をθ1とすればU、はし式で表される。
U、=ΣW、1y1−θ、  ・・・・・ (12)し
きい値の学習法は(19式で表される。
ここで、aE/aθ、は(14)式で表される。
(14)式より、しきい値θ、は誤差関数の微分値BE
/δU、を使って更新すればよい。ここで、(141式
の誤差関数の微分値aE/aU、は(6)式で表される
。第7図は(13)式で表される学習方法によるしきい
値θ1の学習を行うしきい論理回路の実施例である。第
7図の実施例では、しきい部30の中にあるしきい値θ
、を保持するしきい値保持部8゜jの値を誤差関数の微
分値aE/θU1を使って更新する方法である。
以上説明したごとく、学習機能を有するしきい値論理回
路を1個の単位として規定する事ができ、該しきい値論
理回路を多数個直列並列に並べて実現した論理関数の学
習法を実現できる。本発明では学習機能を有するしきい
値論理回路をハードウェアで実現でき、高速かつ効率の
良い学習が実現できる。
以上の説明では、ハードウェアによるしきい値論理回路
とその学習方法を説明したが、ソフトウェアで本方法を
実行できることは明か。
(発明の効果) 以上説明したごとく、本発明を用いれば、高速のジョセ
フソンスイッチング回路で、学習機能を有する、しきい
値論理回路を構成できる。従って、本発明により、しき
い値論理回路を使った、認識判断を実行するのに好適な
高速計算機を実現できる。故に、本発明はこの高度の認
識判断を行なう高速計算機の実現に必要不可欠である。
【図面の簡単な説明】
第1図は本発明による学習機能付しきい値論理回路の実
施例の概略図、第2図はしきい値論理回路の動作説明図
、第3図はしきい値論理回路の接続を示す図、第4図は
しきい値開数例を示すグラフ、第5図及び第6図は本発
明によるしきい値論理回路例の概略図、第7図はしきい
値の学習方法を示す図である。 10・・・しきい部、20・・・重み部、3゜・・・誤
差関数の微分値保持部、4o・・・しきい値関数微係数
部、50・・・乗算器、6o・・・乗算器、45・・・
減算器、46・・・スイッチ、70・・・減算器、71
φ・・スイッチ、101・・・入力端子、102・・・
入力線、103・・・出力線、104・・・制御端子。 第1図 制御 第2図 Ui=ΣWi立 yJ=f (U7) 第3図 第6図 第7図

Claims (5)

    【特許請求の範囲】
  1. (1)入力信号の重み加算和と該重み加算和をしきい値
    と比較して予め定められたしきい値関数に従って出力信
    号を出力するしきい値論理回路であって、誤差信号の該
    重み加算和による微分値を保持する機能と該しきい値関
    数の微分値を出力する機能を有し、前段の出力信号と自
    己の該誤差信号の重み加算和による微分値の積で該重み
    値を更新する機能と後段の誤差信号の重み加算和による
    微分値と重み値と自己の該しきい値関数の微分値の積を
    自己の該誤差信号の重み加算和による微分値に累積加算
    する機能を有するしきい値論理回路を複数個接続したこ
    とを特徴とするしきい値論理回路網。
  2. (2)特許請求の範囲第(1)項のしきい値論理回路網
    であって、該しきい値を誤差信号の該重み加算和による
    微分値を使って更新する事を特徴とするしきい値論理回
    路網。
  3. (3)特許請求の範囲第(1)項のしきい値論理回路網
    であって、該しきい値関数が2本の指数関数の合成であ
    り、該しきい値論理関数の微分値が該しきい値論理回路
    の出力値またはその加減値で表わされることを特徴とす
    るしきい値論理回路網。
  4. (4)特許請求の範囲第(3)項のしきい値論理回路網
    であって、後段の重み値を変更する値を使って自己の誤
    差信号の重み加算和による微分値を更新する事を特徴と
    するしきい値論理回路網。
  5. (5)入力信号の重み加算和と該重み加算和をしきい値
    と比較して予め定められたしきい値関数に従って、出力
    信号を出力するしきい値論理回路を複数個接続したしき
    い値論理回路網における学習法であって、後段の誤差信
    号の重み加算和による微分値と重み値と自己の該しきい
    値関数の微分値を自己の該誤差信号の重み加算和による
    微分値として累積加算し、前段の出力信号と自己の該誤
    差信号の重み加算和による微分値の積で重み値を更新す
    ることを特徴とするしきい値論理回路網における学習法
JP2253674A 1990-09-21 1990-09-21 しきい値論理回路網とその学習法 Pending JPH04130952A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2253674A JPH04130952A (ja) 1990-09-21 1990-09-21 しきい値論理回路網とその学習法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2253674A JPH04130952A (ja) 1990-09-21 1990-09-21 しきい値論理回路網とその学習法

Publications (1)

Publication Number Publication Date
JPH04130952A true JPH04130952A (ja) 1992-05-01

Family

ID=17254590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2253674A Pending JPH04130952A (ja) 1990-09-21 1990-09-21 しきい値論理回路網とその学習法

Country Status (1)

Country Link
JP (1) JPH04130952A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) * 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197389A (ja) * 2015-04-03 2016-11-24 株式会社デンソーアイティーラボラトリ 学習システム、学習プログラムおよび学習方法

Similar Documents

Publication Publication Date Title
Patra et al. Identification of nonlinear dynamic systems using functional link artificial neural networks
Lee et al. The Chebyshev-polynomials-based unified model neural networks for function approximation
Ritter et al. An introduction to morphological neural networks
Lee et al. Identification and control of dynamic systems using recurrent fuzzy neural networks
Patra et al. Nonlinear dynamic system identification using Legendre neural network
JP2747104B2 (ja) ニューラルネットワーク
JPH07114524A (ja) 信号処理装置
EP0519501B1 (en) A control method using neural networks and a voltage/reactive power controller for a power system
Zhao et al. Fuzzy adaptive fault-tolerant control of multi-agent systems with interactions between physical coupling graph and communication graph
Chang et al. The optimization of control parameters: finite-time bipartite synchronization of memristive neural networks with multiple time delays via saturation function
JPH04130952A (ja) しきい値論理回路網とその学習法
Kuroe et al. A learning method of nonlinear mappings by neural networks with considering their derivatives
JP3508783B2 (ja) パルス密度型信号処理回路網における結合係数更新方法並びに結合係数更新装置
Cheng Derivation of the backpropagation algorithm based on derivative amplification coefficients
Sudharsanan et al. Supervised training of dynamical neural networks for associative memory design and identification of nonlinear maps
Lin et al. On the existence of the exact solution of quaternion-valued neural networks based on a sequence of approximate solutions
Kouhara et al. Learning algorithm based on moderationism for multi-layer neural networks
Ghorbani et al. Incremental communication for multilayer neural networks
Fujita A method for designing the internal representation of neural networks
Ansari et al. Adaptive stack filtering by LMS and perceptron learning.
Jin et al. Distributed adaptive neural anti-disturbance cooperative control of high-order MIMO nonlinear multi-agent systems
Ceylan et al. Comparison of complex-valued neural network and fuzzy clustering complex-valued neural network for load-flow analysis
Patra et al. Chebyschev functional link artificial neural networks for nonlinear dynamic system identification
Piazza et al. Neural network complexity reduction using adaptive polynomial activation functions
Malhotra et al. Evaluation of electronic artificial neural network implementations