JPH02178759A - 神経回路網 - Google Patents
神経回路網Info
- Publication number
- JPH02178759A JPH02178759A JP63334676A JP33467688A JPH02178759A JP H02178759 A JPH02178759 A JP H02178759A JP 63334676 A JP63334676 A JP 63334676A JP 33467688 A JP33467688 A JP 33467688A JP H02178759 A JPH02178759 A JP H02178759A
- Authority
- JP
- Japan
- Prior art keywords
- neural circuit
- function
- output
- neural
- circuit element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001537 neural effect Effects 0.000 title claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 44
- 230000006870 function Effects 0.000 abstract description 91
- 238000010586 diagram Methods 0.000 description 9
- 240000008067 Cucumis sativus Species 0.000 description 7
- 238000013139 quantization Methods 0.000 description 6
- 235000009849 Cucumis sativus Nutrition 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 235000010799 Cucumis sativus var sativus Nutrition 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- Filters That Use Time-Delay Elements (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
この発明は神経回路網に関し、特に、この神経回路網を
構成する神経回路素子のモデルに関する。
構成する神経回路素子のモデルに関する。
[従来の技術]
現在、神経回路素子のモデルとしては、次式(1)示す
ように、入力信号X、と各入力信号対応にこの素子が有
している重み係数WIJ との積和演算を行ない、この
積和演算により得られた結果y、を、次式(2)に示す
シグモイド関数のような非線形単調増加の特定関数を通
すことにより出力信号2.を導出するモデルがよく用い
られている。
ように、入力信号X、と各入力信号対応にこの素子が有
している重み係数WIJ との積和演算を行ない、この
積和演算により得られた結果y、を、次式(2)に示す
シグモイド関数のような非線形単調増加の特定関数を通
すことにより出力信号2.を導出するモデルがよく用い
られている。
Xj =壬W ij −X i ・・・(1)
この神経回路素子の構成を第2A図に、その特性関数で
あるシグモイド関数を第2B図に示す。すなわち第2A
図に示すように、神経回路素子においては、各入力信号
X、に対してそれぞれに結合の強さを示す重み係数が与
えられており、この各入力信号x1とそれぞれ対応の重
み係数WIJ との掛算を行ない、この掛算の結果を総
和してまずylを求め、次にこのyIをシグモイド関数
を通すことによりこの神経回路素子からの出力信号2、
が導出される。
この神経回路素子の構成を第2A図に、その特性関数で
あるシグモイド関数を第2B図に示す。すなわち第2A
図に示すように、神経回路素子においては、各入力信号
X、に対してそれぞれに結合の強さを示す重み係数が与
えられており、この各入力信号x1とそれぞれ対応の重
み係数WIJ との掛算を行ない、この掛算の結果を総
和してまずylを求め、次にこのyIをシグモイド関数
を通すことによりこの神経回路素子からの出力信号2、
が導出される。
また第2B図に示すように、シグモイド関数はX→−閃
のとき0となり、X→十国のとき1となりこの0と1の
間で単調に増加する非線形単調増加関数である。
のとき0となり、X→十国のとき1となりこの0と1の
間で単調に増加する非線形単調増加関数である。
この上述のモデルに従って第3図に示すようなフィード
フォワード型のバーセブトロンを構成した場合、次式(
3)〜(6)に示すエラーバックプロパゲーションのア
ルゴリズムにより教師付学習を行なうことができること
がこのモデルの特徴であり、また任意の連続関数が3層
以上の多層パーセブトロンで実現できることが理論的に
証明されている。
フォワード型のバーセブトロンを構成した場合、次式(
3)〜(6)に示すエラーバックプロパゲーションのア
ルゴリズムにより教師付学習を行なうことができること
がこのモデルの特徴であり、また任意の連続関数が3層
以上の多層パーセブトロンで実現できることが理論的に
証明されている。
ΔWI J (n) −a ・δ、・z +
−(3)W、J (n+1) −w14(n)+ΔW+J (n) +β・ΔWIJ (n 1) ・・・
(4)[出力層] δt−f’(y、)・ (tt−z、)−[ZJ
(1−ZJ )] (tj ZJ )・・・(5
) [中間層] δ4=f’(y、)・Σδ、φWJ l= [zj
(1−z; )]−Σδ、・w41・・・ (6) ただし、nは離散時間モデルにおける時刻、t、はj番
目の神経回路素子の出力に 対する教師データ、 α、βは学習の条件を決める係数。
−(3)W、J (n+1) −w14(n)+ΔW+J (n) +β・ΔWIJ (n 1) ・・・
(4)[出力層] δt−f’(y、)・ (tt−z、)−[ZJ
(1−ZJ )] (tj ZJ )・・・(5
) [中間層] δ4=f’(y、)・Σδ、φWJ l= [zj
(1−z; )]−Σδ、・w41・・・ (6) ただし、nは離散時間モデルにおける時刻、t、はj番
目の神経回路素子の出力に 対する教師データ、 α、βは学習の条件を決める係数。
また第3図においてOで各神経回路素子を示し、各神経
回路素子間の入出力関係は実線で表わす。
回路素子間の入出力関係は実線で表わす。
[発明が解決しようとする課題]
神経回路素子のモデルとしては、上式(1)および上式
(2)で表わされるモデルがよく用いられている。この
モデルに従って多層パーセブトロンを構成した場合には
、教師データt、の値としてMO”または“1#の値を
与えることが多い。
(2)で表わされるモデルがよく用いられている。この
モデルに従って多層パーセブトロンを構成した場合には
、教師データt、の値としてMO”または“1#の値を
与えることが多い。
これは、出力値ZJが“0#または“1”に近い値をと
るときに最も安定した状態となるからである。すなわち
、第2B図に示すようにシグモイド関数は、yJ (こ
れはj番目の神経回路素子の実効人力に対応する)がマ
イナスの小さな値の場合には“0”に近づくが、この場
合シグモイド関数の微分関数f′ (yJ)も同時に“
0°に近づく。
るときに最も安定した状態となるからである。すなわち
、第2B図に示すようにシグモイド関数は、yJ (こ
れはj番目の神経回路素子の実効人力に対応する)がマ
イナスの小さな値の場合には“0”に近づくが、この場
合シグモイド関数の微分関数f′ (yJ)も同時に“
0°に近づく。
同様に、Yiがプラスの大きな値の場合には、シグモイ
ド関数は“1°に近づくが、このとき、同時にシグモイ
ド関数の微分関数f’(yJ)も“0”に近づく。
ド関数は“1°に近づくが、このとき、同時にシグモイ
ド関数の微分関数f’(yJ)も“0”に近づく。
したがって、入力信号x1の変動によってyが少し変動
しても出力値として“0°または“1″に近い値を安定
に出力することができる。
しても出力値として“0°または“1″に近い値を安定
に出力することができる。
また、学習処理として重み係数の更新を行なう上式(3
)〜(6)において、上式(5)および上式(6)の右
辺にはシグモイド関数の微分関数f’(y、)が掛けら
れている。したがって、出力層に対する式(5)におい
ては、出力値ZJが教師データt、から離れている場合
には、シグモイド関数の微分関数f′ (yj)もその
値が大きくなり、応じてδ、も大きくなり、重み係数が
大きく変更される。
)〜(6)において、上式(5)および上式(6)の右
辺にはシグモイド関数の微分関数f’(y、)が掛けら
れている。したがって、出力層に対する式(5)におい
ては、出力値ZJが教師データt、から離れている場合
には、シグモイド関数の微分関数f′ (yj)もその
値が大きくなり、応じてδ、も大きくなり、重み係数が
大きく変更される。
一方、出力値ZJが教師データ1.に接近している場合
には、シグモイド関数の微分関数f′(y、)もその値
は小さく、δ、も小さぐなるため、重み係数の変更学習
が小さくなる。
には、シグモイド関数の微分関数f′(y、)もその値
は小さく、δ、も小さぐなるため、重み係数の変更学習
が小さくなる。
同様に、中間層についてもほぼ同様のことがいえるもの
と考えられ、中間層の出力も学習が収束した段階におい
ては“0°または“1”に近い値をとるものと考えられ
る。
と考えられ、中間層の出力も学習が収束した段階におい
ては“0°または“1”に近い値をとるものと考えられ
る。
以上の理由により、従来のモデルでは、教師データとし
てmOmまたは“1#を割当てることが行なわれる。
てmOmまたは“1#を割当てることが行なわれる。
第4図に示すように、キュウリの形状に従って上、中、
および下の3つのクラスに分類する場合には、ニューラ
ルネットワーク(神経回路素子網)の構成は第3図に示
すようになり、出力層には3つの神経回路索子201.
202および203を配置することになる。この場合、
3つの神経回路素子201〜203の出力D1、D2お
よびD3にはそれぞれ次のコードが与えられる。すなわ
ち、Dl−1、D2−0、D3−0ならば上クラス、D
l−0、D2−1、D3−0ならば中クラス、Dl−0
、D2−0、D3−1ならば下クラスとして判定を行な
う。すなわち、第4図に示すようにキュウリに1〜に5
のうち形状が真直ぐのものを上クラスとして少し歪んで
いるものを中クラスとし、その歪がひどいキュウリに4
およびに5を下クラスとして分類する。
および下の3つのクラスに分類する場合には、ニューラ
ルネットワーク(神経回路素子網)の構成は第3図に示
すようになり、出力層には3つの神経回路索子201.
202および203を配置することになる。この場合、
3つの神経回路素子201〜203の出力D1、D2お
よびD3にはそれぞれ次のコードが与えられる。すなわ
ち、Dl−1、D2−0、D3−0ならば上クラス、D
l−0、D2−1、D3−0ならば中クラス、Dl−0
、D2−0、D3−1ならば下クラスとして判定を行な
う。すなわち、第4図に示すようにキュウリに1〜に5
のうち形状が真直ぐのものを上クラスとして少し歪んで
いるものを中クラスとし、その歪がひどいキュウリに4
およびに5を下クラスとして分類する。
しかしながら、上述の神経回路素子201〜203の出
力状態に応じたコード化は、−見してわかるように非常
に冗長性が大きく、そのため出力層の素子数も多く必要
とする。この第3図および第4図に示す例においては、
上、中、および下の3種類の出力を与えるだけであるが
、たとえばアルファベットを出力として出す場合には、
出力層に26個の素子が必要となり、神経回路網を形成
する素子間の結合もそれに比例して多くなり、神経回路
網の構成が複雑となる。すなわち、神経回路網を構成す
る神経回路素子が多い場合、神経回路素子間の結合、す
なわち重み係数の数が多く、各神経回路素子の出力値の
計算や重み係数変更学習処理に要する計算時間が長くな
り、高速で所望の演算処理を行なう神経回路網を得るこ
とができないという問題が生じる。
力状態に応じたコード化は、−見してわかるように非常
に冗長性が大きく、そのため出力層の素子数も多く必要
とする。この第3図および第4図に示す例においては、
上、中、および下の3種類の出力を与えるだけであるが
、たとえばアルファベットを出力として出す場合には、
出力層に26個の素子が必要となり、神経回路網を形成
する素子間の結合もそれに比例して多くなり、神経回路
網の構成が複雑となる。すなわち、神経回路網を構成す
る神経回路素子が多い場合、神経回路素子間の結合、す
なわち重み係数の数が多く、各神経回路素子の出力値の
計算や重み係数変更学習処理に要する計算時間が長くな
り、高速で所望の演算処理を行なう神経回路網を得るこ
とができないという問題が生じる。
それゆえ、この発明の目的は神経回路素子数を低減する
ことができ、より簡潔な神経回路網を構成することので
きる神経回路素子モデルを提供することである。
ことができ、より簡潔な神経回路網を構成することので
きる神経回路素子モデルを提供することである。
[課題を解決するための手段]
この発明の神経回路素子は、その入力信号と各入力信号
対応の重み係数との積和演算結果y、から出力信号2.
を導出するための特性関数として、その微分関数が複数
箇所で極大値をとる階段状の単調増加関数を用いたもの
である。
対応の重み係数との積和演算結果y、から出力信号2.
を導出するための特性関数として、その微分関数が複数
箇所で極大値をとる階段状の単調増加関数を用いたもの
である。
[作用]
神経回路素子の特性関数として、上記階段状の単調増加
関数を用いることにより、特性関数の微分関数が複数個
の極大値を有することになり、これにより神経回路素子
の出力2.を多値化することが可能となる。この階段状
の単調増加関数を特性関数として有する神経回路素子を
用いて神経回路網を構成すれば、神経回路網をより少な
い神経回路素子で構成することができるため、神経回路
素子間の結合、すなわち、重み係数の数を低減すること
かできる。したがって、神経回路網の出力値の計算およ
び学習処理の計算時間を短縮することができ、高速で演
算処理を行なうことのできる神経回路網を得ることがで
きる。
関数を用いることにより、特性関数の微分関数が複数個
の極大値を有することになり、これにより神経回路素子
の出力2.を多値化することが可能となる。この階段状
の単調増加関数を特性関数として有する神経回路素子を
用いて神経回路網を構成すれば、神経回路網をより少な
い神経回路素子で構成することができるため、神経回路
素子間の結合、すなわち、重み係数の数を低減すること
かできる。したがって、神経回路網の出力値の計算およ
び学習処理の計算時間を短縮することができ、高速で演
算処理を行なうことのできる神経回路網を得ることがで
きる。
また、神経回路素子の出力が出力多値化により量子化さ
れるため、神経回路網を用いて情報圧縮を行なう場合の
ような量子化出力が必要な応用に対して最適な神経回路
素子を得ることができる。
れるため、神経回路網を用いて情報圧縮を行なう場合の
ような量子化出力が必要な応用に対して最適な神経回路
素子を得ることができる。
[発明の実施例]
以下、この発明の一実施例について図面を参照して説明
する。この発明による神経回路素子は第2A図に示す神
経回路素子と同じ構成を有しているが、その特性関数が
異なっている。すなわち、通常の従来の神経回路素子に
おいては、第2B図に示すシグモイド関数が特性関数と
して使用されるが、この発明においては第1A図および
第1B図にそれぞれ示すような階段状の単調増加関数が
特性関数として用いられる。この発明の実施例において
は、階段状の単調増加関数は、シグモイド関数をつなぎ
合わせて合成することにより形成される。この発明の実
施例に従う特性関数を数式で表現すると以下のようにな
る。ここで、神経回路素子の出力がとり得る量子化され
た値の数をNとする。
する。この発明による神経回路素子は第2A図に示す神
経回路素子と同じ構成を有しているが、その特性関数が
異なっている。すなわち、通常の従来の神経回路素子に
おいては、第2B図に示すシグモイド関数が特性関数と
して使用されるが、この発明においては第1A図および
第1B図にそれぞれ示すような階段状の単調増加関数が
特性関数として用いられる。この発明の実施例において
は、階段状の単調増加関数は、シグモイド関数をつなぎ
合わせて合成することにより形成される。この発明の実
施例に従う特性関数を数式で表現すると以下のようにな
る。ここで、神経回路素子の出力がとり得る量子化され
た値の数をNとする。
(1) N−2Mの場合
(i)x< (−M+1) ・鉦のとき、(11)(
−#rnン )≦x< (−MtHf + )−1。
−#rnン )≦x< (−MtHf + )−1。
n−1,2,・・・、N−2のとき、
(111) CM−1)i≦Xのとき、ここで、Tは
シグモイド関数の傾きを決定する係数を示し、悲は同一
の出力値をあたえる入力信号Xの範囲の幅を与える。上
述の式(7)〜(9)において、N−4の場合の階段状
単調増加関数を第1A図に示す。
シグモイド関数の傾きを決定する係数を示し、悲は同一
の出力値をあたえる入力信号Xの範囲の幅を与える。上
述の式(7)〜(9)において、N−4の場合の階段状
単調増加関数を第1A図に示す。
(II)
N−2M+1の場合、
x< (−M+0.5) ・庭のとき、(11)
(−@+n −o、左) ノ≦Xぐ(−H−t s−t
or)、1゜n−1,2,・・・N−2のとき、 q−1 寸 □
・・・ (Ilン〜− (III) (M−0,5) ・見≦Xのとき、上
式(10)〜(12)におけるTはシグモイド関数の傾
きを決定する係数を示す。上述の式においてN−5の場
合の階段状単調増加関数を第1B図に示す。
(−@+n −o、左) ノ≦Xぐ(−H−t s−t
or)、1゜n−1,2,・・・N−2のとき、 q−1 寸 □
・・・ (Ilン〜− (III) (M−0,5) ・見≦Xのとき、上
式(10)〜(12)におけるTはシグモイド関数の傾
きを決定する係数を示す。上述の式においてN−5の場
合の階段状単調増加関数を第1B図に示す。
ここで、第1A図および第1B図においては、階段状単
調増加関数とともにその微分関数も合わせて示す。
調増加関数とともにその微分関数も合わせて示す。
上述のような階段状の単調増加関数を神経回路素子モデ
ルにおける特性関数として用いると、例えばN−4の偶
数の場合には、第1A図に示されるように、区間401
.402.403.404において、この関数の微分係
数f’ (x)の値が0に近い小さな値をとる。°す
なわち、N−4の場合、単調増加関数f (x)は入力
値Xが一誌、0、および庭の近傍で大きな勾配を有し、
第1A図に示す区間401.402.403および40
4においては、特性関数f (x)は平坦な形をとって
いる。したがって、これらの区間401〜404の各々
に対応して、出力値として0.0.0.33(または1
/3) 、0.66 (または2/3)、1.0の4種
の信号値をとることができ、4値の安定な出力を得るこ
とができる。
ルにおける特性関数として用いると、例えばN−4の偶
数の場合には、第1A図に示されるように、区間401
.402.403.404において、この関数の微分係
数f’ (x)の値が0に近い小さな値をとる。°す
なわち、N−4の場合、単調増加関数f (x)は入力
値Xが一誌、0、および庭の近傍で大きな勾配を有し、
第1A図に示す区間401.402.403および40
4においては、特性関数f (x)は平坦な形をとって
いる。したがって、これらの区間401〜404の各々
に対応して、出力値として0.0.0.33(または1
/3) 、0.66 (または2/3)、1.0の4種
の信号値をとることができ、4値の安定な出力を得るこ
とができる。
また、N−5の奇数の場合には、第1B図に示すように
、入力lii!xが−1,5L−0,5LO,51およ
び1.5σ近傍で微分関数f’ (x)が大きな値を
とり、これらの領域を除く区間501.502,503
,504および505においては、この単調増加関数f
(x)の微分係数f′(X)は“0”に近い小さな値
をとる。したがって、この区間501〜505の各々に
出力値0゜0.0.25.0.5.0.75および1.
0の5つの信号値を割当てることにより、5値の安定な
出力を得ることができる。
、入力lii!xが−1,5L−0,5LO,51およ
び1.5σ近傍で微分関数f’ (x)が大きな値を
とり、これらの領域を除く区間501.502,503
,504および505においては、この単調増加関数f
(x)の微分係数f′(X)は“0”に近い小さな値
をとる。したがって、この区間501〜505の各々に
出力値0゜0.0.25.0.5.0.75および1.
0の5つの信号値を割当てることにより、5値の安定な
出力を得ることができる。
先に第4図に示したようにキュウリの形状によって上、
中、下の3つのクラスに分類する場合には、従来のニュ
ーラルネットワークの構成では、第3図に示すように出
力層には3つの神経回路素子201,202および20
3を配置することになる。しかしながら、この発明に従
って、特性関数としてN−3の階段状の単調増加関数を
持つ神経回路素子を用いれば、第5図に示すように、出
力層の神経回路素子601は3値出力が可能なため1個
で済み、神経回路網の構成を簡単にすることができる。
中、下の3つのクラスに分類する場合には、従来のニュ
ーラルネットワークの構成では、第3図に示すように出
力層には3つの神経回路素子201,202および20
3を配置することになる。しかしながら、この発明に従
って、特性関数としてN−3の階段状の単調増加関数を
持つ神経回路素子を用いれば、第5図に示すように、出
力層の神経回路素子601は3値出力が可能なため1個
で済み、神経回路網の構成を簡単にすることができる。
さらに第6図に示すように、中間層にも、階段状の単調
増加関数を特性関数として有する神経回路素子701〜
705を用いれば、中間層の神経回路素子の数を従来の
神経回路網の構成と比べて大幅に低減することができる
。これは、中間層の各神経回路素子がとり得る安定な出
力値の数が大幅に増加するからである。特に、この階段
状の単調増加関数を特性関数として有する神経回路素子
を用いた場合、入力信号の変動に対してもその影響をあ
まり受けずに安定な出力値を得ることができ、学習に用
いたデータ以外のデータに対しても、その与えられたデ
ータが学習データに近いデータであれば、学習時の出力
と同じ出力を得ることが期待される。このことは、神経
回路網の泥化の機能を増進するものである。
増加関数を特性関数として有する神経回路素子701〜
705を用いれば、中間層の神経回路素子の数を従来の
神経回路網の構成と比べて大幅に低減することができる
。これは、中間層の各神経回路素子がとり得る安定な出
力値の数が大幅に増加するからである。特に、この階段
状の単調増加関数を特性関数として有する神経回路素子
を用いた場合、入力信号の変動に対してもその影響をあ
まり受けずに安定な出力値を得ることができ、学習に用
いたデータ以外のデータに対しても、その与えられたデ
ータが学習データに近いデータであれば、学習時の出力
と同じ出力を得ることが期待される。このことは、神経
回路網の泥化の機能を増進するものである。
一方、出力信号に着目すると、上述の階段状の単調増加
関数を特性関数として用いることにより、出力信号の量
子化機能が付加されたことになる。
関数を特性関数として用いることにより、出力信号の量
子化機能が付加されたことになる。
これは、情報の圧縮を行なう神経回路網に適用すること
が考えられる。情報圧縮のための神経回路網の構成は、
第7図にその一例を示すように、入力層と出力層の神経
回路素子の数が同一であり、中間層の神経回路素子の数
がこの両層の神経回路素子の数よりも少ない数に低減さ
れている。この神経回路網の中間層の神経回路素子80
6〜810の出力部に接続されている中間スイッチ80
1〜805を接続状態にし、入力層の各神経回路素子に
接続される入力端子820に与えられるデータx1〜X
i と同一のデータを出力層に対する教師データとして
学習を行なう。学習が十分進めば、入力層の入力端子8
20に与えられたデータx1〜x1 とほぼ同一のデー
タを出力層の出力端子830から出力データB1〜B!
として出力することができる。したがて、中間スイッ
チ801〜805を接続状態にしたままで人力層へ入力
信号X1〜X【を与え、中間層の神経回路素子806〜
810の出力に接続された中間端子811〜815から
データを取出せば、中間層の出力回路素子の数が低減さ
れているため、情報が圧縮されたことになる。中間スイ
ッチ801〜805を切断状態にして、中間層の神経回
路素子806〜810から取出したデータを中間端子8
11〜815から出力層へ与えれば、出力層の出力端子
8301.:は、入力層の入力端子820に与えられた
データx1〜x1とほぼ同一のデータが再現される。
が考えられる。情報圧縮のための神経回路網の構成は、
第7図にその一例を示すように、入力層と出力層の神経
回路素子の数が同一であり、中間層の神経回路素子の数
がこの両層の神経回路素子の数よりも少ない数に低減さ
れている。この神経回路網の中間層の神経回路素子80
6〜810の出力部に接続されている中間スイッチ80
1〜805を接続状態にし、入力層の各神経回路素子に
接続される入力端子820に与えられるデータx1〜X
i と同一のデータを出力層に対する教師データとして
学習を行なう。学習が十分進めば、入力層の入力端子8
20に与えられたデータx1〜x1 とほぼ同一のデー
タを出力層の出力端子830から出力データB1〜B!
として出力することができる。したがて、中間スイッ
チ801〜805を接続状態にしたままで人力層へ入力
信号X1〜X【を与え、中間層の神経回路素子806〜
810の出力に接続された中間端子811〜815から
データを取出せば、中間層の出力回路素子の数が低減さ
れているため、情報が圧縮されたことになる。中間スイ
ッチ801〜805を切断状態にして、中間層の神経回
路素子806〜810から取出したデータを中間端子8
11〜815から出力層へ与えれば、出力層の出力端子
8301.:は、入力層の入力端子820に与えられた
データx1〜x1とほぼ同一のデータが再現される。
ここで、重要なことは、中間層の神経回路素子の数が低
減されているとはいうものの、そこから取出されたデー
タに非富に高い精度が要求されるならば、そのデータを
表現するために多くのビット数が必要となり、あまり情
報を圧縮したことにはならないということである。した
がって、中間端子811〜815から取出されるデータ
は所定の精度で量子化される必要がある。
減されているとはいうものの、そこから取出されたデー
タに非富に高い精度が要求されるならば、そのデータを
表現するために多くのビット数が必要となり、あまり情
報を圧縮したことにはならないということである。した
がって、中間端子811〜815から取出されるデータ
は所定の精度で量子化される必要がある。
中間層の神経回路素子806〜810の特性関数として
、第2B図に示されるシグモイド関数を用いた場合には
、出力値は“0”および“1”の近傍では、先に述べた
ように安定な値をとるが、“0”と“1“の間では連続
的に変化する値を出力することになる。したがって、中
間端子811〜815の出力を量子化すると必ず誤差が
発生する。この量子化における誤差は出力層の神経回路
素子の重み係数の変更に際しては考慮されていない。し
たがって、情報の圧縮率を大きくするために量子化を粗
くすると、この誤差の影響が大きくなり、データの再現
誤差が大きくなる。
、第2B図に示されるシグモイド関数を用いた場合には
、出力値は“0”および“1”の近傍では、先に述べた
ように安定な値をとるが、“0”と“1“の間では連続
的に変化する値を出力することになる。したがって、中
間端子811〜815の出力を量子化すると必ず誤差が
発生する。この量子化における誤差は出力層の神経回路
素子の重み係数の変更に際しては考慮されていない。し
たがって、情報の圧縮率を大きくするために量子化を粗
くすると、この誤差の影響が大きくなり、データの再現
誤差が大きくなる。
これに対して、神経回路素子の特性関数として階段状の
単調増加関数を使用すると、階段のステップ(平坦部)
に相当するところの値、すなわち量子化値は安定なため
、学習時に中間層の神経回路素子の出力は階段のステッ
プの値をとるようにその重み係数が収束する。したがっ
て、中間端子811〜815からのデータを量子化して
も誤差を小さく抑えることができ、出力層の各神経回路
素子の重み係数は既に中間層の量子化値に対して学習が
行なわれているため、量子化による影響を少なくするこ
とができる。
単調増加関数を使用すると、階段のステップ(平坦部)
に相当するところの値、すなわち量子化値は安定なため
、学習時に中間層の神経回路素子の出力は階段のステッ
プの値をとるようにその重み係数が収束する。したがっ
て、中間端子811〜815からのデータを量子化して
も誤差を小さく抑えることができ、出力層の各神経回路
素子の重み係数は既に中間層の量子化値に対して学習が
行なわれているため、量子化による影響を少なくするこ
とができる。
また、出力層°においても、入力データと同じ精度の量
子化幅を持つ階段状単調増加関数を特性関数とする神経
回路素子を用いれば、出力層における量子化誤差も同時
に小さくすることができる。
子化幅を持つ階段状単調増加関数を特性関数とする神経
回路素子を用いれば、出力層における量子化誤差も同時
に小さくすることができる。
なお、階段状単調増加関数を特性関数とする神経回路素
子を情報圧縮に使用する一例として3層の神経回路網の
場合について上で説明したが、これは3層以上の神経回
路網についても同様に適用することができる。
子を情報圧縮に使用する一例として3層の神経回路網の
場合について上で説明したが、これは3層以上の神経回
路網についても同様に適用することができる。
また、階段状の単調増加関数も上述の関数に限らず他の
関数の形であってもよい。
関数の形であってもよい。
[発明の効果コ
以上のように、この発明によれば、神経回路素子の特性
関数として階段状の単調増加関数を用いたので、神経回
路素子の出力として多値の安定した出力信号を得ること
ができ、多値の量子化出力を必要とする神経回路網にお
いては、神経回路網をより少ない神経回路素子を用いて
構成することができる。これにより、神経回路素子間の
結合、すなわち重み係数の数を低減することができ、神
経回路網の出力値の計算および学習処理の計算時間を短
縮することができる。
関数として階段状の単調増加関数を用いたので、神経回
路素子の出力として多値の安定した出力信号を得ること
ができ、多値の量子化出力を必要とする神経回路網にお
いては、神経回路網をより少ない神経回路素子を用いて
構成することができる。これにより、神経回路素子間の
結合、すなわち重み係数の数を低減することができ、神
経回路網の出力値の計算および学習処理の計算時間を短
縮することができる。
一方、階段状の単調増加関数を特性関数とする神経回路
素子を用いた場合、入力信号の変動に対しても安定な出
力値を得ることができ、学習に用いたデータ以外のデー
タに対しても、それが学習データに近いデータであれば
学習時の出力と同一出力を得ることが期待できる。これ
は神経回路網の泥化の機能を促進するものである。
素子を用いた場合、入力信号の変動に対しても安定な出
力値を得ることができ、学習に用いたデータ以外のデー
タに対しても、それが学習データに近いデータであれば
学習時の出力と同一出力を得ることが期待できる。これ
は神経回路網の泥化の機能を促進するものである。
第1A図および第1B図はこの発明の一実施例である神
経回路素子の特性関数の一例を示す図であり、第1A図
は4値出力を可能にする特性関数を示し、第1B図は5
値出力を可能にする特性関数を示す。第2A図は従来の
神経回路素子のモデルを示す図である。第2B図は従来
の神経回路素子モデルにおける特性関数を示す図である
。第3図は従来の神経回路素子を用いて3層の神経回路
網を構成し、−例としてキュウリを3グループに分類す
るための神経回路網の構成の一例を示す図である。第4
図は第3図に示される神経回路網において分類されるキ
ュウリの分類例を示す図である。第5図はこの発明によ
る神経回路素子を出力層に用いた、第4図に示すキュウ
リの分類を行なうための神経回路網の構成例を示す図で
ある。第6図はこの発明による神経回路素子を中間層と
出力層とに用いて第4図に示すキュウリの分類を行なう
ための神経回路網の構成例を示す図である。 第7図はこの発明による神経回路素子を中間層に用いて
情報圧縮を行なうための神経回路網の構成の一例を示す
図である。 図において、f (x)は特性関数、f’ (x)は
特性関数の微分関数、201〜203は従来の特性関数
を有する神経回路素子、701〜706、および806
〜810はこの発明による特性関数を有する神経回路素
子である。 なお、図中、同一符号は同一または相当部分を示す。 第2A回 第2B図 第 詔 入力層 晃 図 1、事件の表示 昭和63年特許願第 334676 号2、発明の名
称 神経回路網 6、補正の対象 図面 7、補正の内容 適正な用紙を用いて十分に濃厚な黒色で鮮明に描いた企
図を別紙のとおり。 以上 3、補正をする者 事件との関係 特許出願人 住所 大阪市阿倍野区長池町22番22号名称 (
504)シャープ株式会社 代表者 辻 晴 雄 4、代理人
経回路素子の特性関数の一例を示す図であり、第1A図
は4値出力を可能にする特性関数を示し、第1B図は5
値出力を可能にする特性関数を示す。第2A図は従来の
神経回路素子のモデルを示す図である。第2B図は従来
の神経回路素子モデルにおける特性関数を示す図である
。第3図は従来の神経回路素子を用いて3層の神経回路
網を構成し、−例としてキュウリを3グループに分類す
るための神経回路網の構成の一例を示す図である。第4
図は第3図に示される神経回路網において分類されるキ
ュウリの分類例を示す図である。第5図はこの発明によ
る神経回路素子を出力層に用いた、第4図に示すキュウ
リの分類を行なうための神経回路網の構成例を示す図で
ある。第6図はこの発明による神経回路素子を中間層と
出力層とに用いて第4図に示すキュウリの分類を行なう
ための神経回路網の構成例を示す図である。 第7図はこの発明による神経回路素子を中間層に用いて
情報圧縮を行なうための神経回路網の構成の一例を示す
図である。 図において、f (x)は特性関数、f’ (x)は
特性関数の微分関数、201〜203は従来の特性関数
を有する神経回路素子、701〜706、および806
〜810はこの発明による特性関数を有する神経回路素
子である。 なお、図中、同一符号は同一または相当部分を示す。 第2A回 第2B図 第 詔 入力層 晃 図 1、事件の表示 昭和63年特許願第 334676 号2、発明の名
称 神経回路網 6、補正の対象 図面 7、補正の内容 適正な用紙を用いて十分に濃厚な黒色で鮮明に描いた企
図を別紙のとおり。 以上 3、補正をする者 事件との関係 特許出願人 住所 大阪市阿倍野区長池町22番22号名称 (
504)シャープ株式会社 代表者 辻 晴 雄 4、代理人
Claims (1)
- 入力信号と前記入力信号に対応して与えられる重み係数
との積和演算を行ない、前記積和演算結果を予め定めら
れた特性関数を通して出力する神経回路素子を複数個接
続して構成した神経回路網において、前記神経回路素子
の特性関数としてその微分関数が複数箇所で極大値をと
る階段状の非線形単調増加関数を用いることを特徴とす
る神経回路網。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63334676A JPH02178759A (ja) | 1988-12-28 | 1988-12-28 | 神経回路網 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63334676A JPH02178759A (ja) | 1988-12-28 | 1988-12-28 | 神経回路網 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02178759A true JPH02178759A (ja) | 1990-07-11 |
Family
ID=18279998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63334676A Pending JPH02178759A (ja) | 1988-12-28 | 1988-12-28 | 神経回路網 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02178759A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1995005640A1 (fr) * | 1993-08-13 | 1995-02-23 | Kokusai Denshin Denwa Co., Ltd. | Reseau neuronal multivalue parallele |
US5764860A (en) * | 1995-03-09 | 1998-06-09 | Kokusai Denshin Denwa Co., Ltd. | Learning method for multi-level neural network |
-
1988
- 1988-12-28 JP JP63334676A patent/JPH02178759A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1995005640A1 (fr) * | 1993-08-13 | 1995-02-23 | Kokusai Denshin Denwa Co., Ltd. | Reseau neuronal multivalue parallele |
US5768476A (en) * | 1993-08-13 | 1998-06-16 | Kokusai Denshin Denwa Co., Ltd. | Parallel multi-value neural networks |
US5764860A (en) * | 1995-03-09 | 1998-06-09 | Kokusai Denshin Denwa Co., Ltd. | Learning method for multi-level neural network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Irwin et al. | Neural network applications in control | |
US5045713A (en) | Multi-feedback circuit apparatus | |
Shynk et al. | Convergence properties and stationary points of a perceptron learning algorithm | |
KR0170505B1 (ko) | 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법 | |
JPH02178759A (ja) | 神経回路網 | |
Porter et al. | Genetic model reference adaptive control | |
Wang | On the dynamics of discrete-time, continuous-state Hopfield neural networks | |
JPH06111038A (ja) | ニューラル・ネットワーク及びその操作方法 | |
Siddique et al. | GA-based neural fuzzy control of flexible-link manipulators | |
KR19980042174A (ko) | 바이너리 시스템의 학습방법 | |
JPH0713768A (ja) | 連続論理計算システムおよびその使用方法 | |
Murugan et al. | Adaptive noise cancellation using petri fuzzy brain emotional learning-based neural network | |
EP0970420B1 (en) | Associative neuron in an artificial neural network | |
Kuzuya et al. | Designing B-spline-based Highly Efficient Neural Networks for IoT Applications on Edge Platforms | |
JP3328953B2 (ja) | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 | |
Chang | Designing and tuning of a fuzzy logic controller via genetic input/output mapping factors | |
Lin et al. | A memory-based self-generated basis function neural network | |
Park et al. | Optimization of fuzzy set-fuzzy systems based on IG by means of GAs with successive tuning method | |
Neumerkel et al. | Modelling dynamic processes with clustered time-delay neurons | |
JP3343626B2 (ja) | ファジィ推論のためのニューラルネットワーク | |
Karayiannis et al. | On the dynamics of neural networks realizing associative memories of first and higher order | |
JPH02222062A (ja) | 学習機械 | |
Ridella et al. | CBP networks as a generalized neural model | |
Mester | Recent Trend of Intelligent Control System Using Neural Networks, Fuzzy Logic and Genetic algorithms | |
Teodorescu et al. | Neuro-fuzzy systems: hybrid configurations |