JPH0310365A - 階層型ニューラルネットワークおよびニューロン装置 - Google Patents

階層型ニューラルネットワークおよびニューロン装置

Info

Publication number
JPH0310365A
JPH0310365A JP1145600A JP14560089A JPH0310365A JP H0310365 A JPH0310365 A JP H0310365A JP 1145600 A JP1145600 A JP 1145600A JP 14560089 A JP14560089 A JP 14560089A JP H0310365 A JPH0310365 A JP H0310365A
Authority
JP
Japan
Prior art keywords
output
neural network
input
input layer
hierarchical neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1145600A
Other languages
English (en)
Inventor
Toru Fujii
徹 藤井
Taiji Sogo
十河 太治
Hiroshi Nakajima
宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP1145600A priority Critical patent/JPH0310365A/ja
Publication of JPH0310365A publication Critical patent/JPH0310365A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、階層型ニューラルネットワークおよびニュ
ーロン装置に関し、さらに詳しくは、入力層の構造を改
良して学習性能を向上させた階層型ニューラルネットワ
ークおよびその入力層用のニューロン装置に関する。
[従来の技術] 階層型ニューラルネットワークの一般的なネットワーク
構造を第7図に示す。
この階層型ニューラルネットワーク10は、入力層と中
間層と出力層とに分れた多数のニューロンを入力層から
出力層へ向う方向にのみ結合したもので、外部からの入
力Ul−Unを出力■1〜Vmに変換するものである。
図では中間層が1層になっているが、これが多層であっ
てもよい。
さて、従来の入力層の各ニューロンの出力関数yは、  −X で表わされる恒等関数である。第8図はこの恒等関数を
示している。
また、中間層と出力層のニューロンの出力関数yは、 y = fl +exp (−x十θ1(j)) ]弓
で表わされるシグモイド関数である。これを第9図に示
す。θ1(j)は第1層の第1番目のニューロンの閾値
である。
上記従来の人力層のニューロンは、例えば第10図に示
す如きニューロン装置51によって構成されている。
出力関数のテーブル3には、第8図に示した恒等関数の
関係にあるXとyの対がテーブルとして記憶されている
変換器2は、入力x 1(1)が与えられると、前記出
力関数のテーブル3を参照し、出力yi(1)を得て、
これを出力するようになっている。
[発明が解決しようとする課題] 上記従来の人力層のニューロン装置51の入力xi(1
)は、第7図に示す階層型ニューラルネットワーク10
においては入力Uiに相当する。
ところが、この人力Uiは、例えば光センサ重量センサ
、超音波センサ、ビデオセンサ等の出力信号であり、そ
れらの信号がとりうる値(レベル、レンジ)は様々であ
る。
このため、例えば第11図に示すように、人力U1の変
動領域が入力U2の変動領域の一部に相当するという場
合もありうるが、この場合には出力y 1(1)の変動
領域が出力y 2(1)の変動領域の一部になってしま
い、第9図に示す如きシグモイド関数で評価を行なう際
に、入力Uiと入力U2の評価の領域が異なるようにな
る。
また、第12図に示すように、入力U1と入力U2の変
動領域に偏りがある場合、出力y1(1)と出力y 2
(1)の変動領域も偏ったものとなり、第9図に示す如
きシグモイド関数で評価を行なう際、評価の領域に偏り
を生ずるようになる。
つまり、単なる信号の変動領域の相違が階層型ニューラ
ルネットワーク10内に評価の違いとして持ち込まれて
しまい、このために正しい出力Viを得られるまでの学
習速度が遅くなったり、学習回数を増やしても正しい出
力v1を得られなくなってしまうことがある(収束しな
くなる)問題点がある。
従って、この発明の目的は、入力層におけるニューロン
の構成を改良し、上記の如き問題点を生じないようにし
た階層型ニューラルネットワークおよびその人ツノ層用
のニューロン装置を提供することにある。
[課題を解決するための手段] この発明の階層型ニューラルネットワークは、入力層と
中間層と出力層とに分れた多数のニュロンを有し、入力
層のニューロンの出力関数がyax+bで表わされる線
形関数で、その係数abが入力層の各ニューロンについ
て独立に設定可能であることを構成上の特徴とするもの
である。
」1記階層型ニューラルネットワークの入力層のニュー
ロンは、Xの最小値Xaと最大値Xbと、yの最小値Y
aと最大値Ybとを設定するための範囲設定手段と、 a −(Yb−Ya)/(Xb−Xa)b=(XbYa
−XaYb)/(X、b−Xa)y=ax+b によりXとyの対を算出する演算手段と、算出したXと
yの対を記憶するテーブル手段と、そのテーブル手段を
参照して入力を出力に変換する変換手段とを具備してな
るニューロン装置により構成するのが好ましい。
[作用] この発明の階層型ニューラルネットワークでは、人力層
のニューロンの出力関数が線形関数であり、入力層の各
ニューロンについて独立にその線形関数の傾きを設定で
き、又、平行移動することが出来る。
そこで、外部からの入力の変動領域が異なっていても出
力の変動領域が等しくなるように正規化できる。
従って、各入力の階層型ニューラルネットワークへの影
響度が常に等しくなるため、学習速度が早くなり、収束
しないことも少なくなる。
また、この発明のニューロン装置では、人間にとって把
握しやすい量であるXの最小値Xaと最大値Xbと、y
の最小値yaと最大値Ybとを設定するだけで自動的に
適正な線形関数が算出されるようになるため、外部装置
との接続時の取り扱いが極めて容易になる。
[実施例] 以下、この発明を図に示す実施例によりさらに詳しく説
明する。なお、これによりこの発明が限定されるもので
はない。
この発明の一実施例の階層型ニューラルネットワークの
階層構造は、第7図に示す階層型ニューラルネットワー
ク10と同様である。また、中間層および出力層のニュ
ーロンの出力関数は第9図に示すシグモイド関数である
。これらの構成は従来と同様である。
従来と異なる点は、入力層のニューロンの構成である。
すなわち、第1図に示すように、入力層のニューロンは
、変換器2と、出力関数のテーブル3と、出力関数の演
算器4と、加算器5とを具備してなるニューロン装置1
にて構成されている。
このニューロン装置1において、加算器5は、複数の入
力を受入可能とするために設けられているものであるが
、第7図に示す階層型ニューラルネットワーク10では
入力層の1つのニューロンに1つの人力信号が対応して
いるから、加算器5の1つの入力だけを使用することに
なる。
出力関数の演算器4は、入ノJuijの総和xi(=Σ
uij)の最小値Xaiと最大値Xbiと、出力yi(
1)の最小値Yaiと最大値Ybiとを設定されると、
ai=(Ybi−Yai)/(Xbi−Xai)bi=
(XbiYai−XaiYbi)/(Xbi−Xai)
y i= a ix i+b i によりxiと出力yiの対を算出し、出力関数のテーブ
ル3へと出力する。第2図は上式で表わされる線形関数
の概念図である。
 − 出力関数のテーブル3は、」二記算出したxiとylの
対をテーブルとして記憶している。
変換器2は、上記出力関数のテーブル3を参照して、前
記加算器5から入力されるxiを出力y1(1)に変換
し、出力する。
さて、第3図および第4図に示すように、階層型ニュー
ラルネットワーク10への入力U1の変動領域が入力U
2の変動領域の一部に相当する場合でも、入力U1に対
応する入力層のニューロンの出力関数y1と、入力U2
に対応する入力層のニューロンの出力関数y2を各々図
のように設定すれば、出ノJyl(1)とy 2(1)
の変動領域を等しくすることが出来る。
また同様に、第5図および第6図に示すように、階層型
ニューラルネットワーク10への人力U1の変動領域と
入力U2の変動領域に偏りがある場合でも、各入力に対
応する入力層のニューロンの出力関数371.y2を各
々図のように設定すれば、出力yl(1)と出力y2(
1)の変動領域を等しくすることが出来るようになる。
 8 従って、この発明の階層型ニューラルネットワクは、入
力される外部信号の変動領域の相違に影響されないもの
となる。
なお、」−記ニューロン装置1は、等しい変動領域の入
力を異なる変動領域の出力に変換することも出来るもの
であるから、出力層の後段に設置して、外部の種々のデ
バイスに適した出力を発生するように利用することも可
能である。
[発明の効果] この発明の階層型ニューラルネットワークによれば、異
なる変動領域をもつ外部信号を正規化して内部に取り込
むことが出来るので、単なる信号レベル、レンジの差に
よって各外部信号の階層型ニューラルネットワークへの
影響度が大きく異なることを防止できるようになる。こ
のため、学習速度が速くなり、理想的な学習の収束結果
を得やすくなる。
【図面の簡単な説明】
第1図はこの発明の一実施例のニューロン装置のブロッ
ク図、第2図は第1図に示すニューロン装置の出力関数
の概念図、第3図から第6図は入ツノの変動領域と出力
の変動領域の関係を示す特性図、第7図は階層型ニュー
ラルネットワークの概念図、第8図は従来の人力層のニ
ューロンの出力関数の概念図、第9図は中間層と出力層
のニューロンの出力関数の概念図、第10図は従来の人
力層のニューロン装置の一例のブロック図、第11図お
よび第12図は第10図に示すニューロン装置における
入力の変動領域と出力の変動領域の関係を示す特性図で
ある。 (符号の説明) 1・・・ニューロン装置 2・・・変換器 3・・・出力関数のテーブル 4・・・出力関数の演算器 5・・・加算器 10・・・階層型ニューラルネットワーク。

Claims (1)

  1. 【特許請求の範囲】 1、入力層と中間層と出力層とに分れた多数のニューロ
    ンを有し、入力層のニューロンの出力関数がy=ax+
    bで表わされる線形関数で、その係数a、bが入力層の
    各ニューロンについて独立に設定可能であることを特徴
    とする階層型ニューラルネットワーク。 2、xの最小値Xaと最大値Xbと、yの最小値Yaと
    最大値Ybとを設定するための範囲設定手段と、 a=(Yb−Ya)/(Xb−Xa) b=(XbYa−XaYb)/(Xb−Xa)y=ax
    +b によりxとyの対を算出する演算手段と、 算出したxとyの対を記憶するテーブル手段と、 そのテーブル手段を参照して入力を出力に変換する変換
    手段と を具備してなることを特徴とするニューロン装置。
JP1145600A 1989-06-08 1989-06-08 階層型ニューラルネットワークおよびニューロン装置 Pending JPH0310365A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1145600A JPH0310365A (ja) 1989-06-08 1989-06-08 階層型ニューラルネットワークおよびニューロン装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1145600A JPH0310365A (ja) 1989-06-08 1989-06-08 階層型ニューラルネットワークおよびニューロン装置

Publications (1)

Publication Number Publication Date
JPH0310365A true JPH0310365A (ja) 1991-01-17

Family

ID=15388809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1145600A Pending JPH0310365A (ja) 1989-06-08 1989-06-08 階層型ニューラルネットワークおよびニューロン装置

Country Status (1)

Country Link
JP (1) JPH0310365A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8062603B2 (en) 2003-06-23 2011-11-22 Ibiden Co., Ltd. Honeycomb structural body

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8062603B2 (en) 2003-06-23 2011-11-22 Ibiden Co., Ltd. Honeycomb structural body
US8361400B2 (en) 2003-06-23 2013-01-29 Ibiden Co., Ltd. Honeycomb structural body

Similar Documents

Publication Publication Date Title
Cao et al. Stability and Hopf bifurcation in a simplified BAM neural network with two time delays
TW202101302A (zh) 用於神經網路中激勵函數的電路系統及其處理方法
Kawamura et al. Advances in robot control: from everyday physics to human-like movements
Hindi et al. Robust solutions to l/sub 1/, l/sub 2/, and l/sub/spl infin//uncertain linear approximation problems using convex optimization
Buckley et al. Solving fuzzy equations using evolutionary algorithms and neural nets
KR920006792B1 (ko) 다입력-출력회로를 계층형상으로 접속한 학습기계
JPH0310365A (ja) 階層型ニューラルネットワークおよびニューロン装置
EP0521729A2 (en) Neural network and learning method therefor
Kazemy et al. Second order diagonal recurrent neural network
JPH08286922A (ja) ファジィ・ニューラルネットワーク装置
Ishigami et al. Automatic generation of hierarchical structure of fuzzy inference by genetic algorithm
US5289392A (en) Adder
JPH08249303A (ja) 信号処理装置
JPH07210542A (ja) ニューロン回路
JPH01147657A (ja) カオス回路網
Di Martino et al. A new improved online algorithm for multi-decisional problems based on MLP-networks using a limited amount of information
JPS63121987A (ja) ニユ−ロンタイプ計算機
JP3099449B2 (ja) ファジィ推論装置
JPH03265077A (ja) フィードバック神経細胞モデル
JPH0367358A (ja) 学習機械
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置
JPH02178759A (ja) 神経回路網
JPH0462657A (ja) 学習機械
JPH0683796A (ja) 信号処理装置
CN117391157A (zh) 硬件加速电路、数据处理加速方法、芯片及加速器