JPH02306363A - 多層ニューラルネットワーク - Google Patents

多層ニューラルネットワーク

Info

Publication number
JPH02306363A
JPH02306363A JP1126465A JP12646589A JPH02306363A JP H02306363 A JPH02306363 A JP H02306363A JP 1126465 A JP1126465 A JP 1126465A JP 12646589 A JP12646589 A JP 12646589A JP H02306363 A JPH02306363 A JP H02306363A
Authority
JP
Japan
Prior art keywords
input
input layer
element data
data
synapse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1126465A
Other languages
English (en)
Inventor
Akio Takakuwa
高鍬 明夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Radio Co Ltd
Original Assignee
Japan Radio Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Radio Co Ltd filed Critical Japan Radio Co Ltd
Priority to JP1126465A priority Critical patent/JPH02306363A/ja
Publication of JPH02306363A publication Critical patent/JPH02306363A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 「産業上の利用分野] 本発明は、多層ニューラルネットワーク、特に識別情報
を取り込んで、後続層に供給する入力層の構造に関する
[従来の技術] 近年、並列分散情報処理の分野においては、生体系情報
処理システムと同様の原理によって動作するニューラル
情報処理システムの理論的研究及び実用化検討が行われ
ている。
例えば、音声等の1次元識別情報の認識、手書き文字な
どの2次元識別情報の認識に係るパターン認識や、LS
Iの設=1などの組み合わせ最適化問題の処理において
は、ニューラル情報処理システムの並列分散情報処理能
力により、従来のコンピュータ等が不得手とする高速並
列処理を行うことが展望されている。
このニューラル情報処理システムの代表的構成としては
、多層ニューラルネットワークが知られている。この多
層ニューラルネットワークは、2次元画像等の識別情報
等を取り込む入力層、この入力層に接続され、識別情報
の並列情報処理を行う複数の中間層、及び中間層により
情報処理された識別情報を出力する出力層から1h成さ
れる。
このような階層的溝底の多層ニューラルネットワークに
おいては、所定の学習過程により、所望の1左別情報を
所定の出力情報に対応づけ、この識別情報が前記入力層
に入力されたときには、対応づけられた出力情報を出力
することが可能である。
すなわち、所望の識別情報が入力されたときには、にの
識別情報に対応する所望の出力情報を得ることかでき、
例えば識別情報に含まれるパターン情報をiすることか
可能である。
第2図には、このような多層ニコーラルネットワークの
一システム構成例が示されている。
この図においては、複数の入力シナプス10により前記
識別情報をIb成する入力層データ11゜■  !  
・・・、INが入力される単位データ処2゛   3゛ 押装置である入力層12には、複数の層間シナプス14
を介して複数の中間層16が順次接続されている。
すなわち、外部から供給される識別情報を構成する要素
データIII   ・・・、INは、1°   2° 
  3゜ それぞれ入力導線である入力シナプス10を介して入力
層12に供給され、入力層12においてはこれらの要素
データIII   ・−・、■、1’   2’   
3゜ がシナプス伝達データXi、 Xi、 Xt、・・・。
Xlに変換される。次に、このシナプス伝達データX1
 Xl Xl ・・・、X占は、順次中間層11“  
 2′  3′ 6に伝送導線である層間シナプス14を介して伝達され
、例えばこの中間層16かに一1個ある場合には、最後
段の中間層16からは入力層12及びに−1個の中間層
16により変換されたシナプス伝達データX¥、xj、
xζ、・・・ xWが出力される。
K−1段[1の中間層16には、層間シナプス14を介
して出力層18が接続され、この出力層18には更に出
力導線であるN個の出力シナプス20が接続されている
。すなわち、K−1段■の中間層16から層間シナプス
14を介して入力されK    K    K たシナプス伝達データX i 、X 2 、X 3 、
・・・。
XNは、出力層18において所定の変換を経た後に出力
要素データo1. ol、 o3.・・・、ONとして
出力される。
このように識別情報は、要素データI11′  2゛ I  ・・・、INとして入力され、出力要素データ3
゜ ol、 ol、 o3.・・・、ONから構成される出
力情報として出力される(信号伝送過程)。
この伝送に係る層間シナプス14のシナプス結合係数等
は、この信号伝送過程に先立って行われる学習過程、例
えば、出力情報の最小自乗制御を行うパックプロパゲー
ション(back−pr。
pagation)学習過程により初期的に設定される
第3図には、第2図に示された従来の多層ニューラルネ
ットワークにおける入力層12の構成例が示されている
この図においては、入力層12の内部には、それぞれ前
記要素データ III   ・・・。
1’   2’   3’ INを前記シナプス伝達データX1 XI X11′ 
  2″   3゛ ・・・、Xlに変換して出力する入力層ニューロン22
が並列に配設されている。例えば、入力される要素デー
タ III   ・・・、INを緩衝1′   2′ 
  3′ 記憶するバッファメモリからなる入力層ニューロン22
には、入力シナプス10を介して要素データIII  
 ・・・、INがそれぞれ入力さ1’    2’  
  3’ れ、この要素データIII   ・・・、INlo  
 2′   3′ は、シナプス伝達データXI XI Xl ・・・。
1′   2′   3″ XNとして層間シナプス14を介して後続の中間層16
に出力される。
なお、一の入力層ニューロン22に係る相関シナプス1
4は1木とは限らない。図においては、簡i1tのため
一の入力層ニコーロン22について層間シナプス14を
1木としたが、層間シナプス14は例えば学習過程にお
ける自己組織により必要な後続層16との接続がなされ
ていればよく、従って、入力層12に係る層間シナプス
14及びシナプス伝達デークXN1の個数Mは、入力層
ニューロン22の個数Nとは一致する必要はない。
このような構成を有する従来の多層ニューラルネットワ
ークによれば、初期的に学習過程により得られた識別情
報と出力情報の対応により、所望の識別情報が入力要素
データl11 1゛2′  3′ ・・・、■、として入力されたときには、これに対応す
る出力要素データO,,0,,o3..、−、oN力咄
力され、これらの出力要素データ01.02゜03、・
・・−ONから構成される所望の出力情報をiすること
が可能である。
[発明が解決しようとする課題] しかしながら、このような構成をHする従来の多層ニュ
ーラルネットワークにおいては、識別情報を構成する個
々の要素データの間に相関がある場合には、この相関に
かかる相関情報を必ずしも伝送できないという問題点が
あった。すなわち、例えば画像データ等の相互に相関す
る要素データから構成される識別情報を入力してこれに
対応する出力情報を得ようとする場合には、識別情報が
複数の要素データに分割されてそれぞれ別の入力層ニュ
ーロンに入力されるために画像データ等の識別情報が持
つ連続性等の相関を学習しあるいは伝送することができ
ないという問題点があった。
本発明は、このような問題点を解決することを課題とし
てなされたものであり、相互に相関する要素データから
構成される識別情報の学習及び伝送の際に、この相関に
係る相関情報を識別情報と共に伝送し、より正確な識別
情報の伝送を行うことを可能とする多層ニューラルネッ
トワークを提供することを目的とする。
[課題を解決するための手段] 前記目的を達成するために本発明は、複数の入力層ニュ
ーロン相互間を接続する導線である結合シナプスを含み
、結合シナプスにより接続された複数の入力層ニューロ
ンにそれぞれ入力される要素データ間の相関情報を入力
層ニューロンのそれぞれの出力であるシナプス伝達デー
タに付シjして後続層に供給することを特徴とする。
また、本発明は、前記入力層ニューロンが、前記要素デ
ータを緩衝記憶する入力バッファと、この入力バッファ
の出力データ及び前記結合シナプスを介して供給される
他の入力層ニューロンの入力に係る他の要素データを加
重加算する加算器とを含み、シナプス伝達データが一の
入力層ニコーロンへの入力に係る要素データ及びこの入
力層ニューロンと結合シナプスにより接続された他の入
力層ニューロンへの入力に係る要素データの線形結合で
あることを特徴とする。
[作用J 本発明に係る多層ニューラルネットワークにおいては、
識別情報を構成する要素データの入力に係る入力層ニュ
ーロン相互間が結合シナプスにより接続され、一の入力
層ニコーロンに入力される要素データが他の入力層ニコ
ーロンに結合シナプスを介して入力される。そして、一
の入力層ニューロンに入力された複数の要素データは、
相関情報を有するシナプス伝達データとして、後続層に
供給される。
また、前記要素データへの前記を口開情報の付与は、人
カバソファに緩衝記憶された要素データ及び前記結合シ
ナプスを介1.て供給された他の入力層ニューロンへの
入力に係る他の要素データの加重加算により行われ、こ
の相関情報を含む線形結合によるシナプス伝達データが
後続層に供給される。
[実施例] 以下、本発明の一実施例を図面を用いて説明する。
第1図には、本発明の一実施例に係る多層ニューラルネ
ットワークの(1が成が示されている。この図において
は、第2図に示される従来の多層二。。
−ラルネットワークと同様のシステム(1■成をf了す
る多層ニューラルネッ!・ワークに組み込まれた入力層
24の構成が示されている。
この実施例においては、入力層24を(R成するN91
の入力層ニューロン26は、第3図に示される従来の入
力層ニコーロン22と同様の構成をHする入力バッファ
28と、本発明の特徴に係り他の入力層ニューロン26
を(1■成する入力バッファ28の出力に接続されて加
重加算を行う2入力の加算器30と、同(lに本発明の
特徴に係り加算器30の出力及び入力バッファ28の出
力とを加重加算する2入力の加算器32と、を含んで構
成され、それぞれの加算M30は、結合導線である結合
シナプス34により隣接する他の入力層ニコーロン26
を構成する入力バッファ28に接続されている。すなわ
ち、1番目の入力バッファ28に入力される要素データ
1.は、加算器32に入力されると共に、隣接する他の
入力層ニューロン26を11が成する加算’1530に
、結合シナプス34を介して供給される。逆に、隣接す
る他の2個の入力層ニューロン26から結合シナプス3
4を介して入力された要素データ!、!   は、加算
i−t   i+i 器30により加重加算され、加算器32に入力される。
そして、加算器32においては、入力バッファ28から
出力される要素データ1.と、加算器30の出力である
隣接する他の入力層ニューロン26に係る要素データ1
1−1及び■1+1の加重加算データとが加重加算され
、シナプス伝達データX1として出力される。
なお、この実施例においては、1番目及、びN番目の入
力層ニューロン26は、加算器30が欠如した構成であ
るが、この構成は端部配置により隣接入力層ニューロン
26が1−個のみであることによる。
このような構成をHする本実施例に係る多層ニューラル
ネットワークによれば、識別情報をt1■成する要素デ
ータII!   ・・・、INの柑1“   2゛  
 3′ 互の相関を加重加所により取り込んでシナプス伝aデ 
9X’  X’  Xl =・、X11!J1:(’i
与L−11″  2゛3′ 後続の中間層16に出力することが可能である。
すなわち、E番目の入力層ニューロン26に入力される
要素データI は、本発明の特徴に係る結合シナプス3
4により、同様に本発明の特徴である加算器30に入力
された隣接する他の入力層ニューロン26への入力に係
る要素データl1−1及びII+1と加算器30及び3
2において加重加算され、相関情報が付tjされたシナ
プス伝達データX1とl、て次層に出力されるため、相
関情報を含むシナプス伝達データXI XI Xl ・
・・。
1’   2’    3゜ XNにより識別情報の伝達及び学習が可能となる。
また、本実施例に係る多層ニコーラルネットワークによ
れば、要素データI   I   I   、、、。
1’   2’   3= INから構成される識別情報の特徴部分を迅速に学習す
ることが可能である。すなわち、例えばパックプロパゲ
ーション学者間等のアルゴリズムにより学習を行う場合
には、前記入力層ニューロン26に係る層間シナプス1
4のシナプス結合係数が、要素データI1 1’2”3、・・・、!、及び γ習に係る教師信号により、自己組織される。この際、
学習に係る識別情報の特徴部分、例えば、音声波1じの
ピーク等が、他の音声波形のピーク等の特徴部分とまぎ
られしい部分の入力に係る他の入力層ニコーロン26と
近接する入力層ニューロン26に入力されたときにも、
本発明の特徴に係る結合シナプス34により、相関情報
を取り入れて効果的な学習を行うことか可能となる。
なお、本実施例においては、入力層ニューロン26が1
次元配置された構成が示されているが、入力層ニューロ
ン26が2次元配置された場合にも、同様に参目関情報
のイ・1与が可能である。
[発明の効果] 従って、本発明に係る多層ニューラルネットワークによ
れば、識別情報を(R成する要素データのそれぞれの間
に相関がある場合にも、このF0関に係る相関情報を結
合シナプスにより取り込んで後続層に供給することが可
能となる。
また、相関情報を加算器において要素データと加重加算
することにより、相関情報がイ;1クーされたシナプス
伝達データを後続層にli給することが可能となる。
【図面の簡単な説明】
第1図は、本発明の一実施例に係る多層ニューラルネッ
トワークの構成を示す?M構成図第2図は、従来の多層
ニューラルネットワークの一システム構成例を示すシス
テム構成図、第3図は、従来の多層ニューラルネットワ
ークの−・構成例を示ず(R成図である。 10 ・・・ 入力シナプス 14 ・・・ 層間シナプス 16 ・・・ 中間層 18 ・・・ 出力層 24 ・・・ 入力層 26 ・・・ 入力層ニューロン 28 ・・・ 入力バッファ 30、32  ・・・ 加算器 34 ・・・ 結合シナプス

Claims (2)

    【特許請求の範囲】
  1.  (1)識別情報を構成する要素データを取り込んで、
    この要素データに応じてシナプス伝達データを発生する
    データ処理素子である入力層ニューロン及び前記入力層
    ニューロンに前記要素データを入力する入力導線である
    入力シナプスを、それぞれ前記要素データの個数に応じ
    た個数だけ含み、前記入力層ニューロンから引き出され
    た出力導線である複数の層間シナプスにより複数のシナ
    プス伝達データを出力するデータ処理装置である入力層
    と、前記入力層と前記層間シナプスを介して順次接続さ
    れ、前記入力層と共に階層的結合のデータ処理装置群を
    構成するデータ処理装置である複数の後続層と、を有す
    る多層ニューラルネットワークにおいて、 複数の前記入力層ニューロン相互間を接続する導線であ
    る結合シナプスを含み、 前記結合シナプスにより接続された複数の前記入力層ニ
    ューロンにそれぞれ入力される前記要素データ間の相関
    情報を、前記入力層ニューロンのそれぞれの出力である
    シナプス伝達データに付与して前記後続層に供給するこ
    とを特徴とする多層ニューラルネットワーク。
  2.  (2)請求項(1)の多層ニューラルネットワークに
    おいて、 前記入力層ニューロンは、前記要素データを緩衝記憶す
    る入力バッファと、この入力バッファの出力データ及び
    前記結合シナプスを介して供給される他の入力層ニュー
    ロンの入力に係る他の要素データを加重加算する加算器
    とを含み、 前記シナプス伝達データが一の前記入力層ニューロンへ
    の入力に係る要素データ及びこの入力層ニューロンと前
    記結合シナプスにより接続された他の入力層ニューロン
    への入力に係る要素データの線形結合であることを特徴
    とする多層ニューラルネットワーク。
JP1126465A 1989-05-19 1989-05-19 多層ニューラルネットワーク Pending JPH02306363A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1126465A JPH02306363A (ja) 1989-05-19 1989-05-19 多層ニューラルネットワーク

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1126465A JPH02306363A (ja) 1989-05-19 1989-05-19 多層ニューラルネットワーク

Publications (1)

Publication Number Publication Date
JPH02306363A true JPH02306363A (ja) 1990-12-19

Family

ID=14935893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1126465A Pending JPH02306363A (ja) 1989-05-19 1989-05-19 多層ニューラルネットワーク

Country Status (1)

Country Link
JP (1) JPH02306363A (ja)

Similar Documents

Publication Publication Date Title
Venkateswara et al. Deep-learning systems for domain adaptation in computer vision: Learning transferable feature representations
US5067164A (en) Hierarchical constrained automatic learning neural network for character recognition
US5506998A (en) Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data
US7437339B2 (en) Pulse signal circuit, parallel processing circuit, pattern recognition system, and image input system
US5214743A (en) Information processing apparatus
US5859925A (en) Classifying system having a single neural network architecture for multiple input representations
JPH06509195A (ja) 分散型比較ニューラル・ネットワーク
US5276770A (en) Training of neural network for multi-source data fusion
EP0526504A1 (en) ARTIFICIAL NEURONAL PLANT.
WO1991002323A1 (en) Adaptive network for classifying time-varying data
Wang Multi-associative neural networks and their applications to learning and retrieving complex spatio-temporal sequences
KR950012359B1 (ko) 신경회로망 구조와 학습방법
EP0357212B1 (en) Artificial neural device and corresponding method
Vital et al. Extending the Universal Approximation Theorem for a Broad Class of Hypercomplex-Valued Neural Networks
JPH02306363A (ja) 多層ニューラルネットワーク
CN111027457A (zh) 基于门控的独立循环神经网络及骨架动作识别方法
US5530953A (en) Apparatus for relocating spatial information for use in data exchange in a parallel processing environment
JP3035106B2 (ja) 大規模情報認識回路
Wang Learning and retrieving spatio-temporal sequences with any static associative neural network
Gupta et al. Higher order neural networks: fundamental theory and applications
Li et al. Research on time series classification based on convolutional neural network with attention mechanism
JP2741793B2 (ja) ニューラルネットワークプロセッサ
KR20200132444A (ko) 스파이킹 뉴럴 네트워크 통신 장치
CN110968285A (zh) 信号处理装置及相关产品
Dangi Can I Make My Deep Network Somewhat Explainable?