JPH03113667A - データ処理装置 - Google Patents

データ処理装置

Info

Publication number
JPH03113667A
JPH03113667A JP1253248A JP25324889A JPH03113667A JP H03113667 A JPH03113667 A JP H03113667A JP 1253248 A JP1253248 A JP 1253248A JP 25324889 A JP25324889 A JP 25324889A JP H03113667 A JPH03113667 A JP H03113667A
Authority
JP
Japan
Prior art keywords
neural
neurons
layer
connections
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1253248A
Other languages
English (en)
Inventor
Koji Matsumoto
幸治 松本
Sunao Takatori
直 高取
Ryohei Kumagai
熊谷 良平
Makoto Yamamoto
誠 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ezel Inc
Original Assignee
Ezel Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ezel Inc filed Critical Ezel Inc
Priority to JP1253248A priority Critical patent/JPH03113667A/ja
Priority to DE69030907T priority patent/DE69030907T2/de
Priority to EP90118592A priority patent/EP0420254B1/en
Publication of JPH03113667A publication Critical patent/JPH03113667A/ja
Priority to US08/058,035 priority patent/US5361328A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
〔従来の技術〕
この種のデータ処理装置におけるニューラルネットワー
クは、第6図に示す神経細胞モデル(以下、ニューロン
という)■を、第7図に示すように並列に設けて層状に
構成される。ニューロン1において、外部から入力され
るデータDll、012、DI3、・・・DI、にはそ
れぞれ重みWl、W2、W3、・・・W7が掛けられ、
これらの総和と閾値θとの比較結果に応じたデータDO
が出力される。この比較方法としては種々のものが可能
であるが、例えば、総和が閾値6以上の時出力データD
Oが「1」となり、またこの総和が閾値θより小さい時
出力データDOが「0」となるように定められる。
従来のニューラルネットワークは、このようなニューロ
ンを並列に設けてニューラルレイヤを形成するとともに
、このニューラルレイヤを直列に接続して構成され、各
層のニューロンは隣接する他の層の全てのニューロンに
連結される。
[発明が解決しようとする課題] ところが各層には多数のニューロンが設けられており、
従来のようにニューロンが隣接する他の層の全てのニュ
ーロンに連結されると、その連結数は膨大なものとなり
、このようなニューラルネットワークを構築したデータ
処理装置は非常に大形になってしまう。
本発明は、このような従来の問題点を解決すべく創案さ
れたもので、ニューロン間の連結数を最小限に抑え、デ
ータ処理装置の小形化を可能ならしめることを目的する
〔課題を解決するための手段〕
本発明に係るデータ処理装置は、初段のニューラルレイ
ヤと最終段のニューラルレイヤとの間の途中の層に設け
られたニューロンが隣接する層のニューロンの一部のみ
に連結されることを特徴としている。
〔実施例〕
以下図示実施例により本発明を説明する。
第8図において、データ処理装置は複数のニューラルセ
ルNCを有し、これらニューラルセルNCは正六角形状
に形成されて、全体としてハニカム状の構成を有してい
る。
通常画像処理においては、画像を複数の単位領域に分割
して処理を行い、その単位領域は、3×3画素等の正方
形または長方形領域である。これは画像を走査する際の
ハードウェアの制約に起因するものであるが、好ましい
単位領域の形態は周囲のより多くの単位領域と等価な条
件で境界を接することである。その意味で前述のハニカ
ム状の構成は有利な処理条件を与える。そして、ニュー
ラルレイヤの構成は画像走査ハードウェアとは無関係に
設定し得るので、このような好ましい単位領域設定を行
い得る。すなわち入力系において単位領域設定を行わず
、ニューラルネット側で単位領域設定を行うことにより
、処理形態を最適化し得る。
データ処理装置には、入力系(図示省略)を介してデジ
タル画素データが入力され、第1図では三角形の図形F
がデータ処理装置に入力されている。
各ニューラルセルNCは複数のニューラルレイヤよりな
り(第9図)、各ニューラルレイヤは複数のニューロン
Nを並列に設けて構成されている。
つまり第9図はひとつのニューラルセルの構成を示して
おり、この例において各ニューラルレイヤのニューロン
NRは、隣接するニューラルレイヤノ全てのニューロン
NRに結合されている。すなわち、n番目のニューラル
レイヤの出力は(n+1)番目のニューラルレイヤの入
力とされ、入力データは順次ニューラルレイヤによって
処理されて最終出力が得られるようになっている。
第10図はニューラルセルに分割されたニューラルレイ
ヤ11.12.13.14、およびニューラルセルと後
処理のためのニューラルレイヤ20(これについては第
16図を参照して後述する)の関係を模式的に示したも
のである。
第10図において、複数層のニューラルレイヤ11.1
2.13.14はそれぞれ正六角形のニューラルセルN
C毎に分割されている。すなわち各ニューラルセルNC
は複数層のニューラルレイヤ11、I2.13.14を
有し、これらのニューラルレイヤはそれぞれ多数のニュ
ーロンを有する。各ニューラルセルNC内において、ニ
ューロ7 ハ隣接するニューラルレイヤのニューロンに
結合スるが、他のニューラルセルNCのニューロンには
連結されない。すなわち、各ニューラルセルNCどおし
は相互に連結されておらず、データの授受はひとつのニ
ューラルセル内のおいてのみ行われる。なお、データ処
理装置を構成する全てのニューラルレイヤにニューラル
セルNCを設ける必要はなく、2Nのニューラルレイヤ
のみにニューラルセルNCを設けてもよい。
データ処理装置は学習により目的に応じた処理機能を具
備し得るものであるが、ここでは単純な幾何図形の認識
を行う場合について説明する。
まずエツジ抽出を行うニューラルレイヤの例を挙げると
第11図の通りとなる。第11図では3×3画素に対す
るA−rのニューロンが示されており、これらニューロ
ンは高膵度の入力に対して出力r1.を生じるものとす
る。ニューロンA〜Iの出力をA−1とすると、孤立点
以外のエツジ存在は、 E (A+B+C+D+F+G+H+1)(A+B+C
十D+F+り+H+I)=1  ・・・(1)という論
理式で表現し得る。
出力A−IはニューロンN1に入力され、さらに出力A
−D、F〜■はニューロンN2に入力されている。また
これらニューロンNl、N2の出力はニューロンN3に
入力されている。ここで、ニューロンN1〜N3の重み
および閾値は例えば表1〜3のように設定される。
表1 ニューロンNlの重みおよび闇値(以下余白) 表2 ニューロンN2の重みおよび闇値 表3 ニューロンN3の重みおよび闇値 (以下余白) 二二にニューロンNlは E(λ十1十で十百十丁十で+H+1 )  (2)に
対応した処理を行い、ニューロンN2はA 十B +c
 +D 十F 十〇 + H+ 1     (3)に
対応した処理を行う。一方ニューロンN3は式(2)、
(3)のAND論理に対応する。
従ってニューロンN3は、ニューロンEに図形のエツジ
が投影されたときに出力r1.を生じる。
次に第12図に基づいてコーナ検出を行うニューラルネ
ットワークの例を説明する。このニューラルネットワー
クの入力は第11図のニューロンN3の出力であり、第
12図では、ニューロンA〜Iのニューロンに対応する
ニューロンN3をA′〜Fとして示している。コーナ検
出の論理は式(4)に示す通りである。
E’  (A’ B’ +A’ C’ +A’ D’ 
+A’F’ 十A’ G’ +A’ H’ +B’ C
’ +B’ D’十B″F’ +B’ G’ +B’ 
 ビ十C″D’ 十C’ F’ +C’ H“十C’ 
 I’ +D’ G’ +D’H’ +D’ビ十F’ 
G’ +F’ H’ +F’ビ十〇’ H”十〇’  
I’ 十H’  !’ )=1・・・(4)この処理の
ために、ニューロンN401〜N424およヒN425
が設けられている。ニューロンN401〜N424には
A゛〜D’ 、F’〜ビの出力が表4の組み合わせで入
力され、これらの入力に対する重み、闇値は同表の通り
である。
表4 (以下余白) 一方ニューロンN425には出力N401〜N424が
入力され、その重み、闇値は表5のとおりである。
表5 これはOR論理と等価である。
さらにニューロンN245の出力およびE′はニューロ
ンN246に入力され、その重み、闇値は表6のように
設定されている。
表に れはAND論理と等価である。
以上の重みの設定はデータ処理装置の学習によって自動
的に実行され、適正な学習により最適な連想を行い得る
ようになるが、各データをいずれのレイヤに入力するか
をあらかじめ人為的に設定しておけばニューロン効率を
高め得る。例えば第5図のニューラルネットワークにお
いて、データE′をA′〜D’ 、F’〜ビとともに同
図の第1ニユーラルレイヤに入力しても第11図と同機
能のニューラルネットワークを構成し得るが(第13図
)、この場合レイヤ数を1層1!ff減し得る反面、第
1ニユーラルレイヤのシナプス数が24個増加し、結線
数の著しい増加を招く。即ち、式(4)において人力E
°は(A’ B″+ −)の論理演算の結果に対して作
用するものであるから、括弧内の演算結果と同レベルの
抽象度を持つものと考えることができ、この抽象度に応
じたレイヤに入力することによりニューロン効率が向上
している。
ここで、データの抽象度について次数という概念を導入
し、以下の定義を考える。
1、 1層のニューラルレイヤの処理により次数は1次
高められる。
2、同一ニューラルレイヤへの入力は同一次数である。
この定義に基づけば、コーナー検出に関しては、ニュー
ラルレイヤは4層(第11図および第13図の構成を採
用した場合)または5層(第11図および第12図の構
成を採用した場合)必要であり、画素データにューロン
A〜■への入力)の次数を0次とすれば、最終出力の次
数は4次または5次となる。
以上の処理によりニューラルセル毎にエツジ、コーナー
を検出したか否かの判定出力が生じ、この判定出力は第
14図に示すように、統合のためのニューラルレイヤ群
INTに入力される。このニューラルレイヤ群INTで
処理されるデータは前述のニューラルレイヤよりも高次
であるということができる。
ニューラルレイヤ群INTは複数の処理系PI〜P7よ
りなり、各処理系は複数のニューラルレイヤの階層構造
となっている。処理系P t ”” P fiは例えば
、図形の形状に応じて分類され、PI :三角形、P2
 :四角形、−、P、:  (n+2)角形のように分
類されている。
前述のニューラルセルからの出力はそのニューラルセル
内のエツジの有無を示す信号(以下ESという。)およ
びコーナの有無を示す信号(以下C5という。)である
が、第15図に示すように、単純な三角形においても、
図形自体の不整やノイズにより辺の部分に擬似コーナX
I+X2が生じることがある。
三角形のための処理系では、このような誤ったコーナ信
号を除去し、かつ実際のコーナA、B、C1を強調して
その座標値等を出力する。コーナA、B、Cの強調およ
び擬似コーナの除去を行うニューラルネットワークとし
ては第16図を考えることができる。
第16図のニューラルネットワークは、前記ニューラル
セルNCに対応したニューロンを有し、各ニューロンは
、第1θ図におけるニューロン21のように、全てのニ
ューラルセルNCに接続されている。そして各ニューロ
ンの重みは、対応するニューラルセルC5の入力に対し
て最大であり、対応ニューラルセル周囲のニューラルセ
ルに対して最も絶対値の大きい負の重みを有し、さらに
、対応ニューラルセルからの距離とともに重みが高めら
れている。この関係を2次元で表現すると第17図のと
おりとなる。
このような構成により辺の中途に生じた擬似コーナのコ
ーナ信号は弱められ、コーナA、B、Cのコーナ信号が
強調されることになる。なお、第17図のグラフでは、
距離と重みの関係は略2次曲線となっているが、他の単
調増加曲線を採用し得ることはいうまでもない。
なおRosenblattのパーセブトロンでは反応層
から連合層へのフィードバック系に抑制性の接続を与え
、発火パターンの輪郭強調を行う構成が提案されている
が、特定図形のコーナ強調のためのフィードフォワード
的抑制性接続については何ら示唆するところはない。
なおニューラルレイヤINTの各処理系に与えられるデ
ータは、ニューラルセルにおいて抽象化されたデータで
あり、より高次のデータということができる。そして、
コーナやエツジのデータを抽出し得る画像処理システム
を入力系として用いた場合、直接ニューラルレイヤ群I
NTにデータを入力し得る。また画素データと、コーナ
ーなどの特徴データが混在する場合ミコーナーなどのよ
り高次のデータを後段のニューラルレイヤに入力するこ
とによりニューロン効率を高め得る。また最終的に出力
すべきデータとの次数の差を予め算出しておけば最小限
のニューラルレイヤの層数を求めることができ、確実に
所期の目的を達成し得る。
さて本発明に係るデータ処理装置において、相互に隣接
するニューラルレイヤにおけるニューロン同士は、第1
図〜第4図を参照して後述するように、所定の部分にお
いて結合しておらず、ニューロン同士の連結数、すなわ
ちシナプス数は必要最小限に抑えられている。
第1図(a)は第1実施例を示す。この実施例における
データ処理装置は、入力側すなわち前段側にニューラル
セルNCI〜NC4を有し、出力側すなわち後段側にニ
ューラルレイヤLl−L4を有する。ニューラルセルは
、第9図を参照して説明したように複数のニューラルレ
イヤから成り、各ニューラルレイヤにはそれぞれ複数の
ニューロンが設けられる。各ニューラルレイヤのニュー
ロンは隣接するニューラルレイヤの全てのニューロンに
接続しているが、他のニューラルセルを構成するニュー
ロンには接続していない。換言すれば、ニューラルセル
NCI〜NC4同士は相互に分離されており、データの
授受を行わない。
ニューラルセルNCI〜NC4は二3−’ZルレイヤL
lに接続され、ニューラルレイヤし1〜L4は、相互に
隣接するもの同士において接続される。ニューラルセル
NCI〜NC4のニューロンはニューラルレイヤL1の
一部のニューロンにのみ連結され、ニューラルレイヤL
lのニューロンはニューラルレイヤL2の一部のニュー
ロンのみに連結される。ただし、ニューラルレイヤLl
とニューラルレイヤL2との間におけるニューロンの連
結数は、ニューラルセルNCI〜NC4とニューラルレ
イヤL1との間におけるニューロンの連結数よりも多い
。同様に、ニューラルレイヤL2のニューロンはニュー
ラルレイヤL3の一部のニューロンのみに連結されるが
、その連結数はニューラルレイヤL2、L3間のニュー
ロンの連結数よりも多い。ニューラルレイヤL3のニュ
ーロンはニューラルレイヤL4の全てのニューロンに接
続される。しかして各ニューラルレイヤ間におけるニュ
ーロンの連結数は、後段ほど増加している。
このようにニューロンの連結数が後段ほど増加する構成
は、前段のニューラルレイヤにおいては、各ニューロン
から出力されるデータ同士の関連性が薄いが、後段ほど
その関連性が濃くなり隣接するニューラルレイヤの多く
のニューロンに入力される必要がある場合、例えば分離
処理された情報の統合を効率的に行う場合等に効果的で
ある。すなわち、データ処理に影響を及ぼさないニュー
ロン同士の連結は省略されており、これにより連結数を
最小限に抑えることができ、データ処理装置を小形化す
ることが可能になる。
第1図(b)は第2実施例を示し、データ処理装置は、
ニューラルセルを有しておらず、ニューラルレイヤし1
〜L6から構成される。ニューラルレイヤL1のニュー
ロンはニューラルレイヤL2の一部のニューロンのみに
連結される。同様に、ニューラルレイヤL2のニューロ
ンはニューラルレイヤL3の一部のニューロンのみに連
結されるが、その連結数はニューラルレイヤL1、L2
間のニューロンの連結数よりも多い。また、ニューラル
レイヤL3のニューロンはニューラルレイヤL4の一部
のニューロンのみに連結されるが、この連結数は前段の
各ニューラルレイヤ間の連結数よリモ多い。一方、ニュ
ーラルレイヤL4のニューロンはニューラルレイヤL5
の全てのニューロンに連結され、またニューラルレイヤ
L5のニューロンもニューラルレイヤL6の全てのニュ
ーロンに連結される。
しかしてこの例においても、各ニューラルレイヤ間にお
けるニューロンの連結数は、後段ほど増加している。
したがって第2実施例も、後段ほどニューロンから出力
されるデータ間の関連性が濃(なる場合に効果的であり
、データ処理に影響を及ぼさないニューロン同士の連結
を省略することにより、連結数を最小限に抑え、データ
処理装置を小形化することが可能になる。
第1図(c)は第3実施例を示し、この実施例における
データ処理装置は、ニューラルセルNC1−NC4とニ
ューラルレイヤLl−L3とを有する。ニューラルセル
は、第1図(a)とは異なり、他のニューラルセルを構
成するニューロンの一部に連結される。すなわちニュー
ラルセルを構成するニューロンは、初段において他のニ
ューラルセルのニューロンから完全に分離されているが
、後段において他のニューラルセルのニューロンの一部
に連結され、その連結数は後段ほど増加している。
一方、ニューラルレイヤLl−L3において、各ニュー
ロンは隣接するニューラルレイヤの全てのニューロンに
連結される。
この構成によれば、第1図(b)の構成と同様、ニュー
ラルセルのニューロンが後段において相互に関連性を有
し、連結される構成をとる場合であっても、データ処理
に影響を及ぼさないニューロン同士の連結を省略して、
連結数を最小限に抑えることができ、データ処理装置を
小形化することが可能になる。
第2図(a)〜(c)は、第1図(a)〜(C)とは逆
に、″データ処理装置の出力側すなわち後段ほどニュー
ロンの連結数が減少する構成を示す。
第2図(a)は第4実施例を示し、この実施例における
データ処理装置は、入力側にニューラルレイヤL1〜L
4を有し、出力側にニューラルセルNCI〜NC4を有
する。ニューラルセルは、第1実施例と同様に複数のニ
ューラルレイヤから成す、各ニューラルレイヤのニュー
ロンは隣接スるニューラルレイヤの全てのニューロ・ン
に連結されるが、他のニューラルセルを構成するニュー
ロンには連結されない。
ニューラルレイヤし1〜L4は相互に隣接するもの同士
において接続され、最も後段のニューラルレイヤL4は
ニューラルセルNCI〜NC2に接続される。ニューラ
ルレイヤL1の各ニューロンは、ニューラルレイヤL2
の全てのニューロンに連結されるが、ニューラルレイヤ
L2のニューロンはニューラルレイヤL3の一部のニュ
ーロンのみに連結される。同様に、ニューラルレイヤL
3のニューロンはニューラルレイヤL4の一部のニュー
ロンのみに連結される。各ニューラルレイヤ間における
ニューロンの連結数は、後段ほど減少している。
このようにニューロンの連結数が後段ほど減少する構成
は、前段のニューラルレイヤにおいては、各ニューロン
から出力され−るデータ同士の関連性が濃いが、後段ほ
どその関連性が薄くなり隣接するニューラルレイヤの多
くのニューロンに入力される必要がない場合、例えばニ
ューラルネットワークにより複数の独立なパラメータを
出力し、これらがそれぞれ別個の制御系に入力される場
合等に効果的である。すなわち、データ処理に影響を及
ぼさないニューロン同士の連結は省略されており、これ
により連結数を最小限に抑えることができ、データ処理
装置を小形化することが可能になる。
第2図(b)は第5実施例を示し、データ処理装置は、
ニューラルセルを有しておらず、ニューラルレイヤし1
〜L6から構成される。ニューラルレイヤL1のニュー
ロンはニューラルレイヤL2の全てのニューロンに連結
され、またニューラルレイヤL2のニューロンはニュー
ラルレイヤL3の全てのニューロンに連結される。しか
し、ニューラルレイヤL3のニューロンはニューラルレ
イヤL4の一部のニューロンのみに、ニューラルレイヤ
L4のニューロンはニューラルレイヤL5の一部のニュ
ーロンのみに接続され、またニューラルレイヤL5のニ
ューロンはニューラルレイヤL6の一部のニューロンの
みに接続される。
この例においても、各ニューラルレイヤ間におけるニュ
ーロンの連結数は、後段ほど減少しており、後段ほどニ
ューロンから出力されるデータ間の関連性が薄くなる場
合に効果的である。すなわち、データ処理に影ひを及ぼ
さないニューロン同士の連結を省略することにより、連
結数を最小限に抑え、データ処理装置を小形化すること
が可能になる。第2図(a)の実施例に比較し、この実
施例では独立なパラメータの分離が徐々に行われるため
、レイヤ数やシナプス数を節減しつつパラメータの分離
を行い得る。
第2図(c)は第6実施例を示し、この実施例における
データ処理装置は、ニューラルレイヤし1〜L3とニュ
ーラルセルNCI〜NC4とを有する。しかし第2図(
a)とは異なり、ニューラルセルヲtI成するニューロ
ンは他のニューラルセルを構成するニューロンの一部に
連結されている。
すなわちニューラルセルのニューロンは、初段において
他のニューラルセルのニューロンに連結すれるが、後段
ほどその連結数が減少し、最終だんにおいては他のニュ
ーラルセルのニューロンとは連結されない。一方、ニュ
ーラルレイヤL1〜L3の各ニューロンは、隣接するニ
ューラルレイヤの全てのニューロンに連結される。
したがって、ニューラルセルのニューロンが前段におい
て連結される構成の場合、本実施例によれば、第2図(
b)の実施例と同様、データ処理に影響を及ぼさないニ
ューロン同士の連結を省略して、連結数を最小限に抑え
ることができ、データ処理装置を小形化することが可能
になる。
第3図(a)は第7実施例を示し、この実施例における
データ処理装置は、入力側にニューラルセルNCI〜N
C4、出力側にニューラルセルNC5〜NC8をそれぞ
れ有し、中間部にニューラルレイヤし1〜L5を有する
。ニューラルセルNC1〜NCBは、上記第1および4
実施例と同様な構成を有する。すなわち、ニューラルセ
ルNC1−NC4は相互に分離されており、その二ニー
ロンは、他のニューラルセルを構成するニューロンには
連結されない。ニューラルセルNC5〜NC8も相互に
分離されており、そのニューロンは、他のニューラルセ
ルを構成するニューロンには連結されない。
ニューラルセルNCI〜NC4はニューラルレイヤL 
Lに接続され、ニューラルセルNC5〜NC8はニュー
ラルレイヤL5に接続される。ニューラルレイヤし1〜
L 5は相互に隣接するもの同士において接続される。
ニューラルセルNCI〜NC4のニューロンはニューラ
ルレイヤLlの一部のニューロンにのみ連結され、ニュ
ーラルレイヤL1のニューロンもニューラルレイヤL2
の一部のニューロンのみに連結されるが、ニューラルレ
イヤL1、L2間のニューロンの連結数は、ニューラル
セルNCI〜NC4とニューラルレイヤL1との間のニ
ューロンの連結数よりも多い。同様に、ニューラルレイ
ヤL2のニューロンはニューラルレイヤL3の一部のニ
ューロンのみに連結され、その連結数はニューラルレイ
ヤL1、L2間のニューロンの連結数よりも多い。
ここまで、ニューロンの連結数は後段ほど増加している
が、ニューラルレイヤL3、L4間のニューロンの連結
数はニューラルレイヤL2、L3間のニューロンの連結
数と同じである。そして、ニューラルレイヤL4、L5
間のニューロンの連結数はニューラルレイヤL3、L4
間のニューロンの連結数よりも少なく、またニューラル
レイヤL5とニューラルセルNC5〜NC8との間のニ
ューロンの連結数はニューラルレイヤL4、L5間のニ
ューロンの連結数よりもさらに少ない。
しかして本実施例において、初段のニューラルレイヤの
近傍におけるニューロンの連結数は、後段ほど増加し、
また最終段のニューラルレイヤの近傍におけるニューロ
ンの連結数は、後段ほど減少している。
このような構成は、初段および最終段において各ニュー
ロンから出力されるデータ同士の関連性が薄い場合に効
果的であり、データ処理に影響を及ぼさないニューロン
同士の連結を極力省略することにより、データ処理装置
の小形化を回ることができる。
第3図(b)は第8実施例を示し、データ処理装置は、
ニューラルセルを有しておらず、ニューラルレイヤL1
〜L8から構成される。ニューラルレイヤLlのニュー
ロンはニューラルレイヤL2の一部のニューロンのみに
連結される。同様に、ニューラルレイヤL2のニューロ
ンはニューラルレイヤL3の一部のニューロンのみに、
また、ニューラルレイヤL3のニューロンはニューラル
レイヤL4の一部のニューロンのみに接続される。
そして各ニューラルレイヤ間におけるニューロンの連結
数は、後段ほど、すなわちニューラルレイヤLlからL
4に向かうほど増加している。なお、ニューラルレイヤ
L4のニューロンはニューラルレイヤL5の全てのニュ
ーロンに連結される。
一方、ニューラルレイヤL5のニューロンはニューラル
レイヤL6の一部のニューロンのみに連結すれ、ニュー
ラルレイヤL6のニューロンはニューラルレイヤL7の
一部のニューロンのみに連結される。ニューラルレイヤ
L6、L 7 間のニューロンの連結数は、ニューラル
レイヤL5、L6間のニューロンの連結数よりも減少し
ている。同様に、ニューラルレイヤL7のニューロンは
ニューラルレイヤL8の一部のニューロンのみに連結さ
れ、そのニューロンの連結数は、ニューラルレイヤL6
、L1間のニューロンの連結数よりも少ない。−しかし
てニューラルレイヤL5より後段において、ニューロン
の連結数は後段ほど減少している。
この第8実施例の構成も、初段および最終段において各
ニューロンから出力されるデータ同士の関連性が薄い場
合に、データ処理に影響を及ぼさないニューロン同士の
連結を極力省略して、データ処理装置の小形化を図るこ
とができる。
第3図(c)は第9実施例を示し、この実施例における
データ処理装置は、入力側にニューラルセルNCI〜N
C4、出力側にニューラルセルNC5〜NC8をそれぞ
れ有し、中間部にニューラルレイヤLl−L3を有する
。ニューラルセルN01〜NC4はニューラルレイヤL
lに接続され、ニューラルセルNC5〜NC8はニュー
ラルレイヤL3に接続される。
ニューラルセルは、第3図(a)の実施例とは異なり、
他のニューラルセルを構成するニューロンの一部に連結
される。すなわちニューラルセルNCI〜NC4を構成
するニューロンは、初段において他のニューラルセルの
ニューロンから完全に分離されているが、後段において
他のニューラルセルのニューロンの一部に連結され、そ
の連結数は後段ほど増加している。一方、ニューラルセ
ルNC5〜NC8を構成するニューロンは、最終段にお
いて他のニューラルセルのニューロンから完全に分離さ
れているがζ前段において他のニューラルセルのニュー
ロンの一部に連結され、その連結数は前段ほど増加して
いる。
ニューラルレイヤL1〜L3の各ニューロンハ隣接する
ニューラルレイヤの全てのニューロンに連結される。ニ
ューラルセルNCI〜NC4の各ニューロンはニューラ
ルレイヤL1の全てのニューロンに、またニューラルセ
ルNC5〜NC8の各ニューロンはニューラルレイヤL
3の全てのニューロンに連結される。
この構成によれば、ニューラルセルNCI〜NC4にお
いては後段ほどニューロン間の関連性が増加し、またニ
ューラルセルNC5〜NCBにおいては後段ほどニュー
ロン間の関連性が減少する場合、データ処理に影響を及
ぼさないニューロン同士の連結を省略して、連結数を最
小限に抑え、これによりデータ処理装置を小形化するこ
とが可能になる。
第4図(a)は第1O実施例を示し、この実施例におけ
るデータ処理装置は、入力側にニューラルレイヤLl〜
L3、出力側にニューラルレイヤし4〜L6をそれぞれ
有し、中間部にニューラルセルNCI〜NC4を有する
。ニューラルレイヤL3はニューラルセルNCI〜NC
4に接続され、またニューラルレイヤL4もニューラル
セルNC1〜NC4に接続される。
ニューラルレイヤLlのニューロンはニューラルレイヤ
L2の全てのニューロンに連結されるが、ニューラルレ
イヤL2のニューロンはニューラルレイヤL3の一部の
ニューロンのみに連結される。
ニューロンの連結Gは、ニューラルレイヤLl、L2間
が最も多く、ニューラルレイヤL3とニューラルセルN
CI〜NC4との間が最も少ない。
すなわちニューラルレイヤL1とニューラルセルNCI
〜NC4との間において、ニューロンの連結数は後段ほ
ど減少している。
一方、ニューラルセルNCI〜NC4のニューロンはニ
ューラルレイヤL4の一部のニューロンのみに連結され
、二風−ラルレイヤL4(7)ニューロンもニューラル
レイヤL5の一部のニューロンのみに連結されるが、そ
の連結数は、ニューラルレイヤL4、L5間の方が多い
。またニューラルレイヤL5、L6間において各ニュー
ロンは相手ノ全テノニューロンに連結される。すなわち
ニューラルセルNCI〜NC4とニューラルレイヤL6
との間において、ニューロンの連結数は後段ほど増加し
ている。
ニューラルセルNCl−NC4は、例えば上記第7実施
例のニューラルセルと同様に、相互に分離されており、
各ニューロンは他のニューラルセルを構成するニューロ
ンには連結されない。
しかして本実施例において、ニューロンの連結数は、初
段と最終段の間の途中のニューラルレイヤにおいて変化
している。
このような構成は、初段と最終段の途中において各ニュ
ーロンから出力されるデータ同士の関連性が薄い場合、
データ処理に影響を及ぼさないニューロン同士の連結を
極力省略することにより、データ処理装置の小形化を回
ることを可能にする。
第4図(b)は第11実施例を示し、データ処理装置は
、ニューラルセルを有しておらず、ニューラルレイヤし
1〜L6から構成される。ニューラルレイヤL1のニュ
ーロンはニューラルレイヤL2の全てのニューロンに連
結される。ニューラルレイヤL2のニューロンはニュー
ラルレイヤL3の一部のニューロンのみに、また、ニュ
ーラルレイヤL3のニューロンはニューラルレイヤし4
の一部のニューロンのみに接続される。そしてこれらの
ニューラルレイヤし1〜L4におけるニューロンの連結
数は、後段ほど、すなわちニューラルレイヤL1からL
4に向かうほど減少している。
一方、ニューラルレイヤL4のニューロンはニューラル
レイヤL5の一部のニューロンのみに連結されるが、そ
の連結数はニューラルレイヤL3、L4間よりも増加し
ている。また、ニューラルレイヤL5のニューロンはニ
ューラルレイヤL6の全てのニューロンに連結される。
しかしてニューラルレイヤし4〜L6において、ニュー
ロンの連結数は、後段ほど増加している。
この第11実施例の構成も、初段と最終段の途中におい
て各ニューロンから出力されるデータ同士の関連性が薄
い場合に、データ処理に影響を及ぼさないニューロン同
士の連結を極力省略して、データ処理装置の小形化を図
ることができる。
第4図(C)は第12実施例を示し、この実施例におけ
るデータ処理装置は、入力側にニューラルレイヤL1、
L2、出力側にニューラルレイヤL3、L4をそれぞれ
有し、中間部にニューラルセルNCI〜NC4を有する
。ニューラルレイヤL1のニューロンはニューラルレイ
ヤL2の全てのニューロンに連結され、またニューラル
レイヤL2のニューロンもニューラルセルNCI〜NC
4の全てのニューロンに連結される。同様に、ニューラ
ルセルNCl−NC4のニューロンはニューラルレイヤ
L3の全てのニューロンに連結され、またニューラルレ
イヤL3のニューロンはニューラルレイヤL4の全ての
ニューロンに連結される。
ニューラルセルNCI〜NC4のニューロンは、第4図
(a)の実施例とは異なり、他のニューラルセルを構成
するニューロンの一部に連結される。
すなわちニューラルセルNCI〜NC4を構成するニュ
ーロンは、ニューラルレイヤし2側において他のニュー
ラルセルの一部のニューロンに連結され、中段おいて連
結数は最も少ない。そして、後段においてニューロンの
連結数は中段よりも増加している。
この構成によれば、ニューラルセルNCI〜NC4にお
いては中段ほどニューロン間の関連性が薄い場合に、デ
ータ処理に影響を及ぼさない二ニーロン同士の連結を省
略して、連結数を最小限に抑え、これによりデータ処理
装置を小形化することが可能になる。
なお、例えば第4図(a)の構成において、ニューラル
ネットワークの途中に設けられたニューラルセルNCl
−NC4のニューロンから出力データを取り出し、これ
を他のニューラルネットワークに入力してもよい。
第5図は複数のニューラルネットワーク間にニューラル
セルが配設された例を示す。この図において、第1〜第
3のニューラルネットワークN1〜N3のニューロンは
、それぞれ第1〜第3のニューラルセル01〜C3のニ
ューロンに連結されまた第1〜第3のニューラルセル0
1〜C3のニューロンは第4のニューラルネットワーク
N4に連結される。この例において、各ニューラルネッ
トワークのニューロンは隣接するニューラルレイヤの全
てのニューロンに連結されるが、ニューラルセルC1−
C5は相互に分離されており、ニューロンは他のニュー
ラルセルのニューロンには連結されない。したがってニ
ューロンの連結数が最小限のものとなり、データ処理の
効率化が図られる。
[発明の効果] 以上のように本発明に係るデータ処理装置は、ニューロ
ンが隣接するニューラルレイヤの全てのニューロンに連
結されるものではなく、ニューロン間の連結数を最小限
に抑えたものであり、したがってデータ処理装置の小形
化が可能になるという効果を奏する。
【図面の簡単な説明】
第1図(a)は第1実施例のデータ処理装置を示す概念
図、 第1図(b)は第2実施例のデータ処理装置を示す概念
図、 第1図(C)は第3実施例のデータ処理装置を示す概念
図、 第2図(a)は第4実施例のデータ処理装置を示す概念
図、 第2図(b)は第5実施例のデータ処理装置を示す概念
図、 第2図(c)は第6実施例のデータ処理装置を示す概念
図、 第3図(a)は第7実施例のデータ処理装置を示す概念
図、 第3図(b)は第8実施例のデータ処理装置を示す概念
図、 第3図(c)は第9実施例のデータ処理装置を示す概念
図、 第4図(a)は第1O実施例のデータ処理装置を示す概
念図、 第4図(b)は第11実施例のデータ処理装置を示す概
念図、 第4図(c)は第12実施例のデータ処理装置を示す概
念図、 第5図はニューラルネットワークとニューラルセルの結
合関係の一例を示す概念図、 第6図は神経細胞モデルを示す概念図、第7図はニュー
ラルレイヤの例を示す概念図、第8図はニューラルセル
を示す概念図、第9図は同ニュー・ラルセルの階層を示
す概念図、第1O図はニューラルセルの構造および後処
理用ニューラルレイヤの構造を示す概念図、第11図は
同ニューラルセルにおけるエツジ抽出処理系を示す概念
図、 第12図は同一ューラルセルにおけるコーナ抽出処理系
を示す概念図、 第13図は第11図の変形例を示す概念図、第14図は
ニューラル処理系の後段の統合処理系を示す概念図、 第15図は図形の擬偵コーナを示す概念図、第16図は
ニューロン間の平面的な位置関係を示す概念図、 第17図はニューロン間の距離と重みとの関係を示すグ
ラフである。 NC5NCl〜NC8、C1〜C3 ・・・ニューラルセル 1−18 °ニューラルレイヤ

Claims (5)

    【特許請求の範囲】
  1. (1)入力データに対する所定の処理結果に応じたデー
    タを出力するニューロンが設けられた複数層のニューラ
    ルレイヤを有し、各ニューラルレイヤのニューロンを他
    のニューラルレイヤのニューロンに連結して構成される
    データ処理装置において、初段のニューラルレイヤと最
    終段のニューラルレイヤとの間の途中の層に設けられた
    ニューロンが隣接する層のニューロンの一部のみに連結
    されることを特徴とするデータ処理装置。
  2. (2)当該層のニューロンと隣接する層のニューロンと
    の連結数が、後段ほど増加することを特徴とする特許請
    求の範囲第1項記載のデータ処理装置。
  3. (3)当該層のニューロンと隣接する層のニューロンと
    の連結数が、後段ほど減少することを特徴とする特許請
    求の範囲第1項記載のデータ処理装置。
  4. (4)当該層のニューロンと隣接する層のニューロンと
    の連結数が、初段のニューラルレイヤの近傍の複数層の
    ニューラルレイヤにおいて後段ほど増加し、かつ最終段
    のニューラルレイヤの近傍の複数層のニューラルレイヤ
    において後段ほど減少することを特徴とする特許請求の
    範囲第1項記載のデータ処理装置。
  5. (5)当該層のニューロンと隣接する層のニューロンと
    の連結数が、初段と最終段の間の途中の複数層のニュー
    ラルレイヤ間において変化することを特徴とする特許請
    求の範囲第1項記載のデータ処理装置。
JP1253248A 1989-09-28 1989-09-28 データ処理装置 Pending JPH03113667A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP1253248A JPH03113667A (ja) 1989-09-28 1989-09-28 データ処理装置
DE69030907T DE69030907T2 (de) 1989-09-28 1990-09-27 Datenverarbeitungsanlage
EP90118592A EP0420254B1 (en) 1989-09-28 1990-09-27 Data processing system
US08/058,035 US5361328A (en) 1989-09-28 1993-05-07 Data processing system using a neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1253248A JPH03113667A (ja) 1989-09-28 1989-09-28 データ処理装置

Publications (1)

Publication Number Publication Date
JPH03113667A true JPH03113667A (ja) 1991-05-15

Family

ID=17248626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1253248A Pending JPH03113667A (ja) 1989-09-28 1989-09-28 データ処理装置

Country Status (3)

Country Link
EP (1) EP0420254B1 (ja)
JP (1) JPH03113667A (ja)
DE (1) DE69030907T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516260A (ja) * 2005-11-10 2009-04-16 オー,ウィ−ジン 文字入力装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0185754B1 (ko) * 1994-02-02 1999-05-15 정호선 맵핑회로와 이를 이용한 혼돈 신경망
KR0185756B1 (ko) * 1994-02-02 1999-05-15 정호선 비선형 회로와 이를 이용한 혼돈 신경망
DE19653554A1 (de) * 1996-12-20 1998-06-25 Siemens Nixdorf Advanced Techn Verfahren zum Trainieren eines neuronalen Netzes mit Trainingsdaten und Anordnung eines künstlichen neuronalen Netzes

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009516260A (ja) * 2005-11-10 2009-04-16 オー,ウィ−ジン 文字入力装置

Also Published As

Publication number Publication date
EP0420254A3 (en) 1991-07-10
DE69030907T2 (de) 1997-09-25
EP0420254B1 (en) 1997-06-11
DE69030907D1 (de) 1997-07-17
EP0420254A2 (en) 1991-04-03

Similar Documents

Publication Publication Date Title
CN111709321B (zh) 一种基于图卷积神经网络的人体行为识别方法
Lehmann et al. A generic systolic array building block for neural networks with on-chip learning
CN114998667B (zh) 多光谱目标检测方法、系统、计算机设备及存储介质
Rosin Training cellular automata for image processing
EP0411341A2 (en) Neural network
JPH03113667A (ja) データ処理装置
JP2006154992A (ja) ニューロプロセッサ
JPH03288285A (ja) データ処理装置の学習方法
US5361328A (en) Data processing system using a neural network
Omondi et al. Neural networks in FPGAs
JPH06111038A (ja) ニューラル・ネットワーク及びその操作方法
JPH08329032A (ja) ニュ−ラルネット型パターン認識装置及びニュ−ラルネットの学習方法
JP4947983B2 (ja) 演算処理システム
JPH03129490A (ja) データ処理装置
JPH04237388A (ja) ニューロプロセッサ
Dawwd et al. Video based face recognition using convolutional neural network
JPH05101187A (ja) 画像認識装置及びその学習方法
Chang et al. Polynomial and standard higher order neural network
El-Bakry Modular neural networks for solving high complexity problems
WO2023203775A1 (ja) ニューラルネットワーク生成方法
JPH11167482A (ja) セル状オートマトン
Mertoguno et al. A digital retina-like low-level vision processor
Grichuk et al. Object selection in visual scene via oscillatory network with controllable coupling and self-organized performance
Rothstein Toward pattern-recognizing visual prostheses
JPH02300868A (ja) 画像処理装置