JPH06203005A - 高速区分化ニューラルネットワーク及びその構築方法 - Google Patents

高速区分化ニューラルネットワーク及びその構築方法

Info

Publication number
JPH06203005A
JPH06203005A JP5230431A JP23043193A JPH06203005A JP H06203005 A JPH06203005 A JP H06203005A JP 5230431 A JP5230431 A JP 5230431A JP 23043193 A JP23043193 A JP 23043193A JP H06203005 A JPH06203005 A JP H06203005A
Authority
JP
Japan
Prior art keywords
network
sub
layer
networks
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5230431A
Other languages
English (en)
Inventor
Steven M Bryant
エム ブライアント スチーブン
Kenneth H Loewenthal
エイチ レーベンタール ケネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JPH06203005A publication Critical patent/JPH06203005A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Abstract

(57)【要約】 【目的】 高速動作で、フィードフォワード制御方式の
区分化された神経方式の回路網とその構築技術を提供す
る。 【構成】 本区分化回路網10は、上向きのピラミッド
形に積み上げた複数の回路網層1〜5で構成される。こ
の各回路網層1〜5を複数の副回路網SN12で構成
し、その各副回路網SN12には複数のノードを配置
し、そのノードは完全に又は部分的に相互接続した層状
ニューラルネットワーク配列内に構成する。各副ネット
ワークSN12の入出力は、「0」又は「1」に限定さ
れた1ビットのデジタル値である。各副ネットワークS
N12はある与えられたネットワーク層1〜5の中の他
の全ての副ネットワークSN12から独立しており、従
って、各ネットワーク層1〜5が区分化されている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はコンピュータ処理システ
ムに関し、特に、高速ニューラルネットワークとその構
築技術に関する。
【0002】
【従来の技術】人工神経回路網(ニューラルネットワー
ク)は、特定方式で相互に接続している大規模な並行ニ
ューロンタイプの要素群であって、その方式は、以下に
限定されるものではないが、光学的な文字認識、パター
ン認識、機械学習、工程管理及び音声認識を行うもので
ある。このニューラルネットワークシステムにおける最
も一般的な構造は、非線形処理要素のネットワークであ
るが、その「ノード」は情報処理チャンネルまたは「重
み」を介して多数の入力と結び付いている。各ノードは
その多数の入力と重みを処理することができると共に、
夫々一つの信号を出力する。このネットワークは多くの
場合、多数の層を備えており、最初の層以外の各層はそ
の前の層の出力を入力として受信し、ネットワークの最
後の層は一般に出力刺激を与える。
【0003】ニューラルネットワークは、極めて基本的
なレベルにおいて、生物学的神経組織の特徴をシミュレ
ートすることができる。この生物学的神経組織は多くの
利点を備えており、その利点には以下のものが含まれて
いる、即ち、広範な環境に適応し、それを統括し、処理
する能力、リアルタイムで有効に機能するように大規模
並行処理の形式で動作する能力、欠陥に対する許容能
力、或いは回路網自身の内部エラーを処理する能力、及
び例に倣って学習する能力である。ニューラルネットワ
ークにおいて、有益な結果を得るには、事前にトレーニ
ングする必要がある。但し多くの適用例においては、バ
ッチ・バックプロパゲーショントレーニングを一度して
おけば十分である。一旦トレーニングを済ませておけ
ば、その結果として得られた「重み」は保存され、トレ
ーニングではないテストモード或いは「フォワードモー
ド」動作中に、その後の使用のためその重みは修正され
る。
【0004】最も高度に相互接続したネットワークで
は、ノード数と入力の個数が直線的に増加するにつれて
重みの個数は急速に非直線的に増加する。例えば、もし
完全に相互接続したネットワークの単一層内の入力数と
共にノード数が直線的に増加すれば、重みの個数は入力
数の二乗に比例して増加する。
【0005】より詳述すれば、例えば、入力数10個、
ノード数10個の完全に相互接続した小さなネットワー
ク層内では、重み数は100個が必要となろう。しか
し、入力数1,000個、ノード数1,000個に対し
ては、所要重み数は1,000,000個という途方も
ない大きさになる。これではシミュレートするために必
要なハードウェアが巨大化するだけでなく、極めて複雑
なものとなり、更に単一の処理システムで行おうとする
とフォワード制御方式の時遅くなる。
【0006】
【発明が解決しようとする課題】フォワード制御方式
(例えば、ニューラルネットワークを用いたパターン認
識システム)におけるリアルタイム回路網の作用は、超
高速の単純なハードウェアを使用する場合の作用と同等
であるが、この達成はしばしば困難となる。なぜなら、
数多くのパターン認識を適用するには多数の入力数及び
/又はノード数を要するからである。今日までに開発さ
れた多くのパターン認識システムは、単純な高速ハード
ウェアシステムを用いたものである。更に、入力数が極
端に多い場合は、ニューラルネットワークの真の並行ハ
ードウェアの実現は現実には不可能である。多くのリア
ルタイムパターン認識の応用例では、ニューラルネット
ワークに対して、毎秒数十億回以上の相互接続速度が要
求される。しかし、この様な有効速度で動作するニュー
ラルネットワークは現在のところ入手可能ではない。更
に、これまでに開発されたパターン認識のニューラルネ
ットワークの多くは、高速のパターン認識をハードウェ
アで行える構造にはなっていない。
【0007】従って、多数の入力数とノード数を用いた
実施方法にそれ自身を適合させると共に、莫大な個数の
重みと物理的な相互接続とを必要としないニューラルネ
ットワークシステム技術が必要とされる。更に、このネ
ットワークのトポロジーは現実的且つ限られた個数のハ
ードウェアで実現可能であるだけでなく、超高速で動作
可能でなければならない。ここに開示するニューラルネ
ットワークシステムは、これらの諸要求に応えるもので
ある。
【0008】
【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、多数のネットワーク層と複
数の副ネットワークを備えたフィードフォワードの区分
化されたニューラルネットワークを提供する。各副ネッ
トワークは多数のネットワーク層の一つの中に配備さ
れ、少くともそのネットワーク層の一つは多数の副ネッ
トワークを含んでいる。多数の副ネットワークを備えた
ネットワーク層の中の全ての副ネットワークは、そのネ
ットワーク層の中で他の副ネットワークとは分離又は区
分されている。この多数のネットワーク層は、ある入力
ネットワーク層からある出力ネットワーク層まで、その
ネットワーク層内の副ネットワークの個数が入力ネット
ワーク層から出力ネットワーク層に向けて減少するよう
に、ピラミッド形に配置されている。実際のハードウェ
アでは、副ネットワークに記憶装置が含まれている。
【0009】また、上記目的を達成するために、請求項
2記載の発明は、高速のフィードフォワードの区分化さ
れたニューラルネットワークの構築方法を提供する。こ
の方法は次の各ステップを含んでいる。即ち、副ネット
ワークモデルを選択するステップ及び区分化されたニュ
ーラルネットワークがその選択した副ネットワークモデ
ルを適用するステップ(区分化ニューラルネットワーク
が、多数の副ネットワークをその内部に配置した多数の
ネットワーク層を有するように)と、その選択された区
分化ニューラルネットワークをトレーニングするステッ
プと、その一方であるネットワーク層から隣接ネットワ
ーク層に与えられる値が二値信号を含むという制限を課
すステップと、各副ネットワークの入力と出力の値を区
分化されたニューラルネットワークモデル内にマップす
るステップと、そのマップされた副ネットワークの入出
力を記憶装置にプログラムするステップである。
【0010】
【作用】本発明により、多数の入力とノードを用い、そ
の実施時には実現可能なハードウェアにそれ自身を適合
させ、高速パターン認識を可能にするニューラルネット
ワークシステムが提供される。このシステムは、ここで
は「区分化された」ニューラルネットワークシステムと
称し、上向きのピラミッド形に積み上げた複数のネット
ワーク層を含み、このネットワーク層は複数の「副ネッ
トワーク」で構成されている。各副ネットワーク内には
複数のノードが存在し、そのノードは完全に相互接続し
た層及び/又は部分的に相互接続した層状配列に構成さ
れている。各副ネットワークは複数の入力を含み、以下
に記述する実施例においては、入力数に対してその1/
2の個数の出力を有する。この副ネットワークの入力も
出力も0又は1に限られる1ビットのデジタル値であ
る。いかなる個数の層のいかなる個数のノードであって
も、各副ネットワーク内でモデル化することができる。
更に、副ネットワークの出力数は入力数の1/2以外と
することもできる。
【0011】最初のネットワーク層は入力ネットワーク
層であり、最後のネットワーク層は出力ネットワーク層
である。その他の全ての中間ネットワーク層は、潜在ネ
ットワーク層である。その各ネットワーク層はいかなる
個数の副ネットワークに関してもモデル化することがで
き、そこでは各副ネットワークは該当するネットワーク
層の中の他の全ての副ネットワークから独立している。
この様にして各ネットワーク層は区分化される。
【0012】一副ネットワーク当たり入力数Nとある与
えられたネットワーク内の副ネットワーク数Mに対し
て、このネットワーク層は入力数N×Mを有し、後述す
る実施例においては、出力数は(N×M)/2となる。
各ネットワーク層からの出力はその前のネットワーク層
の中の事前に選択しておいた副ネットワークの出力が次
の層の中の一つの副ネットワークに接続されるような形
で、次のネットワーク層の入力となる。後続の各ネット
ワーク層のサイズはその下のネットワーク層、即ちピラ
ミッドの次のネットワーク層に必要な入力数によって決
定される。後続の各ネットワーク層中における入力数、
副ネットワーク層の個数及び出力数はその前の層のもの
より減少(即ち1/2)する。ネットワーク層は、最上
部のネットワーク層内に(例えば)副ネットワークが唯
一個残るまで、その前のネットワーク層の上に積み上げ
られる。かくて、ピラミッド形の、区分化されたニュー
ラルネットワークが構築される。
【0013】有限個で、技術的に可能な個数の入力と出
力をもって副ネットワークを形成することにより、副ネ
ットワークを例えばRAM又はPROMのルックアップ
テーブルの様な単純な記憶装置で置き換えることができ
る。ネットワークをコンピュータシミュレーションでト
レーニングした後、各副ネットワークの入出力値を記憶
装置にマップし、格納することができる。更に各副ネッ
トワークをその対応する記憶装置で置き換えることがで
きる。一旦副ネットワークがハードウェアの記憶装置で
置き換えられると、これらはフォワードモードにおける
ニューラルネットワークに匹敵する程に使用することが
できる。本システムの速度は高速であるが、その速度
は、一般に、使用する記憶装置のアクセス時間とこのシ
ステムのネットワーク層の層数によって決まる。更に、
物理的な相互接続の個数は相対的に少なくなる。
【0014】
【実施例】本発明の更に詳細な方法を図解を参照しなが
ら以下に説明するが、同一の参照符号は別の図において
も同一又は類似の構成要素を指示するために用いられて
いる。
【0015】ニューラルネットワークシステムの一つの
実施例が一般に符号10で示され、本発明に従って図1
に図示されている。ニューラルネットワークシステム1
0は「多層1」(即ち入力層)、「多層2」、「多層
3」、「多層4」及び「多層5」(即ち出力層)と称す
る五個のネットワーク層を備えたピラミッド形の区分化
ニューラルネットワークである。「多層5」を除いて、
ニューラルネットワーク10の各層は、多数の副ネット
ワーク「SN」12を含み、その各「副ネットワーク」
は入力16個と出力8個から構成されていると仮定して
おく。各「副ネットワーク」はPROMの様な記憶装置
から成り、各副ネットワークの出力数は入力数の1/2
である。例えば「多層1」内の一対の副ネットワークの
出力が「多層2」の同じ副ネットワークに与えられるの
に対し、「多層2」の一対の副ネットワークの出力は
「多層3」の同じ副ネットワークに与えられ、「多層
3」の一対の副ネットワークの出力は「多層4」の同じ
副ネットワークに与えられ、また「多層4」の副ネット
ワーク12の出力は「多層5」の単一の副ネットワーク
の入力となる(後述するように、システム10において
は副ネットワーク12の出力のペアリングは予め決めら
れている)。
【0016】ネットワーク10はフォワードモードでの
み使用され、トレーニングは個々のコンピュータで行わ
れ、そのトレーニング結果は副ネットワーク、より詳細
には使用した記憶装置にプログラムされる。かくして、
実施に当たっては、ネットワーク全体は多数の副ネット
ワークで構成され、その各副ネットワークは例えば、入
力16個と出力8個で構成されている。最初の層の各副
ネットワークの出力8個は一度に16ビットずつまとめ
て第二の層の副ネットワークの入力となる。この構成が
最後の層まで繰り返され、そこでその出力8個が全ネッ
トワークの結果となる。
【0017】ニューラルネットワークシステム10は、
パターン認識システムの様なコンピュータ処理システム
内に配備され、コンピュータデータバス16から直接デ
ータを受取る様に接続された複数の入力ラッチ14を介
して、「多層1」への入力情報を受信する。例として
は、32個の8ビットの入力ラッチ(タイプ74ALS
273)を入力256個のニューラルネットワークに採
用することができる。予め対にしておいたラッチからの
情報は「多層1」内の対応する副ネットワークに非同期
的に送り込まれる。適切な有効回線EN[0…31]を
活性化することにより、入力ラッチ14は共通データバ
スを介して同期的にロードされる。ピラミッド形のニュ
ーラルネットワーク構造の各副ネットワークは、ここで
も同様に入力16個と出力8個を有するAM27512
64kのPROMとして実施可能である。ニューラル
ネットワーク(即ち「多層5」)の出力は出力バッファ
18で緩衝され、最終的にコンピュータデータバス16
に与えられる。バッファ18は集積回路型の74ALS
244で構成することができる。
【0018】更に別の例として、本発明に従って副ネッ
トワーク12の一実施例を図2に示す。この実施例にお
いては、三個のノード層が示されている。入力ノード層
20は複数のノード22を含み、それらの各々は副ネッ
トワーク12に対する16個の入力を受取る。入力ノー
ド層20の出力は中間ノード層24に与えられ、その後
者の出力は出力ノード層26に入力され、ノード層26
の出力が副ネットワーク12の出力になる。副ネットワ
ークに関する本実施例は完全に相互接続した副ネットワ
ークを構成しているが、これは、各層の各ノードが同一
の入力を受取り、更にその各ノードが次のノード層の各
ノードに出力するからである。
【0019】図3に示すように、各内部ノード22は一
つの非線形加算手段を成している。そのノードは各入力
(x)に夫々の重み(w1、w2、…wn)を乗じて合
計し、次いでその合計値を用いて非線形変換を行う。こ
の非線形変換は正、負両無限遠位置で漸近的に有界であ
るという特性を有し、更に又単調増加という特性を有し
ている。上記の特性を持つ普通の関数は幾つか存在し、
その一つにTanh(x)関数がある。当該技術分野に
精通した者であれば、上述の特性を備えた関数が他にも
あり得ることが分かるであろう。
【0020】図1に関して最初に言及したように、本ネ
ットワークは記憶装置の層で構成されており、その内部
の各記憶装置の入力数は16、出力数は8である。例と
して、図4にAM27512型PROM装置のピン接続
を示す。再述するが、これ以外の記憶装置も使用するこ
とができる。各記憶装置は一つの副ネットワークと見な
せるが、これは(ここで説明する実施例では)図2に示
す様に16個の入力及び8個の出力のノードに相当す
る。
【0021】次に図5を参照しながら、本発明に従って
ニューラルネットワークの構築について次に説明する。
ネットワークのトレーニング中に、そのネットワークは
区分化ネットワークとしてモデル化されるが、その入力
は例えば16個が同時に受取られ、それらは対応する個
々の副ネットワークに渡される。即ち、符号30の「区
分化ネットワークとしてのフィードフォワードネットワ
ークのモデル化」である。この副ネットワークは入力数
16、出力数8の完全に相互接続した多層ネットワーク
としてモデル化される。市販のどの様なコンピュータシ
ミュレーション技術であっても、ネットワークトレーニ
ングに使用することができるが、唯ある一定の制限が課
せられる。即ち、符号32の「コンピュータシミュレー
ションを使用し、制限を課しながらネットワークをトレ
ーニングする」ということである。明言すれば、あるネ
ットワーク層から次のネットワーク層に送られる値が二
進法の値、即ち0又は1であるように、トレーニングが
行われる。副ネットワークの内部ではこの条件は適用さ
れないので、トレーニング期間中、副ネットワークの内
部状態は連続した実数値を取り得る。
【0022】ネットワークトレーニングの完了後は、各
副ネットワーク上に完全な入力/出力マッピングが行わ
れる。即ち、符号34の「各副ネットワークの完全な入
力/出力マップの作成」である。副ネットワークの完全
な入力/出力マップが得られると、内部状態は最早不要
となり、入力/出力関係を選択した記憶装置内で直接プ
ログラム化することができるようになる。即ち、符号3
6の「記憶装置内における入力/出力の関係のプログラ
ム化」である。
【0023】本明細書に示したネットワークの場合、2
56個の二進法入力がある(図1参照)。この二進法入
力はコンピュータインタフェースから一度に1バイトづ
つラッチされる。これら256個の入力は、次に、図1
中で「多層1」とラベル付けされた16入力層の副ネッ
トワークの記憶装置に送られる。各16入力副ネットワ
ーク記憶装置は、8個の出力を生成して次のネットワー
ク層に送る。それらの出力は入力として次のネットワー
ク層に非同期的に送られる。それ故、次々に続く各ネッ
トワーク層は、その手前の層の半分に相当する個数の記
憶装置を内蔵するから、その結果、図1中で「多層2」
とラベル付けされた第二の層は8個の記憶装置を備えて
いなければならない。これと同様のことが、ピラミッド
構造の最後の層、つまり「多層5」が一個記憶装置を持
つことになるまで続けられる。その出力層は8個の出力
を有しており、それによって当該ネットワークは256
通りの決定又はクラス分けを行う事が可能になる。
【0024】256個の入力全部が一旦ネットワークの
入力にラッチされると、そのネットワークの出力はある
層から次の層に至る記憶装置の伝達遅延時間分だけ遅れ
る。例えば図4に示す記憶装置の場合、入力/出力遅延
時間は30nsである。従って、5層の場合、全ネット
ワークの入力/出力遅延時間は約150nsである。
【0025】各副ネットワークは11個の潜在的層内ノ
ードを有し、入力数16、層数3、出力数8の完全に相
互接続したネットワークと見なしても妥当であるから、
各副ネットワークモデルの相互接続数は266である。
ネットワーク全体は31個の副ネットワークで構成され
るから、副ネットワーク間の相互接続数の合計は240
になる。従って、等価相互接続数の合計は31×264
+240=8,184になる。これは、毎秒当たり54
0億相互接続数という驚異的な速度に相当し、従来のニ
ューラルネットワーク構成で達成可能な速度の少くも1
0倍に匹敵する。
【0026】本発明はまた請求項1及び2で明確には列
挙しなかった次の実施例を含む。 (a)前記複数の副ネットワークの各々が記憶装置とし
てハードウェアの形で実施されるところの請求項1のフ
ィードフォワード区分化ニューラルネットワーク。
【0027】(b)前記記憶装置の各々がRAM装置又
はPROM装置であるところの(a)項のフィードフォ
ワードの区分化ニューラルネットワーク。 (c)前記記憶装置の各々がM個の入力とN個の出力、
但しM>N、を有するところの請求項1のフィードフォ
ワードの区分化ニューラルネットワーク。 (d)(c)項の特徴を持つフィードフォワード区分化
ニューラルネットワークであって、前記記憶装置の各々
の出力数Nが入力数Mの半分、すなわちN=M/2であ
り、従って、各ニューラルネットワーク層の大きさがそ
の手前のニューラルネットワーク層の大きさの半分であ
る前記ニューラルネットワーク。 (e)前記記憶装置が16個の入力と8個の出力を有す
るところの(d)項の特徴を持つフィードフォワードの
区分化ニューラルネットワーク。 (f)前記副ネットワークの各々が完全に相互接続され
た又は部分的に接続されたニューラルネットワークであ
るところの請求項1のフィードフォワードの区分化ニュ
ーラルネットワーク。 (g)(f)項の特徴を持ち、フィードフォワードの区
分化ニューラルネットワークであって、前記副ネットワ
ークの各々が複数の副層を有し、その副層の各々が複数
の処理用ノードを有するネットワーク。 (h)請求項2の構築方法であって、前記プログラム化
ステップ(ニ))が、各副ネットワークに対して、前記
ステップ(ハ)でマップされた副ネットワークの入力/
出力を記憶装置内でプログラム化することを含む方法。 (i)(h)項の特徴を持つ構築方法であって、ステッ
プ(イ)でモデル化された前記区分化ニューラルネット
ワークが、多数のネットワーク層を持つニューラルネッ
トワークモデルを含み、各ネットワーク層が偶数個の前
記副ネットワークを持つネットワーク。 (j)(i)項の特徴を持つ構築方法であって、前記選
択ステップ(イ)が更に区分化ニューラルネットワーク
モデルの選択、即ち、そのモデルの各ネットワーク層の
入力数、副ネットワーク数及び出力数夫々の総数がいず
れも、それに隣接するネットワーク層の入力数、副ネッ
トワーク数及び出力数夫々の総数の半分になるようなモ
デル選択を含む方法。 (k)(g)項の特徴を持つ構築方法であって、前記ト
レーニングステップ(ロ)が、ステップ(イ)で選択し
た区分化ニューラルネットワークをコンピュータシミュ
レーションを用いてトレーニングすることを含む方法。
【0028】
【発明の効果】以上説明したように、本発明のニューラ
ルネットワーク及びその構築方法によれば、今日のニュ
ーラルネットワークに関する従来技術では対応すること
ができない速度にも対応可能になり、かつ、設計の簡易
さが失われることはない。これは、本明細書ではネット
ワークの「区分化」という用語を用いたが、ネットワー
クを完全には相互接続しないことによって実現される。
それに加え、ネットワークを完全には接続しないことに
より、完全に相互接続したニューラルネットワークとし
てのハードウェアでは実際上実現不可能な程、大きな入
力数のニューラルネットワークまでこの設計を拡張する
ことができる。このニューラルネットワークの速度は、
モデル化されたネットワーク層の層数と、使用する記憶
装置の速度によってのみ制限される。
【図面の簡単な説明】
【図1】本発明の実施例の区分化ニューラルネットワー
クの説明図である。
【図2】図1の区分化ニューラルネットワークで使用す
るための副ネットワークの説明図である。
【図3】図2の副ネットワーク内の一個のノードの説明
図である。
【図4】図1のニューラルネットワークのための本発明
に基づくPROM副ネットワークの説明図である。
【図5】本発明に基づくニューラルネットワークの構築
技術のフローチャートである。
【符号の説明】
10 ニューラルネットワークシステム 12 副ネットワーク 14 入力ラッチ 16 コンピュータのデータバス 18 出力バッファ 20 入力ノード層 22 ノード 24 中間ノード層 26 出力ノード層

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 フィードフォワードの区分化ニューラル
    ネットワークであって、 多数のネットワーク層と複数の副ネットワークを含み、 前記各副ネットワークは前記多数のネットワーク層の一
    つに内在し、 前記多数のネットワーク層の少くとも一つが多数の副ネ
    ットワークを備え、更に前記ネットワーク層の全てが少
    くとも一つの副ネットワークを具備しており、 前記ネットワーク層の各々の内部の全ての副ネットワー
    クが前記ネットワーク層内の他の副ネットワークと区分
    された多数の副ネットワークを有し、 前記多数のネットワーク層が入力ネットワーク層から出
    力ネットワーク層に向けてピラミッド形式に構成され、 前記多数のネットワーク層内の副ネットワークの個数は
    前記入力ネットワーク層から前記出力ネットワーク層に
    向けて減少することを特徴とするニューラルネットワー
    ク。
  2. 【請求項2】 フィードフォワードの区分化ニューラル
    ネットワークの構築方法であって、 (イ)副ネットワークのモデル及びこの副ネットワーク
    を用いた区分化ニューラルネットワークのモデルを選ぶ
    ステップであって、前記区分化ニューラルネットワーク
    のモデルは多数の副ネットワークが配置されている多数
    のネットワーク層を有するモデルであるステップと、 (ロ)前記(イ)ステップで選択した区分化ニューラル
    ネットワークをトレーニングすると共に、その一方で各
    ネットワーク層から隣接するネットワーク層に送る値が
    二値のバイナリー信号を含むことを要求するステップ
    と、 (ハ)前記(ロ)ステップを次々に完了させ、前記区分
    化ニューラルネットワークのモデルの内部に各副ネット
    ワークの入力値と出力値をマップするステップと、 (ニ)各副ネットワークに対して、前記(ハ)ステップ
    においてマップされた副ネットワークの入力/出力をバ
    イナリー装置内でプログラム化するステップと、を含む
    ことを特徴とする区分化ニューラルネットワークの構築
    方法。
JP5230431A 1992-10-27 1993-09-16 高速区分化ニューラルネットワーク及びその構築方法 Pending JPH06203005A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US96798792A 1992-10-27 1992-10-27
US967,987 1992-10-27

Publications (1)

Publication Number Publication Date
JPH06203005A true JPH06203005A (ja) 1994-07-22

Family

ID=25513561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5230431A Pending JPH06203005A (ja) 1992-10-27 1993-09-16 高速区分化ニューラルネットワーク及びその構築方法

Country Status (3)

Country Link
US (1) US5586223A (ja)
EP (1) EP0595033A3 (ja)
JP (1) JPH06203005A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016519288A (ja) * 2013-05-02 2016-06-30 コンソーシアム・ピー・インコーポレーテッドConsortium P Incorporated 重複ニューラルネットワークに基づいたスケーラブルなリアルタイム位置検出
JP2021093181A (ja) * 2015-05-21 2021-06-17 グーグル エルエルシーGoogle LLC ニューラルネットワークプロセッサにおけるバッチ処理

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982373A (en) * 1996-11-12 1999-11-09 Chromatic Research, Inc. Dynamic enhancement/reduction of graphical image data resolution
US6058206A (en) * 1997-12-01 2000-05-02 Kortge; Chris Alan Pattern recognizer with independent feature learning
GB2371625B (en) 2000-09-29 2003-09-10 Baker Hughes Inc Method and apparatus for prediction control in drilling dynamics using neural network
EP1298581A1 (fr) * 2001-09-27 2003-04-02 C.S.E.M. Centre Suisse D'electronique Et De Microtechnique Sa Procédé et dispositif pour calculer les valeurs des neurones d'un réseau neuronal
WO2004090285A1 (en) 2003-03-31 2004-10-21 Baker Hughes Incorporated Real-time drilling optimization based on mwd dynamic measurements
US7730967B2 (en) 2004-06-22 2010-06-08 Baker Hughes Incorporated Drilling wellbores with optimal physical drill string conditions

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3308441A (en) * 1963-09-06 1967-03-07 Rca Corp Information processing apparatus
US5014327A (en) * 1987-06-15 1991-05-07 Digital Equipment Corporation Parallel associative memory having improved selection and decision mechanisms for recognizing and sorting relevant patterns
FR2625347B1 (fr) * 1987-12-23 1990-05-04 Labo Electronique Physique Structure de reseau de neurones et circuit et arrangement de reseaux de neurones
US5056015A (en) * 1988-03-23 1991-10-08 Du Pont Pixel Systems Limited Architectures for serial or parallel loading of writable control store
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5083285A (en) * 1988-10-11 1992-01-21 Kabushiki Kaisha Toshiba Matrix-structured neural network with learning circuitry
US4933871A (en) * 1988-12-21 1990-06-12 Desieno Duane Graded learning device and method
JP2676397B2 (ja) * 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
JP2940933B2 (ja) * 1989-05-20 1999-08-25 株式会社リコー パターン認識方式
US5060276A (en) * 1989-05-31 1991-10-22 At&T Bell Laboratories Technique for object orientation detection using a feed-forward neural network
US4970819A (en) * 1989-09-25 1990-11-20 V/Ger, Inc. Firearm safety system and method
US5063521A (en) * 1989-11-03 1991-11-05 Motorola, Inc. Neuram: neural network with ram
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5255346A (en) * 1989-12-28 1993-10-19 U S West Advanced Technologies, Inc. Method and apparatus for design of a vector quantizer
US5052043A (en) * 1990-05-07 1991-09-24 Eastman Kodak Company Neural network with back propagation controlled through an output confidence measure
KR910020571A (ko) * 1990-05-21 1991-12-20 다카도리 수나오 데이터 처리장치
JP2810497B2 (ja) * 1990-06-19 1998-10-15 キヤノン株式会社 画像処理装置
GB9014569D0 (en) * 1990-06-29 1990-08-22 Univ London Devices for use in neural processing
US5220640A (en) * 1990-09-20 1993-06-15 Motorola, Inc. Neural net architecture for rate-varying inputs
US5155801A (en) * 1990-10-09 1992-10-13 Hughes Aircraft Company Clustered neural networks
US5214747A (en) * 1990-12-24 1993-05-25 Eastman Kodak Company Segmented neural network with daisy chain control
US5105468A (en) * 1991-04-03 1992-04-14 At&T Bell Laboratories Time delay neural network for printed and cursive handwritten character recognition
US5293456A (en) * 1991-06-28 1994-03-08 E. I. Du Pont De Nemours And Company Object recognition system employing a sparse comparison neural network
US5226092A (en) * 1991-06-28 1993-07-06 Digital Equipment Corporation Method and apparatus for learning in a neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016519288A (ja) * 2013-05-02 2016-06-30 コンソーシアム・ピー・インコーポレーテッドConsortium P Incorporated 重複ニューラルネットワークに基づいたスケーラブルなリアルタイム位置検出
JP2021093181A (ja) * 2015-05-21 2021-06-17 グーグル エルエルシーGoogle LLC ニューラルネットワークプロセッサにおけるバッチ処理

Also Published As

Publication number Publication date
EP0595033A3 (en) 1994-11-09
US5586223A (en) 1996-12-17
EP0595033A2 (en) 1994-05-04

Similar Documents

Publication Publication Date Title
JP2663996B2 (ja) ニューラル・ネットワーク用の仮想ニューロコンピュータ・アーキテクチュア
JP6714690B2 (ja) 情報処理システム、情報処理システムの運用方法、および機械学習演算器
US9852006B2 (en) Consolidating multiple neurosynaptic core circuits into one reconfigurable memory block maintaining neuronal information for the core circuits
TWI515670B (zh) 用以強化學習之裝置、系統及電腦程式產品
US20130031040A1 (en) Hierarchical routing for two-way information flow and structural plasticity in neural networks
JPH0652132A (ja) 並列演算半導体集積回路装置およびそれを用いたシステム
JP7150998B2 (ja) 超伝導ニューロモルフィックコア
JPH0760428B2 (ja) 線形微分方程式を用いて接続の重みが生成されるような分散並列処理ネットワーク
JPWO2019049686A1 (ja) 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
JPWO2020092691A5 (ja)
JPH06203005A (ja) 高速区分化ニューラルネットワーク及びその構築方法
US5243688A (en) Virtual neurocomputer architectures for neural networks
JPH0784978A (ja) ニューラルネットワーク装置およびその学習方法
CN115699028A (zh) 模拟人工智能网络推理的逐行卷积神经网络映射的高效瓦片映射
TWI730452B (zh) 立體類神經網路系統
CN114626532B (zh) 基于地址读取数据的方法、装置、存储介质及电子装置
Zhao et al. Stochastic connection neural networks
Tsoi et al. Building MLP networks by construction
Blayo et al. Extension of cellular automata to neural computation: theory and applications
KR19980074455A (ko) 신경회로망 및 구현방법
Faure et al. A cellular architecture dedicated to neural net emulation
Domen et al. Implementation of Massive Artificial Neural Networks with Field-programmable Gate Arrays
Chiu et al. An architecture design using VLSI building blocks for dynamic programming neural networks
JP3126762B2 (ja) ニューラルネットワーク
Faure et al. A VLSI implementation of multilayered neural networks