JPH07121497A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH07121497A
JPH07121497A JP26847493A JP26847493A JPH07121497A JP H07121497 A JPH07121497 A JP H07121497A JP 26847493 A JP26847493 A JP 26847493A JP 26847493 A JP26847493 A JP 26847493A JP H07121497 A JPH07121497 A JP H07121497A
Authority
JP
Japan
Prior art keywords
neural network
averaging
input
input data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26847493A
Other languages
English (en)
Inventor
Takashi Kitaguchi
貴史 北口
Hiroyasu Mifune
博庸 三船
Shinichi Suzuki
伸一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP26847493A priority Critical patent/JPH07121497A/ja
Publication of JPH07121497A publication Critical patent/JPH07121497A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

(57)【要約】 【目的】 パルス密度型神経回路網に対するデータの持
つ過剰な情報を削減して学習効率を上げること。 【構成】 神経回路網6に入力する入力データベトクル
の要素毎の平均を算出して保持する平均化手段5と、こ
の平均化手段5に保持された値を閾値として入力データ
を2値化する2値化手段8とを有するものとした。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば、画像や音声等
の認識、ロボット等の適応制御、振動等の時系列信号の
予測制御、地震等の予測等のような各種運動の制御に適
用可能な、神経細胞を模倣したニューラルコンピュータ
等の信号処理装置に関する。
【0002】
【従来の技術】生体の情報処理の基本的な単位である神
経細胞(ニューロン)の機能を模倣し、さらに、この
「神経細胞模倣素子」(神経細胞ユニット)をネットワ
ークに構成することで、情報の並列処理を目指したの
が、いわゆるニューラルネットワークである。文字認識
や連想記憶、運動制御等、生体ではいとも簡単に行われ
ていても、従来のノイマン型コンピュータではなかなか
達成しないものが多い。生体の神経系、特に生体特有の
機能、即ち並列処理、自己学習等をニューラルネットワ
ークにより模倣して、これらの問題を解決しようとする
試みが盛んに行われている。
【0003】ここに、このようなニューラルネットワー
クをハードウエアにより作製する上で、デジタル型の一
つとして、ニューロン及びネットワーク内部の演算にパ
ルス列で表現された信号を扱うようにしたパルス密度型
で自己学習機能付きのニューラルネットワークの基本と
して、例えば、特開平4−111185号公報が本出願
人により提案されている。
【0004】この方式の概要について、以下に説明す
る。まず、この提案例のおけるニューロン素子及びニュ
ーラルネットワークのの基本的な考え方としては、 神経細胞ユニットに関する入力信号、出力信号、中
間信号、結合係数、教師信号、誤差信号などは全て、
“0”“1”の2値で表されたパルス列で表現する。 ネットワーク内部での信号の量は、パルス密度で表
す(ある一定時間内の“1”の数)。 神経細胞ユニット内での計算は、パルス列同士の論
理演算で表す。 結合係数のパルス列は神経細胞ユニット内のメモリ
上に格納する。 学習は、この結合係数のパルス列を書換えることで
実現する。 学習については、与えられた教師信号パルス列を元
に誤差を計算し、これに基づいて、結合係数パルス列を
変化させる。このとき、誤差の計算、結合係数の変化分
の計算も、全て、“0”“1”のパルス列の論理演算で
行う。 というものである。
【0005】このような前提の下、任意の神経細胞ユニ
ット内部における演算は、次の(1)〜(3)式で表さ
れる。
【0006】
【数1】
【0007】ここに、各変数は、“0”又は“1”の1
パルスを表している。yi はある神経細胞ユニットiか
らの入力パルス、yj はある神経細胞ユニットjからの
出力パルスである。また、Tij(+) は神経細胞ユニット
i,j間の結合が興奮性結合の場合の結合係数パルス、
ij(-) は神経細胞ユニットi,j間の結合が抑制性結
合の場合の結合係数パルスである。よって、yj が当該
神経細胞ユニットjの出力値となる。
【0008】次に、学習における信号演算処理について
説明する。この学習方法は、階層型ニューラルネットワ
ークで広く用いられている誤差逆伝播法(バックプロパ
ゲーション法=BP法)に準じたものである。基本的に
は、以下の(A)又は(B)により誤差信号を求め、次い
で、(C)の方法により結合係数の値を変化させる。
【0009】(A) 最終層における誤差信号 最終層の各神経細胞ユニットにおける誤差信号を出力信
号と教師信号とにより計算する。ここに、そのときの入
力に対して望ましい出力パルス、即ち、教師信号dj
してパルス列で与える。また、パルス密度表現によるた
め、+成分を表す信号δj(+)と、−成分を表す信号δ
j(-)との2種類を用いて誤差信号を表現する。即ち、こ
れらの正、負の誤差信号δj(+),δj(-)を論理式で表現
すると、各々(4)(5)式のようになる。このような誤差
パルスを基に結合係数を変化させることになる。
【0010】
【数2】
【0011】(B) 中間層における誤差信号 まず、上記の最終層の誤差信号を逆伝播させ、最終層と
その1つ前の層との結合係数だけでなく、さらにその前
の層の結合係数も変化させる。そのため、中間層におけ
る各神経細胞ユニットでの誤差信号を計算する必要があ
る。中間層のある神経細胞ユニットから、さらに1つ先
の層の各神経細胞ユニットへ信号を伝播させたのとは、
丁度逆の要領で1つ先の層の各神経細胞ユニットにおけ
る誤差信号を集めてきて、自己の誤差信号とする。ここ
に、yは1つの信号であるのに対して、δは正、負を表
す誤差信号として2種の信号を持ち、その両方の誤差信
号を考慮する必要があるので、結合係数Tの正、負(興
奮性と抑制性)に応じて2つの場合に分ける必要があ
る。
【0012】まず、興奮性結合の場合を説明する。この
場合、中間層のある神経細胞ユニットについて、1つ先
の層(例えば、最終層)のj番目の神経細胞ユニットで
の誤差信号δj(+)と、その神経細胞ユニットと自己との
結合係数Tij(+) のANDをとったもの(δj(+)∩ T
ij(+))を各神経細胞ユニットについて求め、さらに、
これら同士のORをとる{Σ(δj(+)∩ Tij(+))}。
これをこの神経細胞ユニットの誤差信号δi(+)とする。
【0013】同様に、1つ先の層の神経細胞ユニットの
誤差信号δj(-)と結合係数Tij(+)とのANDをとり
(δj(-)∩ Tij(+))、さらにこれら同士のORをとる
{Σ(δj(-)∩ Tij(+))}。これをこの神経細胞ユニ
ットの誤差信号δi(-)とする。
【0014】次に、抑制性結合の場合を説明する。この
場合、1つ先の層の神経細胞ユニットでの誤差信号δ
j(-)とその神経細胞ユニットと自己との結合係数T
ij(-) のANDをとり(δj(-)∩ Tij(-))、さらにこ
れら同士のORをとる{Σ(δj(-)∩ Tij(-))}。こ
れを、この神経細胞ユニットの誤差信号δi(+)とする。
【0015】また、1つ先の層の誤差信号δj(+)と結合
係数Tij(-) とのANDをとり(δj(+)∩ Tij(-))、
さらにこれら同士のORをとることにより{Σ(δj(+)
∩ Tij(-))}、同様に、この神経細胞ユニットの誤差
信号δi(+)とする。
【0016】さらに、この神経細胞ユニットの、興奮性
結合の誤差信号δi(+)と抑制性結合の誤差信号δi(+)
のORをとり、これをこのユニットの誤差信号δi(+)
する。同様に、興奮性結合の誤差信号δi(-)と抑制性結
合の誤差信号δi(-)とのORをとり、これをこのユニッ
トの誤差信号δi(-)とする。
【0017】以上をまとめると、(6)式に示すようにな
る。
【0018】
【数3】
【0019】(C) 誤差信号に基づく各結合係数の更新 変化させたい結合係数が属しているラインに対応する、
1つ前の層の神経細胞ユニットからの出力パルスyi
自己の神経細胞ユニットの誤差信号δj(+)又はδj(-)
のANDをとる(δj(+)∩yi、又は、δj(-)∩yi)。
このようにして得られた2つの信号を各々ΔTij(+)
ΔTij(-)とする。
【0020】そして、今度はこれらのΔTijを基に新し
いTijを求めるが、このTijは絶対値成分であるので、
元のTijが興奮性か抑制性かで場合分けする。興奮性の
場合、元のTijに対してΔTij(+)の成分を増やし、Δ
ij(-)の成分を減らす。逆に、抑制性の場合は元のT
ijに対しΔTij(+) の成分を減らし、ΔTij(-)の成分
を増やす。以上をまとめると、(7)式のようになる。
【0021】
【数4】
【0022】以上の学習則に基づいてネットワークの計
算をする。
【0023】
【発明が解決しようとする課題】上記提案例のようなパ
ルス密度型ニューラルネットワークによれば、構成がシ
ンプルであるためハードウエア化が容易であり、高速処
理も可能となる。しかし、このようなニューラルネット
ワークにあっても、その入力テータや教師データ等が過
剰な情報を有する等の理由から、その学習、認識をより
効率的に行うには改良の余地がある。
【0024】
【課題を解決するための手段】請求項1記載の発明で
は、神経回路網に入力する入力データベトクルの要素毎
の平均を算出して保持する平均化手段と、この平均化手
段に保持された値を閾値として入力データを2値化する
2値化手段とを有するものとした。
【0025】請求項2記載の発明では、神経回路網に入
力する教師データベクトルの要素毎の平均を算出して保
持する平均化手段と、この平均化手段に保持された値を
閾値として教師データを2値化する2値化手段とを有す
るものとした。
【0026】請求項3記載の発明では、請求項1記載の
発明と請求項2記載の発明とを組合せて構成した。
【0027】請求項4記載の発明では、神経回路網に入
力する学習用入力データベトクルとこの学習用入力デー
タベクトルを2値化した時の2値データとの距離を計数
して保持する計数手段と、この計数手段に保持された値
を要素毎に平均化する平均化手段と、この平均化手段に
より平均化された値だけ入力データを加算する加算手段
とを有するものとした。
【0028】請求項5記載の発明では、神経回路網に入
力する教師データベクトルとこの教師データベクトルを
2値化した時の2値データとの距離を計数して保持する
計数手段と、この計数手段に保持された値を要素毎に平
均化する平均化手段と、この平均化手段により平均化さ
れた値だけ前記神経回路網からの出力データを加算する
加算手段とを有するものとした。
【0029】請求項6記載の発明では、請求項4記載の
発明と請求項5記載の発明とを組合せて構成した。
【0030】
【作用】請求項1記載の発明においては、平均化手段に
より算出保持された神経回路網に入力する入力データベ
トクルの要素毎の平均値を閾値として2値化手段により
入力データを2値化するので、過剰な情報が削減された
ものとなり、神経回路網を効率よく処理させることがで
き、かつ、教師データとしては多値のものを用い得るも
のとなる。
【0031】請求項2記載の発明においては、平均化手
段により算出保持された神経回路網に入力する教師デー
タベトクルの要素毎の平均値を閾値として2値化手段に
より教師データを2値化するので、過剰な情報が削減さ
れたものとなり、神経回路網を効率よく処理させること
ができ、かつ、入力データとしては多値のものを用い得
るものとなる。
【0032】請求項3記載の発明においては、入力デー
タと教師データとをともに2値化するので、神経回路網
の学習効率を極めて高めることができる。
【0033】請求項4記載の発明においては、神経回路
網に入力する学習用入力データを、計数手段、平均化手
段及び加算手段を通して2値化するので、過剰な情報が
削減されたものとなる上に多値の教師データを利用し得
ることにより、神経回路網を効率よく学習させることが
でき、学習後には多値入力を用い得るものとなる。
【0034】請求項5記載の発明においては、神経回路
網に入力する教師データを、計数手段、平均化手段及び
加算手段を通して2値化するので、過剰な情報が削減さ
れたものとなる上に多値の入力データを利用し得ること
により、神経回路網を効率よく学習させることができ
る。
【0035】請求項6記載の発明においては、学習用入
力データと教師データとをともに2値化することによ
り、過剰な情報が削減されたものとなり、神経回路網の
学習効率を極めて高めることができ、学習後には多値入
力を用い得るものとなる。
【0036】
【実施例】請求項1記載の発明の一実施例を図1に基づ
いて説明する。本実施例は、前述した提案例に示される
ようなパルス密度型ニューラルネットワーク(神経回路
網)における入力データを、前処理として、後述するよ
うな所定の閾値を用いて2値化することを基本とする。
即ち、入力データベクトルの要素X(ただし、0≦X≦
1)を、閾値T(ただし、0≦T≦1)と比較し、閾値
Tより大きければ“1”、閾値Tより小さければ“0”
とすることにより2値化を行うものである。
【0037】ここに、このような閾値Tの決定方法につ
いて説明する。まず、入力データベクトルの個数をn、
1個の入力データベクトルの要素をmとすると、入力デ
ータは、 (X1,1,X1,2,…,X1,m) (X2,1,X2,2,…,X1,m) … (Xn,1,Xn,2,…,Xn,m) として表される。
【0038】そして、各要素Xi 毎に閾値Ti (ただ
し、i=1,2,…,m)を(8)式の通りに定める。
【0039】
【数5】
【0040】(8)式は、閾値Ti が各要素Xi の平均
値であることを示している。
【0041】図1はこの方法を実現するための構成例を
示すものである。まず、トレーニングデータである要素
iを格納するn段のシフトレジスタ1をm個用意して、
全要素を格納する。そして、各シフトレジスタ1からの
出力を順次加算器2に出力して格納されたn個の要素の
和を求める。次いで、加算器2の出力を乗算器3に出力
して1/nを乗ずる。この乗算器3による演算結果をラ
ッチ4に保持する。このラッチ4に保持された値が閾値
となる。また、これらの加算器2、乗算器3及びラッチ
4が平均化手段5を構成するものとなる。
【0042】一方、ニューラルネットワーク(神経回路
網)6を学習させる時、選択器7を経由した前記シフト
レジスタ1からの入力データと、前記ラッチ4に保持さ
れた閾値とを比較器(2値化手段)8において大小比較
し、上記のように、閾値より大きければ“1”、閾値よ
り小さければ“0”とする2値化を行って、ニューラル
ネットワーク6に入力させる。
【0043】このようなトレーニングデータ後の認識過
程では、入力データは入力端子9より入力される。即
ち、選択器7によりトレーニングデータからの信号線を
切離し、入力端子9を接続する。
【0044】よって、本実施例によれば、ニューラルネ
ットワーク6に入力データを入力させる前処理として平
均化手段5と比較器8とを用いて2値化してから入力さ
せるので、入力データの持つ過剰な情報が削減された形
でニューラルネットワーク6に与えれて処理に供される
ので、このニューラルネットワーク6を効率よく処理さ
せることができる。この場合、教師データとしては多値
情報をそのまま用い得るものとなる。
【0045】なお、図1に示した構成において、入力デ
ータと教師データとを置換えれば、請求項2記載の発明
に相当するものとなる。即ち、パルス密度型ニューラル
ネットワーク6における教師データを、前処理として、
所定の閾値を用いて2値化するものであり、ニューラル
ネットワーク6に入力する教師データベクトルの要素毎
の平均を平均化手段5より算出して保持するとともに、
保持された値を閾値として比較器7において教師データ
を2値化すればよい。
【0046】また、これらに準じて、入力データ、教師
データの双方について、このような2値化処理を行って
ニューラルネットワーク6に入力させるようにしてもよ
い(請求項3記載の発明に相当する)。これによれば、
ニューラルネットワーク6における学習効率が極めて高
くなる。
【0047】つづいて、請求項4記載の発明の一実施例
を図2により説明する。本実施例で扱う入力データは、
“0”から“1”までにおいて量子化されているものと
する。図2において、入力データは加算器11において
1段階だけインクリメントされた後、比較器12によっ
て閾値“1”と大小比較される。ここに、加算器11で
インクリメントされた入力データが閾値“1”以下であ
れば比較器12はカウンタ13をカウントアップさせる
とともに、制御器14からの加算命令により加算器11
をさらにインクリメント動作させる。そして、インクリ
メントされた入力データが閾値“1”を越えるまでカウ
ンタ13をカウントアップさせる。
【0048】同様に、同図中の右側に示すように、加算
器11を減算器15に置換えた構成により、入力データ
をデクリメントし、これが“0”になるまでの回数をカ
ウンタ16によりカウントする。即ち、入力データは減
算器15において1段階だけデクリメントされた後、比
較器17によって閾値“0”と大小比較される。ここ
に、減算器15でデクリメントされた入力データが閾値
“0”以上であれば比較器17はカウンタ16をカウン
トダウンさせるとともに、制御器18からの減算命令に
より減算器13をさらにデクリメント動作させる。そし
て、デクリメントされた入力データが閾値“0”に達す
るまでカウンタ16をカウントダウンさせる。
【0049】よって、これらのカウンタ13,16が学
習用入力データベトクルとこの学習用入力データベクト
ルを2値化した時の2値データとの距離を計数して保持
する計数手段を構成する。
【0050】このように得られる加算側のカウンタ13
のカウント値と、減算側のカウンタ16のカウント値と
を、比較器19で大小比較し、カウント値の小さいほう
のカウンタ13又は16のカウント値を選択器20を通
してメモリ21に格納する。この場合、加算側のカウン
タ13であれば、正(+)の符号付きで格納され、減算
側のカウンタ16であれば、負(−)の符号付きで格納
される。
【0051】以上の処理操作を全トレーニングデータの
全要素に対して実施する。
【0052】また、ニューラルネットワークの学習時に
は、このようなトレーニングデータの各データ要素は、
“1”又は“0”の何れかに近いほうの値に置換えて入
力する。
【0053】このような学習後のニューラルネットワー
クに、入力データを入力する場合には、特に図示しない
が、前記メモリ21に格納された値(カウンタ13,1
6の何れかのカウント値)は、前記実施例で説明した場
合と同様に、平均化手段によって各要素毎に平均値を求
め、保持し、この平均値の分(回数)だけ入力データを
加算して、ニューラルネットワークに入力させる。
【0054】よって、本実施例によれば、学習用入力デ
ータを2値化してニューラルネットワークに入力させる
ので、過剰な情報が削減されたものとなり、かつ、教師
データとしては多値のものを利用し得るので、ニューラ
ルネットワークを効率よく学習させることができる。ま
た、学習後には入力データにも多値のものを用いること
ができる。
【0055】なお、図2に示した構成において、学習用
入力データに代えて、教師データ(或いは出力データ)
を用いるようにすれば、請求項5記載の発明に相当する
ものとなる。即ち、学習用入力データに代えて、教師デ
ータを用い、図2で説明した場合と同様の処理を経てメ
モリ21に格納する値を算出し、図2の場合とは逆の
正,負の符号を付けて格納すればよい。学習時には上記
のようにして教師データを2値化する。学習後には、ニ
ューラルネットワークからの出力値をメモリ21に格納
された値の分だけ加算する。
【0056】さらに、これらに準じて、学習用入力デー
タ、教師データの双方について、このような処理を行っ
てから、ニューラルネットワークに入力させるようにし
てもよい(請求項6記載の発明に相当する)。これによ
れば、ニューラルネットワークにおける学習効率が極め
て高くなる上に、学習後には、多値入力を用い得るもの
となる。
【0057】
【発明の効果】請求項1記載の発明によれば、神経回路
網に入力する入力データベトクルの要素毎の平均を算出
して保持する平均化手段と、この平均化手段に保持され
た値を閾値として入力データを2値化する2値化手段と
を有するものとし、入力データを2値化するようにした
ので、過剰な情報を削減し、神経回路網を効率よく処理
させることができ、かつ、教師データとして多値のもの
を用いることができる信号処理装置を提供できる。
【0058】請求項2記載の発明によれば、神経回路網
に入力する教師データベクトルの要素毎の平均を算出し
て保持する平均化手段と、この平均化手段に保持された
値を閾値として教師データを2値化する2値化手段とを
有するものとし、教師データを2値化するようにしたの
で、過剰な情報を削減し、神経回路網を効率よく処理さ
せることができ、かつ、入力データとして多値のものを
用いることができる信号処理装置を提供できる。
【0059】請求項3記載の発明によれば、これらの請
求項1記載の発明と請求項2記載の発明とを組合せて構
成し、入力データと教師データとをともに2値化するよ
うにしたので、神経回路網の学習効率を極めて高めるこ
とができる。
【0060】請求項4記載の発明によれば、神経回路網
に入力する学習用入力データベトクルとこの学習用入力
データベクトルを2値化した時の2値データとの距離を
計数して保持する計数手段と、この計数手段に保持され
た値を要素毎に平均化する平均化手段と、この平均化手
段により平均化された値だけ入力データを加算する加算
手段とを有するものとし、学習用入力データを2値化す
るようにしたので、過剰な情報を削減できる上に多値の
教師データを利用することができるため、神経回路網を
効率よく学習させることができ、かつ、学習後には多値
入力を用いることができる信号処理装置を提供できる。
【0061】請求項5記載の発明によれば、神経回路網
に入力する教師データベクトルとこの教師データベクト
ルを2値化した時の2値データとの距離を計数して保持
する計数手段と、この計数手段に保持された値を要素毎
に平均化する平均化手段と、この平均化手段により平均
化された値だけ前記神経回路網からの出力データを加算
する加算手段とを有するものとし、教師データを2値化
するようにしたので、過剰な情報を削減できる上に多値
の入力データを利用することができるため、神経回路網
を効率よく学習させることができる信号処理装置を提供
できる。
【0062】請求項6記載の発明によれば、請求項4記
載の発明と請求項5記載の発明とを組合せて構成し、学
習用入力データと教師データとをともに2値化するよう
にしたので、過剰な情報を削減できるため、神経回路網
の学習効率を極めて高めることができ、かつ、学習後に
は多値入力を用いることができる信号処理装置を提供で
きる。
【図面の簡単な説明】
【図1】請求項1記載の発明の一実施例を示すブロック
図である。
【図2】請求項4記載の発明の一実施例を示すブロック
図である。
【符号の説明】 5 平均化手段 6 神経回路網 8 2値化手段 13,16 計数手段

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 神経回路網に入力する入力データベトク
    ルの要素毎の平均を算出して保持する平均化手段と、こ
    の平均化手段に保持された値を閾値として入力データを
    2値化する2値化手段とを有することを特徴とする信号
    処理装置。
  2. 【請求項2】 神経回路網に入力する教師データベクト
    ルの要素毎の平均を算出して保持する平均化手段と、こ
    の平均化手段に保持された値を閾値として教師データを
    2値化する2値化手段とを有することを特徴とする信号
    処理装置。
  3. 【請求項3】 神経回路網に入力する入力データベトク
    ルの要素毎の平均を算出して保持する第1の平均化手段
    と、この第1の平均化手段に保持された値を閾値として
    入力データを2値化する第1の2値化手段と、前記神経
    回路網に入力する教師データベクトルの要素毎の平均を
    算出して保持する第2の平均化手段と、この第2の平均
    化手段に保持された値を閾値として教師データを2値化
    する第2の2値化手段とを有することを特徴とする信号
    処理装置。
  4. 【請求項4】 神経回路網に入力する学習用入力データ
    ベトクルとこの学習用入力データベクトルを2値化した
    時の2値データとの距離を計数して保持する計数手段
    と、この計数手段に保持された値を要素毎に平均化する
    平均化手段と、この平均化手段により平均化された値だ
    け入力データを加算する加算手段とを有することを特徴
    とする信号処理装置。
  5. 【請求項5】 神経回路網に入力する教師データベクト
    ルとこの教師データベクトルを2値化した時の2値デー
    タとの距離を計数して保持する計数手段と、この計数手
    段に保持された値を要素毎に平均化する平均化手段と、
    この平均化手段により平均化された値だけ前記神経回路
    網からの出力データを加算する加算手段とを有すること
    を特徴とする信号処理装置。
  6. 【請求項6】 神経回路網に入力する学習用入力データ
    ベトクルとこの学習用入力データベクトルを2値化した
    時の2値データとの距離を計数して保持する第1の計数
    手段と、この第1の計数手段に保持された値を要素毎に
    平均化する第1の平均化手段と、この第1の平均化手段
    により平均化された値だけ入力データを加算する第1の
    加算手段と、前記神経回路網に入力する教師データベク
    トルとこの教師データベクトルを2値化した時の2値デ
    ータとの距離を計数して保持する第2の計数手段と、こ
    の第2の計数手段に保持された値を要素毎に平均化する
    第2の平均化手段と、この第2の平均化手段により平均
    化された値だけ前記神経回路網からの出力データを加算
    する第2の加算手段とを有することを特徴とする信号処
    理装置。
JP26847493A 1993-10-27 1993-10-27 信号処理装置 Pending JPH07121497A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26847493A JPH07121497A (ja) 1993-10-27 1993-10-27 信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26847493A JPH07121497A (ja) 1993-10-27 1993-10-27 信号処理装置

Publications (1)

Publication Number Publication Date
JPH07121497A true JPH07121497A (ja) 1995-05-12

Family

ID=17459008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26847493A Pending JPH07121497A (ja) 1993-10-27 1993-10-27 信号処理装置

Country Status (1)

Country Link
JP (1) JPH07121497A (ja)

Similar Documents

Publication Publication Date Title
Irwin et al. Neural network applications in control
Ma et al. Facial expression recognition using constructive feedforward neural networks
CN113905391B (zh) 集成学习网络流量预测方法、系统、设备、终端、介质
US5630023A (en) Signal processor
KR20190099930A (ko) 완전 연결 네트워크의 데이터 입력 및 출력을 제어하는 방법 및 장치
Skatchkovsky et al. Spiking neural networks—Part II: Detecting spatio-temporal patterns
Ku et al. A study of the Lamarckian evolution of recurrent neural networks
Sinkov et al. Neural networks in data mining
WO1995000920A1 (en) An artificial network for temporal processing
CN113239897A (zh) 基于时空特征组合回归的人体动作评价方法
CN112784909B (zh) 基于自注意力机制和自适应子网络的图像分类识别方法
Wang Multi-associative neural networks and their applications to learning and retrieving complex spatio-temporal sequences
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
CN111788582A (zh) 电子设备及其控制方法
CN115546556A (zh) 用于图像分类的脉冲神经网络的训练方法
JPH07121497A (ja) 信号処理装置
Lin et al. Collaborative Framework of Accelerating Reinforcement Learning Training with Supervised Learning Based on Edge Computing
CN113239974A (zh) 一种可连续学习的快速图像数据分类方法
TW202030651A (zh) 應用於深度學習之預特徵萃取方法
JPH05290014A (ja) 信号処理装置
Tang et al. A model of neurons with unidirectional linear response
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
CN117592537A (zh) 一种动态场景下的图数据表示学习方法
Ryndin et al. Neuromorphic Electronic Module Based on the Use of the Memristor Electronic-Component Base for Image Recognition
JP3255425B2 (ja) 信号処理方法