JPH05181829A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH05181829A
JPH05181829A JP4120638A JP12063892A JPH05181829A JP H05181829 A JPH05181829 A JP H05181829A JP 4120638 A JP4120638 A JP 4120638A JP 12063892 A JP12063892 A JP 12063892A JP H05181829 A JPH05181829 A JP H05181829A
Authority
JP
Japan
Prior art keywords
memory
learning
signal
neuron
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4120638A
Other languages
English (en)
Inventor
Toshiaki Wada
利昭 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP4120638A priority Critical patent/JPH05181829A/ja
Publication of JPH05181829A publication Critical patent/JPH05181829A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 ランダムノイズの影響が小さく、かつ、並列
分散的に高速の信号処理が可能な信号処理装置を提供す
る。 【構成】 複数の入力パタ−ンを記憶する第1のメモリ
11と、この第1のメモリ11と同様に複数の入力パタ
ーンを記憶する第2のメモリ12と、第1のメモリ11
に記憶されたパターンによって前記ニューロンユニット
群を学習する手段15と、学習されたニューロン群に対
して第2のメモリー12に記憶されているパターンによ
って学習する手段15を有する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クによる信号処理に関するものである。
【0002】
【従来の技術】従来、階層型ニューラルネットワークに
よって信号処理を行なう場合には、処理したい信号の特
徴を含んだサンプルデータを用いて、そのサンプルデー
タ信号に対して、望ましい出力信号が得られるように、
例えば一般化デルタルール(「PDPモデル・認知科学
とニューロン回路網の探索、第8章」D.E.ラメルハ
ート,J.L.マクレランド,PDPリサーチグループ
著、甘利俊一監訳、産業図書(1989))などによっ
て、各ニューロンユニットの重みや閾値が求められてい
る。そして、上記のようにして求められた重みや閾値を
有するニューロンユニットによって構成されたニューラ
ルネットワークに、処理対象である信号を入力すること
によって、希望する信号処理を実行している。しかしな
がら、入力信号にホワイトノイズのようなランダムなノ
イズが混入し、ニューラルネットワークの出力として得
られる信号が、入力のノイズの影響を受けたくない場合
であっても、上記の方法で、サンプルデータとしてノイ
ズを含んだデータによって各ニューロンユニットの重み
や閾値パラメータを求めることは、ランダムノイズには
確率的な特徴が無いため有効ではない。そこで例えば画
像予測修正装置(特開平2−284590号公報)にお
いては、画像信号をニューラルネットワークに入力する
以前に、ランダムノイズを減少させるようにフィルタリ
ング処理を行なっている。
【0003】
【発明が解決しようとする課題】上記のように階層型ニ
ューラルネットワークによって信号処理を行なう場合、
入力信号に混入したランダムノイズによる影響を少なく
するには、信号がニューラルネットワークに入力する以
前にフィルタリング処理を行なう。ところがフィルタリ
ング処理では、元々の信号に含まれる高周波成分が減少
され、フィルタリング後の波形が歪むことになる。ま
た、出力層にも非線形な飽和単調関数型のニューロンユ
ニットで構成される階層型ニューラルネットワークで
は、出力信号の大きさによってノイズの影響が異なる。
【0004】本発明は、上記のような課題に着目してな
されたものであり、その目的とするところは、ランダム
ノイズの影響が小さく、かつ、並列分散的に高速の信号
処理が可能な信号処理装置を提供することにある。
【0005】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明の信号処理装置は、複数の入力信号パター
ンを記憶する第1のメモリと、出力層を構成するニュー
ロンユニットが線形ニューロンユニットである階層型ニ
ューラルネットワークと、前記第1のメモリに記憶され
た信号パターンと、第2のメモリに記憶されている信号
パターンにより前記ニューラルネットワークを学習する
手段と、前記ニューラルネットワークの出力層の1つ前
の層に属するニューロンユニットの出力を記憶する第3
のメモリと、この第3のメモリに記憶された信号パター
ンと、前記第2のメモリに記憶された信号パターンによ
り、前記階層型ニューラルネットワークの出力層に属す
る線形ニューロンユニットの重み及び閾値パラメータを
決定する決定手段とを具備する。
【0006】
【作用】すなわち、本発明においては、第1のメモリに
記憶された入力信号パターンと、第2のメモリに記憶さ
れている前記入力信号パターンに対応する信号パターン
により、階層型ニューラルネットワークを学習して、出
力層に属する以外のニューロンユニットの重み及び閾値
パラメータを求め、次に、前記の学習が完了した時点で
の、前記第1のメモリに記憶されているパターンに対す
る出力層の1つ前の層のニューロンユニットの出力を第
3のメモリに記憶し、この第3のメモリに記憶されたデ
ータと、第2のメモリに記憶されているデータによって
出力層に属する各線形ニューロンユニットに属する重み
及び閾値パラメータを決定する。そして、以上のように
求められた各ニューロンユニットの重み及び閾値パラメ
ータを有するニューラルネットワークによって信号処理
を実行する。
【0007】
【実施例】まず、本発明の一実施例に係る信号処理装置
の概略を説明する。
【0008】本実施例の信号処理装置は、複数の入力パ
ターンを記憶する第1のメモリと、出力層を構成するニ
ューロンユニットが、線形ニューロンユニットである階
層型ニューラルネットワークと、前記第1のメモリに記
憶されたパターン信号と、第2のメモリに記憶されてい
る教師パターン信号により前記ニューラルネットワーク
を学習する手段と、前記ニューラルネットワークの出力
層の1つ前の層に属するニューロンユニットの前記第1
のメモリに記憶されたパターンに対する出力を記憶する
第3のメモリと、前記第3のメモリに記憶された、出力
層の1つ前の層の出力信号と、第2のメモリに記憶され
ている教師パターン信号により、前記ニューラルネット
ワークの出力層に属するニューロンユニットの重みおよ
び閾値パラメータを決定する決定手段を有する。
【0009】上記の構成により入力に含まれるランダム
ノイズの影響が小さい信号処理装置が実現できる理論的
背景を説明する。信号処理を実現するニューラルネット
ワークは、処理後の信号に何らかの確率的なかたよりが
ない限り、通常、線形ニューロンユニットを用いる。
今、r個の線形ニューロンユニットが並列接続されたニ
ューロンユニット群を考える(図7)。入力はn次元ベ
クトルとし、この入力ベクトルを x=[X1 ,X2 ,…,Xn T (A−1)
【0010】で表わす。(A−1)式の括弧の右上のT
はベクトル又は行列の転置を表わす。学習パターン数は
mとする。図7の各線形ニューロンユニット30a〜3
0dは独立しているので、説明を簡単にするため、1個
の線形ニューロンユニット30cについて説明する。ニ
ューロンの重みベクトルを W=[W1 ,…,Wn T とし、 (A−2) 学習マトリックスを X=[x1 ,x2 ,…,xm T (A−3) とする。上記学習マトリックスXに対する線形ニューロ
ンユニットの出力yは、 y=XT W (A−4) となる。ここでy=[y1 ,…,ym T である。一
方、学習ベクトル{x1 ,…,xm }に対する線形ニュ
ーロンユニットの望ましい出力dを d=[d1 ,…,dm T (A−5) とする。また、学習ベクトル{x1 ,…,xm }に対す
る線形ニューロンユニット30cの出力の二乗誤差を E=(y−d)2 /2 (A−6)
【0011】で定義する。学習をδルール学習法とよば
れる、Eを小さくするようにWを最急降下法により変化
させる。すなわち、k+1学習サイクル目における重み
W(k+1)は、k学習サイクル目の重みW(k)によ
って
【0012】
【数1】 で表わさせる。ここでEの偏微分は次式で表わされ、ε
は学習係数と呼ばれるものである。
【0013】
【数2】 また、EのWi による偏微分は次のようになる。
【0014】
【数3】 ここでxjiは学習ベクトルxj のi番目の要素である。
式(A−8)をベクトル形式で書くと、
【0015】
【数4】 と表わさせる。ここで式(A−10)を式(A−7)に
代入すると、 W(k+1)=W(k)−εXXT W(k)−εXd (A−11) となる。学習マトリックスXを特異値分解すると以下の
ようになる。
【0016】
【数5】 ここでRは学習マトリックスXのランクであり、R≦
n,R≦mである。また{λi }は負でない値であり、
λ1 ≧λ2 ≧…≧λR >0となるように大きい順に並べ
られている。{Ui }は XXT i =λi 2 i (A−13) を満たす固有ベクトルであり、{Vi }は XT XVi =λi 2 i (A−14) を満たす固有ベクトルである。式(A−12)より以下
の関係が導かれる。 XT i =λi i (i=1,…,R) XT i =0 (i=R+1,…,n) XT i =λi i (i=1,…,R) XVi =0 (i=R+1,…,m) (A−15) W(k)を{Ui }、dを{Vi }で展開すると、
【0017】
【数6】 ここで、式(A−16)を式(A−11)に代入すると
次式が得られる。
【0018】
【数7】 さらに{Ui }の正規直交性より、 α1 (k+1)=(1−ελi 2 )αi (k)+εβi λi (i=1,…,R) αi (k+1)=αi (k) (i=R+1,…,n) (A−18) となる。式(A−18)の上の式の両辺より α=(1−ελi 2 )α+εβi λi (A−19) で定義されるαを引くと、 αi (k+1)−α=(1−ελi 2 )(αi (k)−α) (i=1,…,R) (A−20) となる、式(A−20)は、αi (k)−αが、公比
(1−ελi 2 )である等比級数であることを示してい
る。よって αi (k)−α=(αi (0)−α)(1−ελi 2 k (A−21) となる。ここでαi (0)は、式(A−16)で定義さ
れた重みの初期値のi番目の展開係数である。α=βi
/λi であることを考慮すると、 αi (k)=βi /λi +(αi (0)−βi /λi )(1−ελi 2 k (A−22) 式(A−22)は|1−ελi 2 |<1.0の時収束
し、 αi (∞)=βi /λi (i=1,2,…,R) (A−23) となる。式(A−18)よりαi (i=R+1,…,
n)は更新されないので αi (∞)=αi (0) (i=R+1,…,n) (A−24) ここでαi (∞)は、式(A−16)による展開係数の
i番目の要素の収束値である。よって、デルタルール学
習による重みの収束値W(∞)は
【0019】
【数8】
【0020】式(A−25)の第1項は、αi (0)を
含んでいないので重みの初期値に依存しない。学習ベク
トル{xi }と、それぞれの学習ベクトルに対する望ま
しい出力{di }にのみ依存する。一方、式(A−2
5)の第2項はδルール学習では学習できない項であ
る。
【0021】次に入力ベクトルxに対する線形ニューロ
ンユニット30cの出力をy,xにノイズnが加わった
場合の線形ニューロンユニット30cの出力をy′とす
ると 、 y=xT W (A−26) y′=(x+n)T W (A−27) また、線形ニューロンユニットの出力の分散を V(y)=<|y′−y|2 > (A−28) で定義する。ここで<・>は集合平均を表わす。式(A
−26)および式(A−27)を式(A−28)に代入
して、 V(y)=WT <nnT >W (A−29) ホワイトノイズの場合には、 <nnT >=σ2 n (A−30) ここでσ2 はノイズnの分散、In はn×nの単位行列
を表わす。式(1−16)を用いてWを{Ui }により
展開すると、
【0022】
【数9】 となる。分散V(y)を最小とする条件で式(A−2
5)の第2項の展開係数αi を求めるには、式(A−3
1)を偏微分してその偏微分値を0とすればよい。
【0023】
【数10】 よってαi =0となる。すなわち、
【0024】
【数11】 一方、学習後の二乗誤差Eは式(A−25)を式(A−
6)に代入して求まる。
【0025】
【数12】 式(A−34)によると、R=mの時にEが0となる。
通常Eが0となるように学習するのであるからR=mで
ある。よって
【0026】
【数13】
【0027】学習後の重みが式(A−35)となるに
は、全ての重みの初期値を0として学習すればよい。な
ぜならば、全ての重みが0の場合には、式(A−25)
の右辺の第2項の全ての展開係数αi (0)が0となる
からである。
【0028】以上の理論的説明で明らかなように、出力
層が線形ニューロンユニットを有するニューラルネット
ワークの場合には、まず全体のニューラルネットワーク
を学習し、次に出力層のみ全体のニューロンユニットの
結合を0として学習すれば、ホワイトノイズに対する出
力の分散を最小にすることができる。すなわち、信号処
理においてランダムノイズの影響が小さくなる。図1は
第1の実施例に係る信号処理装置の構成図である。
【0029】本実施例による信号処理装置では、学習モ
ードと実行モードの2つのモードが存在する。学習モー
ドでは、メモリA1の学習信号データ、メモリB5の教
師信号データ及びメモリC4の信号データを用いて、決
定手段としての演算器3により、階層型ニューラルネッ
トワーク2(以下、ニューラルネットワークと呼ぶ)の
各ニューロンユニットの重みパラメータと閾値パラメー
タを決定する。 実行モードでは、学習モードによって
決定された重みパラメータと閾値パラメータを有するニ
ューラルネットワーク2により信号処理を実行する。
【0030】以下両モードについて詳しく解説するが、
まず、実行モードについて説明する。すでに、学習モー
ドを実行して、ニューラルネットワーク2の各ニューロ
ンユニットの重みパラメータと閾値パラメータが決定さ
れているものとする。
【0031】入力信号は、ニューラルネットワーク2に
入力する。図2は本実施例におけるニューラルネットワ
ーク2の詳細な構成を示したものである。ニューロンユ
ニット10a〜10cが入力層を構成し、ニューロンユ
ニット13a〜13cが出力層を構成する。入力層のユ
ニット10a〜10cは、入力した信号をそのまま次の
層のニューロンユニットに分配する端子の役目を果たす
だけである。ニューロンユニット11a〜11cは第1
番目の中間層を構成し、ニューロンユニット12a〜1
2cは最後の中間層を構成する。中間層の数及び各中間
層に属するニューロンユニットの数は、このニューラル
ネットワークで実行する処理内容によって決められる。
出力層のニューロンユニットは後述する線形ニューロン
ユニットであり、全ての中間層のニューロンユニット
は、後述する非線形ニューロンユニットである。図2に
示すように、ニューロンユニット間の結合は、入力層か
ら出力層へ向って、隣り合う層のニューロンユニット間
で結合している。本実施例の各ニューロンユニット11
a〜13cは式(1)の計算を実行する。
【0032】
【数14】
【0033】xi (i=1〜n)はニューロンユニット
のi番目の端子への入力信号を表わし、Wi は前記i番
目の端子の結合の重みを表わす。θはニューロンユニッ
トの閾値を表わし、yはニューロンユニットの出力を表
わす。nは入力端子の数である。fは、線形ニューロン
の場合は、 f(x)=x (2) であり、非線形ニューロンの場合は、式(3)で示すシ
グモイド関数である。 f(x)=1/(1+e-x) (3)
【0034】各ニューロンユニット11a〜12c及
び、13a〜13cのブロック図を図3のニューロンユ
ニット20として示す。ニューロンユニット20の各入
力端子に並列に入力した信号はそれぞれメモリ22a〜
22cに記憶されている各入力端子の結合の重みの値
と、乗算器23a〜23cにより積が計算される。すな
わち、乗算器23aは、第1番目の入力端子に入力した
信号の値と、メモリ22aに記憶されている第1番の入
力端子の結合の重みの値との積を計算する。残りの入力
端子に入力する信号についても第1番目の入力端子に入
力した信号と同様な処理が並列的に実行される。各入力
端子の結合の重みの値が乗ぜられた入力信号は、加算器
24によって全ての入力端子にわたって同時に足し合わ
され、同時にメモリ25に記憶されているニューロンユ
ニットの閾値が引かれる。すなわち、加算器24の出力
は、式(1)の
【0035】
【数15】
【0036】を計算した結果となる。加算器24の出力
は変換器26へ送られる。線形ニューロンユニット13
a〜13cの場合には変換器26は、この変換器26に
入力した信号をそのままニューロンユニットの出力とし
て出力する。一方、非線形ニューロンユニット11a〜
12cの場合には、変換器26は、加算器24より送ら
れてきた信号に対して、メモリ27に記憶されている式
(3)のxとf(x)との対応関係よりシグモイド関数
による変換が実行され、変換結果が非線形ニューロンユ
ニットの出力として出力する。すなわち、非線形ニュー
ロンユニットでは式(1)が実行されたことになる。
【0037】ニューラルネットワーク2に入力した信号
は、入力層のユニット10a〜10cによって第1番目
の中間層のニューロンユニット11a〜11cにそのま
ま分配される。第1番目の中間層のニューロンユニット
11a〜11cは、入力ユニット10a〜10cから送
られてきた各入力信号に対して式(1)を並列的に実行
し、実行結果を第2番目の中間層の全てニューロンユニ
ットに送る。第2番目の中間層の各ニューロンユニット
では、第1番目の中間層のニューロンユニットが行なっ
たのと同様の処理が、第1番目の中間層のニューロンユ
ニットから送られてきた信号に対して実行され、実行結
果が第3番目の中間層の全てのニューロンユニットに送
られる。第1番目あるいは第2番目の中間層で行なわれ
た処理が、第3番目以後の中間層についてもくり返され
る。最後の中間層の各ニューロンユニット12a〜12
cの出力は、出力層の全てのニューロンユニット13a
〜13cに送られる。出力層の各ニューロンユニット1
3a〜13cは、出力層から送られてきた信号に対し
て、式(4)の処理を実行して、ニューラルネットワー
ク2の出力として出力する。ニューラルネットワーク2
の出力が、本実施例による信号処理装置で処理された出
力である。以下に学習モードについて説明する。
【0038】学習モードにおいては、まず処理対象のサ
ンプル信号データを所定個数メモリA1に取り込み記憶
する。メモリB5には、前記メモリA1に取り込まれた
サンプル信号データ(学習データとも言う)と同数の教
師データが記憶される。この教師データは、サンプル信
号データに対して、外部のホストコンピュータなどによ
り、ニューラルネットワーク2に実行させるのと同じ処
理を施した信号データである。次に、以下に述べる2段
階の学習過程によってニューラルネットワーク2の各ニ
ューロンユニット11a〜13cの結合の重みと閾値を
決定する。
【0039】第1段階では、前記メモリA1の学習デー
タと前記メモリB5の教師データにより一般化デルタル
ール(「PDPモデル・認知科学とニューロン回路網の
探索、第8章」D.E.ラメルハート,J.L.マクレ
ランド,PDPリサーチグループ著、甘利俊一監訳、産
業図書(1989))などによって中間層の各ニューロ
ンユニット11a〜12cの結合の重みと閾値が演算器
3により求められる。
【0040】前記メモリA1の各サンプル信号データを
学習ベクトルxp (p=1〜m)で表わす。この学習ベ
クトルの次元数は、入力信号のサンプル点の数であり、
ニューラルネットワーク2の入力層のユニット数に一致
する。mは学習ベクトルの数である。一般化デルタルー
ルでは、
【0041】
【数16】
【0042】が減少するように、中間層と出力層の各ニ
ューロンユニット11a〜13cの重みと閾値を最急降
下法により変化させていく。ここでyp (p=1〜m)
は、学習ベクトルをニューラルネットワーク2に入力し
た時に得られるニューラルネットワーク2の出力ベクト
ルである。dp (p=1〜m)は、前記メモリB5に記
憶されている、学習ベクトルxp に対応する教師ベクト
ルである。yp とdp の次元数はニューラルネットワー
ク2の出力層のニューロンユニット数に一致する。最急
降下法では、各ニューロンユニットの重みの更新量ΔW
【0043】
【数17】 により求めることができる。式(6)の偏微分は簡単に
計算でき、例えば出力層のニューロンユニットjのi番
目の入力端子の重みの更新量ΔWjiは、
【0044】
【数18】 で求めることができる。また、出力層の1つ前の中間層
のi番目のニューロンユニットのh番目の入力端子の重
みの更新量ΔWihは、
【0045】
【数19】
【0046】で求められる。同様に全ての中間層の重み
は、式(6)の偏微分を計算することにより求めること
ができる。ここでdjpは出力層のj番目のニューロンユ
ニットの学習データベクトルxp に対する教師データ、
jpは出力ニューロンユニットjの学習ベクトルxp
対する出力、yipは出力層の1つ前の中間層のi番目の
ニューロンユニットの学習データベクトルxp に対する
出力、yhpは出力層の2つ前の中間層のh組のニューロ
ンユニットの出力、mは学習データベクトルの数、Nは
出力層のニューロンユニットの数である。なお各ニュー
ロンユニット11a〜13cの閾値については、そのニ
ューロンユニットに対して常に−1が入力する端子の重
みとみなせるので、出力層のニューロンユニット13a
〜13cの閾値は式(7)で、また出力層の1つ前の中
間層のニューロンユニット12a〜12cの閾値は式
(8)により求めることができる。出力層の1つ前の中
間層以前の中間層のニューロンユニットの閾値について
も、そのニューロンユニットに対して−1が入力する端
子の重みとして求めることができる。
【0047】第1段階の学習では、まず各ニューロンユ
ニット11a〜13cの各重みパラメータを乱数で初期
化しておき、式(6)により各重みを更新していく。重
みの更新をくり返し実行し、前記式(5)のEが十分小
さくなったところで処理を終了する。その時の得られた
重みと閾値を、それぞれ中間層の各ニューロンユニット
11a〜12cのメモリ22a〜22cとメモリ25に
記憶する。以上により学習モードの第1段階は終了す
る。
【0048】学習モードの第2段階では、第1段階で決
定した重みと閾値を有する中間層までのニューロンユニ
ットの、メモリA1に記憶されている前記学習データベ
クトルに対する出力をそれぞれメモリC4に記憶して最
終層に対する学習ベクトルとする。まず、出力層のニュ
ーロンユニット13a〜13cの各重みと閾値を0に初
期化し、式(7)を前記メモリC4に記憶されている学
習データベクトルに対してくり返し実行し、式(5)の
Eが十分小さくなったところで処理を終了する。得られ
た重みを出力層の各ニューロンユニット13a〜13c
のメモリ22a〜22cに記憶し、閾値をメモリ25に
記憶する。以上により学習モードの第2段階が終了す
る。以上述べた2段階の学習により、入力に含まれるラ
ンダムノイズに対して影響の少ない信号処理を実現する
ニューラルネットワーク2が実現できる。以下に、ニュ
ーロンユニット群が単一層であり、かつ、本発明をパタ
ーン分類装置に適用した第2の実施例を説明する。図4
に第2の実施例の全体のブロック図を示す。本実施例の
パターン分類装置では、まず、学習パターンにより、パ
ターン分類器に分類能力を持たせる必要がある。以下学
習過程を説明する。
【0049】あらかじめ複数の学習パターンが用意され
ているとする。ここで言う学習パターンとは、音声など
の時系列信号あるいは、TVカメラ等によって得られた
画像信号のように空間的広がりをもった画像をスキャン
することによって、1次元時系列信号に変換可能である
ものである。
【0050】第1の学習パターン信号は、A/D変換器
110によってデジタル化され、n次元のベクトルデー
タとしてメモリA111及びメモリB112に記憶され
る。同様に第2番目以後、所定個数の学習データが、A
/D変換器110によりデジタル化され、メモリA11
1及びメモリB112に記憶される。ここでは、学習デ
ータはm個とし、あらかじめ1次独立となるように選ば
れている。引き続き、メモリB112に記憶されている
m個の学習データに対してノイズ発生器113よりノイ
ズが加えられるとともに、さらに同じメモリB112の
(S−m)個)のn次元ベクトル記憶領域にノイズ発生
器113より先の学習データに加えられたものと確率的
特性が同等のノイズが記憶される。すなわち、メモリB
113には、ノイズが重畳したm個の学習データ、この
学習データと同じ次元数のノイズデータ(S−m)個が
記憶されたことになる。
【0051】学習の第1ステップでは学習器115は、
まず、メモリB112に記憶されているS個のデータを
用いて前出の(A−11)式をくり返し実行して、パタ
ーン分類器114に記憶する重みパラメータを計算す
る。
【0052】図5はパターン分類器114のブロック図
であり、図6は各分類ユニット220a〜cのブロック
図である。上記の(A−11)式のくり返しの実行は重
みwの1回の更新量の絶対値|w(k+1)−w(k)
|が所定量より小さくなった時点で終了し、その時得ら
れている重みwを、学習の第2ステップの重みの初期値
とする。
【0053】なお、学習の第1ステップの重みの初期値
としては0ベクトルとする。こうすることにより、ノイ
ズ発生器で発生する所定の確率特性を持つノイズに対し
てばかりでなく、ホワイトノイズに対しても加算器の出
力yの変動を小さくできる。学習の第2ステップでは、
学習の第1ステップと同様のプロセスが、メモリA11
2に記憶されているm個の学習データを用いてくり返さ
れる。そして、(A−11)式のくり返しの実行は、
(A−6)式の2乗誤差が十分小さくなった時点で終了
し、その時得られた重みの値を各分類ユニット220a
〜cの重みメモリ134に格納する。
【0054】上記の学習の(A−11)式の望ましい出
力dは各分類ユニットごとに、m個の学習データを2つ
のカテゴリーに分類するように定める。通常1方のカテ
ゴリーに属する場合は1とし、もう一方のカテゴリーに
属する場合には0又は−1とする。
【0055】望ましい出力の値を1と0に決めた場合に
は、閾値を0.5として閾値メモリ135に記憶し、望
ましい出力の値を1,−1と決めた場合には、閾値を0
として閾値メモリ135に記憶する。
【0056】また、学習の第1ステップでの望ましい出
力は、各分類ユニットごとにはじめのm個については学
習の第2ステップでの望ましい出力の値と同じで、残り
の(S−m)個については0とする。
【0057】パターン分類の実行は上記学習過程によっ
て得られた重みと閾値を用いて実行される。入力データ
はA/D変換器110によりn次元のデジタルデータに
変換されパターン分類器114に送られる。パターン分
類器114では入力してきたデータは各分類ユニット2
20a〜cに分配される。各分類ユニットでは、n次元
データのうち、最初のデータが入力バッファ130を通
して入力し、演算器131によって重みメモリ134の
1番目のデータとの積が計算されレジスタ133に記憶
される。次に2番目のデータと重みメモリ134の2番
目のデータとの積が計算され、レジスタ133に記載さ
れている値に足される。
【0058】以上のプロセスがn個全てのデータについ
て実行されると、レジスタ133には(A−4)式のy
が記憶されていることになる。この値より閾値メモリ1
35に記憶されている値を差し引き結果を弁別器132
に送る。
【0059】弁別器132では値が0以上の場合1を出
力し、0未満の場合には0又は−1を出力する。なお、
上記の0以上、0未満で弁別器が出力する値は、学習時
の望ましい出力の値と一致するものである。
【0060】以上のように、学習過程で学習パターンに
ついては望ましい値が出力するように、また、ノイズに
対しては、(A−4)式を演算実施後の分散が小さくな
るように学習されているので、弁別器132による誤弁
別は小さくなる。すなわち、ノイズを含んだ入力パター
ンに対して本発明のパターン分類装置は誤分類を小さく
することができる。
【0061】
【発明の効果】以上詳述したように、本発明の信号処理
装置においては、ランダムノイズを含む入力信号に対し
ても、その入力信号の高周波成分の減少なしにランダム
ノイズの影響を小さくすることができる。さらに、出力
信号の大きさによってランダムノイズの影響の異なる度
合いが小さい。さらに、ニューラルネットワークにより
並列分散的に高速に信号処理が実現できる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の構成を示す図である。
【図2】図1のニューラネットワークの詳細な構成を示
す図である。
【図3】ニュ−ロンユニットの構成を示す図である。
【図4】本発明の第2の実施例の構成を示す図である。
【図5】パターン分類器の構成を示す図である。
【図6】各分類ユニットの構成を示す図である。
【図7】ニューロンユニット群の構成を示す図である。
【符号の説明】
1…メモリA、2…ニューラルネットワーク、3…演算
器、4…メモリC、5…メモリB。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 複数の入力信号パターンを記憶する第1
    のメモリと、 出力層を構成するニューロンユニットが線形ニューロン
    ユニットである階層型ニューラルネットワークと、 前記第1のメモリに記憶された信号パターンと、第2の
    メモリに記憶されている信号パターンにより前記ニュー
    ラルネットワークを学習する手段と、 前記ニューラルネットワークの出力層の1つ前の層に属
    するニューロンユニットの出力を記憶する第3のメモリ
    と、 この第3のメモリに記憶された信号パターンと、前記第
    2のメモリに記憶された信号パターンにより、前記階層
    型ニューラルネットワークの出力層に属する線形ニュー
    ロンユニットの重み及び閾値パラメータを決定する決定
    手段とを有する信号処理装置。
JP4120638A 1991-10-30 1992-05-13 信号処理装置 Withdrawn JPH05181829A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4120638A JPH05181829A (ja) 1991-10-30 1992-05-13 信号処理装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP28508091 1991-10-30
JP3-285080 1991-10-30
JP4120638A JPH05181829A (ja) 1991-10-30 1992-05-13 信号処理装置

Publications (1)

Publication Number Publication Date
JPH05181829A true JPH05181829A (ja) 1993-07-23

Family

ID=26458180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4120638A Withdrawn JPH05181829A (ja) 1991-10-30 1992-05-13 信号処理装置

Country Status (1)

Country Link
JP (1) JPH05181829A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115146767A (zh) * 2021-03-31 2022-10-04 广东高云半导体科技股份有限公司 一种二维卷积加速器及其实现加速二维卷积的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115146767A (zh) * 2021-03-31 2022-10-04 广东高云半导体科技股份有限公司 一种二维卷积加速器及其实现加速二维卷积的方法
CN115146767B (zh) * 2021-03-31 2024-05-28 广东高云半导体科技股份有限公司 一种二维卷积加速器及其实现加速二维卷积的方法

Similar Documents

Publication Publication Date Title
Xu et al. Optimization in quaternion dynamic systems: Gradient, hessian, and learning algorithms
Zhou et al. Stacked extreme learning machines
Amari Natural gradient works efficiently in learning
Holcomb et al. PLS/neural networks
US5583951A (en) Method of processing signal data on the basis of principal component transform, apparatus for performing the method
CN112818764A (zh) 一种基于特征重建模型的低分辨率图像人脸表情识别方法
JPH04184686A (ja) パターン認識装置
Ikbal et al. Analysis of autoassociative mapping neural networks
Yam et al. Determining initial weights of feedforward neural networks based on least squares method
Sondak et al. Learning a reduced basis of dynamical systems using an autoencoder
JP2541044B2 (ja) 適応フィルタ装置
CN115860113A (zh) 一种自对抗神经网络模型的训练方法及相关装置
JPH05181829A (ja) 信号処理装置
CN115410000A (zh) 对象分类方法以及装置
Zhu et al. Lagrange neural networks for linear programming
JPH076146A (ja) 並列データ処理システム
Hampson et al. Representing and learning boolean functions of multivalued features
Davidson et al. Template learning in morphological neural nets
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
Jacobsson Feature extraction of polysaccharides by low-dimensional internal representation neural networks and infrared spectroscopy
Deco et al. Statistical-ensemble theory of redundancy reduction and the duality between unsupervised and supervised neural learning
Mohylnyi et al. USING NEURAL NETWORKS IN THE PROCESS OF IMAGE COMPRESSION
Paez et al. Dynamical system modeling via signal reduction and neural network simulation
Vershkov et al. Optimization of computational complexity of an artificial neural network.
Dumitras et al. Feedforward neural network design with tridiagonal symmetry constraints

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990803