JP2897220B2 - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JP2897220B2
JP2897220B2 JP63232845A JP23284588A JP2897220B2 JP 2897220 B2 JP2897220 B2 JP 2897220B2 JP 63232845 A JP63232845 A JP 63232845A JP 23284588 A JP23284588 A JP 23284588A JP 2897220 B2 JP2897220 B2 JP 2897220B2
Authority
JP
Japan
Prior art keywords
unit
layer
output
signal processing
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63232845A
Other languages
English (en)
Other versions
JPH0281160A (ja
Inventor
篤信 平岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP63232845A priority Critical patent/JP2897220B2/ja
Priority to US07/406,733 priority patent/US5093899A/en
Priority to EP94107842A priority patent/EP0612033B1/en
Priority to DE68924822T priority patent/DE68924822T2/de
Priority to DE68929102T priority patent/DE68929102T2/de
Priority to EP89402544A priority patent/EP0360674B1/en
Publication of JPH0281160A publication Critical patent/JPH0281160A/ja
Priority to US07/727,871 priority patent/US5129039A/en
Application granted granted Critical
Publication of JP2897220B2 publication Critical patent/JP2897220B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 A 産業上の利用分野 本発明は、学習機能を有する信号処理装置に関し、特
に、所謂ニューラルネットワーク(Neural Network:神
経回路網)によるバックプロパゲーション(Back propa
gation:逆伝播)学習則に従った学習機能を有する信号
処理装置に関する。
B 発明の概要 本発明は、ニューラルネットワークによるバックプロ
パゲーション学習則に従った学習機能を有する信号処理
装置において、ニューロンに対応する各ユニットによる
リカレント回路網にて入力信号に対する信号処理を行う
ことにより、上記リカレント回路網の結合状態の学習に
て、時間軸上で変動する音声信号等のシーケンシャルな
時系列パターンの特徴を抽出できるようにしたものであ
る。
C 従来の技術 ニューラルネットワークの学習アルゴリズムであるバ
ックプロパゲーション学習則『「Parallel Distributed
Processing」Vol.1 The MIT Press 1986や日経エレク
トロニクス1987年8月10日号,No.427.pp115−123等参
照』は、第4図に示すように、入力層(31)と出力層
(33)の間に中間層(32)を有する多層構造のニューラ
ルネットワークに適用され、高速画像処理やパターン認
識等の各種の信号処理への応用が試みられている。
すなわち、第4図に示すように、このニューラルネッ
トワークを構成する各ユニット(uj)は、ユニット
(ui)からユニット(uj)への結合係数wjiで結合され
るユニット(ui)の出力値oiの総和netjを例えばsigmoi
d関数などの所定の関数fで変換された値ojを出力す
る。すなわち、パターンpの値が入力層の各ユニット
(uj)に入力値としてそれぞれ供給されたとき、中間層
および出力層の各ユニット(uj)の出力値opjは、 なる第1式で表される。
そして、入力層(31)から出力層(33)へ向かって、
各ニューロンに対応するユニット(uj)の出力値を順次
計算していくことで、上記出力層(33)のユニット
(uj)の出力値opjが得られる。
バックプロパゲーション学習アルゴリズムにおいて
は、パターンpを与えたときの、出力層(33)の各ユニ
ット(uj)の実際の出力値opjと望ましい出力値tpjすな
わち教師信号との二乗誤差の総和Ep を極小化するように、結合係数wjiを変える学習処理を
出力層(33)から入力層(31)へ向かって順次に行うこ
とにより、教師信号の値tpjに最も近い出力値opjが上記
出力層(33)のユニット(uj)から出力されるようにな
る。
そして、二乗誤差の総和Epを小さくする結合係数wji
の変化量Δwjiを、 Δwji∝−∂Ep/∂wji ……第3式 と決めると、上記第3式は、 Δwji=η・δpi・opi ……第4式 に変形することができる(この過程は上述の文献を参
照)。
ここで、ηは学習レート(定数)で、ユニットの数や
層の数さらには入出力の値等から経験的に決定される。
また、δpiはユニット(uj)のもつ誤差値である。
従って、上記変化量Δwjiを決定するためには、上記
誤差値δpjをネットワークの出力層から入力層に向かっ
て逆向きに求めていけば良い。出力層のユニット(uj
の誤差値δpjは、 δpj=(tpj−opj)f′(netj) ……第5式 なる第5式で与えられ、中間層のユニット(uj)の誤差
δpjは、そのユニット(uj)が結合されている各ユニッ
ト(uk)(この例では出力層の各ユニット)の結合係数
wkjおよび誤差δpkを用いて、 なる再帰関数にて計算される(上記第5式および第6式
を求める過程は上述の文献を参照)。
なお、上記f′(netj)は、出力関数fj(netj)の
微分値である。
そして、変化量Δwjiは、上記第5式および第6式の
結果を用いて上述の第4式によって求められるが、前回
の学習結果を用いて、 Δwji(n+1)=η・δpj・opi+α・Δwij(n) ……第7式 なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を減らし、収束を速める
ための安定化定数である。
そして、この学習を繰り返し行い、出力opjと教師信
号の値tpjとの二乗誤差の総和Epが十分に小さくなった
時点で学習を完了するようにしていた。
D 発明が解決しようとする課題 ところで、上述の如きバックプロパゲーション学習則
を採用した従来の信号処理装置では、ニューロンに対応
する各ユニットによるフィードフォワード結合だけの回
路網として構成されていたので、上記回路網の結合状態
を入力信号と教師信号から学習することによって入力信
号パターンの特徴を抽出する場合に、時間軸上で変動す
る音声信号等のシーケンシャルな時系列パターンの特徴
抽出を行うことが困難であった。
そこで、本発明は、上述の如き従来の実情に鑑み、ニ
ューロンに対応する各ユニットにて構成される回路網の
結合状態の学習により、時間軸上で変動する音声信号等
のシーケンシャルな時系列パターンの特徴を抽出できる
ようにすることを目的とし、ニューロンに対応する各ユ
ニットによるリカレント回路網を備える新規な構成の信
号処理装置を提供するものである。
E 課題を解決するための手段 本発明は、それぞれニューロンに対応する信号処理を
行う複数のユニットにて構成された入力層、中間層およ
び出力層を備える信号処理部と、上記入力層に入力され
る入力信号パターンに対する上記出力層の出力層と教師
信号として与えられる所望の出力値との誤差情報に基づ
いて上記各ユニットの間の結合の強さの係数を上記出力
層側から上記入力層側に向かって順次に繰り返し計算
し、上記結合の強さの係数の学習処理を行う学習処理部
とを備える信号処理装置において、上記中間層および出
力層の各ユニットにそれぞれ遅延手段を設け、上記中間
層および出力層の各ユニットの出力をそれぞれ遅延手段
を介して自己の入力とするループと、上記出力層の各ユ
ニットの出力を上記中間層の各ユニットへの入力とする
フィードバックとを含むリカレント回路網にて、上記信
号処理部を構成したことを特徴としている。
F 作用 本発明に係る信号処理装置では、それぞれ遅延手段を
有する中間層および出力層の各ユニットでループおよび
フィードバックを含むリカレント回路網を構成した信号
処理部にて入力信号に対する信号処理を行い、学習処理
部は上記信号処理部を構成している各ユニットによるリ
カレント回路網の結合状態の学習を教師信号に基づいて
行う。
G 実施例 以下、本発明の一実施例について、図面に従い詳細に
説明する。
本発明に係る信号処理装置は、その構成を第1図のブ
ロック図に概念的に示してあるように、入力信号パター
ンpから出力値opjを得るための信号処理部(10)と、
上記信号処理部(10)にて入力信号パターンpから所望
の出力値tpjに最も近い出力値opjを得るための学習を行
う学習処理部(20)にて構成されている。
上記信号処理部(10)は、第2図に示すように、少な
くとも入力層(LI)と中間層(LH)と出力層(L0)の3
層構造のニューラルネットワークにて構成され、各層
(LI),(LH),(L0)がそれぞれニューロンに対応す
る任意の個数x,y,zのユニット(uI1〜uIx),(uH1〜u
Hy),(u01〜u0z)にて構成されている。上記中間層
(LH)および出力層(L0)の各ユニット(uH1〜uHy),
(u01〜u0z)は、それぞれ遅延手段を備え、その出力値
oj(t)を上記遅延手段を介して自己の入力とするループ
(LP)および他のユニットの入力とするフィードバック
(FB)を含むリカレント回路網を構成している。
上記信号処理部(10)において、上記入力層(LI)の
各ユニット(uI1〜uIx)に入力される入力信号パターン
pに対して、上記中間層(LH)の各ユニット(uH1
uHy)は、その入力の総和netjが、 なる第8式にて与えられ、この入力の総和netjに対し
て、 なる第9式のsigmoid関数にて示される出力値oHj(t)
与える。
さらに、上記出力層(L0)の各ユニット(u01〜u0z
は、その入力の総和netjが、 なる第10式にて与えられ、この入力の総和netjに対し
て、 なる第11式にて示される出力値o0j(t)を与える。
ここで、上記θはしきい値、NI,NH,NOは、上記各層
(LI),(LH),(L0)の遅延手段の数をそれぞれ示し
ている。
また、上記学習処理部(20)は、上記信号処理部(1
0)に入力される1サンプルがX個で示され時間軸上で
変動するR個の入力信号パターンp(xr)に対する上記出
力層(L0)の出力値o0jが、教師信号パターンとして与
えられる所望の出力値tzrに最も近い値になるように、
第3図のフローチャートに示す手順で、上記出力層
(L0)側から上記入力層(LI)側に向かって上記各ユニ
ット(u01〜u0z),(uH1〜uHy),(uI1〜uIx)の間の
結合の強さ係数wjiを順次に繰り返し計算し、教師信号
として与えられる所望の出力値tpjと上記出力層(L0
の出力値oojとの二乗誤差の総和LMSを十分に小さくする
ように、上記結合係数wjiの学習処理を行う。
すなわち、上記学習処理部(20)は、先ず、ステッス
1では、上記入力層(LI)の各ユニット(uI1〜uIx)に
入力信号パターンpxrを与える。そして、ステップ2で
は、上記入力信号パターンpxrに対する上記中間層
(LH)および出力層(L0)の各ユニット(uH1〜uHy),
(u01〜u0z)の各出力値opj(t)を算出する計算処理を行
う。
次に、ステップ3では、上記教師信号パターンとして
与えられる所望の出力値tzrと上記各出力値opj(t)に基
づいて、上記出力層(L0)側から上記入力層(LI)側に
向かって上記各ユニット(u01〜u0z),(uH1〜uHy)の
誤差値δpjを算出する計算処理を行う。
上記ステップ3における計算処理では、上記出力層
(L0)の各ユニット(u01〜u0z)の誤差値δ0jが、 δ0j=(tpj−o0j)o0j(1−o0j) ……第12式 なる第12式にて与えられ、また、上記中間層(LH)の各
ユニット(uH1〜uHy)の誤差値δpjが、 なる第13式にて与えられる。
次に、ステップ4では、上記ユニット(uI1〜uIx),
(uH1〜uHy),(u01〜u0z)に対するi番目のユニット
からj番目のユニットへの結合の強さの係数wjiの学習
変数βを各入力値の二乗和にいき値として1を加えた
値の逆数にて示す なる第14式にて算出する計算処理を行う。
さらに、ステップ5では、上記ステップ5にて算出し
た学習変数βを用いて上記各ユニット(u01〜u0z),
(uH1〜uHy),(uI1〜uIx)に対するi番目のユニット
からj番目のユニットへの結合係数wjiの変化量Δw
jiを、 Δwji(n)=η・β(δpjopi) ……第15式 なる第15式にて算出するとともに、教師信号に対する各
ユニットの二乗誤差の総和LMSを なる第16式にて算出する計算処理を行う。なお、上記第
15式におけるηは学習定数である。
次の、ステップ6では、R個の入力信号パターンpxr
について上記ステップ1からステップ6までの処理を行
ったか否かの判定を行い、その判定結果が「NO」である
場合には上記ステップ1に戻り、また、その判定結果が
「YES」すなわち上記R個の入力信号パターンpxrについ
て上記各ユニット(u01〜u0z),(uH1〜uHy),(uI1
〜uIx)間の結合係数wjiの変化量Δwjiを全て計算した
ら、ステップ7に移り上記出力層(L0)にて得られる上
記出力値o0jについて収束条件の判定動作を教師信号と
して与えられる所望の出力値tpjと上記出力値o0jとの二
乗誤差の総和LMSに基づいて行う。
上記ステップ7の判定動作では、上記信号処理部(1
0)の出力層(L0)に得られる出力値o0jが教師信号とし
て与えられる所望の出力値tpjに最も近い値になってい
るか否かを判定する。上記ステップ7の判定動作の結果
が「YES」の場合すなわち上記二乗誤差の総和LMSが十分
に小さくなって、上記出力値o0jが上記所望の出力値tpj
に最も近い値になっている場合には学習処理を完了し、
その判定結果が「NO」の場合にはステップ8の計算処理
に移る。
そして、ステップ8の計算処理では、上記ステップ5
において算出された上記結合係数wjiの変化量Δwjiに基
づいて、上記ユニット(u01〜u0z),(uH1〜uHy),
(uI1〜uIx)間の結合係数wjiを次の第17式および第18
式を用いて変更する。
Δwji(n)=Δwji(n)+αΔwji(n-1) ……第17式 wji(n+1)=wji(n)+Δwji(n) ……第18式 そして、上記ステップ8の算出処理後に上記ステップ
1に戻って、上記ステップ1からステップ6までの処理
動作を繰り返し行う。
この学習処理部(20)は、上述のステップ1ないしス
テップ8の動作を繰り返し行い、上記所望の出力値tpj
と上記出力値o0jとの二乗誤差の総和Epが十分に小さく
なり、上記信号処理部(10)の出力層(L0)に得られる
出力値o0jが教師信号として与えられる所望の出力値tpj
に最も近い値になると、上記ステップ7の判定動作によ
り、学習処理を完了する。
この実施例の信号処理装置では、上述のようにループ
(LP)およびフィードバック(FB)を含むリカレント回
路網を構成している上記信号処理部(10)の上記各ユニ
ット(u01〜u0z),(uH1〜uHy),(uI1〜uIx)間の結
合係数wjiについて、教師信号として与えられる所望の
出力値tpjに基づいて上記学習処理部(20)にて学習す
るので、時間軸上で変動する音声信号等のシーケンシャ
ルな時系列入力信号パターンpxrについても、その特徴
を上記学習処理部(20)による学習処理にて確実に抽出
することができる。従って、上記学習処理部(20)によ
る学習結果として得られる結合係数wjiにて上記信号処
理部(10)の上記各ユニット(u01〜u0z),(uH1
uHy),(uI1〜uIx)の結合状態を設定することによっ
て、上記信号処理部(10)にて上記時系列入力信号パタ
ーンpxrに対して所望の信号処理を施すことができる。
しかも、この実施例の信号処理装置では、上記各ユニ
ット(uH1〜uHy),(u01〜u0z)において入力値のopi
の二乗和の逆数にて示される上記学習変数βにて学習定
数ηを正規化することにより、学習レートを上記入力値
opiに応じて動的に変化させて、上記結合の強その係数w
jiの学習処理を行うことによって、学習回数nを従来の
学習処理の1/4〜1/10に大幅に減少させて、高速で安定
に学習を行うことができた。
H 発明の効果 本発明に係る信号処理装置では、それぞれ遅延手段を
有する中間層および出力層の各ユニットでループおよび
フィードバックを含むリカレント回路網を構成した信号
処理部にて入力信号に対する信号処理を行い、学習処理
部は上記信号処理部を構成している各ユニットによりリ
カレント回路網の結合状態の学習を教師信号に基づいて
行うので、時間軸上で変動する音声信号等のシーケンシ
ャルな時系列パターンについても、その特徴を上記学習
処理部における学習処理にて抽出して、所望の信号処理
を上記信号処理部にて施すことができる。
【図面の簡単な説明】
第1図は本発明に係る信号処理装置の構成を概念的に示
すブロック図、第2図は上記信号処理装置の信号処理部
の構成を示すニューラルネットワークの一般的な構成を
示す模式図、第3図は上記信号処理装置を構成する学習
処理部における学習処理過程を示すフローチャートであ
る。 第4図はバックプロッパゲーション学習則の適用される
ニューラルネットワークの一般的な構成を示す模式図で
ある。 (10)……信号処理部 (20)……学習処理部 (L1)……入力層 (LH)……中間層 (L0)……出力層 (uI1〜uIx),(uH1〜uHy),(u01〜u0z)……ユニッ
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 アレックス ワイベル、「時間遅れ神 経回路網(TDNN)による音韻認識」 電子情報通信学会技術研究報告、Vo l.87,No.299(SP87−100)p. 19−24 麻生英樹「ニューラルネットワーク情 報処理」産業図書株式会社 p.114 (1988.6) 甘利俊一「神経回路網の数理」産業図 書 p.301−p.303(1978) (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 JICSTファイル(JOIS)

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】それぞれニューロンに対応する信号処理を
    行う複数のユニットにて構成された入力層、中間層およ
    び出力層を備える信号処理部と、上記入力層に入力され
    る入力信号パターンに対する上記出力層の出力値と教師
    信号として与えられる所望の出力値との誤差情報に基づ
    いて上記各ユニットの間の結合の強さの係数を上記出力
    層側から上記入力層側に向かって順次繰り返し計算し、
    上記結合の強さの係数の学習処理を行う学習処理部とを
    備える信号処理装置において、 上記中間層および出力層の各ユニットにそれぞれ遅延手
    段を設け、上記中間層および出力層の各ユニットの出力
    をそれぞれ遅延手段を介して自己の入力とするループ
    と、上記出力層の各ユニットの出力を上記中間層の各ユ
    ニットへの入力とするフィードバックとを含むリカレン
    ト回路網にて、上記信号処理部を構成したことを特徴と
    する信号処理装置。
JP63232845A 1988-09-17 1988-09-17 信号処理装置 Expired - Lifetime JP2897220B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP63232845A JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置
US07/406,733 US5093899A (en) 1988-09-17 1989-09-13 Neural network with normalized learning constant for high-speed stable learning
DE68924822T DE68924822T2 (de) 1988-09-17 1989-09-15 Signalverarbeitungssystem und Lernverarbeitungssystem.
DE68929102T DE68929102T2 (de) 1988-09-17 1989-09-15 Lernverarbeitungssystem
EP94107842A EP0612033B1 (en) 1988-09-17 1989-09-15 learning processing system
EP89402544A EP0360674B1 (en) 1988-09-17 1989-09-15 Signal processing system and learning processing system
US07/727,871 US5129039A (en) 1988-09-17 1991-07-10 Recurrent neural network with variable size intermediate layer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63232845A JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置

Publications (2)

Publication Number Publication Date
JPH0281160A JPH0281160A (ja) 1990-03-22
JP2897220B2 true JP2897220B2 (ja) 1999-05-31

Family

ID=16945705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63232845A Expired - Lifetime JP2897220B2 (ja) 1988-09-17 1988-09-17 信号処理装置

Country Status (1)

Country Link
JP (1) JP2897220B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0451372A (ja) * 1990-06-20 1992-02-19 Fujitsu Ltd ニューロコンピュータを用いた動作認識装置
US5787393A (en) * 1992-03-30 1998-07-28 Seiko Epson Corporation Speech recognition apparatus using neural network, and learning method therefor
JP3521429B2 (ja) * 1992-03-30 2004-04-19 セイコーエプソン株式会社 ニューラルネットワークを用いた音声認識装置およびその学習方法
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
JP3697748B2 (ja) * 1995-08-21 2005-09-21 セイコーエプソン株式会社 端末、音声認識装置
US6208963B1 (en) * 1998-06-24 2001-03-27 Tony R. Martinez Method and apparatus for signal classification using a multilayer network

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
アレックス ワイベル、「時間遅れ神経回路網(TDNN)による音韻認識」電子情報通信学会技術研究報告、Vol.87,No.299(SP87−100)p.19−24
甘利俊一「神経回路網の数理」産業図書 p.301−p.303(1978)
麻生英樹「ニューラルネットワーク情報処理」産業図書株式会社 p.114(1988.6)

Also Published As

Publication number Publication date
JPH0281160A (ja) 1990-03-22

Similar Documents

Publication Publication Date Title
US5095443A (en) Plural neural network system having a successive approximation learning method
US4979126A (en) Neural network with non-linear transformations
JP2763398B2 (ja) パターン認識装置
JPH07114524A (ja) 信号処理装置
JP2897220B2 (ja) 信号処理装置
KR20010002997A (ko) 신경회로망을 이용한 선택적 주의집중 방법
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
JP3374476B2 (ja) ニューラルネットワーク構築方法
JP2862337B2 (ja) ニューラルネットワークの構築方法
JP2825939B2 (ja) ニューラルネットワーク学習装置
JP2907486B2 (ja) ニューラルネットワーク装置
JPH05204887A (ja) ニューラルネットワークにおける内部結合方法
JP2699447B2 (ja) 信号処理装置
JP2606317B2 (ja) 学習処理装置
Benvenuto et al. Comparison of four learning algorithms for multilayer perceptron with FIR synapses
JP2979562B2 (ja) 学習処理装置
JPH06231106A (ja) リカレント型ニューラルネットワーク学習方法及び装置
JP2654686B2 (ja) ニューラルネットワーク
JP3393511B2 (ja) 文字認識装置及び方法
JP2607351B2 (ja) 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
JPH01282672A (ja) ニューラルネットワーク装置
JPH0696046A (ja) ニューラルネットワークの学習処理装置
JP3343626B2 (ja) ファジィ推論のためのニューラルネットワーク
JPH04323763A (ja) ニューラルネットワーク学習方法

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080312

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090312

Year of fee payment: 10