JP3534327B2 - 信号処理装置 - Google Patents
信号処理装置Info
- Publication number
- JP3534327B2 JP3534327B2 JP01762395A JP1762395A JP3534327B2 JP 3534327 B2 JP3534327 B2 JP 3534327B2 JP 01762395 A JP01762395 A JP 01762395A JP 1762395 A JP1762395 A JP 1762395A JP 3534327 B2 JP3534327 B2 JP 3534327B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- preprocessing
- neural network
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Character Discrimination (AREA)
Description
タなどのパターン認識、その他の各種の認識を、学習機
能を備えたニューラルネット演算装置を用いて行う信号
処理装置に関する。
置、所謂、ニューラルネット演算装置は、データに対し
て特別な知識がなくても、複雑なデータを学習し、認識
できることが知られており、幅広い分野での導入が検討
されている。
置は、一般には、神経回路を模倣した多数のニューロン
と、これらの各ニューロン間を結合するシナプスとによ
り構成されており、各シナプスには所定の結合強さが個
別に付与されている。この結合強さを適正な値に設定す
るために学習を行い、ニューラルネット演算装置自身で
結合強さの最適解を求めるようにしている。よって、こ
のようなニューラルネット演算装置において、「学習」
とは、外部から信号(学習データ)を入力した時に、ニ
ューラルネット演算装置を構成するシナプスの結合強さ
を望ましい値に変化させることを意味する。このような
学習方法には、教師データ有りの学習と教師データ無し
の学習とがあり、教師データ有りの学習のアルゴリズム
には、代表的なものとして、誤差逆伝播法(バックプロ
パゲーション法)などがある。一方、ニューラルネット
演算装置における「認識」とは、学習後のシナプスの結
合強さの値を固定したまま、対象となる認識データを入
力させて、ニューラルネット演算装置から認識結果を出
力させることを意味する。
習データとして生データをそのまま入力して学習させよ
うとしても、常に学習できるとは限らず、入力データに
対して何らかの前処理を施すことにより、学習できる割
合ないしは効率が向上する。また、ハードウェア構成の
ニューラルネット演算装置を用いる時には、入力できる
データについて幾つかの制約がある。例えば、1データ
の要素(つまり、入力ニューロンの数)に上限があった
り、入力できるデータに対して分解能が決められていた
りする。このようにデータの精度や数などに制限がある
ので、この観点からも前処理が必要である。つまり、
「前処理」とは、データ源からのデータをニューラルネ
ット演算装置に入力できるように処理することを意味す
る。
算装置に入力するデータに対して何らかの前処理を施す
ようにしたものがある。例えば、特開平5−34691
6号公報によれば、学習時間の短縮と認識率の向上とを
狙い、ニューラルネット演算装置への入力データに対し
て統計的解析手段によってデータを加工することで、デ
ータを減らして学習するようにしている。
ば、認識時の高速化と簡素化とを狙い、学習時と認識時
とでデータの精度を変えるようにしている。
平5−346916号公報方式の場合、入力データの統
計処理を行うものの、そのデータ集合が学習しやすいデ
ータとなるか否かは定かでない。この結果、データ数が
少なくても、逆に、学習に多大な時間を必要としたり、
学習を行えない可能性もある。
方式の場合、認識時の精度が学習時の精度よりも低いの
で、場合によっては、異なるカテゴリーであるのにデー
タが同じとなって誤認識されてしまうことがある。
すい上に認識率も向上させ得る信号処理装置を得ること
を目的とする。
神経回路を模倣した複数個のニューロンを各ニューロン
間に個別の結合強さを持たせて網状に接続してニューラ
ルネット演算装置を形成し、外部から入力される学習デ
ータに基づき各結合強さを変化させる学習機能を備える
とともに、入力される認識データに基づき各ニューロン
から他のニューロンの出力値と両ニューロン間の結合強
さとの積の総和を出力させるようにした信号処理装置に
おいて、前記ニューラルネット演算装置に入力される学
習データについて2値化処理なる前処理を行う学習デー
タ用前処理手段と、前記ニューラルネット演算装置に入
力される認識データについて前記学習データ用前処理手
段の前処理とは異なるニューラルネット演算装置に適合
する規格化処理及びその規格化処理後に設定された閾値
より小さい認識データを0データに変更する閾値処理な
る前処理を行う認識データ用前処理手段とを信号処理装
置である。
た複数個のニューロンを各ニューロン間に個別の結合強
さを持たせて網状に接続してニューラルネット演算装置
を形成し、外部から入力される学習データに基づき各結
合強さを変化させる学習機能を備えるとともに、入力さ
れる認識データに基づき各ニューロンから他のニューロ
ンの出力値と両ニューロン間の結合強さとの積の総和を
出力させるようにした信号処理装置において、前記ニュ
ーラルネット演算装置に入力される学習データについて
規格化処理なる前処理を行う学習データ用前処理手段
と、前記ニューラルネット演算装置に入力される認識デ
ータについて前記学習データ用前処理手段の前処理とは
異なるニューラルネット演算装置に適合する規格化処理
及びその規格化処理後に設定された閾値より小さい認識
データを0データに変更する閾値処理なる前処理を行う
認識データ用前処理手段とを設けた信号処理装置であ
る。
載の発明において、認識データ用前処理手段の前処理中
の閾値処理における閾値を可変自在とした信号処理装置
である。
3記載の発明において、学習データ用前処理手段により
前処理された学習データに基づき学習したニューラルネ
ット演算装置の学習程度を一部の認識データに基づき評
価する評価手段を設けた信号処理装置である。
又は4記載の発明において、学習データ及び認識データ
を、パルス密度表現のデータとした信号処理装置であ
る。
前処理手段と認識データ用前処理手段とが異なる前処理
を行うので、学習時であれば学習データ用前処理手段に
よる前処理でニューラルネット演算装置に入力させる学
習データのデータセット数を適正に少なくして学習時間
を短縮させることができ、認識時であれば認識データ用
前処理手段による前処理で認識データの特徴を際立てさ
せることにより認識率を向上させることができる。特
に、学習データ用前処理手段による前処理が2値化処理
であるので、ニューラルネット演算装置ではアナログ値
により学習するよりも学習しやすいものとなり、学習時
間を短縮し得る上に、ニューラルネット演算装置の規模
も小さくて済む。また、認識データ用前処理手段による
前処理は規格化処理であるので、認識データの特徴を際
立てさせるのに適している。加えて、認識データ用前処
理手段による前処理に関して、規格化処理に加えて、規
格化された認識データについて予め設定された閾値より
小さい値は0データに変更する閾値処理も行うようにし
たので、適正に認識データの数を減らすことができ、認
識率を損なうことなく、認識時間を短縮させることがで
きる。
タ用前処理手段及び認識データ用前処理手段は何れも前
処理として規格化処理を行うが、認識データ用前処理手
段では規格化処理に加えて閾値処理も行うので、認識率
を損なうことなく、認識処理を簡易化させて、認識時間
を短縮させることができる。
を行うための閾値を可変自在としているので、扱うべき
認識データに応じて適正な閾値処理を行える。
を備えて学習済みのニューラルネット演算装置の学習程
度を検証するので、大量の認識データについて認識処理
を行う際に、認識率の高い学習済みのニューラルネット
演算装置を選択することができる。
タをパルス密度表現のデータとしているので、データ転
送などにおいてノイズに強い上に、並列性の高いデータ
処理が可能となる。
づいて説明する。本実施例の認識用の信号処理装置はニ
ューラルネット演算装置1を主体とするもので、その入
力側に2つの前処理装置2,3が接続され、出力側に後
処理装置4が接続されることにより構成されている。
回路を模倣した複数個のニューロンを各ニューロン間に
個別の結合強さを持たせて網状に接続してなり、学習機
能を備えたものである。このようなニューラルネット演
算装置1は、専用の電子回路や光電子回路又はコンピュ
ータなどにより構成されるが、具体的には、入力層、中
間層及び出力層を備えた通常のハードウェアによる階層
型ニューラルネットワークとして構成すればよい。もっ
とも、ニューラルネット演算装置1自身の構成は従来周
知のものでよく、かつ、そのデータ演算方法や学習方法
等についても周知技術を用いればよいので、ここでは、
その詳細を省略する。
段として機能し、学習時にデータ発生源5から前記ニュ
ーラルネット演算装置1に与えられる学習データについ
て、或る前処理を施すものである。前記前処理装置3は
認識データ用前処理手段として機能し、認識時にデータ
発生源5から前記ニューラルネット演算装置1に与えら
れる認識データについて、或る前処理を施すものであ
る。前記後処理装置4は、前処理装置2又は3により前
処理された学習データ又は認識データに基づきニューラ
ルネット演算装置1で学習演算又は認識演算された結果
を受けて、後で使用する機器に合わせてデータ変換を行
うための装置である。このデータ変換は、例えば、デー
タ分類で使う多数決回路のように、出力値の内で最大出
力を出したニューロンを検出するようなものである。何
れにしても、これらの前処理装置2,3や後処理装置4
は、専用の電子回路やコンピュータなどにより構成され
る。
データ(学習データ又は認識データ)は、アナログ値又
はデジタル値であり、そのダイナミックレンジやデータ
数も様々である。例えば、ガスセンサからの出力値であ
ったり、ギヤの作動音(周波数成分)であったりする。
また、データ発生源5としても複数であり、例えば、温
度とその温度により変化する周波数とのデータであった
りする。ここに、ニューラルネット演算装置1は前述し
たように入力できるデータに対して幾つかの制約がある
ため、このデータ発生源5からのデータをニューラルネ
ット演算装置1に入力できるように、前処理装置2又は
3により前処理を行わせるものであり、本実施例では、
これらの前処理装置2,3による前処理の内容が異な
る。
付与される学習データに対して2値化処理なる前処理を
行うように構成されている。即ち、データ発生源5から
付与される学習データを、例えば、“0”又は“1”の
2値に変換する処理を行う。もっとも、2値化する値
は、“0”,“1”以外の値であっても構わない。ここ
にデータ発生源5から付与される学習データをXin、閾
値をthとすると、2値化後の学習データXq は、 Xq =1 Xin≧thの場合 Xq =0 Xin<thの場合 ………………………………(1) のようになる。この際、2値化用の閾値thは、カテゴ
リー間の特徴差が明確になるように設定する必要があ
る。
付与される認識データに対して規格化処理及び閾値処理
なる前処理を行うように構成されている。規格化は、元
の認識データをニューラルネット演算装置1のダイナミ
ックレンジを広く使えるように変換するものであり、ニ
ューラルネット演算装置1に適合するように設定され
る。ここに、データ発生源5から付与される認識データ
をXin、或る認識データの集合の最小値をXmin 、或る
認識データの集合の最大値をXmax とすると、規格化処
理による規格化後の認識データXT は、 として表される。
うに規格化した後、予め設定された或る閾値thT より
小さい値の認識データXT は0データに変更し、それ以
外の場合には規格化された認識データXT の値をそのま
ま用いるようにする処理である。閾値処理した後の認識
データをXT(th)すると、 となる。
す。まず、図2は生の学習データないしは認識データ例
を示し、このデータ例にはカテゴリー1〜3で示す3つ
のカテゴリーがあり、各カテゴリー1〜3中にはデータ
が3つずつあり、図示のような値(相対値)を持つ。こ
のような学習データを前処理装置2により2値化する。
この2値化処理に際して、なるべくデータの特徴が出る
ように2値化用の閾値thを決定する。そこで、カテゴ
リー2については入力番号の小さい方(1から4)をO
N(“1”)にし、カテゴリー3については入力番号の
大きい方(10から7)をON(“1”)にし、カテゴ
リー1については中間の入力番号(5,6)をON
(“1”)にする。このようにして前処理装置2により
2値化処理を行った結果を示すと、図3に示すようにな
る。このように2値化された学習データを前処理装置2
からニューラルネット演算装置1に入力させることによ
り、ニューラルネット演算装置1の学習を行い、ニュー
ラルネット演算装置1における各シナプスの結合強さを
適宜変更させる。学習に際して、2値化処理されたデー
タを扱うので、アナログ値により学習する場合よりも学
習しやすく、学習時間も短縮させることができる。
ト演算装置1に対して、今度は、データ発生源5から付
与される認識データについて前処理装置3で規格化処理
及び閾値処理を行ってからニューラルネット演算装置1
に入力させることにより、認識データを認識させる。例
えば、データ発生源5から付与される認識データが図2
に示したようなものである場合、前処理装置3によって
規格化し、さらに、閾値処理により閾値より小さい値を
0データに変更した結果は、例えば、図4に示すような
ものとなる。図4に示す閾値処理結果によれば、カテゴ
リー1とカテゴリー2の一部の認識データが0データに
変更されているのが分かる。何れにしても、図2に示す
ような生の認識データに比べ、図4に示す規格化及び閾
値処理した認識データによれば、各々のデータの特徴が
際立っていることが分かる。このように特徴が際立った
データに基づきニューラルネット演算装置1により認識
処理を行うので、認識率の高いものとなる。
持たせる場合、その閾値処理する時の閾値thT の値
を、認識データによって可変自在とするのがよい。この
場合には、前処理装置3を例えば図5に示すように構成
すればよい。今、図示例では、取り扱うデータ(認識デ
ータ)が2種類の物理量A,Bからなり、物理量Aが物
理量Bの関数であるとしている。具体的には、物理量B
が温度データで、物理量が温度によって変化する抵抗値
データといったケースである。この場合、閾値精製手段
6によって物理量Bの値から閾値処理するための閾値を
生成するようにする。例えば、この閾値は温度の変化に
線形に生成してもよく、或いは、非線形に形成してもよ
く、要は、データが認識しやすくなるような値に設定す
ればよい。閾値生成手段6により可変的に生成された閾
値を、規格化手段7で規格化された認識データA,Bが
入力される閾値処理手段8に与えることにより、この閾
値処理手段8が閾値処理を行い、その処理結果をニュー
ラルネット演算装置1に入力させることになる。このよ
うに、閾値処理のための閾値をデータに応じて可変的と
することにより、よりデータの特徴が際立つ閾値処理を
行える。
算装置1の学習を行った後、実際に認識データについて
認識処理を行うに先立ち、ニューラルネット演算装置1
の学習が済んだ段階で、学習済みのニューラルネット演
算装置1について評価手段(図示せず)によりその学習
程度を評価するようにするのがよい。即ち、処理手順と
しては、図6に示すように、学習処理の後に評価処理を
行い、本来の認識処理に移行させるのがよい。ここに、
学習程度の評価に際しては、認識処理において使えそう
なニューラルネット演算装置1であるか否かを選別する
ため、認識させるべき認識データの一部を評価用データ
として用いるのがよい。より具体的には、評価用データ
はニューラルネット演算装置1をきちんと評価できるよ
うなデータ、即ち、ノイズ成分などを含まないデータが
よい。
学習程度の評価について、さらに説明する。まず、2値
化した学習データを前処理装置2により作成する。この
場合、データ発生源5から付与されるデータをそのまま
用いてもよく、或いは、適当な2値データを作成して用
いるようにしてもよい。このように前処理装置2で作成
された2値の学習データを用いてニューラルネット演算
装置1の学習を行う。一方、評価用のデータを前処理装
置3により作成する。この評価用データには、例えば、
学習データを作成する際に使用したデータを用いる。つ
いで、ニューラルネット演算装置1が学習を終了し、学
習に成功したとする。このようなニューラルネット演算
装置1に対して前処理装置3から評価用データを入力さ
せる。この時にニューラルネット演算装置1から得られ
る出力値が所望の結果であれば、次の本来の認識処理に
移行する。しかし、評価用データを入力させた時にニュ
ーラルネット演算装置1から満足いく結果が得られなか
った場合には、再び、異なる初期状態のニューラルネッ
ト演算装置1で最初から学習させて、上記のような評価
を行い、満足のいく結果が得られるまで、学習と評価と
を繰り返す。
装置1の評価機能を含む場合の2つの具体的数値例を以
下に説明する。
ゴリー毎に4個ずつのデータがあり、これらの全データ
を3つのカテゴリーに分類するものとする。また、ニュ
ーラルネット演算装置1のデータ入力数(入力層のニュ
ーロン数)は16個(n1〜n16)である。また、ニ
ューラルネット演算装置1は3層構造のもので、入力層
のニューロン数が上記のように16個、中間層のニュー
ロン数が16個、出力層のニューロン数が3個であると
する。
習データを示す。このデータは、7ビットの分解能(0
〜127)で測定された或る周波数データの例を示して
おり、表1のデータ名のカテゴリーを表すCの後の数字
は、分類されるべきカテゴリー番号を示している。従っ
て、表1の例では、C1,C2,C3なる3つのカテゴ
リーとなっている。
置1に与える学習用のデータを、表1に示すようなデー
タに値化処理を施すことにより作成する。今、2値化用
の閾値を75として各データを2値化すると、表2に示
すようなデータとなる。
ータをニューラルネット演算装置1の16個のニューロ
ンによる入力層に入力させることにより、ニューラルネ
ット演算装置1を学習させる。この時の教師データは、
カテゴリーC1のデータに対しては(1,0,0)、カ
テゴリーC2のデータに対しては(0,1,0)、カテ
ゴリーC3のデータに対しては(0,0,1)とした。
このような教師データを3個のニューロンによる出力層
に与えながら、このニューラルネット演算装置1の学習
を行うようにした。
を作成した。この評価用データを作成するため、まず、
表1に示したような各データについて(2)式に基づき
規格化処理を行う。ここに、表1に示すデータ中の最大
値は127であり、最小値は0であるので、表1に示す
データを規格化処理すると表3に示すような結果とな
る。
データについて、前処理装置3で閾値を0.591とし
て(3)式に従い、閾値処理を行う。この閾値処理を行
った結果は、表4に示すようなものとなる。
表4に示すようなデータを2値データとして、学習済み
のニューラルネット演算装置1に入力させた。この内、
或るニューラルネット演算装置1の出力を模式的に示し
たのが図7である。この図7によれば、ニューラルネッ
ト演算装置1の出力層の3つのニューロンの内で、1番
大きな値を出力したカテゴリーを、このニューラルネッ
ト演算装置1が認識したカテゴリーとする多数決方式
で、正しい認識をしていることが分かる。
演算装置1中からよりよい学習済みのニューラルネット
演算装置1を選択し、表4に示したような閾値処理済み
のデータを用いて実際の認識処理を行わせることにな
る。
リーでデータに傾向があることが分かる。即ち、カテゴ
リーC1ではn3〜n16辺りだけが1で、カテゴリー
C2ではn4〜n8辺りが1で、カテゴリーC3ではn
13辺りだけが1である、という具合である。そこで、
この具体的数値例2では、このような傾向を考慮し、各
カテゴリーを代表するような2値データを作成した。表
5はこの結果を示す。
な学習用のデータを用いてニューラルネット演算装置1
に学習させた。
装置1に対して、表4に示したような閾値処理後の認識
データを入力させて認識させた結果を評価した。この
内、或るニューラルネット演算装置1の出力を模式的に
示したのが図8である。この図8によれば、図7の場合
と同様に、ニューラルネット演算装置1の出力層の3つ
のニューロンの内で、1番大きな値を出力したカテゴリ
ーを、このニューラルネット演算装置1が認識したカテ
ゴリーとする多数決方式で、正しい認識をしていること
が分かる。
ータの特徴が分かりやすいときにはかなり有効となる。
即ち、ニューラルネット演算装置1の学習を行いやすい
ので、予め多くの学習済みのニューラルネット演算装置
1を作成しておき、評価手段で評価してみて、認識に用
いるのによりよいニューラルネット演算装置1を適正に
選ぶことができる。結果として、認識率が向上すること
にもなる。
より説明する。前記実施例で示した部分と同一部分は同
一符号を用い、その説明も省略する。本実施例では、扱
うデータ(学習データ及び認識データ)がパルス密度表
現のデータとされている。即ち、データの値を単位時間
当りのパルス数で表現するもので、“0”は1つもパル
スがない状態、“1”は単位時間の全てにパルスがある
状態を意味し、“0”と“1”との中間のデータ、例え
ば、“0.6”は、単位時間を100とした場合、この
単位時間中に60個のパルスがあることを意味する。こ
のような中間値に対しては、単位時間においてパルスが
立つ位置を決定するためにはパルス変換装置が必要とな
る。このため、本実施例においては、前処理として規格
化処理を行い中間値を出力する前処理装置3の出力側に
パルス変換装置9が付加されて構成されている。
ることにより、データ転送などにおいてノイズに強いも
のとなり、かつ、並列性の高い処理も可能となり、学習
時間や認識時間を短縮させ得るものとなる。
理装置2側で2値化処理なる前処理を行うようにした
が、この前処理装置2側で学習データについて規格化処
理を行うようにしてもよい。この場合、認識用の前処理
装置3側では、規格化処理だけでなく、閾値処理も行う
ように構成すればよい。また、このような構成例につい
て、パルス密度表現のデータを扱うようにする場合に
は、前処理装置2の出力側にもパルス変換装置を設ける
ようにすればよい。
を模倣した複数個のニューロンを各ニューロン間に個別
の結合強さを持たせて網状に接続してニューラルネット
演算装置を形成し、外部から入力される学習データに基
づき各結合強さを変化させる学習機能を備えるととも
に、入力される認識データに基づき各ニューロンから他
のニューロンの出力値と両ニューロン間の結合強さとの
積の総和を出力させるようにした信号処理装置におい
て、前記ニューラルネット演算装置に入力される学習デ
ータについて2値化処理なる前処理を行う学習データ用
前処理手段と、前記ニューラルネット演算装置に入力さ
れる認識データについて前記学習データ用前処理手段の
前処理とは異なるニューラルネット演算装置に適合する
規格化処理及びその規格化処理後に設定された閾値より
小さい認識データを0データに変更する閾値処理なる前
処理を行う認識データ用前処理手段とを設け、学習デー
タ用前処理手段と認識データ用前処理手段とが異なる前
処理を行うようにしたので、学習時であれば学習データ
用前処理手段による前処理でニューラルネット演算装置
に入力させる学習データのデータセット数を適正に少な
くして学習時間を短縮させることができ、認識時であれ
ば認識データ用前処理手段による前処理で認識データの
特徴を際立てさせることにより認識率を向上させること
ができる。特に、学習データ用前処理手段による前処理
を2値化処理とし、認識データ用前処理手段による前処
理をニューラルネット演算装置に適合する規格化処理と
したので、ニューラルネット演算装置ではアナログ値に
より学習するよりも学習しやすいものとなり、学習時間
を短縮し得る上に、ニューラルネット演算装置の規模も
小さくて済み、また、認識データ用前処理手段による前
処理は規格化処理であるので、認識データの特徴を際立
てさせるのに適しており、認識率の高い認識処理を行う
ことができる。さらに、認識データ用前処理手段による
前処理が、規格化処理後に設定された閾値より小さい認
識データを0データに変更する閾値処理を含むようにし
たので、適正に認識データの数を減らすことができ、認
識率を損なうことなく、認識時間を短縮させることがで
きる。
用前処理手段による前処理を規格化処理とし、認識デー
タ用前処理手段による前処理をニューラルネット演算装
置に適合する規格化処理及びその規格化処理後に設定さ
れた閾値より小さい認識データを0データに変更する閾
値処理としたので、認識率を損なうことなく、認識処理
を簡易化させて、認識時間を短縮させることができる。
は2記載の発明において、認識データ用前処理手段の前
処理中の閾値処理における閾値を可変自在としたので、
扱うべき認識データに応じて適正な閾値処理を行うこと
ができ、認識率の高い認識処理を行うことができる。
2又は3記載の発明において、学習データ用前処理手段
により前処理された学習データに基づき学習したニュー
ラルネット演算装置の学習程度を一部の認識データに基
づき評価する評価手段を設けたので、学習済みのニュー
ラルネット演算装置の学習程度を検証することができ、
よって、大量の認識データについて認識処理を行う際
に、認識率の高い学習済みのニューラルネット演算装置
を選択することができる。
2,3又は4記載の発明において、学習データ及び認識
データを、パルス密度表現のデータとしたので、データ
転送などにおいてノイズに強い上に、並列性の高いデー
タ処理が可能となり、学習時間や認識処理時間を短縮さ
せることができる。
る。
ラフである。
である。
図である。
である。
である。
る。
Claims (5)
- 【請求項1】 神経回路を模倣した複数個のニューロン
を各ニューロン間に個別の結合強さを持たせて網状に接
続してニューラルネット演算装置を形成し、外部から入
力される学習データに基づき各結合強さを変化させる学
習機能を備えるとともに、入力される認識データに基づ
き各ニューロンから他のニューロンの出力値と両ニュー
ロン間の結合強さとの積の総和を出力させるようにした
信号処理装置において、前記ニューラルネット演算装置
に入力される学習データについて2値化処理なる前処理
を行う学習データ用前処理手段と、前記ニューラルネッ
ト演算装置に入力される認識データについて前記学習デ
ータ用前処理手段の前処理とは異なるニューラルネット
演算装置に適合する規格化処理及びその規格化処理後に
設定された閾値より小さい認識データを0データに変更
する閾値処理なる前処理を行う認識データ用前処理手段
とを設けたことを特徴とする信号処理装置。 - 【請求項2】 神経回路を模倣した複数個のニューロン
を各ニューロン間に個別の結合強さを持たせて網状に接
続してニューラルネット演算装置を形成し、外部から入
力される学習データに基づき各結合強さを変化させる学
習機能を備えるとともに、入力される認識データに基づ
き各ニューロンから他のニューロンの出力値と両ニュー
ロン間の結合強さとの積の総和を出力させるようにした
信号処理装置において、前記ニューラルネット演算装置
に入力される学習データについて規格化処理なる前処理
を行う学習データ用前処理手段と、前記ニューラルネッ
ト演算装置に入力される認識データについて前記学習デ
ータ用前処理手段の前処理とは異なるニューラルネット
演算装置に適合する規格化処理及びその規格化処理後に
設定された閾値より小さい認識データを0データに変更
する閾値処理なる前処理を行う認識データ用前処理手段
とを設けたことを特徴とする信号処理装置。 - 【請求項3】 認識データ用前処理手段の前処理中の閾
値処理における閾値を可変自在としたことを特徴とする
請求項1又は2記載の信号処理装置。 - 【請求項4】 学習データ用前処理手段により前処理さ
れた学習データに基づき学習したニューラルネット演算
装置の学習程度を一部の認識データに基づき評価する評
価手段を設けたことを特徴とする請求項1,2又は3記
載の信号処理装置。 - 【請求項5】 学習データ及び認識データを、パルス密
度表現のデータとしたことを特徴とする請求項1,2,
3又は4記載の信号処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01762395A JP3534327B2 (ja) | 1995-02-06 | 1995-02-06 | 信号処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01762395A JP3534327B2 (ja) | 1995-02-06 | 1995-02-06 | 信号処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08212182A JPH08212182A (ja) | 1996-08-20 |
JP3534327B2 true JP3534327B2 (ja) | 2004-06-07 |
Family
ID=11949002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01762395A Expired - Fee Related JP3534327B2 (ja) | 1995-02-06 | 1995-02-06 | 信号処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3534327B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8429101B2 (en) * | 2010-12-07 | 2013-04-23 | Mitsubishi Electric Research Laboratories, Inc. | Method for selecting features used in continuous-valued regression analysis |
JP5998820B2 (ja) * | 2012-10-09 | 2016-09-28 | セイコーエプソン株式会社 | 撮影装置、合焦状態表示方法、合焦状態表示プログラム |
-
1995
- 1995-02-06 JP JP01762395A patent/JP3534327B2/ja not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
社団法人電子情報通信学会・編,「ディジタル信号処理ハンドブック」,日本,株式会社オーム社,1993年 1月31日,pp.15−18,ISBN:4−274−03423−2 |
Also Published As
Publication number | Publication date |
---|---|
JPH08212182A (ja) | 1996-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111160139B (zh) | 心电信号的处理方法、装置及终端设备 | |
EP0454037A2 (en) | Neural network for processing a plurality of informations and learning method | |
US5422981A (en) | Pattern recognition method and apparatus using a neural network | |
JP2007505379A (ja) | 人工ニューラルネットワーク | |
CN112101544A (zh) | 适用于长尾分布数据集的神经网络的训练方法和装置 | |
KR100306848B1 (ko) | 신경회로망을 이용한 선택적 주의집중 방법 | |
CN111291727B (zh) | 一种光体积变化描记图法信号质量检测方法和装置 | |
Cnn | Speech emotion recognition using convolutional neural network (CNN) | |
JPH08227408A (ja) | ニューラルネットワーク | |
CN112529151A (zh) | 一种数据处理方法以及装置 | |
EP0450522A2 (en) | A learning method for a data processing system | |
CN111563161A (zh) | 一种语句识别方法、语句识别装置及智能设备 | |
JP3534327B2 (ja) | 信号処理装置 | |
CN106997590A (zh) | 一种基于检测产品特性的图像处理与检测系统 | |
CN108875909A (zh) | 医学影像的分类方法及装置 | |
JPH0581227A (ja) | 神経系回路網信号処理装置及び信号処理方法 | |
Sovia et al. | Backpropagation Algorithm on Implementation of Signature Recognition | |
EP0567983B1 (en) | Learning type waveform recognizer | |
EP0453939A2 (en) | Learning method for data processing system | |
Shareef et al. | OCR-ANN Back-Propagation Based Classifier | |
JP3303253B2 (ja) | パターンマッチング方法および装置 | |
CN118133823B (zh) | 一种文档级事件抽取的候选论元过滤方法及装置 | |
KR102574165B1 (ko) | 스파이킹 신경망에서 신경 암호 기반 소리 분류 장치 및 그 방법 | |
JPH04501327A (ja) | パターン伝達ニューラルネットワーク | |
CN116933798A (zh) | 信息处理方法、装置、终端以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040305 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090319 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100319 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110319 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |