JP3534327B2 - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JP3534327B2
JP3534327B2 JP01762395A JP1762395A JP3534327B2 JP 3534327 B2 JP3534327 B2 JP 3534327B2 JP 01762395 A JP01762395 A JP 01762395A JP 1762395 A JP1762395 A JP 1762395A JP 3534327 B2 JP3534327 B2 JP 3534327B2
Authority
JP
Japan
Prior art keywords
data
learning
preprocessing
neural network
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01762395A
Other languages
English (en)
Other versions
JPH08212182A (ja
Inventor
博庸 三船
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP01762395A priority Critical patent/JP3534327B2/ja
Publication of JPH08212182A publication Critical patent/JPH08212182A/ja
Application granted granted Critical
Publication of JP3534327B2 publication Critical patent/JP3534327B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声データや画像デー
タなどのパターン認識、その他の各種の認識を、学習機
能を備えたニューラルネット演算装置を用いて行う信号
処理装置に関する。
【0002】
【従来の技術】生体の神経回路網を模倣した情報処理装
置、所謂、ニューラルネット演算装置は、データに対し
て特別な知識がなくても、複雑なデータを学習し、認識
できることが知られており、幅広い分野での導入が検討
されている。
【0003】ここに、この種のニューラルネット演算装
置は、一般には、神経回路を模倣した多数のニューロン
と、これらの各ニューロン間を結合するシナプスとによ
り構成されており、各シナプスには所定の結合強さが個
別に付与されている。この結合強さを適正な値に設定す
るために学習を行い、ニューラルネット演算装置自身で
結合強さの最適解を求めるようにしている。よって、こ
のようなニューラルネット演算装置において、「学習」
とは、外部から信号(学習データ)を入力した時に、ニ
ューラルネット演算装置を構成するシナプスの結合強さ
を望ましい値に変化させることを意味する。このような
学習方法には、教師データ有りの学習と教師データ無し
の学習とがあり、教師データ有りの学習のアルゴリズム
には、代表的なものとして、誤差逆伝播法(バックプロ
パゲーション法)などがある。一方、ニューラルネット
演算装置における「認識」とは、学習後のシナプスの結
合強さの値を固定したまま、対象となる認識データを入
力させて、ニューラルネット演算装置から認識結果を出
力させることを意味する。
【0004】しかし、ニューラルネット演算装置は、学
習データとして生データをそのまま入力して学習させよ
うとしても、常に学習できるとは限らず、入力データに
対して何らかの前処理を施すことにより、学習できる割
合ないしは効率が向上する。また、ハードウェア構成の
ニューラルネット演算装置を用いる時には、入力できる
データについて幾つかの制約がある。例えば、1データ
の要素(つまり、入力ニューロンの数)に上限があった
り、入力できるデータに対して分解能が決められていた
りする。このようにデータの精度や数などに制限がある
ので、この観点からも前処理が必要である。つまり、
「前処理」とは、データ源からのデータをニューラルネ
ット演算装置に入力できるように処理することを意味す
る。
【0005】このような観点から、ニューラルネット演
算装置に入力するデータに対して何らかの前処理を施す
ようにしたものがある。例えば、特開平5−34691
6号公報によれば、学習時間の短縮と認識率の向上とを
狙い、ニューラルネット演算装置への入力データに対し
て統計的解析手段によってデータを加工することで、デ
ータを減らして学習するようにしている。
【0006】また、特開平6−96048号公報によれ
ば、認識時の高速化と簡素化とを狙い、学習時と認識時
とでデータの精度を変えるようにしている。
【0007】
【発明が解決しようとする課題】ところが、前者の特開
平5−346916号公報方式の場合、入力データの統
計処理を行うものの、そのデータ集合が学習しやすいデ
ータとなるか否かは定かでない。この結果、データ数が
少なくても、逆に、学習に多大な時間を必要としたり、
学習を行えない可能性もある。
【0008】また、後者の特開平6−96048号公報
方式の場合、認識時の精度が学習時の精度よりも低いの
で、場合によっては、異なるカテゴリーであるのにデー
タが同じとなって誤認識されてしまうことがある。
【0009】本発明は、このような点に鑑み、学習しや
すい上に認識率も向上させ得る信号処理装置を得ること
を目的とする。
【0010】
【課題を解決するための手段】請求項1記載の発明は、
神経回路を模倣した複数個のニューロンを各ニューロン
間に個別の結合強さを持たせて網状に接続してニューラ
ルネット演算装置を形成し、外部から入力される学習デ
ータに基づき各結合強さを変化させる学習機能を備える
とともに、入力される認識データに基づき各ニューロン
から他のニューロンの出力値と両ニューロン間の結合強
さとの積の総和を出力させるようにした信号処理装置に
おいて、前記ニューラルネット演算装置に入力される学
習データについて2値化処理なる前処理を行う学習デー
タ用前処理手段と、前記ニューラルネット演算装置に入
力される認識データについて前記学習データ用前処理手
段の前処理とは異なるニューラルネット演算装置に適合
する規格化処理及びその規格化処理後に設定された閾値
より小さい認識データを0データに変更する閾値処理な
前処理を行う認識データ用前処理手段とを信号処理装
置である。
【0011】
【0012】
【0013】請求項記載の発明は、神経回路を模倣し
た複数個のニューロンを各ニューロン間に個別の結合強
さを持たせて網状に接続してニューラルネット演算装置
を形成し、外部から入力される学習データに基づき各結
合強さを変化させる学習機能を備えるとともに、入力さ
れる認識データに基づき各ニューロンから他のニューロ
ンの出力値と両ニューロン間の結合強さとの積の総和を
出力させるようにした信号処理装置において、前記ニュ
ーラルネット演算装置に入力される学習データについて
規格化処理なる前処理を行う学習データ用前処理手段
と、前記ニューラルネット演算装置に入力される認識デ
ータについて前記学習データ用前処理手段の前処理とは
異なるニューラルネット演算装置に適合する規格化処理
及びその規格化処理後に設定された閾値より小さい認識
データを0データに変更する閾値処理なる前処理を行う
認識データ用前処理手段とを設けた信号処理装置であ
る。
【0014】請求項記載の発明は、請求項又は
載の発明において、認識データ用前処理手段の前処理中
の閾値処理における閾値を可変自在とした信号処理装置
である。
【0015】請求項記載の発明は、請求項1,又は
記載の発明において、学習データ用前処理手段により
前処理された学習データに基づき学習したニューラルネ
ット演算装置の学習程度を一部の認識データに基づき評
価する評価手段を設けた信号処理装置である。
【0016】請求項記載の発明は、請求項1,2,
又は記載の発明において、学習データ及び認識データ
を、パルス密度表現のデータとした信号処理装置であ
る。
【0017】
【作用】請求項1記載の発明においては、学習データ用
前処理手段と認識データ用前処理手段とが異なる前処理
を行うので、学習時であれば学習データ用前処理手段に
よる前処理でニューラルネット演算装置に入力させる学
習データのデータセット数を適正に少なくして学習時間
を短縮させることができ、認識時であれば認識データ用
前処理手段による前処理で認識データの特徴を際立てさ
せることにより認識率を向上させることができる。
に、学習データ用前処理手段による前処理が2値化処理
であるので、ニューラルネット演算装置ではアナログ値
により学習するよりも学習しやすいものとなり、学習時
間を短縮し得る上に、ニューラルネット演算装置の規模
も小さくて済む。また、認識データ用前処理手段による
前処理は規格化処理であるので、認識データの特徴を際
立てさせるのに適している。加えて、認識データ用前処
理手段による前処理に関して、規格化処理に加えて、規
格化された認識データについて予め設定された閾値より
小さい値は0データに変更する閾値処理も行うようにし
たので、適正に認識データの数を減らすことができ、認
識率を損なうことなく、認識時間を短縮させることがで
きる。
【0018】
【0019】
【0020】請求項記載の発明においては、学習デー
タ用前処理手段及び認識データ用前処理手段は何れも前
処理として規格化処理を行うが、認識データ用前処理手
段では規格化処理に加えて閾値処理も行うので、認識率
を損なうことなく、認識処理を簡易化させて、認識時間
を短縮させることができる。
【0021】請求項記載の発明においては、閾値処理
を行うための閾値を可変自在としているので、扱うべき
認識データに応じて適正な閾値処理を行える。
【0022】請求項記載の発明においては、評価手段
を備えて学習済みのニューラルネット演算装置の学習程
度を検証するので、大量の認識データについて認識処理
を行う際に、認識率の高い学習済みのニューラルネット
演算装置を選択することができる。
【0023】請求項記載の発明においては、扱うデー
タをパルス密度表現のデータとしているので、データ転
送などにおいてノイズに強い上に、並列性の高いデータ
処理が可能となる。
【0024】
【実施例】本発明の第一の実施例を図1ないし図8に基
づいて説明する。本実施例の認識用の信号処理装置はニ
ューラルネット演算装置1を主体とするもので、その入
力側に2つの前処理装置2,3が接続され、出力側に後
処理装置4が接続されることにより構成されている。
【0025】前記ニューラルネット演算装置1は、神経
回路を模倣した複数個のニューロンを各ニューロン間に
個別の結合強さを持たせて網状に接続してなり、学習機
能を備えたものである。このようなニューラルネット演
算装置1は、専用の電子回路や光電子回路又はコンピュ
ータなどにより構成されるが、具体的には、入力層、中
間層及び出力層を備えた通常のハードウェアによる階層
型ニューラルネットワークとして構成すればよい。もっ
とも、ニューラルネット演算装置1自身の構成は従来周
知のものでよく、かつ、そのデータ演算方法や学習方法
等についても周知技術を用いればよいので、ここでは、
その詳細を省略する。
【0026】前記前処理装置2は学習データ用前処理手
段として機能し、学習時にデータ発生源5から前記ニュ
ーラルネット演算装置1に与えられる学習データについ
て、或る前処理を施すものである。前記前処理装置3は
認識データ用前処理手段として機能し、認識時にデータ
発生源5から前記ニューラルネット演算装置1に与えら
れる認識データについて、或る前処理を施すものであ
る。前記後処理装置4は、前処理装置2又は3により前
処理された学習データ又は認識データに基づきニューラ
ルネット演算装置1で学習演算又は認識演算された結果
を受けて、後で使用する機器に合わせてデータ変換を行
うための装置である。このデータ変換は、例えば、デー
タ分類で使う多数決回路のように、出力値の内で最大出
力を出したニューロンを検出するようなものである。何
れにしても、これらの前処理装置2,3や後処理装置4
は、専用の電子回路やコンピュータなどにより構成され
る。
【0027】また、前記データ発生源5から付与される
データ(学習データ又は認識データ)は、アナログ値又
はデジタル値であり、そのダイナミックレンジやデータ
数も様々である。例えば、ガスセンサからの出力値であ
ったり、ギヤの作動音(周波数成分)であったりする。
また、データ発生源5としても複数であり、例えば、温
度とその温度により変化する周波数とのデータであった
りする。ここに、ニューラルネット演算装置1は前述し
たように入力できるデータに対して幾つかの制約がある
ため、このデータ発生源5からのデータをニューラルネ
ット演算装置1に入力できるように、前処理装置2又は
3により前処理を行わせるものであり、本実施例では、
これらの前処理装置2,3による前処理の内容が異な
る。
【0028】まず、前処理装置2はデータ発生源5から
付与される学習データに対して2値化処理なる前処理を
行うように構成されている。即ち、データ発生源5から
付与される学習データを、例えば、“0”又は“1”の
2値に変換する処理を行う。もっとも、2値化する値
は、“0”,“1”以外の値であっても構わない。ここ
にデータ発生源5から付与される学習データをXin、閾
値をthとすると、2値化後の学習データXq は、 Xq =1 Xin≧thの場合 Xq =0 Xin<thの場合 ………………………………(1) のようになる。この際、2値化用の閾値thは、カテゴ
リー間の特徴差が明確になるように設定する必要があ
る。
【0029】一方、前処理装置3はデータ発生源5から
付与される認識データに対して規格化処理及び閾値処理
なる前処理を行うように構成されている。規格化は、元
の認識データをニューラルネット演算装置1のダイナミ
ックレンジを広く使えるように変換するものであり、ニ
ューラルネット演算装置1に適合するように設定され
る。ここに、データ発生源5から付与される認識データ
をXin、或る認識データの集合の最小値をXmin 、或る
認識データの集合の最大値をXmax とすると、規格化処
理による規格化後の認識データXT は、 として表される。
【0030】前処理装置3による閾値処理は、上記のよ
うに規格化した後、予め設定された或る閾値thT より
小さい値の認識データXT は0データに変更し、それ以
外の場合には規格化された認識データXT の値をそのま
ま用いるようにする処理である。閾値処理した後の認識
データをXT(th)すると、 となる。
【0031】ここに、データ例を図2ないし図4に示
す。まず、図2は生の学習データないしは認識データ例
を示し、このデータ例にはカテゴリー1〜3で示す3つ
のカテゴリーがあり、各カテゴリー1〜3中にはデータ
が3つずつあり、図示のような値(相対値)を持つ。こ
のような学習データを前処理装置2により2値化する。
この2値化処理に際して、なるべくデータの特徴が出る
ように2値化用の閾値thを決定する。そこで、カテゴ
リー2については入力番号の小さい方(1から4)をO
N(“1”)にし、カテゴリー3については入力番号の
大きい方(10から7)をON(“1”)にし、カテゴ
リー1については中間の入力番号(5,6)をON
(“1”)にする。このようにして前処理装置2により
2値化処理を行った結果を示すと、図3に示すようにな
る。このように2値化された学習データを前処理装置2
からニューラルネット演算装置1に入力させることによ
り、ニューラルネット演算装置1の学習を行い、ニュー
ラルネット演算装置1における各シナプスの結合強さを
適宜変更させる。学習に際して、2値化処理されたデー
タを扱うので、アナログ値により学習する場合よりも学
習しやすく、学習時間も短縮させることができる。
【0032】このようにして学習済みのニューラルネッ
ト演算装置1に対して、今度は、データ発生源5から付
与される認識データについて前処理装置3で規格化処理
及び閾値処理を行ってからニューラルネット演算装置1
に入力させることにより、認識データを認識させる。例
えば、データ発生源5から付与される認識データが図2
に示したようなものである場合、前処理装置3によって
規格化し、さらに、閾値処理により閾値より小さい値を
0データに変更した結果は、例えば、図4に示すような
ものとなる。図4に示す閾値処理結果によれば、カテゴ
リー1とカテゴリー2の一部の認識データが0データに
変更されているのが分かる。何れにしても、図2に示す
ような生の認識データに比べ、図4に示す規格化及び閾
値処理した認識データによれば、各々のデータの特徴が
際立っていることが分かる。このように特徴が際立った
データに基づきニューラルネット演算装置1により認識
処理を行うので、認識率の高いものとなる。
【0033】ところで、前処理装置3に閾値処理機能を
持たせる場合、その閾値処理する時の閾値thT の値
を、認識データによって可変自在とするのがよい。この
場合には、前処理装置3を例えば図5に示すように構成
すればよい。今、図示例では、取り扱うデータ(認識デ
ータ)が2種類の物理量A,Bからなり、物理量Aが物
理量Bの関数であるとしている。具体的には、物理量B
が温度データで、物理量が温度によって変化する抵抗値
データといったケースである。この場合、閾値精製手段
6によって物理量Bの値から閾値処理するための閾値を
生成するようにする。例えば、この閾値は温度の変化に
線形に生成してもよく、或いは、非線形に形成してもよ
く、要は、データが認識しやすくなるような値に設定す
ればよい。閾値生成手段6により可変的に生成された閾
値を、規格化手段7で規格化された認識データA,Bが
入力される閾値処理手段8に与えることにより、この閾
値処理手段8が閾値処理を行い、その処理結果をニュー
ラルネット演算装置1に入力させることになる。このよ
うに、閾値処理のための閾値をデータに応じて可変的と
することにより、よりデータの特徴が際立つ閾値処理を
行える。
【0034】また、上述したようにニューラルネット演
算装置1の学習を行った後、実際に認識データについて
認識処理を行うに先立ち、ニューラルネット演算装置1
の学習が済んだ段階で、学習済みのニューラルネット演
算装置1について評価手段(図示せず)によりその学習
程度を評価するようにするのがよい。即ち、処理手順と
しては、図6に示すように、学習処理の後に評価処理を
行い、本来の認識処理に移行させるのがよい。ここに、
学習程度の評価に際しては、認識処理において使えそう
なニューラルネット演算装置1であるか否かを選別する
ため、認識させるべき認識データの一部を評価用データ
として用いるのがよい。より具体的には、評価用データ
はニューラルネット演算装置1をきちんと評価できるよ
うなデータ、即ち、ノイズ成分などを含まないデータが
よい。
【0035】このようなニューラルネット演算装置1の
学習程度の評価について、さらに説明する。まず、2値
化した学習データを前処理装置2により作成する。この
場合、データ発生源5から付与されるデータをそのまま
用いてもよく、或いは、適当な2値データを作成して用
いるようにしてもよい。このように前処理装置2で作成
された2値の学習データを用いてニューラルネット演算
装置1の学習を行う。一方、評価用のデータを前処理装
置3により作成する。この評価用データには、例えば、
学習データを作成する際に使用したデータを用いる。つ
いで、ニューラルネット演算装置1が学習を終了し、学
習に成功したとする。このようなニューラルネット演算
装置1に対して前処理装置3から評価用データを入力さ
せる。この時にニューラルネット演算装置1から得られ
る出力値が所望の結果であれば、次の本来の認識処理に
移行する。しかし、評価用データを入力させた時にニュ
ーラルネット演算装置1から満足いく結果が得られなか
った場合には、再び、異なる初期状態のニューラルネッ
ト演算装置1で最初から学習させて、上記のような評価
を行い、満足のいく結果が得られるまで、学習と評価と
を繰り返す。
【0036】ここに、学習済みのニューラルネット演算
装置1の評価機能を含む場合の2つの具体的数値例を以
下に説明する。
【0037】具体的数値例1 まず、扱うデータとしては、データ数が12個で各カテ
ゴリー毎に4個ずつのデータがあり、これらの全データ
を3つのカテゴリーに分類するものとする。また、ニュ
ーラルネット演算装置1のデータ入力数(入力層のニュ
ーロン数)は16個(n1〜n16)である。また、ニ
ューラルネット演算装置1は3層構造のもので、入力層
のニューロン数が上記のように16個、中間層のニュー
ロン数が16個、出力層のニューロン数が3個であると
する。
【0038】表1に前処理装置2で処理する前の生の学
習データを示す。このデータは、7ビットの分解能(0
〜127)で測定された或る周波数データの例を示して
おり、表1のデータ名のカテゴリーを表すCの後の数字
は、分類されるべきカテゴリー番号を示している。従っ
て、表1の例では、C1,C2,C3なる3つのカテゴ
リーとなっている。
【0039】
【表1】
【0040】前処理装置2ではニューラルネット演算装
置1に与える学習用のデータを、表1に示すようなデー
タに値化処理を施すことにより作成する。今、2値化用
の閾値を75として各データを2値化すると、表2に示
すようなデータとなる。
【0041】
【表2】
【0042】表2に示すように2値化された学習用のデ
ータをニューラルネット演算装置1の16個のニューロ
ンによる入力層に入力させることにより、ニューラルネ
ット演算装置1を学習させる。この時の教師データは、
カテゴリーC1のデータに対しては(1,0,0)、カ
テゴリーC2のデータに対しては(0,1,0)、カテ
ゴリーC3のデータに対しては(0,0,1)とした。
このような教師データを3個のニューロンによる出力層
に与えながら、このニューラルネット演算装置1の学習
を行うようにした。
【0043】ついで、前処理装置3により評価用データ
を作成した。この評価用データを作成するため、まず、
表1に示したような各データについて(2)式に基づき
規格化処理を行う。ここに、表1に示すデータ中の最大
値は127であり、最小値は0であるので、表1に示す
データを規格化処理すると表3に示すような結果とな
る。
【0044】
【表3】
【0045】このように規格化された表3に示すような
データについて、前処理装置3で閾値を0.591とし
て(3)式に従い、閾値処理を行う。この閾値処理を行
った結果は、表4に示すようなものとなる。
【0046】
【表4】
【0047】規格化処理され、さらに、閾値処理された
表4に示すようなデータを2値データとして、学習済み
のニューラルネット演算装置1に入力させた。この内、
或るニューラルネット演算装置1の出力を模式的に示し
たのが図7である。この図7によれば、ニューラルネッ
ト演算装置1の出力層の3つのニューロンの内で、1番
大きな値を出力したカテゴリーを、このニューラルネッ
ト演算装置1が認識したカテゴリーとする多数決方式
で、正しい認識をしていることが分かる。
【0048】このようにして評価したニューラルネット
演算装置1中からよりよい学習済みのニューラルネット
演算装置1を選択し、表4に示したような閾値処理済み
のデータを用いて実際の認識処理を行わせることにな
る。
【0049】具体的数値例2 まず、表2に示した2値データによれば、各々のカテゴ
リーでデータに傾向があることが分かる。即ち、カテゴ
リーC1ではn3〜n16辺りだけが1で、カテゴリー
C2ではn4〜n8辺りが1で、カテゴリーC3ではn
13辺りだけが1である、という具合である。そこで、
この具体的数値例2では、このような傾向を考慮し、各
カテゴリーを代表するような2値データを作成した。表
5はこの結果を示す。
【0050】
【表5】
【0051】この具体的数値例2では、表5に示すよう
な学習用のデータを用いてニューラルネット演算装置1
に学習させた。
【0052】そして、学習済みのニューラルネット演算
装置1に対して、表4に示したような閾値処理後の認識
データを入力させて認識させた結果を評価した。この
内、或るニューラルネット演算装置1の出力を模式的に
示したのが図8である。この図8によれば、図7の場合
と同様に、ニューラルネット演算装置1の出力層の3つ
のニューロンの内で、1番大きな値を出力したカテゴリ
ーを、このニューラルネット演算装置1が認識したカテ
ゴリーとする多数決方式で、正しい認識をしていること
が分かる。
【0053】このように、評価機能を持たせるのは、デ
ータの特徴が分かりやすいときにはかなり有効となる。
即ち、ニューラルネット演算装置1の学習を行いやすい
ので、予め多くの学習済みのニューラルネット演算装置
1を作成しておき、評価手段で評価してみて、認識に用
いるのによりよいニューラルネット演算装置1を適正に
選ぶことができる。結果として、認識率が向上すること
にもなる。
【0054】つづいて、本発明の第二の実施例を図9に
より説明する。前記実施例で示した部分と同一部分は同
一符号を用い、その説明も省略する。本実施例では、扱
うデータ(学習データ及び認識データ)がパルス密度表
現のデータとされている。即ち、データの値を単位時間
当りのパルス数で表現するもので、“0”は1つもパル
スがない状態、“1”は単位時間の全てにパルスがある
状態を意味し、“0”と“1”との中間のデータ、例え
ば、“0.6”は、単位時間を100とした場合、この
単位時間中に60個のパルスがあることを意味する。こ
のような中間値に対しては、単位時間においてパルスが
立つ位置を決定するためにはパルス変換装置が必要とな
る。このため、本実施例においては、前処理として規格
化処理を行い中間値を出力する前処理装置3の出力側に
パルス変換装置9が付加されて構成されている。
【0055】扱うデータをパルス密度表現のデータとす
ることにより、データ転送などにおいてノイズに強いも
のとなり、かつ、並列性の高い処理も可能となり、学習
時間や認識時間を短縮させ得るものとなる。
【0056】なお、これらの実施例では、学習用の前処
理装置2側で2値化処理なる前処理を行うようにした
が、この前処理装置2側で学習データについて規格化処
理を行うようにしてもよい。この場合、認識用の前処理
装置3側では、規格化処理だけでなく、閾値処理も行う
ように構成すればよい。また、このような構成例につい
て、パルス密度表現のデータを扱うようにする場合に
は、前処理装置2の出力側にもパルス変換装置を設ける
ようにすればよい。
【0057】
【発明の効果】請求項1記載の発明によれば、神経回路
を模倣した複数個のニューロンを各ニューロン間に個別
の結合強さを持たせて網状に接続してニューラルネット
演算装置を形成し、外部から入力される学習データに基
づき各結合強さを変化させる学習機能を備えるととも
に、入力される認識データに基づき各ニューロンから他
のニューロンの出力値と両ニューロン間の結合強さとの
積の総和を出力させるようにした信号処理装置におい
て、前記ニューラルネット演算装置に入力される学習デ
ータについて2値化処理なる前処理を行う学習データ用
前処理手段と、前記ニューラルネット演算装置に入力さ
れる認識データについて前記学習データ用前処理手段の
前処理とは異なるニューラルネット演算装置に適合する
規格化処理及びその規格化処理後に設定された閾値より
小さい認識データを0データに変更する閾値処理なる
処理を行う認識データ用前処理手段とを設け、学習デー
タ用前処理手段と認識データ用前処理手段とが異なる前
処理を行うようにしたので、学習時であれば学習データ
用前処理手段による前処理でニューラルネット演算装置
に入力させる学習データのデータセット数を適正に少な
くして学習時間を短縮させることができ、認識時であれ
ば認識データ用前処理手段による前処理で認識データの
特徴を際立てさせることにより認識率を向上させること
ができる。特に、学習データ用前処理手段による前処理
を2値化処理とし、認識データ用前処理手段による前処
理をニューラルネット演算装置に適合する規格化処理と
したので、ニューラルネット演算装置ではアナログ値に
より学習するよりも学習しやすいものとなり、学習時間
を短縮し得る上に、ニューラルネット演算装置の規模も
小さくて済み、また、認識データ用前処理手段による前
処理は規格化処理であるので、認識データの特徴を際立
てさせるのに適しており、認識率の高い認識処理を行う
ことができる。さらに、認識データ用前処理手段による
前処理が、規格化処理後に設定された閾値より小さい認
識データを0データに変更する閾値処理を含むようにし
たので、適正に認識データの数を減らすことができ、認
識率を損なうことなく、認識時間を短縮させることがで
きる。
【0058】
【0059】
【0060】請求項記載の発明によれば、学習データ
用前処理手段による前処理を規格化処理とし、認識デー
タ用前処理手段による前処理をニューラルネット演算装
置に適合する規格化処理及びその規格化処理後に設定さ
れた閾値より小さい認識データを0データに変更する閾
値処理としたので、認識率を損なうことなく、認識処理
を簡易化させて、認識時間を短縮させることができる。
【0061】請求項記載の発明によれば、請求項
記載の発明において、認識データ用前処理手段の前
処理中の閾値処理における閾値を可変自在としたので、
扱うべき認識データに応じて適正な閾値処理を行うこと
ができ、認識率の高い認識処理を行うことができる。
【0062】請求項記載の発明によれば、請求項1,
又は記載の発明において、学習データ用前処理手段
により前処理された学習データに基づき学習したニュー
ラルネット演算装置の学習程度を一部の認識データに基
づき評価する評価手段を設けたので、学習済みのニュー
ラルネット演算装置の学習程度を検証することができ、
よって、大量の認識データについて認識処理を行う際
に、認識率の高い学習済みのニューラルネット演算装置
を選択することができる。
【0063】請求項記載の発明によれば、請求項1,
2,又は記載の発明において、学習データ及び認識
データを、パルス密度表現のデータとしたので、データ
転送などにおいてノイズに強い上に、並列性の高いデー
タ処理が可能となり、学習時間や認識処理時間を短縮さ
せることができる。
【図面の簡単な説明】
【図1】本発明の第一の実施例を示すブロック図であ
る。
【図2】生のデータ例を示すグラフである。
【図3】2値化処理後のデータ例を示すグラフである。
【図4】規格化処理及び閾値処理後のデータ例を示すグ
ラフである。
【図5】認識用の前処理装置の変形例を示すブロック図
である。
【図6】評価処理を含む場合の処理手順を示すブロック
図である。
【図7】具体的数値例1による評価結果例を示す模式図
である。
【図8】具体的数値例2による評価結果例を示す模式図
である。
【図9】本発明の第二の実施例を示すブロック図であ
る。
【符号の説明】
1 ニューラルネット演算装置 2 学習データ用前処理手段 3 認識データ用前処理手段
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平6−4675(JP,A) 特開 平4−148389(JP,A) 社団法人電子情報通信学会・編,「デ ィジタル信号処理ハンドブック」,日 本,株式会社オーム社,1993年 1月31 日,pp.15−18,ISBN:4−274 −03423−2 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G06T 7/00 - 7/60 G06K 9/00 - 9/82 G10L 3/00 - 9/20 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 神経回路を模倣した複数個のニューロン
    を各ニューロン間に個別の結合強さを持たせて網状に接
    続してニューラルネット演算装置を形成し、外部から入
    力される学習データに基づき各結合強さを変化させる学
    習機能を備えるとともに、入力される認識データに基づ
    き各ニューロンから他のニューロンの出力値と両ニュー
    ロン間の結合強さとの積の総和を出力させるようにした
    信号処理装置において、前記ニューラルネット演算装置
    に入力される学習データについて2値化処理なる前処理
    を行う学習データ用前処理手段と、前記ニューラルネッ
    ト演算装置に入力される認識データについて前記学習デ
    ータ用前処理手段の前処理とは異なるニューラルネット
    演算装置に適合する規格化処理及びその規格化処理後に
    設定された閾値より小さい認識データを0データに変更
    する閾値処理なる前処理を行う認識データ用前処理手段
    とを設けたことを特徴とする信号処理装置。
  2. 【請求項2】 神経回路を模倣した複数個のニューロン
    を各ニューロン間に個別の結合強さを持たせて網状に接
    続してニューラルネット演算装置を形成し、外部から入
    力される学習データに基づき各結合強さを変化させる学
    習機能を備えるとともに、入力される認識データに基づ
    き各ニューロンから他のニューロンの出力値と両ニュー
    ロン間の結合強さとの積の総和を出力させるようにした
    信号処理装置において、前記ニューラルネット演算装置
    に入力される学習データについて規格化処理なる前処理
    を行う学習データ用前処理手段と、前記ニューラルネッ
    ト演算装置に入力される認識データについて前記学習デ
    ータ用前処理手段の前処理とは異なるニューラルネット
    演算装置に適合する規格化処理及びその規格化処理後に
    設定された閾値より小さい認識データを0データに変更
    する閾値処理なる前処理を行う認識データ用前処理手段
    とを設けたことを特徴とする信号処理装置。
  3. 【請求項3】 認識データ用前処理手段の前処理中の閾
    値処理における閾値を可変自在としたことを特徴とする
    請求項又は記載の信号処理装置。
  4. 【請求項4】 学習データ用前処理手段により前処理さ
    れた学習データに基づき学習したニューラルネット演算
    装置の学習程度を一部の認識データに基づき評価する評
    価手段を設けたことを特徴とする請求項1,又は
    載の信号処理装置。
  5. 【請求項5】 学習データ及び認識データを、パルス密
    度表現のデータとしたことを特徴とする請求項1,2,
    又は記載の信号処理装置。
JP01762395A 1995-02-06 1995-02-06 信号処理装置 Expired - Fee Related JP3534327B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01762395A JP3534327B2 (ja) 1995-02-06 1995-02-06 信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01762395A JP3534327B2 (ja) 1995-02-06 1995-02-06 信号処理装置

Publications (2)

Publication Number Publication Date
JPH08212182A JPH08212182A (ja) 1996-08-20
JP3534327B2 true JP3534327B2 (ja) 2004-06-07

Family

ID=11949002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01762395A Expired - Fee Related JP3534327B2 (ja) 1995-02-06 1995-02-06 信号処理装置

Country Status (1)

Country Link
JP (1) JP3534327B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8429101B2 (en) * 2010-12-07 2013-04-23 Mitsubishi Electric Research Laboratories, Inc. Method for selecting features used in continuous-valued regression analysis
JP5998820B2 (ja) * 2012-10-09 2016-09-28 セイコーエプソン株式会社 撮影装置、合焦状態表示方法、合焦状態表示プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
社団法人電子情報通信学会・編,「ディジタル信号処理ハンドブック」,日本,株式会社オーム社,1993年 1月31日,pp.15−18,ISBN:4−274−03423−2

Also Published As

Publication number Publication date
JPH08212182A (ja) 1996-08-20

Similar Documents

Publication Publication Date Title
CN111160139B (zh) 心电信号的处理方法、装置及终端设备
EP0454037A2 (en) Neural network for processing a plurality of informations and learning method
US5422981A (en) Pattern recognition method and apparatus using a neural network
JP2007505379A (ja) 人工ニューラルネットワーク
CN112101544A (zh) 适用于长尾分布数据集的神经网络的训练方法和装置
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
CN111291727B (zh) 一种光体积变化描记图法信号质量检测方法和装置
Cnn Speech emotion recognition using convolutional neural network (CNN)
JPH08227408A (ja) ニューラルネットワーク
CN112529151A (zh) 一种数据处理方法以及装置
EP0450522A2 (en) A learning method for a data processing system
CN111563161A (zh) 一种语句识别方法、语句识别装置及智能设备
JP3534327B2 (ja) 信号処理装置
CN106997590A (zh) 一种基于检测产品特性的图像处理与检测系统
CN108875909A (zh) 医学影像的分类方法及装置
JPH0581227A (ja) 神経系回路網信号処理装置及び信号処理方法
Sovia et al. Backpropagation Algorithm on Implementation of Signature Recognition
EP0567983B1 (en) Learning type waveform recognizer
EP0453939A2 (en) Learning method for data processing system
Shareef et al. OCR-ANN Back-Propagation Based Classifier
JP3303253B2 (ja) パターンマッチング方法および装置
CN118133823B (zh) 一种文档级事件抽取的候选论元过滤方法及装置
KR102574165B1 (ko) 스파이킹 신경망에서 신경 암호 기반 소리 분류 장치 및 그 방법
JPH04501327A (ja) パターン伝達ニューラルネットワーク
CN116933798A (zh) 信息处理方法、装置、终端以及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040305

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090319

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100319

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110319

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees