JPH08249303A - 信号処理装置 - Google Patents

信号処理装置

Info

Publication number
JPH08249303A
JPH08249303A JP7052166A JP5216695A JPH08249303A JP H08249303 A JPH08249303 A JP H08249303A JP 7052166 A JP7052166 A JP 7052166A JP 5216695 A JP5216695 A JP 5216695A JP H08249303 A JPH08249303 A JP H08249303A
Authority
JP
Japan
Prior art keywords
signal
learning
output signal
neural network
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7052166A
Other languages
English (en)
Inventor
Takahiro Watanabe
孝宏 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP7052166A priority Critical patent/JPH08249303A/ja
Publication of JPH08249303A publication Critical patent/JPH08249303A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークの過学習を防止す
る。 【構成】 所望により組み合わされた学習用の入力信号
と出力信号とによりニューラルネットワーク4を学習さ
せる場合に、学習用の出力信号を予め設定された変換処
理により変換する学習信号変換手段7を設け、ユーザが
設定する学習用の出力信号をニューラルネットワーク4
の学習に適した形態に変換する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クを利用した信号処理装置に関する。
【0002】
【従来の技術】現在、画像認識、画像分類、音声認識、
音声分類、運動制御、システム制御、知能システムな
ど、フォンノイマンコンピュータでは困難な信号処理を
実行するため、ニューラルネットワークを利用すること
が提案されている。
【0003】ニューラルネットワークは、多数のニュー
ロンをシナプスにより結合してネットワークを形成した
もので、学習する機能を有する。ニューラルネットワー
クを学習させる場合には、例えば、学習用の信号を入力
して出力信号を教師信号と比較し、この誤差をフィード
バックさせると、これに対応してシナプスの荷重などの
パラメータを変更することにより、より良好な結果を出
力できるように学習する。
【0004】なお、パーセプトロンでは、入力層と中間
層と出力層とを有する階層構造に対し、評価を出力層に
フィードバックさせるだけなので学習能力が低かった
が、この課題を解決したバックプロパゲーションでは、
評価を出力層から中間層までフィードバックさせるよう
にして学習能力を向上させている。
【0005】
【発明が解決しようとする課題】上述のような信号処理
装置のニューラルネットワークは、より良好な結果を出
力するように学習することができる。
【0006】しかし、学習したニューラルネットワーク
は、学習時と同様な信号が入力された場合には適正な信
号を出力するが、予想もしない信号が入力された場合に
は適正な信号が出力されないことがある。このことは、
ニューラルネットワークを学習させるほど顕著となり、
ニューラルネットワークの汎化能力を低下させる過学習
と呼ばれて問題となっている。
【0007】このような過学習の要因として、ニューラ
ルネットワークの伝達関数の特徴と理想の出力信号との
関係が考えられる。バックプロパゲーションを学習方法
としたニューラルネットワークには、図7に示すよう
に、伝達関数として“f(x)=1/{1+Exp(−x)}”
なるシグモイド関数が設定されていることが一般的であ
る。
【0008】このようなニューラルネットワークにより
入力信号を三種類に分類する場合、その理想の出力信号
は三つの正規直交ベクトルにより(1,0,0),(0,1,
0),(0,0,1)などとして設定される。この場合、ニュ
ーラルネットワークの出力信号は、学習を繰り返すと理
想の出力信号に漸近的に近付くが、誤差が“0”となる
ことはない。
【0009】しかし、ニューラルネットワークの学習
は、上述のような誤差を“0”にするように実行される
が、誤差の減少は学習した入力信号に対してであり、学
習していない入力信号に対しては誤差が増加する部分が
あるため、過学習が発生して汎化能力が低下する。
【0010】このような過学習を防止するニューラルネ
ットワークの学習方法が、特開平3-240827号公報や特開
平 3-18965号公報として提案されている。例えば、特開
平3-240827号公報の学習方法では、ニューラルネットワ
ークの入力信号と出力信号との関係に基づいて学習条件
を制御する。また、特開平 3-18965号公報の学習方法で
は、学習用の入力信号に本質的な特徴を与え、固有の特
徴を除去してからニューラルネットワークに入力する。
【0011】さらに、ニューラルネットワークの汎化能
力を向上させる学習方法の一つが、『Russel Reed “Pr
uning Algorithms - A Survey ”IEEE Trans.Neural Ne
tworks,Vol.4,Vol.5,P740 〜P747』に開示されている。
これは“Pruning Algorithm”を紹介したもので、ニュ
ーラルネットワークの不要な結合を削除する。
【0012】上述のような学習方法により、ニューラル
ネットワークの汎化能力の向上を期待できるが、何れも
充分ではない。
【0013】
【課題を解決するための手段】請求項1記載の発明は、
入力信号に対応して出力信号を発生するニューラルネッ
トワークを有し、所望により組み合わされた学習用の入
力信号と出力信号とを入力する学習信号入力手段を設
け、学習用の入力信号に対する前記ニューラルネットワ
ークの出力信号を学習用の出力信号に基づいて評価する
ネットワーク評価手段を設け、この評価結果により前記
ニューラルネットワークを学習させるネットワーク学習
手段を設けた信号処理装置において、前記学習信号入力
手段から前記ネットワーク評価手段に伝達される学習用
の出力信号を予め設定された変換処理により変換する学
習信号変換手段を設けた。
【0014】請求項2記載の発明は、請求項1記載の発
明において、ニューラルネットワークの出力信号を予め
設定された変換処理により変換する出力信号変換手段を
設けた。
【0015】請求項3記載の発明は、請求項2記載の発
明において、出力信号変換手段と学習信号変換手段との
変換処理を逆変換とした。
【0016】請求項4記載の発明は、請求項1,2又は
3記載の発明において、学習信号変換手段の変換処理を
直交変換とした。
【0017】
【作用】請求項1記載の発明は、学習信号入力手段から
ネットワーク評価手段に伝達される学習用の出力信号
を、学習信号変換手段が予め設定された変換処理によ
り、ニューラルネットワークの学習に適正な形態に変換
する。
【0018】請求項2記載の発明は、ニューラルネット
ワークの出力信号を、出力信号変換手段が予め設定され
た変換処理により、ユーザの理解に適正な形態に変換す
る。
【0019】請求項3記載の発明は、出力信号変換手段
と学習信号変換手段との変換処理が逆変換なので、ユー
ザが設定した学習用の出力信号は、ニューラルネットワ
ークの学習に適正な形態に変換され、ニューラルネット
ワークの出力信号は、ユーザの理解に適正な形態に変換
される。
【0020】請求項4記載の発明は、学習信号変換手段
の変換処理が直交変換なので、変換処理が行列演算によ
り実行され、出力信号変換手段の逆変換も簡易に設定で
きる。
【0021】
【実施例】本発明の第一の実施例を図1ないし図3に基
づいて以下に説明する。まず、本実施例の信号処理装置
1は、三つの数値からなる入力信号を、カテゴリA,B
の二種類に分類することを目的としているので、例え
ば、(0,1)と(1,0)とが理想的な出力信号として想定さ
れている。
【0022】このため、本実施例の信号処理装置1は、
図1に示すように、分類する入力信号を入力する信号入
力ポート2を有しており、この信号入力ポート2に入力
切替器3が接続されている。この入力切替器3には、入
力信号に対応して出力信号を発生するニューラル演算部
4が接続されており、このニューラル演算部4には、分
類結果の出力信号を出力する信号出力ポート5が接続さ
れている。
【0023】また、本実施例の信号処理装置1は、学習
用の入力信号と出力信号とを入力する学習信号入力手段
である学習入力ポート6を有しており、この学習入力ポ
ート6の入力信号の部分は、前記入力切替器3に接続さ
れている。また、前記学習入力ポート6の出力信号の部
分は、学習信号変換手段である学習信号変換器7に接続
されており、この学習信号変換器7が前記ニューラル演
算部4に接続されている。
【0024】このニューラル演算部4は、ニューラルネ
ットワーク8とネットワーク評価手段とネットワーク学
習手段とからなり、前記ニューラルネットワーク8は、
入力切替器3から伝達される入力信号に対応して出力信
号を発生する。前記ネットワーク評価手段は、学習用の
入力信号に対する前記ニューラルネットワーク8の出力
信号を、学習用の出力信号である教師信号に基づいて評
価し、前記ネットワーク学習手段は、評価結果により前
記ニューラルネットワーク8をバックプロパゲーション
により学習させる。
【0025】このニューラルネットワーク8は、図2に
示すように、入力層9と中間層10と出力層11との階
層構造により形成されている。これらの各層9〜11
は、複数のニューロン12からなり、シナプス13によ
り接続されている。前記ニューロン12には、伝達関数
が“f(x)=1/{1+Exp(−x)}”や“f(x)= tan
h(x)”などと設定されており、前記シナプス13に
は、荷重が“w[i,j]”や“w[j,k]”として設定され
ている。これらの荷重のパラメータを変更することによ
りニューラルネットワーク8の学習が実行されるが、こ
の学習に使用する評価結果は、バックプロパゲーション
により前記出力層11から前記中間層10まで順次伝播
される。
【0026】そして、本実施例の信号処理装置1では、
前記学習入力ポート6と前記ネットワーク評価手段とに
前記学習信号変換器7が介在しているので、この学習信
号変換器7は、教師信号を予め設定された変換処理によ
り変換する。この変換処理は、ユーザが理想として設定
する教師信号を、前記ニューラルネットワーク8の学習
に最適な形態に変換するものである。より具体的には、
前記ニューロン12の伝達関数が“f(x)= tanh
(x)”の場合、教師信号(0,1)を(1/√2 , 1/√2)
に変換し、教師信号(1,0)を(-1/√2 , 1/√2)に変
換する。
【0027】このような構成において、本実施例の信号
処理装置1は、入力信号を二つのカテゴリに分類するこ
とを目的としているので、(0,1)と(1,0)とが理想的な
出力信号として想定されている。そこで、このように分
類させる入力信号を信号入力ポート2に入力すると、こ
れが入力切替器3からニューラル演算部4まで伝達され
る。このニューラル演算部4のニューラルネットワーク
8は、入力信号に対応して出力信号を発生するので、こ
の出力信号が分類結果として信号出力ポート5から出力
される。
【0028】例えば、理想的には出力信号が(1,0)とな
るような入力信号を信号処理装置1に入力した場合で
も、ニューラルネットワーク8の学習が充分でないと、
出力信号は(0.61,0.39)などのようになり、分類結果と
して不満足なものとなる。このような場合、ユーザは、
信号処理装置1の出力信号が“(0,1)(1,0)”となるよ
うに、学習用の入力信号と出力信号とを設定してニュー
ラルネットワーク8を学習させるので、教師信号を
“(0,1)(1,0)”の一方に設定することになる。
【0029】従来は、上述のような学習信号によりニュ
ーラルネットワーク8を直接に学習させ、その出力信号
を“(0,1)(1,0)”に漸近的に近付けていたが、この場
合でもニューラルネットワーク8の出力信号が“(0,1)
(1,0)”になることはないので、学習を進行させると過
学習が発生していた。
【0030】しかし、本実施例の信号処理装置1では、
ユーザが設定する教師信号“(0,1)(1,0)”を、学習信
号変換器7がニューラルネットワーク8の学習に最適な
“(1/√2 , 1/√2)(-1/√2 , 1/√2)”に変換す
ることにより、過学習を発生することなく良好な学習を
実現できる。この場合、ニューロン12は、伝達関数の
線形に近似した部分のみで処理を実行するので、ニュー
ラルネットワーク8の出力信号には、線形演算の特徴で
ある重ね合わせの原理が近似的に成立するので、出力信
号の解釈も容易である。しかも、ユーザは従来と同様に
単純な教師信号を設定すれば良く、ニューラルネットワ
ーク8の学習に最適な教師信号を創案する必要はないの
で、ユーザの操作性を阻害することはない。
【0031】なお、本実施例の信号処理装置1では、ニ
ューラルネットワーク8の伝達関数が“f(x)= tanh
(x)”で、ユーザが設定する教師信号が“(0,1)(1,
0)”である場合を想定したので、この教師信号“(0,1)
(1,0)”を学習信号変換器7が“(1/√2 , 1/√2)
(-1/√2 , 1/√2)”に変換することとした。
【0032】しかし、本発明は上記実施例に限定される
ものではなく、例えば、ニューラルネットワーク8の伝
達関数が、“f(x)=1/{1+Exp(−x)}”なる関数
ならば、ユーザが設定する教師信号“(0,1)(1,0)”
を、学習信号変換器7により、
【0033】
【数1】
【0034】などに変換することが望ましい。この場合
も、ニューラルネットワーク8の過学習を防止すること
ができ、ニューラルネットワーク8を良好に学習させる
ことができる。
【0035】なお、上述のようにユーザが設定する教師
信号“(0,1)(1,0)”を“(1/√2, 1/√2)(-1/√2
, 1/√2)”などに変換してからニューラルネットワ
ーク8を学習させた場合、信号処理装置1の出力信号も
変換された教師信号に収束するので、ユーザが理解しに
くくなる懸念はある。
【0036】そこで、このような課題を解決した信号処
理装置14を、本発明の第二の実施例として図4に基づ
いて以下に説明する。なお、本実施例の信号処理装置1
4に関し、第一の実施例の信号処理装置1と同一の部分
は、同一の名称と符号とを利用して詳細な説明は省略す
る。
【0037】本実施例の信号処理装置14では、ニュー
ラル演算部4と信号出力ポート5とに、出力信号変換手
段である出力信号変換器15が介装されている。この出
力信号変換器15は、ニューラル演算部4のニューラル
ネットワーク8の出力信号を、予め設定された変換処理
によりユーザの理解に最適な形態に変換するもので、こ
の変換処理は学習信号変換器7の変換処理の逆変換に設
定されている。
【0038】このような構成において、本実施例の信号
処理装置14は、第一の実施例の信号処理装置1と同様
に、ニューラル演算部4のニューラルネットワーク8が
入力信号に対応して出力信号を発生するが、この出力信
号は、出力信号変換器15により変換処理されてから、
分類結果として信号出力ポート5から出力される。
【0039】このため、過学習を防止するために教師信
号を学習信号変換器7により変換処理してからニューラ
ルネットワーク8を学習させ、その結果としてニューラ
ルネットワーク8の出力信号が変換処理された教師信号
に収束した場合でも、これが出力信号変換器15により
本来の出力信号の形態に復元される。このため、信号処
理装置14は、出力信号をユーザが理解しやすい形態と
することができ、利用が簡便である。
【0040】しかも、本実施例の信号処理装置14で
は、出力信号変換器15の変換処理が学習信号変換器7
の変換処理の逆変換なので、単純な構造でニューラルネ
ットワーク8の出力信号を良好な形態に復元することが
できる。しかし、本発明は上記実施例に限定されるもの
ではなく、出力信号変換器15はユーザに最適な変換処
理を実行することが望ましい。
【0041】例えば、入力信号が一方のカテゴリAに分
類される場合のみ出力信号が“1”となることをユーザ
が要望した場合、前述のように本来の出力信号が“(0,
1)(1,0)”のニューラルネットワーク8を“(1/√2 ,
1/√2)(-1/√2 , 1/√2)”の教師信号により学習
させたならば、出力信号変換器15は、ニューラルネッ
トワーク8の出力信号と(1/√2 , 1/√2)との内積を
演算すれば良い。
【0042】つぎに、本発明の第三の実施例を図5及び
図6に基づいて以下に説明する。なお、本実施例の信号
処理装置16に関し、第二の実施例の信号処理装置14
と同一の部分は、同一の名称と符号とを利用して詳細な
説明は省略する。
【0043】本実施例の信号処理装置16では、図5に
示すように、ニューラル演算部4と信号出力ポート5と
に信号変換器17が介装されており、学習入力ポート6
の教師信号の部分も前記信号変換器17に接続されてい
る。この信号変換器17は、学習信号変換手段として、
学習入力ポート6からニューラルネットワーク8に伝達
される教師信号を、予め設定された変換処理によりニュ
ーラルネットワーク8の学習に最適な形態に変換し、出
力信号変換手段として、ニューラルネットワーク8の出
力信号を予め設定された変換処理によりユーザの理解に
最適な形態に変換する。
【0044】これらの変換処理は逆変換に設定されてい
るが、学習信号変換手段の変換処理は、行列演算により
直交変換として設定されているので、出力信号変換手段
の変換処理は、前記行列の転置行列の行列演算として設
定されている。このため、前記信号変換器17は、図6
に示すように、行列のマトリクスを記憶したメモリ18
と、行列演算を実行するベクトルマトリクス演算器19
とを有している。
【0045】このような構成において、本実施例の信号
処理装置16は、第二の実施例の信号処理装置14と同
一に機能する。
【0046】つまり、ニューラルネットワーク8を学習
させる場合は、ユーザが学習入力ポート6に入力する教
師信号を、信号変換器17がニューラルネットワーク8
の学習に最適な形態に変換する。この時、信号変換器1
7では、教師信号がベクトルマトリクス演算器19に入
力されるので、このベクトルマトリクス演算器19はメ
モリ18から行列のマトリクスを読み出し、行列と教師
信号との積和演算を実行する。
【0047】この行列演算により教師信号は直交変換さ
れるので、この教師信号によりニューラルネットワーク
8は過学習を発生することなく良好な学習を実行する。
この場合、教師信号の変換処理が直交変換であるので、
変換処理による悪影響も最小となる。
【0048】つぎに、信号処理装置16が入力信号を分
類して出力信号を発生する場合、ニューラルネットワー
ク8の出力信号を、信号変換器17がユーザの理解に最
適な形態に変換する。この時、信号変換器17では、ベ
クトルマトリクス演算器19が出力信号と行列との積和
演算を実行するが、メモリ18から行列のマトリクスを
読み出す場合にアドレス(i,j)を(j,i)とすることによ
り、行列演算を転置行列により実行する。
【0049】この行列演算によりニューラルネットワー
ク8の出力信号は、教師信号の変換処理とは逆変換に直
交変換されるので、この出力信号はユーザが容易に理解
できる形態となる。なお、この場合も出力信号の変換処
理が直交変換であるので、変換処理による悪影響は最小
である。
【0050】そして、本実施例の信号処理装置16で
は、上述のように一個の信号変換器17により二つの逆
変換を容易に実行できるので、単純な構造でありながら
性能や利便性が良好である。
【0051】
【発明の効果】請求項1記載の発明は、学習信号入力手
段からネットワーク評価手段に伝達される学習用の出力
信号を予め設定された変換処理により変換する学習信号
変換手段を設けたことにより、ユーザが設定する学習用
の出力信号を、ニューラルネットワークの学習に適した
形態に変換することができるので、ニューラルネットワ
ークの過学習を防止することができる。
【0052】請求項2記載の発明は、ニューラルネット
ワークの出力信号を予め設定された変換処理により変換
する出力信号変換手段を設けたことにより、最適な学習
の結果としてニューラルネットワークの出力信号がユー
ザに理解しにくいものとなっても、これをユーザの理解
に適した形態に変換することができる。
【0053】請求項3記載の発明は、出力信号変換手段
と学習信号変換手段との変換処理を逆変換としたことに
より、学習用の出力信号をニューラルネットワークの学
習に適した形態に変換することと、ニューラルネットワ
ークの出力信号をユーザの理解に適した形態に変換する
こととを、簡易に実現することができる。
【0054】請求項4記載の発明は、学習信号変換手段
の変換処理を直交変換としたことにより、出力信号の変
換処理による悪影響を最小とすることができ、逆変換も
容易に設定することができ、学習信号変換手段に出力信
号変換手段を一体化することも容易である。
【図面の簡単な説明】
【図1】本発明の第一の実施例の信号処理装置を示すブ
ロック図である。
【図2】ニューラルネットワークを示すブロック図であ
る。
【図3】ニューラルネットワークの伝達関数を示す特性
図である。
【図4】第二の実施例の信号処理装置を示すブロック図
である。
【図5】第三の実施例の信号処理装置を示すブロック図
である。
【図6】信号変換部を示すブロック図である。
【図7】従来のニューラルネットワークの伝達関数を示
す特性図である。
【符号の説明】
1,14,16 信号処理装置 6 学習信号入力手段 7,17 学習信号変換手段 8 ニューラルネットワーク 15,1 出力信号変換手段

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力信号に対応して出力信号を発生する
    ニューラルネットワークを有し、所望により組み合わさ
    れた学習用の入力信号と出力信号とを入力する学習信号
    入力手段を設け、学習用の入力信号に対する前記ニュー
    ラルネットワークの出力信号を学習用の出力信号に基づ
    いて評価するネットワーク評価手段を設け、この評価結
    果により前記ニューラルネットワークを学習させるネッ
    トワーク学習手段を設けた信号処理装置において、前記
    学習信号入力手段から前記ネットワーク評価手段に伝達
    される学習用の出力信号を予め設定された変換処理によ
    り変換する学習信号変換手段を設けたことを特徴とする
    信号処理装置。
  2. 【請求項2】 ニューラルネットワークの出力信号を予
    め設定された変換処理により変換する出力信号変換手段
    を設けたことを特徴とする請求項1記載の信号処理装
    置。
  3. 【請求項3】 出力信号変換手段と学習信号変換手段と
    の変換処理を逆変換としたことを特徴とする請求項2記
    載の信号処理装置。
  4. 【請求項4】 学習信号変換手段の変換処理を直交変換
    としたことを特徴とする請求項1,2又は3記載の信号
    処理装置。
JP7052166A 1995-03-13 1995-03-13 信号処理装置 Pending JPH08249303A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7052166A JPH08249303A (ja) 1995-03-13 1995-03-13 信号処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7052166A JPH08249303A (ja) 1995-03-13 1995-03-13 信号処理装置

Publications (1)

Publication Number Publication Date
JPH08249303A true JPH08249303A (ja) 1996-09-27

Family

ID=12907254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7052166A Pending JPH08249303A (ja) 1995-03-13 1995-03-13 信号処理装置

Country Status (1)

Country Link
JP (1) JPH08249303A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178666A (ja) * 2004-12-21 2006-07-06 Toyota Motor Corp 情報処理装置、情報処理方法及び記録媒体
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning
WO2022243257A3 (de) * 2021-05-17 2023-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178666A (ja) * 2004-12-21 2006-07-06 Toyota Motor Corp 情報処理装置、情報処理方法及び記録媒体
US11514308B2 (en) 2017-09-08 2022-11-29 Fujitsu Limited Method and apparatus for machine learning
WO2022243257A3 (de) * 2021-05-17 2023-03-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum bestimmen von audio-verarbeitungsparametern

Similar Documents

Publication Publication Date Title
JP3329806B2 (ja) ニューラルネット構築装置
US5255347A (en) Neural network with learning function
CN112529166A (zh) 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备
JP2763398B2 (ja) パターン認識装置
US5630023A (en) Signal processor
WO2014060001A1 (en) Multitransmitter model of the neural network with an internal feedback
EP0526504B1 (en) Artificial neural device
KR20010002997A (ko) 신경회로망을 이용한 선택적 주의집중 방법
JPH08249303A (ja) 信号処理装置
Huynh et al. Training single hidden layer feedforward neural networks by singular value decomposition
Ohara et al. Binary neural network in robotic manipulation: Flexible object manipulation for humanoid robot using partially binarized auto-encoder on FPGA
Jiao et al. Motor imagery classification based on the optimized SVM and BPNN by GA
Dawwd et al. A reconfigurable interconnected filter for face recognition based on convolution neural network
JP3393511B2 (ja) 文字認識装置及び方法
KR102242112B1 (ko) 오류 역전파가 필요 없는 심층 랜덤 펀 분류기 및 이를 이용한 분류 방법
Hornik et al. Neural network models
Elsherif et al. A modular neural network architecture for pattern classification
JP2654686B2 (ja) ニューラルネットワーク
KR20240041799A (ko) 시간적 코딩 기반의 스파이킹 뉴럴 네트워크 연산 학습 방법 및 이에 대한 시스템
Kodirov NEURAL NETWORKS: BASIC PROVISIONS
Ma et al. Facial expression recognition using constructive neural networks
Mazurek et al. Rates of convergence of the recursive radial basis function networks
KR930007744B1 (ko) 가변 연결 요소의 수를 줄인 광학 신경회로망
Leung et al. A least third-order cumulants objective function
JPH03265077A (ja) フィードバック神経細胞モデル