JPH06161979A - ニューラルネットワークの学習方式 - Google Patents
ニューラルネットワークの学習方式Info
- Publication number
- JPH06161979A JPH06161979A JP4307311A JP30731192A JPH06161979A JP H06161979 A JPH06161979 A JP H06161979A JP 4307311 A JP4307311 A JP 4307311A JP 30731192 A JP30731192 A JP 30731192A JP H06161979 A JPH06161979 A JP H06161979A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- classification
- learning data
- classification result
- teacher
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】
【目的】 本発明の目的は、学習データにノイズ等が含
まれている場合にも未知データに対する分類精度が向上
するニューラルネットワークの学習方式を提供すること
である。 【構成】 本発明は、学習データの特徴量ベクトル12
を入力とし、既知規則分類結果ベクトル及び分類結果信
頼度を出力する分類規則実行手段1と、学習データの特
徴量ベクトル4の分布密度及び平均分類結果ベクトルを
算出する分布平均算出手段2と、学習データの分類結果
または既知規則による分類結果に重み付けをした教師ベ
クトル15を出力する教師ベクトル算出手段3と、特徴
量ベクトル14と教師ベクトル15との対からなる教師
データを複数保持し、結合荷重調整手段16に供給する
教師データ格納手段4とを有する。
まれている場合にも未知データに対する分類精度が向上
するニューラルネットワークの学習方式を提供すること
である。 【構成】 本発明は、学習データの特徴量ベクトル12
を入力とし、既知規則分類結果ベクトル及び分類結果信
頼度を出力する分類規則実行手段1と、学習データの特
徴量ベクトル4の分布密度及び平均分類結果ベクトルを
算出する分布平均算出手段2と、学習データの分類結果
または既知規則による分類結果に重み付けをした教師ベ
クトル15を出力する教師ベクトル算出手段3と、特徴
量ベクトル14と教師ベクトル15との対からなる教師
データを複数保持し、結合荷重調整手段16に供給する
教師データ格納手段4とを有する。
Description
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クの学習方式に係り、特に、データの分類処理を行うニ
ューラルネットワークの学習方式において、既知の分類
規則と事例データからの学習を併用して、分類精度の高
いニューラルネットワーク構成することのできるニュー
ラルネットワークの学習方式に関する。
クの学習方式に係り、特に、データの分類処理を行うニ
ューラルネットワークの学習方式において、既知の分類
規則と事例データからの学習を併用して、分類精度の高
いニューラルネットワーク構成することのできるニュー
ラルネットワークの学習方式に関する。
【0002】
【従来の技術】従来より、データの分類処理を目的に多
層構造型ニューラルネットワークが用いられている。
層構造型ニューラルネットワークが用いられている。
【0003】図6は、多層構造型ニューラルネットワー
クの構成を示す。同図において、入力層101は、分類
対象データの特徴量ベクトルx=(x1 ,x2 ,…,x
n )が入力される。特徴量ベクトルxのi番目の要素x
i はi番目のユニットに入力される。同図の例では、特
徴量ベクトルの要素x2 は2番目のユニットに入力され
る。
クの構成を示す。同図において、入力層101は、分類
対象データの特徴量ベクトルx=(x1 ,x2 ,…,x
n )が入力される。特徴量ベクトルxのi番目の要素x
i はi番目のユニットに入力される。同図の例では、特
徴量ベクトルの要素x2 は2番目のユニットに入力され
る。
【0004】出力層102は、分類結果okjを出力す
る。分類カテゴリ数がm個の場合は、通常、それぞれ
が、各カテゴリに対応したm個のユニットからなる。従
って、ニューラルネットの出力はm次元のベクトルとな
る。
る。分類カテゴリ数がm個の場合は、通常、それぞれ
が、各カテゴリに対応したm個のユニットからなる。従
って、ニューラルネットの出力はm次元のベクトルとな
る。
【0005】入力層101と出力層102の間には0乃
至それ以上の中間層103がある。各中間層のユニット
の入力は、その前段層の各々のユニットの出力に結合さ
れている。中間層102の各々のユニットの出力o
kjは、以下の式に従って決定される。
至それ以上の中間層103がある。各中間層のユニット
の入力は、その前段層の各々のユニットの出力に結合さ
れている。中間層102の各々のユニットの出力o
kjは、以下の式に従って決定される。
【数1】 ここで、okjはk層(k≧1、k=1は入力層)のj番
目のユニットの出力値、wkij は、k−1層のi番目の
ユニットからk層のj番目のユニットへの結合荷重、N
(k-1) は、k−1層のユニットの総数である。但し、w
k0j は、k層のj番目のユニットにバイアスを与えるた
めの結合荷重で、o(k-1)0は、常に“1”とする。ま
た、入力層(k=1)の各ユニットは入力された特徴量
ベクトルxをそのまま中間層に出力する。
目のユニットの出力値、wkij は、k−1層のi番目の
ユニットからk層のj番目のユニットへの結合荷重、N
(k-1) は、k−1層のユニットの総数である。但し、w
k0j は、k層のj番目のユニットにバイアスを与えるた
めの結合荷重で、o(k-1)0は、常に“1”とする。ま
た、入力層(k=1)の各ユニットは入力された特徴量
ベクトルxをそのまま中間層に出力する。
【0006】このようなニューラルネットワークにデー
タの分類を行わせるためには、入力層ユニット101に
分類対象データの特徴量ベクトルxを与えた時の出力値
ベクトルの各要素が、正しい分類カテゴリの番号jに対
応して、j番目の要素が大きく、他の要素が小さい値と
なるように、即ち、出力層のj番目のユニットが大きい
値を出力し、他のユニットが小さい値を出力するように
上記の各ユニット間の結合荷重を設定する必要がある。
タの分類を行わせるためには、入力層ユニット101に
分類対象データの特徴量ベクトルxを与えた時の出力値
ベクトルの各要素が、正しい分類カテゴリの番号jに対
応して、j番目の要素が大きく、他の要素が小さい値と
なるように、即ち、出力層のj番目のユニットが大きい
値を出力し、他のユニットが小さい値を出力するように
上記の各ユニット間の結合荷重を設定する必要がある。
【0007】上記のように結合荷重を設定するために、
従来一般に用いられている第1の方法は、分類結果が既
知である学習データを複数用意し、学習データの特徴量
ベクトルを入力した時に、ニューラルネットワークの出
力が正しい分類結果を与えるように結合荷重の調整を行
う方法である。
従来一般に用いられている第1の方法は、分類結果が既
知である学習データを複数用意し、学習データの特徴量
ベクトルを入力した時に、ニューラルネットワークの出
力が正しい分類結果を与えるように結合荷重の調整を行
う方法である。
【0008】即ち、学習データの分類カテゴリの番号を
jとすると、例えば、j番目の要素のみが“1”で、他
の要素が“−1”であるような分類結果ベクトルを、上
記の特徴ベクトルを入力した時の望ましい出力値ベクト
ル(以下、教師ベクトルと呼ぶ)として用いるものであ
る。
jとすると、例えば、j番目の要素のみが“1”で、他
の要素が“−1”であるような分類結果ベクトルを、上
記の特徴ベクトルを入力した時の望ましい出力値ベクト
ル(以下、教師ベクトルと呼ぶ)として用いるものであ
る。
【0009】ニューラルネットワークの結合荷重の調整
は、通常、逆誤差伝搬学習方式によって行われる。逆誤
差伝搬学習方式は、結合荷重をランダムな値に初期設定
しておき、ある特徴量ベクトルを入力したときの実際の
出力値ベクトルと教師ベクトルの誤差が減少するよう
に、結合荷重を微少量ずつ繰り返し調整する方法であ
る。以下、従来の第1の方法を図面と共に説明する。
は、通常、逆誤差伝搬学習方式によって行われる。逆誤
差伝搬学習方式は、結合荷重をランダムな値に初期設定
しておき、ある特徴量ベクトルを入力したときの実際の
出力値ベクトルと教師ベクトルの誤差が減少するよう
に、結合荷重を微少量ずつ繰り返し調整する方法であ
る。以下、従来の第1の方法を図面と共に説明する。
【0010】《従来の第1の方法》図7は従来の第1の
方法を説明するための図である。同図に示す構成は、結
合荷重調整部203、結合荷重調整部203に入力され
る前の学習前のニューラルネットワーク201−1、結
合荷重が調整済の学習後のニューラルネットワーク20
1−2、分類対象データの特徴ベクトル202−1、分
類結果ベクトル202−2の対からなる学習データが複
数格納され、結合荷重調整部203に学習データを与え
る学習データ格納部202により構成される。
方法を説明するための図である。同図に示す構成は、結
合荷重調整部203、結合荷重調整部203に入力され
る前の学習前のニューラルネットワーク201−1、結
合荷重が調整済の学習後のニューラルネットワーク20
1−2、分類対象データの特徴ベクトル202−1、分
類結果ベクトル202−2の対からなる学習データが複
数格納され、結合荷重調整部203に学習データを与え
る学習データ格納部202により構成される。
【0011】結合荷重調整部203は学習前のニューラ
ルネットワーク201−1に学習データ格納部202の
特徴量ベクトル202−1を入力したときの出力値ベク
トルと教師ベクトルとの誤差が減少するように逆誤差伝
搬方式を用いて結合荷重を微少量ずつ調整する。なお、
従来の第1の方法の場合、教師ベクトルには学習データ
の分類結果ベクトル202−2がそのまま用いられる。
ルネットワーク201−1に学習データ格納部202の
特徴量ベクトル202−1を入力したときの出力値ベク
トルと教師ベクトルとの誤差が減少するように逆誤差伝
搬方式を用いて結合荷重を微少量ずつ調整する。なお、
従来の第1の方法の場合、教師ベクトルには学習データ
の分類結果ベクトル202−2がそのまま用いられる。
【0012】次に、従来の第1の方法の動作について説
明する。
明する。
【0013】結合荷重調整部203は、ニューラルネッ
トワーク201−1の入力層に学習データの特徴量ベク
トル202−1を入力した時のニューラルネットワーク
の出力値ベクトルoK =(oK1,oK2,…,oKm )と
教師ベクトルy=(y1 ,y 2 ,…,ym )との二乗誤
差E
トワーク201−1の入力層に学習データの特徴量ベク
トル202−1を入力した時のニューラルネットワーク
の出力値ベクトルoK =(oK1,oK2,…,oKm )と
教師ベクトルy=(y1 ,y 2 ,…,ym )との二乗誤
差E
【数2】 を算出する。ここで、Kは出力層102の層番号、即ち
ニューラルネットワークの全層数である。mは分類カテ
ゴリ数である。
ニューラルネットワークの全層数である。mは分類カテ
ゴリ数である。
【0014】次に、結合荷重調整部203は、算出され
た誤差が減少するように、ニューラルネットワーク20
1−1の結合荷重wkij を以下の(5) 式に従って微少量
調整する。 δkij =ηdkjo(k-1)i (5) ここで、δkij は結合荷重wkij の調整量、ηは一回の
繰り返しでの調整量の大きさを求めるパラメータであ
る。調整量dkjは、k層が出力層(k=K)のとき、以
下の式で算出される。 dKj=ej (1−oKj)(1+oKj) (6) ここで、ej は(4) 式に従って算出された出力誤差であ
る。また、k層が中間層の時は調整量dkjは以下の式で
与えられる。
た誤差が減少するように、ニューラルネットワーク20
1−1の結合荷重wkij を以下の(5) 式に従って微少量
調整する。 δkij =ηdkjo(k-1)i (5) ここで、δkij は結合荷重wkij の調整量、ηは一回の
繰り返しでの調整量の大きさを求めるパラメータであ
る。調整量dkjは、k層が出力層(k=K)のとき、以
下の式で算出される。 dKj=ej (1−oKj)(1+oKj) (6) ここで、ej は(4) 式に従って算出された出力誤差であ
る。また、k層が中間層の時は調整量dkjは以下の式で
与えられる。
【数3】
【0015】以上の結合荷重調整部203による誤差算
出及び、結合荷重調整を、学習データを繰り返し与えて
実行し、二乗誤差Eが一定値以下になったとき学習を終
了する。
出及び、結合荷重調整を、学習データを繰り返し与えて
実行し、二乗誤差Eが一定値以下になったとき学習を終
了する。
【0016】《従来の第2の方法》次に従来の第2の方
法について説明する。この方法は、概ね正しいと考えら
れるデータ分類規則が既知である時に、この分類規則と
等化な分類機能を有するように、ニューラルネットワー
クの結合荷重を初期設定し、その後、学習データに対し
て正しい分類結果が得られるように学習データの分類結
果ベクトルを教師ベクトルとして、逆誤差伝搬方式を用
いて結合荷重を調整する方法である。この方法は、「特
願平2−185570、仲林、丸山『ニューラルネット
の学習方式』」に記載されている。
法について説明する。この方法は、概ね正しいと考えら
れるデータ分類規則が既知である時に、この分類規則と
等化な分類機能を有するように、ニューラルネットワー
クの結合荷重を初期設定し、その後、学習データに対し
て正しい分類結果が得られるように学習データの分類結
果ベクトルを教師ベクトルとして、逆誤差伝搬方式を用
いて結合荷重を調整する方法である。この方法は、「特
願平2−185570、仲林、丸山『ニューラルネット
の学習方式』」に記載されている。
【0017】図8は従来の第2の方法を説明するための
図である。
図である。
【0018】同図に示すシステムは、既知の事例データ
分類規則301、データ分類規則301を論理演算式に
変換する論理演算変換部302、論理演算変換302よ
り得られた論理式と等価な動作を行うようにニューラル
ネットワークの構造及び結合荷重を設定する結合荷重設
定部303、特徴量ベクトル202−1と分類結果ベク
トル202−2の対の複数の学習データを格納し、学習
データ結合荷重調整部203に学習データを与える学習
データ格納部202、結合荷重設定部303から得られ
るニューラルネットワーク201−1に対して、前述の
従来の第1の方法と同様に、学習データの特徴量ベクト
ル202−1を入力したときの実際の出力値ベクトルと
分類結果ベクトルの誤差が減少するように逆誤差伝搬学
習方式を用いて、結合荷重を微少量ずつ繰り返し調整す
る。
分類規則301、データ分類規則301を論理演算式に
変換する論理演算変換部302、論理演算変換302よ
り得られた論理式と等価な動作を行うようにニューラル
ネットワークの構造及び結合荷重を設定する結合荷重設
定部303、特徴量ベクトル202−1と分類結果ベク
トル202−2の対の複数の学習データを格納し、学習
データ結合荷重調整部203に学習データを与える学習
データ格納部202、結合荷重設定部303から得られ
るニューラルネットワーク201−1に対して、前述の
従来の第1の方法と同様に、学習データの特徴量ベクト
ル202−1を入力したときの実際の出力値ベクトルと
分類結果ベクトルの誤差が減少するように逆誤差伝搬学
習方式を用いて、結合荷重を微少量ずつ繰り返し調整す
る。
【0019】次に、上記の各部の動作について説明す
る。今、既知の事例データ分類規則301として以下が
与えられる。 IF(x1 >a1 )and(x2 >a2 )THEN y (8) IF(x3 >a3 )and(x4 <a4 )THEN y (9) 式(8) は「分類対象データの特徴量x1 が定数a1 より
大きく、かつ、分類対象データの特徴量x2 が定数a2
より大きければ、分類対象データはカテゴリyに属す
る」ことを意味しており、式(9) の式は、「特徴量x3
が定数a3 より大きく、且つ特徴量x4 が定数a4 より
小さければ、分類対象データはカテゴリyに属する」こ
とを意味している。これらの式から論理演算変換部30
2は、「(特徴量x1 が定数a1 より大きく、かつ特徴
量x2 が定数a2 より大きい)または、(特徴量x3 が
定数a3 より大きく、かつ特徴量x4 が定数a4 より小
さい)ならば、yが真」を意味する以下の論理演算式(1
0)を生成する。但し、“・”は論理積、“+”は論理
和、“¬”は論理否定を表す。 y=(x1 >a1 )・(x2 >a2 )+(x3 >a3 )・¬(x4 >a4 ) (10) 次に、結合荷重設定部303の動作について説明する。
図9は従来の第2の方法における結合荷重設定部を説明
するための図である。
る。今、既知の事例データ分類規則301として以下が
与えられる。 IF(x1 >a1 )and(x2 >a2 )THEN y (8) IF(x3 >a3 )and(x4 <a4 )THEN y (9) 式(8) は「分類対象データの特徴量x1 が定数a1 より
大きく、かつ、分類対象データの特徴量x2 が定数a2
より大きければ、分類対象データはカテゴリyに属す
る」ことを意味しており、式(9) の式は、「特徴量x3
が定数a3 より大きく、且つ特徴量x4 が定数a4 より
小さければ、分類対象データはカテゴリyに属する」こ
とを意味している。これらの式から論理演算変換部30
2は、「(特徴量x1 が定数a1 より大きく、かつ特徴
量x2 が定数a2 より大きい)または、(特徴量x3 が
定数a3 より大きく、かつ特徴量x4 が定数a4 より小
さい)ならば、yが真」を意味する以下の論理演算式(1
0)を生成する。但し、“・”は論理積、“+”は論理
和、“¬”は論理否定を表す。 y=(x1 >a1 )・(x2 >a2 )+(x3 >a3 )・¬(x4 >a4 ) (10) 次に、結合荷重設定部303の動作について説明する。
図9は従来の第2の方法における結合荷重設定部を説明
するための図である。
【0020】初期結合荷重設定部303は、論理演算変
換部302から与えられる論理演算式401(論理演算
式(10))に従って、ニューラルネットワーク402の結
合構成及び結合荷重を決定する。ニューラルネットワー
ク402の結合構成は、同図に示すように、一つの第1
中間層ユニットを乗法項毎に、一つの第2中間層ユニッ
トを割り当てて、出力層で全乗法項の加法を実現するよ
うに行う。
換部302から与えられる論理演算式401(論理演算
式(10))に従って、ニューラルネットワーク402の結
合構成及び結合荷重を決定する。ニューラルネットワー
ク402の結合構成は、同図に示すように、一つの第1
中間層ユニットを乗法項毎に、一つの第2中間層ユニッ
トを割り当てて、出力層で全乗法項の加法を実現するよ
うに行う。
【0021】結合荷重wの決定方法は、特願平2−18
5570に詳細に記述されているが、ここでは決定のた
めの計算式を示す。
5570に詳細に記述されているが、ここでは決定のた
めの計算式を示す。
【0022】1.加法ユニット(出力層) n−入力加法ユニットを考える。入力信号Ii (1≦i
≦n)を −1≦Ii ≦−θ の場合 … 「偽」 θ≦Ii ≦1 の場合 … 「真」 また、出力信号oを −1≦o ≦−θ’の場合 … 「偽」 θ’≦o ≦1 の場合 … 「真」 とする。但し、θ、−θ、θ’、−θ’は、閾値を表
す。以上の条件で、加法機能を実現する場合には、結合
荷重wi (1≦i≦n)とバイアスw0 を以下のように
設定する。
≦n)を −1≦Ii ≦−θ の場合 … 「偽」 θ≦Ii ≦1 の場合 … 「真」 また、出力信号oを −1≦o ≦−θ’の場合 … 「偽」 θ’≦o ≦1 の場合 … 「真」 とする。但し、θ、−θ、θ’、−θ’は、閾値を表
す。以上の条件で、加法機能を実現する場合には、結合
荷重wi (1≦i≦n)とバイアスw0 を以下のように
設定する。
【数4】 但し、入力が否定項である場合(y=a+¬bのb)
は、結合荷重は、 wi =−w とする。また、閾値θは、 θ>(n−1)/(n+1) という条件を満たす必要がある。
は、結合荷重は、 wi =−w とする。また、閾値θは、 θ>(n−1)/(n+1) という条件を満たす必要がある。
【0023】2.乗法ユニット(第2中間層) 入力乗法ユニットn、閾値θ,θ’を加法の場合と同様
に定義する。乗法機能を実現するには、結合荷重w
i (1≦i≦n)とバイアスwo を以下のように設定す
る。
に定義する。乗法機能を実現するには、結合荷重w
i (1≦i≦n)とバイアスwo を以下のように設定す
る。
【数5】 但し、入力が否定項である場合(y=a・¬bのb)に
は、結合荷重は wi =−w する。また、閾値θは、 θ>(n−1)/(n+1) という条件を満たす必要がある。
は、結合荷重は wi =−w する。また、閾値θは、 θ>(n−1)/(n+1) という条件を満たす必要がある。
【0024】3.比較ユニット(第1中間層) 入力Iが定数Aより大きい時に「真」を出力するユニッ
トの結合荷重w1 とバイアスw0 との関係を以下のよう
に設定する。 w0 =−w1 A (15) なお、ユニット及びユニット間の結合として論理式に対
応しない余分なものがあってもよく、これらの結合では
上で決定した結合荷重よりも絶対値の十分小さいランダ
ムな値に設定される。
トの結合荷重w1 とバイアスw0 との関係を以下のよう
に設定する。 w0 =−w1 A (15) なお、ユニット及びユニット間の結合として論理式に対
応しない余分なものがあってもよく、これらの結合では
上で決定した結合荷重よりも絶対値の十分小さいランダ
ムな値に設定される。
【0025】以上、結合荷重設定部303で得られたニ
ューラルネットワークに対して、結合荷重調整部203
は、従来の第1の技術と同様に、学習データの特徴量ベ
クトルを入力したときの実際の出力値ベクトルと分類結
果ベクトルの誤差が減少するように、学習データの分類
結果ベクトルを教師ベクトルとして結合荷重を微少量ず
つ繰り返し調整する。
ューラルネットワークに対して、結合荷重調整部203
は、従来の第1の技術と同様に、学習データの特徴量ベ
クトルを入力したときの実際の出力値ベクトルと分類結
果ベクトルの誤差が減少するように、学習データの分類
結果ベクトルを教師ベクトルとして結合荷重を微少量ず
つ繰り返し調整する。
【0026】
【発明が解決しようとする課題】しかしながら、上記第
1の従来の方法は、学習データに対して正しい分類結果
が得られるように、学習データの分類結果ベクトルを教
師ベクトルとし、逆誤差伝搬学習方式を用いて学習を行
っている。このため、学習データに対しては高い分類精
度を与えるニューラルネットワークを得ることができる
が、学習データ以外の未知データを入力した時に、正し
い分類結果が得られる保証はない。また、学習データの
個数が少ない場合や、学習データにノイズが含まれてい
る場合など、学習データが分類対象データの本来の性質
を十分反映していない場合には、学習データに対して高
い分類性能を与えることができるニューラルネットワー
クであっても未知データに対しても高い分類精度を与え
るという保証はない。
1の従来の方法は、学習データに対して正しい分類結果
が得られるように、学習データの分類結果ベクトルを教
師ベクトルとし、逆誤差伝搬学習方式を用いて学習を行
っている。このため、学習データに対しては高い分類精
度を与えるニューラルネットワークを得ることができる
が、学習データ以外の未知データを入力した時に、正し
い分類結果が得られる保証はない。また、学習データの
個数が少ない場合や、学習データにノイズが含まれてい
る場合など、学習データが分類対象データの本来の性質
を十分反映していない場合には、学習データに対して高
い分類性能を与えることができるニューラルネットワー
クであっても未知データに対しても高い分類精度を与え
るという保証はない。
【0027】また、上記第2の従来の方法は、既知であ
る概ね正しいと考えられる分類規則と等価な分類機能を
有するようにニューラルネットワークの結合荷重を初期
設定しておき、これに対して学習データによる学習を行
っている。このため、従来の第1の方法に比較すれば、
未知データに対する分類精度が向上することが期待され
る。しかし、従来の第1の技術と同様に、学習データの
分類結果ベクトルを教師ベクトルとして学習を行ってい
るため、学習データにノイズ等が含まれている場合に
は、分類精度の低下を招く可能性がある。
る概ね正しいと考えられる分類規則と等価な分類機能を
有するようにニューラルネットワークの結合荷重を初期
設定しておき、これに対して学習データによる学習を行
っている。このため、従来の第1の方法に比較すれば、
未知データに対する分類精度が向上することが期待され
る。しかし、従来の第1の技術と同様に、学習データの
分類結果ベクトルを教師ベクトルとして学習を行ってい
るため、学習データにノイズ等が含まれている場合に
は、分類精度の低下を招く可能性がある。
【0028】本発明は上記の点に鑑みなされたもので、
既知の分類規則と事例データからの学習を併用し、学習
データにノイズ等が含まれている場合にも未知データに
対する分類精度が向上するニューラルネットワークを構
成することが可能なニューラルネットワークの学習方式
を提供することを目的とする。
既知の分類規則と事例データからの学習を併用し、学習
データにノイズ等が含まれている場合にも未知データに
対する分類精度が向上するニューラルネットワークを構
成することが可能なニューラルネットワークの学習方式
を提供することを目的とする。
【0029】
【課題を解決するための手段】図1は本発明の原理構成
図である。
図である。
【0030】本発明のニューラルネットワークの学習方
式は、分類対象の特徴を表す特徴量ベクトルの次元数に
等しい数のユニットからなる入力層、分類対象の分類結
果を表す分類結果ベクトルの次元数に等しい数のユニッ
トからなる出力層、任意個数のユニットを有する0層以
上の任意層数の中間層及び、ユニット間を接続する結合
荷重からなる多重構造型のニューラルネットワーク17
と、分類結果が既知である分類対象の特徴量ベクトル1
2と分類結果ベクトル13の対からなる学習データを複
数保持する学習データ格納手段11と、ニューラルネッ
トワーク17の入力層に学習データの特徴量ベクトル1
2を入力した時のニューラルネットワーク17の出力層
に得られる出力値ベクトルと、出力値ベクトルが得られ
る時の望ましい出力値である教師ベクトルとの誤差が減
少するようにニューラルネットワーク17の結合荷重を
調整する結合荷重調整手段16とを含むニューラルネッ
トワークの学習方式において、学習データの特徴量ベク
トル12を入力とし、既知である分類規則に従って学習
データの分類を行って既知規則分類結果ベクトル及び分
類結果信頼度を出力する分類規則実行手段1と、学習デ
ータの特徴量ベクトル12と分類結果ベクトル13が入
力され、分類対象データの特徴量ベクトル12の存在す
るベクトル空間内において、学習データの近傍に存在す
る他の複数個の学習データの特徴量ベクトル12の分布
密度及び平均分類結果ベクトルを算出する分布平均算出
手段2と、分布平均算出手段2から出力された平均分類
結果ベクトルに分布密度に比例する重み係数を乗じたベ
クトルと、分類規則実行手段1より出力された既知規則
分類結果ベクトルに分類結果信頼度に比例する重み係数
を乗じたベクトルを算出し、これら二つのベクトルを加
え合わせて得られるベクトル教師ベクトル15として出
力する教師ベクトル算出手段3と、学習データ格納手段
11から読み出された特徴量ベクトル14と教師ベクト
ル15との対からなる教師データを複数保持し、結合荷
重調整手段16に供給する教師データ格納手段4とを有
する。
式は、分類対象の特徴を表す特徴量ベクトルの次元数に
等しい数のユニットからなる入力層、分類対象の分類結
果を表す分類結果ベクトルの次元数に等しい数のユニッ
トからなる出力層、任意個数のユニットを有する0層以
上の任意層数の中間層及び、ユニット間を接続する結合
荷重からなる多重構造型のニューラルネットワーク17
と、分類結果が既知である分類対象の特徴量ベクトル1
2と分類結果ベクトル13の対からなる学習データを複
数保持する学習データ格納手段11と、ニューラルネッ
トワーク17の入力層に学習データの特徴量ベクトル1
2を入力した時のニューラルネットワーク17の出力層
に得られる出力値ベクトルと、出力値ベクトルが得られ
る時の望ましい出力値である教師ベクトルとの誤差が減
少するようにニューラルネットワーク17の結合荷重を
調整する結合荷重調整手段16とを含むニューラルネッ
トワークの学習方式において、学習データの特徴量ベク
トル12を入力とし、既知である分類規則に従って学習
データの分類を行って既知規則分類結果ベクトル及び分
類結果信頼度を出力する分類規則実行手段1と、学習デ
ータの特徴量ベクトル12と分類結果ベクトル13が入
力され、分類対象データの特徴量ベクトル12の存在す
るベクトル空間内において、学習データの近傍に存在す
る他の複数個の学習データの特徴量ベクトル12の分布
密度及び平均分類結果ベクトルを算出する分布平均算出
手段2と、分布平均算出手段2から出力された平均分類
結果ベクトルに分布密度に比例する重み係数を乗じたベ
クトルと、分類規則実行手段1より出力された既知規則
分類結果ベクトルに分類結果信頼度に比例する重み係数
を乗じたベクトルを算出し、これら二つのベクトルを加
え合わせて得られるベクトル教師ベクトル15として出
力する教師ベクトル算出手段3と、学習データ格納手段
11から読み出された特徴量ベクトル14と教師ベクト
ル15との対からなる教師データを複数保持し、結合荷
重調整手段16に供給する教師データ格納手段4とを有
する。
【0031】
【作用】本発明のニューラルネットワーク学習方式は、
ニューラルネットワークの結合荷重調整の際に、分類対
象データの特徴量ベクトル空間内において学習データの
分布密度が高い領域に属する学習データや既知分類規則
による分類結果の信頼度が低い学習データに対しては、
学習データの分類結果に高い重み付けをした教師ベクト
ルを用い、分布密度が低い領域に属する学習データや規
則分類結果の信頼度が高い学習データには、既知規則に
よる分類結果に高い重み付けをした教師ベクトルを用い
るように動作する。このため、学習データにノイズ等が
含まれている場合にも、未知データに対する十分な分類
精度が得られるニューラルネットワークを構成すること
が可能となる。
ニューラルネットワークの結合荷重調整の際に、分類対
象データの特徴量ベクトル空間内において学習データの
分布密度が高い領域に属する学習データや既知分類規則
による分類結果の信頼度が低い学習データに対しては、
学習データの分類結果に高い重み付けをした教師ベクト
ルを用い、分布密度が低い領域に属する学習データや規
則分類結果の信頼度が高い学習データには、既知規則に
よる分類結果に高い重み付けをした教師ベクトルを用い
るように動作する。このため、学習データにノイズ等が
含まれている場合にも、未知データに対する十分な分類
精度が得られるニューラルネットワークを構成すること
が可能となる。
【0032】
【実施例】以下、本発明の実施例を図面を用いて説明す
る。図2は本発明の一実施例の構成図である。同図にお
いて、本実施例のシステムは、学習データ格納部20
2、分類規則実行部501、分布平均算出部502、教
師ベクトル算出部503、教師データ格納部504、ニ
ューラルネットワーク201、結合荷重調整部203よ
り構成される。
る。図2は本発明の一実施例の構成図である。同図にお
いて、本実施例のシステムは、学習データ格納部20
2、分類規則実行部501、分布平均算出部502、教
師ベクトル算出部503、教師データ格納部504、ニ
ューラルネットワーク201、結合荷重調整部203よ
り構成される。
【0033】分類規則実行部501は、学習データ格納
部202に格納された学習データの特徴量ベクトル20
1−1に対して既知の分類規則に従って分類を行い、既
知規則分類結果ベクトル及び分類結果信頼度を出力す
る。
部202に格納された学習データの特徴量ベクトル20
1−1に対して既知の分類規則に従って分類を行い、既
知規則分類結果ベクトル及び分類結果信頼度を出力す
る。
【0034】分布平均算出部502は、学習データ格納
202から入力された学習データの特徴ベクトル201
−1についてベクトル空間内で近傍に存在する他の学習
データの分布密度及び平均分類結果ベクトルを算出す
る。
202から入力された学習データの特徴ベクトル201
−1についてベクトル空間内で近傍に存在する他の学習
データの分布密度及び平均分類結果ベクトルを算出す
る。
【0035】教師ベクトル算出部503は、分布平均算
出部502から出力される平均分類結果ベクトルに分布
密度に比例した値を乗じたベクトルと、分類規則実行部
501から出力される既知規則分類結果ベクトルに分類
結果信頼度に比例する値を乗じたベクトルとを加え合わ
せて教師ベクトルとして出力する。
出部502から出力される平均分類結果ベクトルに分布
密度に比例した値を乗じたベクトルと、分類規則実行部
501から出力される既知規則分類結果ベクトルに分類
結果信頼度に比例する値を乗じたベクトルとを加え合わ
せて教師ベクトルとして出力する。
【0036】教師データ格納部504は、学習データの
特徴量ベクトル504−1と教師ベクトル算出部503
で算出された教師ベクトル504−2を対として保持
し、ニューラルネットワークの結合荷重調整の際に、結
合荷重調整部203に出力する。他の構成要素は図7の
構成要素と同様である。
特徴量ベクトル504−1と教師ベクトル算出部503
で算出された教師ベクトル504−2を対として保持
し、ニューラルネットワークの結合荷重調整の際に、結
合荷重調整部203に出力する。他の構成要素は図7の
構成要素と同様である。
【0037】図3は本発明の一実施例の動作を示すフロ
ーチャートである。
ーチャートである。
【0038】ステップ11からステップ15は教師ベク
トル算出部503が教師ベクトルを算出する過程であ
り、ステップ21からステップ23は、結合荷重調整部
203が算出された教師ベクトル504−2を用いてニ
ューラルネットワーク201−1の結合荷重を調整する
過程である。
トル算出部503が教師ベクトルを算出する過程であ
り、ステップ21からステップ23は、結合荷重調整部
203が算出された教師ベクトル504−2を用いてニ
ューラルネットワーク201−1の結合荷重を調整する
過程である。
【0039】ステップ11:学習データ格納部202よ
り学習データの特徴ベクトルx=(x1 ,x2 ,…,x
n )と分類結果ベクトルz=(z1 ,z2 ,…,zm )
の対(x,z)を一つ読み出す。
り学習データの特徴ベクトルx=(x1 ,x2 ,…,x
n )と分類結果ベクトルz=(z1 ,z2 ,…,zm )
の対(x,z)を一つ読み出す。
【0040】ステップ12:分類規則実行部501は、
学習データ格納部202より読み出された特徴量ベクト
ルxに対して後に詳細に述べるように、予め設定された
分類規則を適用し、既知規則分類結果ベクトルr=(r
1 ,r2 ,…,rm )及び分類結果信頼度cを算出す
る。
学習データ格納部202より読み出された特徴量ベクト
ルxに対して後に詳細に述べるように、予め設定された
分類規則を適用し、既知規則分類結果ベクトルr=(r
1 ,r2 ,…,rm )及び分類結果信頼度cを算出す
る。
【0041】ステップ13:一方、分布平均算出部50
2は、ステップ11で読み出された特徴量ベクトルxを
保持しておき、後に詳細に述べるように、特徴量ベクト
ル空間内におけるxの近傍の特徴量ベクトルの分布密度
pと、平均分類結果ベクトルz* を求める。
2は、ステップ11で読み出された特徴量ベクトルxを
保持しておき、後に詳細に述べるように、特徴量ベクト
ル空間内におけるxの近傍の特徴量ベクトルの分布密度
pと、平均分類結果ベクトルz* を求める。
【0042】ステップ14:教師ベクトル算出部503
は、以下の式に従って、教師ベクトルyを算出する。
は、以下の式に従って、教師ベクトルyを算出する。
【数6】 ここで、r,cはステップ12で算出された既知規則分
類結果ベクトルと分類結果信頼度であり、z* ,pはス
テップ13で算出された平均分類結果ベクトルと分類密
度である。
類結果ベクトルと分類結果信頼度であり、z* ,pはス
テップ13で算出された平均分類結果ベクトルと分類密
度である。
【0043】ステップ15:ステップ11で学習データ
格納部202より読み出された特徴量ベクトルxとステ
ップ14で算出された教師ベクトルyの対(x,y)を
教師データ格納部504に格納する。
格納部202より読み出された特徴量ベクトルxとステ
ップ14で算出された教師ベクトルyの対(x,y)を
教師データ格納部504に格納する。
【0044】以上のステップ11からステップ15を学
習データ格納手段202に格納された全ての学習データ
に対して繰り返して教師データを作成する。
習データ格納手段202に格納された全ての学習データ
に対して繰り返して教師データを作成する。
【0045】次に、上記で生成された教師データを用い
てニューラルネットワークの結合荷重を調整する結合荷
重調整部203は以下の動作を行う。但し、この動作は
従来の第1の方法と同様の動作である。
てニューラルネットワークの結合荷重を調整する結合荷
重調整部203は以下の動作を行う。但し、この動作は
従来の第1の方法と同様の動作である。
【0046】ステップ21:教師データ格納手段504
から、教師データ、即ち特徴量ベクトルx=(x1 ,x
2 ,…,xn )と教師ベクトルy=(y1 ,y2 ,…,
yn)の対(x,y)を一つ読み出す。
から、教師データ、即ち特徴量ベクトルx=(x1 ,x
2 ,…,xn )と教師ベクトルy=(y1 ,y2 ,…,
yn)の対(x,y)を一つ読み出す。
【0047】ステップ22:特徴量ベクトルxをニュー
ラルネットワークに入力して出力値ベクトルoK =(o
K1,oK2,…,oKm)を得る。これから、誤差ej =o
Kj−yj を算出する。
ラルネットワークに入力して出力値ベクトルoK =(o
K1,oK2,…,oKm)を得る。これから、誤差ej =o
Kj−yj を算出する。
【0048】ステップ23:逆誤差伝搬により結合荷重
を調整する。すなわち、誤差ej を用いて、式(6) に従
って出力層の調整量dKjを算出する。さらにこの調整量
を用いて式(7) に従って、中間層の調整量dkjを算出す
る。これによって、得られた調整量dkjを用い、式(5)
に従って、結合荷重の変化量δkij を算出してニューラ
ルネットワークの結合荷重の調整を行う。
を調整する。すなわち、誤差ej を用いて、式(6) に従
って出力層の調整量dKjを算出する。さらにこの調整量
を用いて式(7) に従って、中間層の調整量dkjを算出す
る。これによって、得られた調整量dkjを用い、式(5)
に従って、結合荷重の変化量δkij を算出してニューラ
ルネットワークの結合荷重の調整を行う。
【0049】以上のステップ21から23の動作を教師
データ格納部504に格納された全ての教師データに対
して繰り返す。さらに、式(5) の二乗誤差Eが一定値以
下になるまで、繰り返し教師データを与えて以上の動作
を繰り返す。
データ格納部504に格納された全ての教師データに対
して繰り返す。さらに、式(5) の二乗誤差Eが一定値以
下になるまで、繰り返し教師データを与えて以上の動作
を繰り返す。
【0050】次に、上記のステップ12における分類規
則実行部501の動作について詳細に説明する。
則実行部501の動作について詳細に説明する。
【0051】図4は本発明の一実施例の分類規則実行部
の動作を説明するためのフローチャートを示す。
の動作を説明するためのフローチャートを示す。
【0052】ステップ121:j番目のカテゴリに対す
る分類規則が以下のように与えられているとする。 IF ((x1 ≧a1 )and(x2 ≧a2 )) or ((x3 ≧a3 )and(x4 ≦a4 )) THEN Cj (17) 分類規則実行手段501は、図3のステップ11で学習
データ格納部202より読み出された特徴量ベクトルx
=(x1 ,x2 ,…xn )を用いてこの規則を実行し、
結果が真であれば、既知規則分類結果ベクトルrのj番
目の要素rj を1に、偽であれば、“−1”にする。上
記の式(17)では、「特徴量x1 が定数a1以上かつ特徴
量x2 が定数a2 以上か又は、特徴量x3 が定数a3 以
上で且つ、特徴量x4 が定数a4 以下」であれば、既知
規則分類結果ベクトルrj =1とし、それ以外の場合
は、既知規則分類結果ベクトルr=−1とする。これを
すべてのカテゴリに対する分類規則について実行し、既
知規則分類結果ベクトルrのすべての要素を決定する。
る分類規則が以下のように与えられているとする。 IF ((x1 ≧a1 )and(x2 ≧a2 )) or ((x3 ≧a3 )and(x4 ≦a4 )) THEN Cj (17) 分類規則実行手段501は、図3のステップ11で学習
データ格納部202より読み出された特徴量ベクトルx
=(x1 ,x2 ,…xn )を用いてこの規則を実行し、
結果が真であれば、既知規則分類結果ベクトルrのj番
目の要素rj を1に、偽であれば、“−1”にする。上
記の式(17)では、「特徴量x1 が定数a1以上かつ特徴
量x2 が定数a2 以上か又は、特徴量x3 が定数a3 以
上で且つ、特徴量x4 が定数a4 以下」であれば、既知
規則分類結果ベクトルrj =1とし、それ以外の場合
は、既知規則分類結果ベクトルr=−1とする。これを
すべてのカテゴリに対する分類規則について実行し、既
知規則分類結果ベクトルrのすべての要素を決定する。
【0053】ステップ122:j番目のカテゴリに対す
る分類規則を構成する比較・論理積・論理和の演算に対
応して以下のような演算を行って分類結果信頼度cj を
求める。
る分類規則を構成する比較・論理積・論理和の演算に対
応して以下のような演算を行って分類結果信頼度cj を
求める。
【0054】1.比較演算x>aの信頼度:特徴量xと
定数aの差が小さいときに、“0”、大きい時に“1”
に近づくような値とする。例えば、tanh2 ((x−a)
/b)とする。ここで、bは適当な定数とする。特別な
場合として、b=0とした場合には、比較演算の信頼度
は常に1、b=∞とした場合には、比較演算の信頼度は
常に0とする。
定数aの差が小さいときに、“0”、大きい時に“1”
に近づくような値とする。例えば、tanh2 ((x−a)
/b)とする。ここで、bは適当な定数とする。特別な
場合として、b=0とした場合には、比較演算の信頼度
は常に1、b=∞とした場合には、比較演算の信頼度は
常に0とする。
【0055】2.論理積A1 and A2 の信頼度:論理積
A1 とA2 の信頼度の最小値とする。
A1 とA2 の信頼度の最小値とする。
【0056】3.論理和A1 or A2 の信頼度:論理和
A1 とA2 の信頼度の最大値とする。
A1 とA2 の信頼度の最大値とする。
【0057】従って、式(17)の例では、信頼度の算出
は、以下の式に従って行われる。但し、min ( ),max( )
は、引数の最大値、最小値をとる演算である。
は、以下の式に従って行われる。但し、min ( ),max( )
は、引数の最大値、最小値をとる演算である。
【0058】 cj =max( min (tanh2(( x1 −a1 ) /b1),tanh2((x2 −a2)/b2)) , min (tanh2(( x3 −a3 ) /b3),tanh2((x4 −a4)/b4)) ) (18) 以上の操作を全てのカテゴリに対する分類規則について
実行して、各分類規則の分類結果信頼度c1 ,c2 ,
…,cm を求め、それらのうち最小のものに、全体的に
分類規則にどの程度の信頼を置くかを表す定数Cを乗じ
て最終的な分類結果信頼度c(x)とする。即ち、分類
結果信頼度cは、 c=C×min(c1 ,c2 ,…,cm ) (19) として算出する。
実行して、各分類規則の分類結果信頼度c1 ,c2 ,
…,cm を求め、それらのうち最小のものに、全体的に
分類規則にどの程度の信頼を置くかを表す定数Cを乗じ
て最終的な分類結果信頼度c(x)とする。即ち、分類
結果信頼度cは、 c=C×min(c1 ,c2 ,…,cm ) (19) として算出する。
【0059】次に、図3のフローチャートのステップ1
3における分布平均算出部502の動作について説明す
る。図5は、本発明の一実施例の分布平均算出部の動作
を説明するフローチャートを示す。
3における分布平均算出部502の動作について説明す
る。図5は、本発明の一実施例の分布平均算出部の動作
を説明するフローチャートを示す。
【0060】ステップ131:学習データ格納手段20
2より全ての学習データ(xi ,z i )を読み出し、そ
のうち、特徴量ベクトルxi =(xi1,xi2,…,
xin)とステップ11で読み出した特徴ベクトルx=
(x1 ,x2 ,…,xn )とのユークリッド距離s
2より全ての学習データ(xi ,z i )を読み出し、そ
のうち、特徴量ベクトルxi =(xi1,xi2,…,
xin)とステップ11で読み出した特徴ベクトルx=
(x1 ,x2 ,…,xn )とのユークリッド距離s
【数7】 を求める。
【0061】ステップ132:ユーックリッド距離s
が、予め設定された値th以下であるものを選択する。
が、予め設定された値th以下であるものを選択する。
【0062】ステップ133:以下の式に従って特徴量
ベクトルの分布密度pを求める。
ベクトルの分布密度pを求める。
【数8】 ここで、Nは学習データ格納手段203に格納された学
習データの総数、Mはステップ132で選択された学習
データ数、V(z)はn次元の特徴量ベクトル空間内に
おける半径thのn次元超球の体積である。
習データの総数、Mはステップ132で選択された学習
データ数、V(z)はn次元の特徴量ベクトル空間内に
おける半径thのn次元超球の体積である。
【0063】ステップ133:以下に式に従って、選択
された学習データの分類結果ベクトルの平均z* を求め
る。以下の式では和は選択された学習データに対してと
る。
された学習データの分類結果ベクトルの平均z* を求め
る。以下の式では和は選択された学習データに対してと
る。
【数9】
【0064】なお、上記の実施例において、学習の対象
となるニューラルネットワークは入力層のユニット数が
特徴量ベクトルの次元数に等しく出力層のユニット数が
分類結果ベクトルの次元数に等しいものであれば、どの
ような構成のものでもよい。例えば、第2の従来の方法
に示したように、予め既知の分類規則と等価な分類機能
を有するように構造及び結合荷重を設定したものを用い
ることができる。
となるニューラルネットワークは入力層のユニット数が
特徴量ベクトルの次元数に等しく出力層のユニット数が
分類結果ベクトルの次元数に等しいものであれば、どの
ような構成のものでもよい。例えば、第2の従来の方法
に示したように、予め既知の分類規則と等価な分類機能
を有するように構造及び結合荷重を設定したものを用い
ることができる。
【0065】また、既知分類規則として分類結果が「真
/偽」の二値となる“IF−THEN”型規則の例を示
したが、ファジー規則のように分類結果を連続値で出力
するようなものも上記の構成で同様に扱うことが可能で
ある。分類規則による分類結果信頼度についてもその算
出方法は上記の実施例に示した方法に限定されない。
/偽」の二値となる“IF−THEN”型規則の例を示
したが、ファジー規則のように分類結果を連続値で出力
するようなものも上記の構成で同様に扱うことが可能で
ある。分類規則による分類結果信頼度についてもその算
出方法は上記の実施例に示した方法に限定されない。
【0066】なお、上記実施例において、特徴量ベクト
ルの分布密度を求める際に、その分布形態はどのような
形態であってもよく、限定されるものではない。
ルの分布密度を求める際に、その分布形態はどのような
形態であってもよく、限定されるものではない。
【0067】さらに、分布平均算出部502についても
上記に示したものは1つの構成例であって同様な機能を
有する他の実現手段と置き換えることが可能である。
上記に示したものは1つの構成例であって同様な機能を
有する他の実現手段と置き換えることが可能である。
【0068】
【発明の効果】上述のように本発明のニューラルネット
ワークの学習方式では、分類対象データの特徴量ベクト
ル空間内において、学習データの分布密度が高い領域に
属する学習データや既知分類規則による分類結果が低い
学習データに対しては学習データの分類結果に高い重み
付けをした教師ベクトルを用い、分布密度が低い領域に
属する学習データや規則分類結果の信頼度が高い学習デ
ータには既知規則による分類結果に高い重み付けをした
教示ベクトルを用いてニューラルネットワークの結合荷
重調整を行うように構成されているため、学習データに
ノイズ等が含まれている場合にも、未知データに対する
分類精度が向上するニューラルネットワークを構成する
ことができる。
ワークの学習方式では、分類対象データの特徴量ベクト
ル空間内において、学習データの分布密度が高い領域に
属する学習データや既知分類規則による分類結果が低い
学習データに対しては学習データの分類結果に高い重み
付けをした教師ベクトルを用い、分布密度が低い領域に
属する学習データや規則分類結果の信頼度が高い学習デ
ータには既知規則による分類結果に高い重み付けをした
教示ベクトルを用いてニューラルネットワークの結合荷
重調整を行うように構成されているため、学習データに
ノイズ等が含まれている場合にも、未知データに対する
分類精度が向上するニューラルネットワークを構成する
ことができる。
【図1】本発明の原理構成図である。
【図2】本発明の一実施例の構成図である。
【図3】本発明の一実施例の動作を示すフローチャート
である。
である。
【図4】本発明の一実施例の分類規則実行部の動作を説
明するためのフローチャートを示す。
明するためのフローチャートを示す。
【図5】本発明の一実施例の分布平均算出部の動作を説
明するフローチャートを示す。
明するフローチャートを示す。
【図6】多層構造型ニューラルネットワークの構成図で
ある。
ある。
【図7】従来の第1の方法を説明するための図である。
【図8】従来の第2の方法を説明するための図である。
【図9】従来の第2の方法における結合荷重設定部を説
明するための図である。
明するための図である。
1 分類規則実行手段 2 分布平均算出手段 3 教師ベクトル算出手段 4 教師データ格納手段 11 学習データ格納手段 12 特徴量ベクトル 13 分類結果ベクトル 14 特徴量ベクトル 15 教師ベクトル 16 結合荷重調整手段 17 多層構造型ニューラルネットワーク 101 入力層 102 出力層 103 中間層 202 学習データ格納部 201−1 学習前のニューラルネットワーク 201−2 学習後のニューラルネットワーク 202−1 特徴量ベクトル 202−2 分類結果ベクトル 203 結合荷重調整部 301 既知の事例データ分類規則 302 論理演算変換手段 303 結合荷重設定手段 401 論理演算式 402 ニューラルネットワーク 501 分類規則実行部 502 分布平均算出部 503 教師ベクトル算出部 504 教師データ格納部 504−1 特徴量ベクトル 504−2 教師ベクトル
Claims (1)
- 【請求項1】 分類対象の特徴を表す特徴量ベクトルの
次元数に等しい数のユニットからなる入力層、分類対象
の分類結果を表す分類結果ベクトルの次元数に等しい数
のユニットからなる出力層、任意個数のユニットを有す
る0層以上の任意層数の中間層及び、ユニット間を接続
する結合荷重からなる多重構造型のニューラルネットワ
ークと、分類結果が既知である分類対象の特徴量ベクト
ルと分類結果ベクトルの対からなる学習データを複数保
持する学習データ格納手段と、該ニューラルネットワー
クの入力層に該学習データの特徴量ベクトルを入力した
時の該ニューラルネットワークの出力層に得られる出力
値ベクトルと、該出力値ベクトルが得られる時の望まし
い出力値である教師ベクトルとの誤差が減少するように
該ニューラルネットワークの結合荷重を調整する結合荷
重調整手段とを含むニューラルネットワークの学習方式
において、 該学習データの特徴量ベクトルを入力とし、既知である
分類規則に従って該学習データの分類を行って既知規則
分類結果ベクトル及び分類結果信頼度を出力する分類規
則実行手段と、 該学習データの特徴量ベクトルと分類結果ベクトルを入
力とし、分類対象データの特徴量ベクトルの存在するベ
クトル空間内において、該学習データの近傍に存在する
他の複数個の学習データの特徴量ベクトルの分布密度及
び平均分類結果ベクトルを算出する分布平均算出手段
と、 該分布平均算出手段から出力された該平均分類結果ベク
トルに該分布密度に比例する重み係数を乗じたベクトル
と、該分類規則実行手段より出力された既知規則分類結
果ベクトルに分類結果信頼度に比例する重み係数を乗じ
たベクトルを算出し、これら二つのベクトルを加え合わ
せて得られるベクトルを該教師ベクトルとして出力する
教師ベクトル算出手段と、 該学習データ格納手段から読み出された特徴量ベクトル
と該教師ベクトルとの対からなる教師データを複数保持
し、該結合荷重調整手段に供給する教師データ格納手段
とを有することを特徴とするニューラルネットワークの
学習方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4307311A JPH06161979A (ja) | 1992-11-17 | 1992-11-17 | ニューラルネットワークの学習方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4307311A JPH06161979A (ja) | 1992-11-17 | 1992-11-17 | ニューラルネットワークの学習方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06161979A true JPH06161979A (ja) | 1994-06-10 |
Family
ID=17967626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4307311A Pending JPH06161979A (ja) | 1992-11-17 | 1992-11-17 | ニューラルネットワークの学習方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06161979A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014203289A (ja) * | 2013-04-05 | 2014-10-27 | キヤノン株式会社 | ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体 |
-
1992
- 1992-11-17 JP JP4307311A patent/JPH06161979A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014203289A (ja) * | 2013-04-05 | 2014-10-27 | キヤノン株式会社 | ハッシュ値生成装置、システム、判定方法、プログラム、記憶媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Schraudolph | Fast curvature matrix-vector products for second-order gradient descent | |
US5724487A (en) | Neural network for maximum likelihood classification with supervised and unsupervised training capability | |
JPH07121495A (ja) | 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 | |
Jagtap et al. | Comparison of extreme-ANFIS and ANFIS networks for regression problems | |
US5129038A (en) | Neural network with selective error reduction to increase learning speed | |
US5845051A (en) | Learning method for multilayer perceptron neural network with N-bit data representation | |
JP3374476B2 (ja) | ニューラルネットワーク構築方法 | |
Wang | A neural network method of density estimation for univariate unimodal data | |
Yildiz et al. | Ordering and finding the best of K> 2 supervised learning algorithms | |
JPH06161979A (ja) | ニューラルネットワークの学習方式 | |
Liu et al. | A differential evolution based incremental training method for RBF networks | |
Edwards et al. | Toward optimally distributed computation | |
JPH10134018A (ja) | 法則発見方法と装置及び法則発見プログラムを格納した記憶媒体、及びニューラルネット学習方法と装置及びニューラルネット学習プログラムを格納した記憶媒体 | |
Linh et al. | Neuro-fuzzy TSK network for approximation of static and dynamic functions | |
JPH064692A (ja) | ニューラルネットワークの学習方式 | |
CN115510593B (zh) | 一种基于lstm的mr阻尼器逆向映射模型计算方法 | |
JPH0644207A (ja) | ニューラルネットワーク及びその構成方法 | |
Nomm et al. | Structure identification of nn-anarx model by genetic algorithm with combined cross-correlation-test based evaluation function | |
EP0635152B1 (en) | Neural network/fuzzy conversion device | |
JPH0785277A (ja) | データ分類方式 | |
JP3412700B2 (ja) | 神経回路網型パターン学習方法およびパターン処理装置 | |
JPH0981535A (ja) | ニューラルネットワークの学習方法 | |
Vasilakos et al. | ASAFES. 2: a novel, neuro-fuzzy architecture for fuzzy computing based on functional reasoning | |
JP3328953B2 (ja) | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 | |
JPH07319844A (ja) | ニューラルネットワークの学習装置及びニューラルネットワークの学習方法 |