JPH0535711A - ニユーラルネツトワークの学習データ記憶装置 - Google Patents

ニユーラルネツトワークの学習データ記憶装置

Info

Publication number
JPH0535711A
JPH0535711A JP3215938A JP21593891A JPH0535711A JP H0535711 A JPH0535711 A JP H0535711A JP 3215938 A JP3215938 A JP 3215938A JP 21593891 A JP21593891 A JP 21593891A JP H0535711 A JPH0535711 A JP H0535711A
Authority
JP
Japan
Prior art keywords
data
input data
component
components
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3215938A
Other languages
English (en)
Other versions
JP3232595B2 (ja
Inventor
Takao Yoneda
孝夫 米田
Tomoya Kato
友也 加藤
Susumu Yamanaka
将 山中
Shiho Hattori
志保 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Koki KK
Original Assignee
Toyoda Koki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Koki KK filed Critical Toyoda Koki KK
Priority to JP21593891A priority Critical patent/JP3232595B2/ja
Publication of JPH0535711A publication Critical patent/JPH0535711A/ja
Application granted granted Critical
Publication of JP3232595B2 publication Critical patent/JP3232595B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E50/00Technologies for the production of fuel of non-fossil origin
    • Y02E50/30Fuel from waste, e.g. synthetic alcohol or diesel

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークにおいて、過去の入
力データ及び教師データを増加させることなく、効率的
な更新学習を達成すること。 【構成】 学習に使用する過去の入力データ及び教師デ
ータを記憶した所定容量に制限されたデータベースにお
いて、任意の2つの入力データ間の類似度(例えば、相
互距離)が演算される。類似度の最も高い2つの入力デ
ータは、その2つの入力データに基づいて1つの合成入
力データに縮退される。その2つの入力データに対応す
る教師データも同様に1つの合成教師データに縮退され
る。この縮退にはデータの有効成分のみが考慮される。
このようにデータベースは更新される。この結果、蓄積
される入力データ及び教師データのデータ数を一定量に
制限した状態で、蓄積データの傾向を損なうことなく、
新規に更新されたデータベースに基づいてニューラルネ
ットワークを更新学習させることができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クの学習データ蓄積装置に関する。詳しくは、本装置
は、ニューラルネットワークを使用して行く中で、入力
データとその入力データに対応する教示データを所定容
量以内で効率良く蓄積する装置に関する。この所定容量
の蓄積データを用いて、ニューラルネットワークが、逐
次、学習される。
【0002】
【従来の技術】ニューラルネットワークは、理論的な解
析が困難な因果関係を結合係数の学習効果により直接的
に実現する回路網として知られている。即ち、ニューラ
ルネットワークは、予め、離散的な複数の入力に対し
て、それぞれの入力に対して最適な出力が得られるよう
に、ニューラルネットワークの結合係数を学習してお
き、任意の入力に対して妥当な出力が直接的に得られる
ようにした回路網である。
【0003】
【発明が解決しようとする課題】しかし、ニューラルネ
ットワークを全ての考え得る事象に対応できるように学
習させておくことは困難である。むしろ、学習済のニュ
ーラルネットワークを実際に使用して新たな事象が発生
して適正な出力が得られない場合に、その事象を含む学
習を行うことが通常である。
【0004】ところが、新たにニューラルネットワーク
の学習が必要となった場合には、学習すべき新たな入力
データとそれに対応した教師データだけを用いて学習さ
せることはできない。何故ならば、その新たな学習の結
果、既学習事項がニューラルネットワークから消去され
てしまうからである。従って、新たにニューラルネット
ワークを学習させる場合には、以前の学習に使用した全
ての入力データとその入力データに対応した全ての教師
データを含めて学習させることが必要である。
【0005】このような結果、過去の学習に使用した全
ての入力データと教師データを保存する必要があり、ニ
ューラルネットワークを長く使用するに伴い、記憶装置
の容量が膨大となるという問題がある。又、学習に使用
される入力データと教師データとが膨大となることか
ら、学習時間が長くなるという問題がある。又、ニュー
ラルネットワークを使用するに際して、入力データや教
師データの全ての成分が、常に、使用されているとは限
らない。例えば、工作機械の加工条件を所定の入力条件
から、ニューラルネットワークを用いて演算する場合に
は、円筒部加工、肩部加工、R部加工等の加工の種類に
よっては入力条件の項目や加工条件の項目(即ち、入力
データの成分や教師データの成分)のうち使用されてい
ない項目が存在し、その使用されていない項目は加工の
種類によって異なる。このような使用していない無効成
分と使用している有効成分とが混在する入力データや教
師データの場合には、その2つの入力データや2つの教
師データをどのように縮退させるかが問題である。
【0006】本発明は上記課題を解決するために成され
たものであり、その目的は、記憶容量が少なくて済むニ
ューラルネットワークの効率的な学習を行うに適した入
力データ及び教師データを効率良く蓄積することであ
る。
【0007】
【課題を解決するための手段】ニューラルネットワーク
へ入力する1つの入力データは入力素子数に等しい数の
成分を有しており、各成分が各入力素子に入力する。
又、1つの教師データは、1つの入力データをニューラ
ルネットワークに入力させた時の最適な出力データであ
る。従って、1つの教師データは入力データに対応し、
出力素子数に等しい数の成分を有している。このような
入力データと教師データの組が、ニューラルネットワー
クの使用の過程で多数得られる。この多数組のデータ
は、ニューラルネットワークの学習に用いられる。本発
明は、この学習に用いられる入力データと教師データの
組を記憶容量が制限された状態で効率良く蓄積する装置
である。本発明は、上記の装置であって、図8に示した
ように、入力データ及び教師データを所定数だけ記憶で
きるデータ記憶手段X1と、入力データ及び教師データ
の各成分が、使用されている有効成分か、使用されてい
ない無効成分かを判別できる判別データを記憶した判別
データ記憶手段X2と、入力データの中から任意に選択
された2つの入力データで構成される組の全てに対し
て、その2つの入力データが相互に類似している程度を
表す類似度を、判別データ記憶手段X2に記憶されてい
る判別データに基づいて判別された、2つの入力データ
の各成分のうち有効成分のみから演算する類似度演算手
段X3と、データベースの更新時に、類似度の最も高い
組の2つの入力データの各成分を1つの入力データの各
成分に縮退させるに際し、2つの入力データの各成分が
有効成分か無効成分かを判別データ記憶手段X2に記憶
された判別データに基づいて判別し、両データの成分が
共に有効成分の場合には両有効成分に基づく所定の演算
により縮退した入力データの有効成分を求め、両データ
の一方の成分が無効成分である場合には他方の有効成分
を縮退した入力データの有効成分とし、両データの成分
が共に無効成分である場合には、縮退した入力データの
成分を無効成分として縮退した入力データを生成し、そ
の縮退した入力データに関する判別データを判別データ
記憶手段X2に記憶する入力データ縮退手段X4と、縮
退される2つの入力データに対応する2つの教師データ
の各成分を1つの教師データの各成分に縮退させるに際
し、2つの教師データの各成分が有効成分か無効成分か
を判別データ記憶手段X2に記憶された判別データに基
づいて判別し、両データの成分が共に有効成分の場合に
は両有効成分に基づく所定の演算により縮退した教師デ
ータの有効成分を求め、両データの一方の成分が無効成
分である場合には他方の有効成分を縮退した教師データ
の有効成分とし、両データの成分が共に無効成分である
場合には、縮退した教師データの成分を無効成分として
縮退した教師データを生成し、その縮退した教師データ
に関する判別データを判別データ記憶手段X2に記憶す
る教師データ縮退手段X5とを備えたことを特徴とす
る。
【0008】
【作用】入力データの中から任意に選択された2つの入
力データの組に関して、その2つの入力データが相互に
類似している程度を示す類似度が演算される。その類似
度は2つの入力データの各成分のうちで、使用されてい
る、即ち、データとして有意義な有効成分だけを用いて
演算される。その類似度の最も高い組において、2つの
入力データがその2つの入力データに基づいて1つの入
力データに縮退される。それと共に、その2つの入力デ
ータに対応する2つの教師データも、その2つの教師デ
ータに基づいて1つの教師データに縮退される。この縮
退演算は、各成分毎に実施される。2つの成分におい
て、両成分共に有効成分の場合には、所定の縮退演算に
より、縮退したデータの有効成分が求められる。一方の
成分が無効成分の場合には、他方の有効成分がそのまま
縮退したデータの有効成分とされる。両成分共に無効成
分の場合には、縮退したデータの対応する成分は無効成
分とされる。このような方法により、2つの入力データ
及び2つの教師データが、それぞれ、1つの入力データ
及び1つの教師データに縮退される。
【0009】
【発明の効果】このようなデータベースの記憶容量の制
御により、蓄積されるデータの量が所定量を越えること
がないようにすることが可能である。しかも、データベ
ースに蓄積されるデータは類似度が最も高い2つのデー
タが1つに縮退されることから、データベースは、デー
タの記憶量が一定とすれば、最も分散されたデータの集
合となる。よって、ニューラルネットワークの効果的な
学習が達成される。又、入力データ及び教師データにお
いて、使用されていない無効成分が存在し、どの成分が
無効成分であるかが各データ毎に異なるような場合に
も、蓄積すべき入力データ及び教師データの傾向、即
ち、学習傾向を損なうことなく、データの蓄積をするこ
とが可能となる。
【0010】
【実施例】
1.学習データ記憶装置の構成 本装置は、図9に示すように、CPU1、ROM2、R
AM3とから成るコンピュータシステムで構成されてい
る。ROM2にはデータベースの更新(データの縮退)
を行う制御プログラムの記憶された制御プログラム領域
21とニューラルネットワークの演算プログラムの記憶
されたニューラルネットワーク領域22とニューラルネ
ットワークを学習させるためのプログラムの記憶された
学習プログラム領域23が形成されている。又、RAM
3には蓄積される入力データ及び教師データをそれぞれ
記憶する入力データ記憶領域31及び教師データ記憶領
域32、入力データ及び教師データの各成分が有効成分
か無効成分かを判別できる判別データを記憶した判別デ
ータ記憶領域33、ニューラルネットワークの係合係数
を記憶する係合係数記憶領域34とが形成されている。
【0011】2.ニューラルネットワーク 本実施例のニューラルネットワーク10は、図1に示す
ように、入力層LI と出力層LO と中間層LM の3層構
造に構成されている。入力層LI はe個の入力素子を有
し、出力層LO はg個の出力素子を有し、中間層LM は
f個の出力素子を有している。多層構造のニューラルネ
ットワークは、一般的に、次の演算を行う装置として定
義される。第i 層の第j 番目の素子の出力Oi j は、次式
で演算される。但し、i ≧2 である。
【0012】
【数1】 Oi j =f(Ii j) (1)
【数2】
【数3】 f(x)=1/{1+exp(-x)} (3)
【0013】但し、Vi j は第i 層の第j 番目の演算素子
のバイアス、Wi-1 k, i jは、第i-1 層の第k 番目の素子と
第i 層の第j 番目の素子間の結合係数、O1 j は第1 層の
第 j番目の素子の出力値を表す。即ち、第1 層であるか
ら演算を行うことなく、そのまま入力を出力するので、
入力層(第1層)の第j 番目の素子の入力値でもある。
【0014】次に、図1に示す3層構造のニューラルネ
ットワーク10の具体的な演算手順について図2を参照
して説明する。各素子の演算は、RAM3の結合係数記
憶領域34に記憶されている結合係数を参照しつつ、R
OM2のニューラルネットワーク領域22に記憶された
プログラムを実行することによって行われる。ステップ
100において、中間層(第2層)の第j 番目の素子
は、入力層(第1層)の各素子からの出力値O1 j (第1
層の入力データ)を入力して、(2)式を層番号と第1
層の素子数を用いて具体化した次式の積和演算を行な
う。
【数4】
【0015】次に、ステップ102において、次式によ
り、(4)式の入力値の積和関数値のシグモイド関数に
より、中間層(第2層)の各素子の出力が演算される。
第2層の第j 番目の素子の出力値は次式で演算される。
【0016】
【数5】 O2 j=f(I2 j )=1/{1+exp(-I2 j) } (5) この出力値 O2 j は出力層(第3層)の各素子の入力値
となる。次に、ステップ104において、出力層(第3
層)の各素子の入力値の積和演算が実行される。
【0017】
【数6】 次に、ステップ106において、(5)式と同様に、
シグモイド関数により、出力層の各素子の出力値O3 j
演算される。
【0018】
【数7】 O3 j=f(I3 j)=1/{1+exp(-I3 j)} (7)
【0019】3.ニューラルネットワークの学習 このニューラルネットワークは、初期学習として、RO
M2の学習プログラム領域23に記憶された図3に示す
手順のプログラムが実行されることにより学習される。
結合係数の学習は良く知られたバックプロパーゲーショ
ン法により実行される。この学習は、各種の事象に関す
る多数の入力データに対して、それぞれの出力が、それ
ぞれの最適な教師データとなるように、繰り返し実行さ
れる。これらの入力データ及び教師データは、それぞ
れ、入力データ記憶領域31及び教師データ記憶領域3
2に記憶されている。
【0020】図3のステップ200において、次式によ
り出力層の各素子の学習信号が演算される。
【数8】 Y3 j=(Tjj)・f'(I3 j) (8) 但し、Tj は任意の出力δjに対する教師データであ
り、外部から付与される。又、f'(x) はジグモイド関数
の導関数である。
【0021】次に、ステップ202において、中間層の
学習データY が次式で演算される。
【数9】
【0022】次に、ステップ204において、
出力層の各結合係数が補正される。補正量は次式で求め
られる。
【数10】 Δω2 i, 3 j(t)=P・Y3 j・f(I2 i)+Q・Δω2 i, 3 j(t-1) (10) 但し、Δω2 i, 3 j(t) は、出力層の第j 番目の素子と中
間層の第i 番目の素子との間の結合係数の第t 回目演算
の変化量である。又、Δω2 i, 3 j(t-1) は、その結合係
数の前回の補正量である。P,Q は比例定数である。よっ
て、結合係数は、
【0023】
【数11】 W2 i, 3 j+Δω2 i, 3 j(t) →W2 i, 3 j (11) により、補正された結合係数が求められる。次に、ス
テップ206へ移行して、中間層の各素の結合係数が補
正される。その結合係数の補正量は出力層の場合と同様
に、次式で求められる。
【0024】
【数12】 Δω1 i, 2 j(t)=P・Y2 j・f(I1 i)+Q・Δω1 i, 2 j(t-1) (12) よって、結合係数は、
【数13】 W1 i, 2 j + Δω1 i, 2 j(t) →W1 i, 2 j (13) により、補正された結合係数が求められる。
【0025】次に、ステップ208において、学習対象
の全ての入力データに対して1回の学習が完了したか否
が判定される。全ての入力データに対する学習が終了し
ていない場合には、ステップ210へ移行して、次の入
力データとその入力データに対応する教師データが学習
対象データとして設定される。そして、ステップ200
に戻り、次の入力データに関する学習が実行される。こ
のようにして、全入力データに関して1回の学習が完了
すると、ステップ208の判定結果がYES となり、ステ
ップ212へ移行する。
【0026】ステップ212では、結合係数の補正量Δ
ωが所定の値以下になったか否かの判定により、結合係
数が収束したか否かが判定される。結合係数が収束して
いなければ、ステップ214に移行して、全入力データ
に関する第2回目の学習を実行するために、最初の入力
データとそれに対応する教師データとが学習対象データ
として設定される。そして、ステップ200に戻り、上
記した学習演算が繰り返し実行される。このようにし
て、ステップ212において、結合係数の補正量Δωが
所定の値以下となり、結合係数が収束するまで、上記の
学習演算が繰り返し実行される。この結果、初期の広範
囲の事象に関して初期学習されたニューラルネットワー
クが完成される。
【0027】4.データベースの更新 ニューラルネットワークの更新学習に使用されるデータ
は、図5に示すようなデータベースに構成されている。
入力データは、D1,…,Dn であり、対応する教師デー
タは、E1,…,En である。このn個の入力データ及び
教師データは、ニューラルネットワークの初期学習又は
初期学習後のニューラルネットワークを現実に使用した
過程で蓄積されたデータである。この入力データは、次
のように定義される。e個の入力素子のそれぞれに与え
るe個のデータを1組のデータとして考える。そして、
任意の第m番目の1組の入力データをDm で表し、その
組に属する第j番目の入力素子に対する入力データをd
mjで表す。Dm はベクトルを表し、dmjはそのベクトル
の成分である。即ち、Dm は次式で定義される。
【0028】
【数14】 Dm =(dm1, m2, …,dme-1, me) (14) 又、n組の入力データはD1,2,…,Dn-1,n で表さ
れる。以下、全n組の入力データ群は、入力データ群D
と表記される。
【0029】同様に、E1,, n は、次のように定義
される。出力層LO に関して、g個の出力素子のそれぞ
れからの出力に対する教師データを1組のデータとして
考える。そして、任意の第m番目の1組の教師データを
m で表し、その組に属する第j番目の出力素子に対す
る教師データをemjで表す。Em はベクトルを表し、e
mjはそのベクトルの成分である。即ち、Em は次式で定
義される。
【0030】
【数15】 Em =(em1, m2, …,emg-1, mg) (15) 又、n組の教師データはE1,2,…,En-1,n で表さ
れる。以下、全n組の教師データ群は、教師データ群E
と表記される。又、それぞれのデータに対して、カウン
ト値Cm が与えられている。このカウント値Cm は、後
述するように、データの縮退回数を示す。その初期値は
1である。
【0031】次に、データベースの更新手順について説
明する。図4はROM2の制御プログラム領域21に記
憶されたデータベースの更新プログラムを示したフロー
チャートである。このデータベースの更新は、n個の入
力データ群Dとn個の教師データ群Eを記憶したデータ
ベースに、全体としてn個のデータ容量を増加させるこ
となく、新しく追加される入力データDn+1 とその入力
データに対応した教師データEn+1 を学習データとして
加えることである。
【0032】ステップ300において、図6の(a) に示
すように、データベースに記憶された入力データ群(D
1,…,Dn )に、新規入力データDn+1 を加えて、入力
データ群(D1,…,Dn+1 )を考える。同様に、新規教
師データEn+1 を加えた教師データ群(E1,…,
n+1 )が導入される。又、新規データに対するカウン
タ値(縮退回数)Cn+1 は1である。次に、ステップ3
02において、入力データ群(D1,…,Dn+1 )の中か
ら任意の2つのデータから成る入力データ組(D
p,q )を生成する。次に、ステップ304において、
入力データDp と入力データDq の類似度Zpqを計算す
る。類似度Zpqは、本実施例では、Dp ベクトルとDq
ベクトル間の変位ベクトル(Dp −Dq )の大きさで求
めている。
【0033】よって、類似度Zpqは次式で定義される。
【数16】 Zpq=|Dp −Dq | (16) =(Σ(dpi−dqi2 1/2 但し、入力データDp と入力データDq の各成分の
内、2成分が共に有効成分である成分のみが抽出され
て、(16)式の和演算が実行される。各入力データに
は入力データの種類を示すデータ(P,S,R,PS,
PR,SR,PSR)が付与されており、各種類毎に入
力データの各成分が有効成分か無効成分かを示す図7に
示すデータが与えられている。この種類を示すデータと
有効、無効を示すデータは、判別データとして、判別デ
ータ記憶領域33に記憶されている。各入力データに付
与されたデータの種類を示すデータに基づいて、図7に
示すデータを参照して、有効成分が決定され、その有効
成分についてのみ、(16)式の演算が実行される。
尚、本実施例では、上記の入力データの種類を示すデー
タ(P,S,R,PS,PR,SR,PSR)は、それ
ぞれ、円筒研削データ、肩部付研削データ、アール付研
削データ、円筒研削データと肩部付研削データとが縮退
したデータ、円筒研削データとアール付研削データとが
縮退したデータ、肩部付研削データとアール付研削デー
タとが縮退したデータ、3種のデータが縮退したデータ
を示している。図10には、入力データの種類毎に使用
されるデータ項目が示されている。この次に、ステップ
306において、全ての2つの入力データの組合わせに
関して類似度が演算されたか否かが判定される。全組に
関して類似度が演算されていない場合には、ステップ3
08において、選択される入力データのインデックスp,
q を変化させて、ステップ302へ戻る。ステップ30
2からは、同様な処理が繰り返し実行されて、類似度が
演算される。このようにして、図6の(b) に示すよう
に、任意の2つの入力データから成る全てのデータ組の
類似度Zpqが演算される。
【0034】次に、ステップ310において、全データ
組の中から、類似度Zpqが最小値Zabをとるデータ組
(Da , Db )が決定される。次に、ステップ312に
おいて、入力データDa , Db とその入力データに対応
する教師データEa , Eb に関して、カウンタ値Ca
b を加重係数として加重平均された合成入力データD
h と加重平均された合成教師データEh が演算される。
【0035】即ち、合成(縮退)入力データDh と合成
(縮退)教師データEh は、次式で演算される。
【数17】 Dh =(Ca ・Da +Cb ・Db )/(Ca +Cb ) (17)
【数18】 Eh =(Ca ・Ea +Cb ・Eb )/(Ca +Cb ) (18) 成分で表示すれば、
【数19】 dhi=(Ca ・dai+Cb ・dbi)/(Ca +Cb ) (19)
【数20】 ehi=(Ca ・eai+Cb ・ebi)/(Ca +Cb ) (20) となる。但し、(19)は、両成分(dai,dbi)が共
に有効成分である場合の演算式であり、(20)式は、
両成分(eai,ebi)が共に有効成分である場合の演算
式である。両成分のうち1成分が無効成分である場合に
は、他方の有効成分がそのまま合成データの有効成分と
なる。両成分が共に無効成分の場合には、そのデータは
使用していないのであるから、合成データのその成分の
値は任意でよい。但し、その成分は無効成分として管理
される。種類Sのデータと種類Pのデータに関する上記
の縮退演算の様子が図12に示されている。尚、教師デ
ータに関しても、入力データと同様な構成のデータの種
類を示すデータと図7に示すものと同様な各成分が有効
成分か無効成分かを示すデータが、判別データとして、
RAM3の判別データ記憶領域33に記憶されている。
上記の教師データに関する(20)式等の演算は、この
判別データを参照して実行される。教師データのデータ
項目の種類と、データの種類毎にどのデータ項目が使用
されているかが図11に示されている。上記のデータの
合成(縮退)演算において、同一種類の2つのデータが
縮退される場合には、縮退により生成されたデータの種
類は、その2つのデータの種類と同一とされる。又、異
なる種類の2つのデータが縮退される場合には、縮退に
より生成されたデータの種類は、その2種類のデータの
縮退によって生じたデータの種類となる。この縮退した
データの種類を示すデータは、判別データ記憶領域33
に記憶され、このデータが後の縮退演算で抽出される時
に参照される。
【0036】次に、ステップ314において、カウンタ
値Ca とCb が加算されて、合成入力データ及び合成教
師データDh,h に対する合成カウンタ値Ch が求めら
れる。次に、ステップ316において、図 6の(c) に示
すように、入力データ群(D1,…,Dn,n+1 )におい
て、入力データ(Da,b )が削除され、加重平均によ
り合成された合成入力データDh が追加される。同様
に、教師データ群(E1,…,En,n+1 )において、教
師データ(Ea,b )が削除され、加重平均により合成
された合成教師データEh が追加される。又、その合成
入力データ及び合成教師データDh,h に対応するカウ
ンタ値は合成カウンタ値Ch とされる。
【0037】このようなデータベースの更新の結果、入
力データ数と教師データ数はn個であり、新しい入力デ
ータDn+1 と新しい教師データEn+1 が加わっても、デ
ータベースの大きさは変化しない。即ち、2つの入力デ
ータ(Da,b )は合成入力データDhに縮退し、2つ
の教師データ(Ea,b )は合成教師データEh に縮退
したことになる。そして、カウタン値Ch は、それぞれ
の入力データDa とDb の現在までの縮退回数の和とな
る。例えば、2つの入力データが初めて縮退する場合に
は、合成入力データの縮退回数Ch は2となる。又、縮
退回数Ca が2の入力データと縮退回数Cb が3の入力
データが縮退すれば、合成入力データの縮退回数Ch
5となる。
【0038】このようにして、ニューラルネットワーク
の使用の過程において、入力データ及び教師データが新
規に何回発生しても、データベースに蓄積される入力デ
ータと教師データはn組を越えることがない。このデー
タベースに蓄積されたn組の入力データ群Dと教師デー
タ群Eとを用いて、上述した、図3のフローチャートに
従って、ニューラルネットワークの更新学習が実行され
る。
【0039】このように、n個の入力データ及び教師デ
ータに1つの入力データ及び教師データが付け加えられ
る場合には、入力データにおいて最も類似度の高い2つ
の入力データの組と、その入力データの組に対応した教
師データの組が消去されて、1つの合成入力データ及び
合成教師データに縮退される。したがって、更新された
データベースのn個の入力データは、現段階で最も離散
的な入力データの集合となり、入力データ及び教師デー
タの数をn個に固定した状態で、ニューラルネットワー
クの幅広い入力事象に対する効果的な学習が可能とな
る。
【0040】又、合成入力データ及び合成教師データ
は、2つのデータを、それぞれのデータに関する縮退回
数で重み付けて加重平均して求めているので、縮退回数
の大きい入力データの成分が合成データの成分に大きく
反映される。即ち、ある入力データの現在の縮退回数
(カウント値)は、現段階までにおいて縮退されてしま
い、結局、その入力データに姿を代えてしまった入力デ
ータの数を表している。従って、縮退回数で重み付けて
加重平均をとることは、過去の縮退された入力データの
特性が全くデータベースから削除されるのではなく、頂
点に立つ合成入力データに反映されていることを意味し
ている。更に換言すれば、上記のように縮退処理による
n組の入力データと教師データとを用いてニューラルネ
ットワークを学習させことは、新規に発生する入力デー
タ及び教師データを全て蓄積した入力データと教師デー
タで、ニューラルネットワークを学習させるのと、ほぼ
等価となる。又、データの類似度は、各成分の有効成分
だけを用いて行われているので、データ毎に使用されて
いる成分が異なっていても、正確な類似度が演算され
る。又、2つのデータの2成分から、縮退したデータの
1成分を演算する場合には、一方が無効成分の場合に
は、その無効成分の値を反映することなく、有効成分の
値のみを反映するようにしているので、生成されたデー
タは2つのデータをより正確に反映したものとなる。
【0041】尚、上記実施例においては、類似度Zpq
入力データDp と入力データDq 間の距離で定義した
が、他に、クラスタリング手法で用いられている各種の
類似度を用いても良い。又、上記実施例では、縮退回数
を導入し、縮退回数を用いた加重平均により合成入力デ
ータ及び合成教師データを生成しているが、縮退回数を
導入せずに、相加平均により合成入力データ及び合成教
師データを生成するようにしても良い。又、上記の実施
例では、n個のデータ組を記憶できる容量のデータベー
スから1組のデータを記憶できる空き領域を作成させる
ようにしている。しかし、更新学習に新規に使用される
入力データ及び教師データの組数が複数の場合には、入
力データ間の類似度の高い組から順に、必要な組数だけ
入力データ及び教師データを縮退させるようにしてもよ
い。又、上記実施例では、各入力データ、各教師データ
毎にデータの種類を示すデータを付加し、その種類毎に
有効成分と無効成分とを判別できるデータとを設けてい
る。しかし、各入力データ、各教師データの各成分の値
により、有効成分か無効成分かを区別するようにしても
良い。例えば、有効成分の値と混同を生じないような無
効成分に特定された値(4ビットデータであれば、「1
111」等の有効成分の値では使用されていない値)を
用いて判別しても良い。
【図面の簡単な説明】
【図1】本発明の具体的な実施例に係るニューラルネッ
トワークの構成を示した構成図。
【図2】同実施例に係るニューラルネットワークの演算
手順を示したフローチャート。
【図3】同実施例に係るニューラルネットワークの学習
手順を示したフローチャート。
【図4】同実施例に係るニューラルネットワークの更新
学習に用いられる入力データ及び教師データを有するデ
ータベースの更新手順を示したフローチャート。
【図5】同実施例に係るニューラルネットワークの更新
学習に用いられるデータベースをデータ構成を示した構
成図。
【図6】同実施例に係るニューラルネットワークの更新
学習に用いられるデータベースの更新手順の概念を示し
た説明図。
【図7】入力データの各成分が有効成分か無効成分かを
示す判別データを示した説明図。
【図8】本発明の概念を示したブロック図。
【図9】実施例装置の構成を示したプログラム図。
【図10】入力データのデータ項目を示した説明図。
【図11】教師データのデータ項目を示した説明図。
【図12】縮退演算によるデータの成分の変化を示した
説明図。
【符号の説明】
10…ニューラルネットワーク LI …入力層 LM …中間層 Lo …出力層
───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 志保 愛知県刈谷市朝日町1丁目1番地 豊田工 機株式会社内

Claims (1)

  1. 【特許請求の範囲】 【請求項1】 ニューラルネットワークの入力層の素子
    数に対応した数の成分を有する入力データと、その入力
    データに対応しニューラルネットワークの出力層の素子
    数に対応した数の成分を有する教師データとを、ニュー
    ラルネットワークの使用に際して、順次、蓄積する装置
    であって、蓄積データの追加に際して、ある蓄積データ
    を消滅させて、蓄積データの数が所定数を越えないよう
    に、前記入力データ及び前記教師データを蓄積するニュ
    ーラルネットワークの学習データ記憶装置において、 前記入力データ及び前記教師データを所定数だけ記憶で
    きるデータ記憶手段と、 前記入力データ及び前記教師データの各成分が、使用さ
    れている有効成分か、使用されていない無効成分かを判
    別できる判別データを記憶した判別データ記憶手段と、 前記入力データの中から任意に選択された2つの入力デ
    ータで構成される組の全てに対して、その2つの入力デ
    ータが相互に類似している程度を表す類似度を、前記判
    別データ記憶手段に記憶されている前記判別データに基
    づいて判別された、前記2つの入力データの各成分のう
    ち有効成分のみから演算する類似度演算手段と、 前記データベースの更新時に、前記類似度の最も高い組
    の2つの入力データの各成分を1つの入力データの各成
    分に縮退させるに際し、2つの入力データの各成分が有
    効成分か無効成分かを前記判別データ記憶手段に記憶さ
    れた前記判別データに基づいて判別し、両データの成分
    が共に有効成分の場合には両有効成分に基づく所定の演
    算により縮退した入力データの有効成分を求め、両デー
    タの一方の成分が無効成分である場合には他方の有効成
    分を縮退した入力データの有効成分とし、両データの成
    分が共に無効成分である場合には、縮退した入力データ
    の成分を無効成分として縮退した入力データを生成し、
    その縮退した入力データに関する前記判別データを前記
    判別データ記憶手段に記憶する入力データ縮退手段と、 縮退される前記2つの入力データに対応する2つの教師
    データの各成分を1つの教師データの各成分に縮退させ
    るに際し、2つの教師データの各成分が有効成分か無効
    成分かを前記判別データ記憶手段に記憶された前記判別
    データに基づいて判別し、両データの成分が共に有効成
    分の場合には両有効成分に基づく所定の演算により縮退
    した教師データの有効成分を求め、両データの一方の成
    分が無効成分である場合には他方の有効成分を縮退した
    教師データの有効成分とし、両データの成分が共に無効
    成分である場合には、縮退した教師データの成分を無効
    成分として縮退した教師データを生成し、その縮退した
    教師データに関する前記判別データを前記判別データ記
    憶手段に記憶する教師データ縮退手段と、を有すること
    を特徴とする学習データ記憶装置。
JP21593891A 1991-07-31 1991-07-31 ニューラルネットワークの学習データ記憶装置 Expired - Fee Related JP3232595B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21593891A JP3232595B2 (ja) 1991-07-31 1991-07-31 ニューラルネットワークの学習データ記憶装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21593891A JP3232595B2 (ja) 1991-07-31 1991-07-31 ニューラルネットワークの学習データ記憶装置

Publications (2)

Publication Number Publication Date
JPH0535711A true JPH0535711A (ja) 1993-02-12
JP3232595B2 JP3232595B2 (ja) 2001-11-26

Family

ID=16680749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21593891A Expired - Fee Related JP3232595B2 (ja) 1991-07-31 1991-07-31 ニューラルネットワークの学習データ記憶装置

Country Status (1)

Country Link
JP (1) JP3232595B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005739A (ja) * 2016-07-06 2018-01-11 株式会社デンソー ニューラルネットワークの強化学習方法及び強化学習装置
JP2018151876A (ja) * 2017-03-13 2018-09-27 株式会社日立製作所 機械学習に使用される経験を格納する経験データベースを更新する方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005739A (ja) * 2016-07-06 2018-01-11 株式会社デンソー ニューラルネットワークの強化学習方法及び強化学習装置
JP2018151876A (ja) * 2017-03-13 2018-09-27 株式会社日立製作所 機械学習に使用される経験を格納する経験データベースを更新する方法

Also Published As

Publication number Publication date
JP3232595B2 (ja) 2001-11-26

Similar Documents

Publication Publication Date Title
Kang An investigation of the use of feedforward neural networks for forecasting
Castillo et al. Some applications of functional networks in statistics and engineering
Lee et al. A fuzzy cognitive map‐based bi‐directional inference mechanism: an application to stock investment analysis
Rashno et al. Effective pixel classification of mars images based on ant colony optimization feature selection and extreme learning machine
Pearl et al. A statistical semantics for causation
Arteaga et al. Universal approximation by radial basis function networks of Delsarte translates
Lee et al. Maximum causal tsallis entropy imitation learning
Semmouri et al. Discounted Markov decision processes with fuzzy costs
Rakotonirainy A machine learning approach for automated strip packing algorithm selection.
Huang Normalization Techniques in Deep Learning
JPH0535711A (ja) ニユーラルネツトワークの学習データ記憶装置
Aldave et al. Systematic ensemble learning for regression
JPH0561849A (ja) ニユーラルネツトワークの入出力特性検出装置
Starke et al. Dynamical system approaches to combinatorial optimization
Srivastava et al. Retrieving the missing data from incomplete soft set, incomplete fuzzy soft set and incomplete intuitionistic fuzzy soft set
JP2606952B2 (ja) 鉄鋼製品の製造可否判定装置
Yen et al. Simplification of fuzzy rule based systems using orthogonal transformation
Robinson et al. Application of Jacobian & Sor Iteration process in Intuitionistic Fuzzy MAGDM Problems
Kosmatopoulos et al. The Boltzmann g-RHONN: a learning machine for estimating unknown probability distributions
JPH0581230A (ja) ニユーラルネツトワークの学習装置
JP3236635B2 (ja) ニューラルネットワークの学習方法
Srivastava et al. Retrieving the missing data from different incomplete soft sets
JP2877413B2 (ja) 余剰ニューロン決定処理方式
Brown et al. Effects of finite sample size and correlated/noisy input features on neural network pattern classification
Zhang et al. Evolutionary Extreme Learning Machine Weighted Fuzzy-Rough Nearest-Neighbour Classification

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070921

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080921

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090921

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees