JPH05290013A - ニューラルネットワーク演算装置 - Google Patents

ニューラルネットワーク演算装置

Info

Publication number
JPH05290013A
JPH05290013A JP4083692A JP8369292A JPH05290013A JP H05290013 A JPH05290013 A JP H05290013A JP 4083692 A JP4083692 A JP 4083692A JP 8369292 A JP8369292 A JP 8369292A JP H05290013 A JPH05290013 A JP H05290013A
Authority
JP
Japan
Prior art keywords
unit
value
neural network
calculation
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4083692A
Other languages
English (en)
Inventor
Kenji Sakamoto
憲治 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP4083692A priority Critical patent/JPH05290013A/ja
Publication of JPH05290013A publication Critical patent/JPH05290013A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 初期能力を保持しつつ実環境に適応できるニ
ューラルネットワーク演算装置を提供する。 【構成】 第1演算部2は、第1記憶部5に記憶された
重み係数w1に基づいてニューラルネットワークの演算
を実施する。第2演算部は、学習時には、第1演算部の
演算結果と実環境下での真の演算結果との差の値を差分
部3から取り込んで教師データとし、第2記憶部6に記
憶された重み係数w2に基づいてニューラルネットワー
クの学習を実施して第2記憶部6の内容を更新する。一
方、演算時には、重み係数w2に基づいてニューラルネ
ットワークの演算を実行する。加算部7は、同じ入力デ
ータに基づく第1演算部による演算結果と第2演算部に
よる演算結果とを加算して出力値を得る。こうして、重
み係数w1に基づく初期能力を保持しつつ、第2演算部
による学習によって実環境とのずれを求めることによっ
て実環境に適応できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、実際の使用環境(実
環境)に容易に適応可能なニューラルネットワーク演算
装置に関する。
【0002】
【従来の技術】従来、音声信号や画像信号等の特徴パタ
ーンの識別に用いられるニューラルネットワークとし
て、多層パーセプトロン型ニューラルネットワークが知
られている(稲葉:「ニューラル・ネットをパターン認
識,信号処理,知識処理に使う」日経エレクトロニクス
1987年8月10日(no.427))。
【0003】この多層パーセプトロン型ニューラルネッ
トワークは、図6に示すようなユニットが複数個で形成
されている。図6において、1つのユニットiは、他の
ユニットk,j,l(図示せず)から出力された信号ok,o
j,olを受ける部分と、入力された信号ok,oj,olを一
定の規則で変換する部分と、変換結果oiを出力する部
分とから構成されている。そして、他のユニットとの結
合部には、夫々可変の重み係数wik,wij,wilが付加さ
れている。
【0004】あるユニットiが複数のユニットk,j,l
から信号ok,oj,olを受けた場合に、その信号ok,
j,olの総和をユニットiの入力値とする。すなわ
ち、入力された信号ok,oj,olの総和を“net"とし、
ユニットの番号をiとすると、i番目のユニットへの入
力値“neti"は式(1)で表すことができる。
【数1】
【0005】そうすると、ユニットiは入力値“neti"
を関数fiに代入して変換する。ここで、上記関数fi
式(2)で表される。
【数2】 あるいは、閾値“θ"を加えて式(3)で表してもよい。
【数3】
【0006】上記多層パーセプトロン型ニューラルネッ
トワークは、図6に示すようなユニットを階層的に組み
合わせて図7のような構成になっている。図7では、各
ユニットは入力層,中間層および出力層の3層構造を成
している。このような多層パーセプトロン型ニューラル
ネットワークの上記入力層に入力パターンを表す入力デ
ータが入力されると、中間層および出力層を構成するユ
ニットの夫々によって式(1)および式(2)又は式(3)を
用いた演算が実施されて、接続されている次のユニット
に演算結果が送出される。こうして、最終的に出力層の
ユニットからニューラルネットワークの演算結果が出力
されるのである。このような演算を以後ニューラルネッ
トワークの演算と言う。
【0007】上述のような3層パーセプトロン型ニュー
ラルネットワークにおける入力層のユニットに同じ入力
パターンpを表す入力データが入力されても、各ユニッ
トの結合部に付加された重み係数wの値が替われば出力
値opの値は異なる値を呈することになる。したがっ
て、属するカテゴリが分かっているような種々の入力パ
ターンpを表す入力データを入力層のユニットに入力し
た場合に、出力層のユニットからは上記入力パターンp
が属するカテゴリを表すような出力値opが出力される
ように重み係数wの値を設定すれば、この3層パーセプ
トロン型ニューラルネットワークによって上記種々の入
力パターンpが属すカテゴリを識別可能になる。このよ
うに、ニューラルネットワークにおける重み係数wの値
を最適に設定することを以後ニューラルネットワークの
学習と言う。
【0008】上記ニューラルネットワーク学習の代表的
なアルゴリズムとして、1986年にルメルハート等が
提案した誤差逆伝播法(バックプロパゲーション)があ
る。以下、上記誤差逆伝播法による多層パーセプトロン
型ニューラルネットワークの学習について説明する。
【0009】図7において、入力層の各ユニットに入力
パターンpを与えたときに、出力層を構成するj番目の
ユニットjから出力される実際の出力値opjと上記ユニ
ットjからの望ましい出力値(すなわち、入力パターン
pが属する正しいカテゴリを表す値)tpjとの差
【数4】 の値が小さくなるように上記重み係数wの値を変化させ
ることによって、学習を実施するのである。
【0010】その際に、上記入力層のユニットに入力パ
ターンpを与えた場合のユニットiとユニットjとの結
合部に付加される重み係数wijの変化量“Δpij"は、 Δpij=η・δpjpi …(5) である。ここで、opiはユニットiからユニットjへの
出力値であり、δpjはユニットjが出力層のユニットで
あるか中間層のユニットであるかによって次のように異
なる値である。
【0011】すなわち、出力層のユニットである場合に
は、 δpj=(tpj−opj)fj'(netpj)…(6) であり、中間層のユニットの場合には、
【数5】 である。
【0012】したがって、上記ニューラルネットワーク
の学習を実施する際には、学習用の入力パターン(以
下、学習パターンと言う)pを入力して出力値opjを出
力し、誤差Epの値を減らすように重み係数wijの値を
変化させる。これを繰り返すことによって、学習パター
ンpに対して正しい出力値tpjを出力するように、重み
係数wijの値が収束していくのである。
【0013】
【発明が解決しようとする課題】上述のようにして学習
されたニューラルネットワークは、入力層に入力パター
ンpを表す入力データが入力されると、入力パターンp
が属するカテゴリを表す出力値を出力層から出力するよ
うな構成になっているので、最近、制御や認識の分野で
利用されるようになってきている。その場合における大
部分のニューラルネットワークは、あらゆる使用環境を
想定した初期学習によって予め求められた重み係数wが
搭載されており、実際の使用に際しては、入力層に入力
された入力パターンpに基づいて出力値oを算出して出
力層から出力する動作のみを行うようにしている。
【0014】ところが、あらゆる使用環境を前以て知る
には限界があるために、実際の使用環境(実環境)では最
適に動作しない場合が多々ある。すなわち、例えば、空
気調和機の制御に使用されるニューラルネットワークの
場合には、初期学習時におけるメーカーの実験室等の条
件(学習環境)を特定ユーザの部屋の条件(実環境)と全く
同じにはできないので、そのユーザの部屋では最適に空
気調和機を制御できないのである。また、手書き文字認
識に使用されるニューラルネットワークの場合には、初
期学習時に想定された書き癖(学習環境)を特定ユーザの
書き癖(実環境)と全く同じにはできない。したがって、
そのユーザの手書き文字には認識できない文字が存在す
るのである。
【0015】さらに、あらゆる使用環境を想定してニュ
ーラルネットワークを構築すると、構築されたニューラ
ルネットワークの規模が大きくなって、大容量の記憶装
置が必要になるという問題がある。
【0016】そこで、上述のような既に構築されたニュ
ーラルネットワークを実環境下において再学習すれば、
少ない記憶容量の記憶装置で実環境に適応したニューラ
ルネットワークを得ることができるので、上述の問題は
解消されることになる。
【0017】ところが、既に構築されたニューラルネッ
トワークに学習機能を持たせようとすると、ニューラル
ネットワークは、ニューラルネットワーク自身が有して
いる初期の機能を維持しつつ、新たな入力パターンを処
理できる能力を習得する必要がある。ところが、上述の
ように、既に学習によって設定された重み係数wを搭載
しているニューラルネットワークの場合には、初期性能
を維持しながら学習を行うことは困難なのである。
【0018】これは、当初ニューラルネットワークの重
み係数wの値を設定する際に実施した初期学習に使用さ
れた初期学習データは、このニューラルネットワークが
搭載されている制御装置や認識装置には記憶されていな
いことによる。つまり、後に実施される再学習の際には
初期学習データを加えた学習データによる学習を実施で
きないので、再学習が終了した段階におけるニューラル
ネットワークのレベルは後の学習データのみによるレベ
ルになってしまうのである。
【0019】そこで、このような欠点を回避するため
に、初期学習データを制御装置や認識装置のメモリに記
憶しようとすると膨大な記憶容量を要する。したがっ
て、上述のように、初期学習データを格納して学習機能
を有するニューラルネットワークを搭載した制御装置や
認識装置を家庭電化製品に組み込もうとすると、メモリ
容量が増加して価格上昇につながり、競争力が低下して
実現が困難であるという問題がある。
【0020】そこで、この発明の目的は、初期能力を保
持しつつ実環境に適応できる学習機能を有する安価なニ
ューラルネットワーク演算装置を提供することにある。
【0021】
【課題を解決するための手段】上記目的を達成するた
め、第1の発明のニューラルネットワーク演算装置は、
外部からの入力データを取り込む入力部と、予め初期学
習によって設定されたニューラルネットワークの重み係
数を記憶しておく第1記憶部と、上記入力部からの入力
データと上記第1記憶部に記憶された重み係数の値とに
基づいて所定の手順によってニューラルネットワークの
演算を実施する第1演算部と、上記第1演算部によって
得られた上記ニューラルネットワークの演算結果を出力
する出力部を有するニューラルネットワーク演算装置に
おいて、実環境下での上記第1演算部の真の出力値が上
記入力部から入力されてこの入力値と上記第1演算部に
よる演算結果との差の値を求める差分算出部と、上記第
1記憶部に記憶された重み係数とは異なるニューラルネ
ットワークの重み係数を記憶しておく第2記憶部と、学
習時には、上記差分算出部によって求められた上記差の
値を教師データとしてこの教師データに対応して上記入
力部から入力された入力データおよび上記第2記憶部に
記憶された重み係数の値に基づいて所定の手順によって
ニューラルネットワークの学習を実施して得られた重み
係数の値で上記第2記憶部に記憶されている重み係数の
値を更新する一方、演算時には、上記入力部からの入力
データと上記第2記憶部に記憶された重み係数の値とに
基づいて所定の手順によってニューラルネットワークの
演算を実施する第2演算部と、上記演算時において、同
じ入力データに基づく記第1演算部による演算結果と上
記第2演算部による演算結果とを加算して上記出力部に
送出する加算部を備えて、予め実施された初期学習に基
づく上記第1演算部の演算結果に上記実環境下において
実施された学習に基づく上記第2演算部の演算結果によ
る補正を行って、上記実環境下における上記第1演算部
の真の演算結果を適応的に得ることを特徴としている。
【0022】また、第2の発明のニューラルネットワー
ク演算装置は、第1の発明のニューラルネットワーク演
算装置において、上記第2記憶部は上記学習時に上記第
2演算部によって得られた重み係数の値を一時的に記憶
するように成すと共に、上記第2演算部によって用いら
れる重み係数の基準となる基準重み係数を記憶する基準
重み係数記憶部と、上記第2記憶部に記憶された上記学
習による重み係数の値と上記基準重み係数記憶部に記憶
された対応する基準重み係数の値との差を算出する重み
係数差算出部と、上記重み係数差算出部によって算出さ
れた上記学習による重み係数と上記基準重み係数との差
の値が記憶される差分値記憶部と、演算時には、上記差
分値記憶部および基準重み係数記憶部から対応した上記
差の値と基準重み係数の値とを読み出して両者を加算し
て上記第2演算部用の重み係数の値を算出する重み係数
算出部を備えたことを特徴としている。
【0023】また、第3の発明のニューラルネットワー
ク演算装置は、第1の発明のニューラルネットワーク演
算装置において、上記第2演算部での学習によって得ら
れた重み係数を記憶する上記第2記憶部とは異なる少な
くとも一つの記憶部と、この記憶部及び上記第2記憶部
を含む少なくとも二つの記憶部を切り替え選択して、上
記学習時には上記第2演算部による学習によって得られ
た重み係数の値を上記選択された記憶部に送出する一
方、上記演算時には上記選択された記憶部から読み出し
た重み係数の値を上記第2演算部に送出する切替部を備
えたことを特徴としている。
【0024】また、第4の発明のニューラルネットワー
ク演算装置は、第2の発明のニューラルネットワーク演
算装置において、上記演算時には、上記重み係数算出部
側あるいは基準重み係数記憶部側を切り替え選択して選
択された側から読み出された重み係数の値あるいは基準
重み係数の値を上記第2演算部に送出する切替部を備え
たことを特徴としている。
【0025】
【作用】第1の発明では、予め初期学習によって設定さ
れたニューラルネットワークの重み係数が第1記憶部に
記憶される。そして、この第1記憶部に記憶された重み
係数を用いて、第1演算部によって上記ニューラルネッ
トワークの演算が実施されるに先立って、第2演算部に
よって実環境下への適応化の準備が次のように行われ
る。すなわち、先ず入力部から入力データが第1演算部
および第2演算部に入力される。そして、上記第1演算
部によって、入力された入力データと上記第1記憶部に
記憶された重み係数の値とに基づいて、所定の手順によ
って上記ニューラルネットワークの演算が実施される。
【0026】そうすると、差分算出部によって、上記入
力部から入力された実環境下での上記第1演算部の真の
出力値と上記第1演算部による演算結果との差の値が算
出される。そして、第2演算部によって、この算出され
た上記差の値を教師データとして、上記第1演算部へ入
力された入力データと同じ入力データと第2記憶部に記
憶された重み係数の値とに基づいて所定の手順によって
ニューラルネットワークの学習が実施される。そして、
上記第2演算部による学習によって得られた重み係数の
値で、上記第2記憶部に記憶されている重み係数の値が
更新される。このような学習を種々の入力データについ
て実施することによって、上記第2演算部によるニュー
ラルネットワークの演算によって、予め実施された初期
学習に基づく上記第1演算部の演算結果と実環境下での
上記第1演算部の真の出力値とのずれが算出可能にな
る。
【0027】このようにして、上記第2演算部による実
環境下への適応化の準備が終了すると、上記実環境下に
おける演算処理が実施される。すなわち、上記入力部か
ら演算の対象となる入力データが第1演算部および第2
演算部に入力される。そして、上記第1演算部によっ
て、入力された入力データと上記第1記憶部に記憶され
た重み係数の値とに基づいて、上記所定の手順によって
ニューラルネットワークの演算が実施される。同様に、
上記第2演算部によって、上記第1演算部への入力デー
タと同じ入力データと上記第2記憶部に記憶された重み
係数の値とに基づいて、上記所定の手順によってニュー
ラルネットワークの演算が実施される。そして、加算部
によって、同じ入力データに基づく上記第1演算部によ
る演算結果と上記第2演算部による演算結果とが加算さ
れ、この加算結果が出力部から出力される。
【0028】こうして、予め実施された初期学習に基づ
く上記第1演算部の演算結果が上記実環境下において実
施された学習に基づく上記第2演算部の演算結果によっ
て補正されて、上記実環境下における上記第1演算部の
真の出力値が適応的に求められるのである。
【0029】第2の発明では、上記学習時においては、
上記第2演算部によるニューラルネットワークの学習に
よって得られた重み係数の値が第2記憶部に一時的に記
憶される。そうすると、重み係数差算出部によって、上
記第2記憶部に記憶された重み係数の値と基準重み係数
記憶部に記憶された対応する基準重み係数の値との差が
算出されて、得られた差分値が差分値記憶部に記憶され
る。こうして、少ない記憶容量で上記第2演算部用の重
み係数が記憶される。また、上記演算時には、重み係数
算出部によって、上記差分値記憶部及び基準重み係数記
憶部から対応した上記差の値と基準重み係数の値が読み
出されて、両者が加算されて上記第2演算部用の重み係
数が算出される。
【0030】また、第3の発明では、上記学習時あるい
は演算時において、切替部によって上記第2記憶部を含
む少なくとも二つの記憶部の一つが切り替え選択され
る。その結果、上記学習時には、上記第2演算部による
学習によって得られた重み係数の値が上記切替部によっ
て選択された記憶部に記憶される。一方、上記演算時に
は、上記切替部によって選択された記憶部から読み出さ
れた重み係数の値が上記第2演算部に送出される。こう
して、少なくとも二つの記憶部に同じ重み係数を記憶す
ることによって、バックアップ態勢が形成される。ある
いは、上記少なくとも二つの記憶部に異なる重み係数を
記憶することによって、上記第1演算部の演算結果に対
する異なる補正が実施される。
【0031】また、第4の発明では、上記学習時におい
ては、上記第2演算部による学習によって得られた重み
係数の値と基準重み係数の値との差が重み係数差算出部
によって算出されて、差分値記憶部に記憶される。一
方、上記演算時においては、上記重み係数算出部側ある
いは基準重み係数記憶部側が切替部によって切り替え選
択される。そして、選択された側から上記切替部によっ
て読み出された重み係数の値あるいは基準重み係数の値
が上記第2演算部に送出される。このようにして、少な
い記憶容量で上記第2演算部用の重み係数が記憶される
と共に、上記第1演算部の演算結果に対する異なる補正
が実施される。
【0032】
【実施例】以下、この発明を図示の実施例により詳細に
説明する。 <第1実施例>図1は本実施例におけるニューラルネッ
トワーク演算装置の一実施例を示すブロック図である。
入力部1は、外部のマイクロホンやイメージスキャナや
サーミスタ等のセンサから送出される入力パターンpを
取り込む。第1演算部2は、入力部1によって取り込ま
れた入力パターンpと予め第1記憶部5に記憶されてい
る重み係数w1の値とを用いて、例えば式(1)および式
(2)又は式(3)に基づいてニューラルネットワークの演
算を行う。上記差分算出部である差分部3は、上記演算
部2からの出力値oと実環境での真の出力値との差を算
出する。
【0033】第2演算部4はニューラルネットワークの
学習機能を有し、上記入力部1から入力された学習パタ
ーンと第2記憶部6に記憶されている重み係数w2の値
に基づいて、差分部3からの差分値を教師データとして
式(5),(6),(7)によって学習演算を実施する。そし
て、得られた重み係数の値によって第2記憶部6に記憶
されている重み係数w2の値を更新する。さらに、第2
演算部4は第2記憶部6に記憶された更新済みの重み係
数w2を用いてニューラルネットワークの演算をも行
う。加算部7は、同一入力データに基づく第1演算部2
による演算結果と第2演算部4による演算結果とを加算
する。こうして得られた加算値は、出力部8から外部に
出力される。
【0034】以下、本実施例における上記第2演算部4
による学習動作について例を上げて詳細に述べる。ここ
で、本実施例における上記第2演算部4による学習と
は、ある環境下における初期学習によって得られた重み
係数w1の値を用いた第1演算部2によるニューラルネ
ットワークの演算結果と実環境下における第1演算部2
によるニューラルネットワークの真の演算結果(つま
り、望ましい出力値)とのずれを求めるように、ニュー
ラルネットワークの重み係数w2の値を設定することで
ある。
【0035】今、図2に示すように、上記入力部1に上
述のようなセンサからの出力が入力され、さらに入力部
1から上記センサ出力に基づく入力パターンpを表す入
力データ(x,y,z)が第1演算部2および第2演算部4
に送出されるものとする。さらに、第1演算部2に入力
データ(x,y,z)を入力した際の出力値をf(x,y,z)
とする一方、第2演算部4に入力データ(x,y,z)を入
力した際の出力値をg(x,y,z)とする。尚、このよう
に、入力データ(x,y,z)を入力した際における出力値
がf(x,y,z)である場合に、入出力関係がf(x,y,
z)であると表現することにする。
【0036】また、上記第2記憶部6に記憶される重み
係数の初期値は非常に小さな値(例えば、−0.01から
+0.01の間の乱数値等)に設定し、第1演算部2ある
いは第2演算部4において実施されるニューラルネット
ワークの演算の際におけるニューラルネットワークの出
力ユニットiの関数fiは式(8)で与えられるとする。
【数6】 そうすると、上記第2演算部4の入出力関係g(x,y,
z)は、総ての入力データ(x,y,z)に対して“0"に近
い値となる。
【0037】ここで、上述のように、上記出力部8から
出力される出力値は、加算部7によって第1演算部2に
よる演算結果と第2演算部4による演算結果とを加算し
た値である。したがって、図1に示すニューラルネット
ワーク演算装置の入出力関係f'(x,y,z)は式(9)と
なる。 f'(x,y,z)=f(x,y,z)+g(x,y,z) …(9) そしてさらに、上述のように、初期状態における第2演
算部4の上記入出力関係g(x,y,z)は総ての入力デー
タ(x,y,z)に対して“0"に近い値となるから、初期
状態におけるニューラルネットワーク演算装置の入出力
関係f'(x,y,z)は式(10)となる。 f'(x,y,z)=f(x,y,z)+g(x,y,z) ≒f(x,y,z) …(10)
【0038】いま、実環境下における上記ニューラルネ
ットワーク演算装置の真の入出力関係をf"(x,y,z)
とすると、式(9)より式(11)が得られる。 g(x,y,z)=f"(x,y,z)−f(x,y,z) …(11) したがって、初期状態において“0"に近い値である第
2演算部4の入出力関係g(x,y,z)の値が、上記実環
境下では式(11)になるように第2演算部4におけるニ
ューラルネットワークの学習を実施する。そうすると、
入力データ(x,y,z)を第1演算部2に入力した際の第
1演算部2の出力値f(x,y,z)と入力データ(x,y,
z)を第2演算部4に入力した際の第2演算部4の出力
値g(x,y,z)(=f"(x,y,z)−f(x,y,z))とを
加算部7によって加算することによって、出力値f"
(x,y,z)を得ることができるようになる。つまり、上
記ニューラルネットワーク演算装置の入出力関係は上記
実環境下での真の入出力関係f"(x,y,z)となるので
ある。
【0039】そこで、上記第2演算部4においてニュー
ラルネットワークの学習を実施するに際しては、入力部
1からの入力データ(x,y,z)を入力層に入力する一
方、出力層には差分部3によって算出された第1演算部
2からの出力値f(x,y,z)と入力部1からの実環境下
での真の入出力関係f"(x,y,z)との差の値(f"(x,
y,z)−f(x,y,z))を教師データとして入力する。
そして、学習の結果得られた重み係数の値で第2記憶部
6に記憶された重み係数w2の値を更新していくのであ
る。こうして、学習の結果、上記第2演算部4における
入出力関係g(x,y,x)は(f"(x,y,z)−f(x,y,
z))となり、第2演算部4は、第1演算部2による学習
環境に基づくニューラルネットワークの演算結果と実環
境下での演算結果とのずれを求めることができるように
なる。
【0040】このようにして、第2演算部4によるニュ
ーラルネットワークの学習動作が終了したニューラルネ
ットワーク演算装置は次のように動作する。外部のセン
サから上記入力部1に入力パターンpが入力されて第1
演算部2および第2演算部4に入力データが送出され
る。そうすると、第1演算部2は、入力部1からの入力
データと第1記憶部5に予め記憶されている重み係数w
1とを用いてニューラルネットワークの各ユニットにお
ける演算を実施する。そして、出力ユニットからの出力
値o1が加算部7に送出される。また、第2演算部4
は、入力部1からの同じ入力データと第2記憶部6に記
憶されている重み係数w2とを用いてニューラルネット
ワークの各ユニットにおける演算を実施する。そして、
出力ユニットからの出力値o2が加算部7に送出され
る。
【0041】そうすると、上記加算部7は、入力される
第1演算部2からの出力値o1と第2演算部4からの出
力値o2とを加算して、出力部8から演算結果として出
力する。
【0042】端的に言うならば、本実施例におけるニュ
ーラルネットワーク演算装置は、学習環境下において構
築されたニューラルネットワークによる演算結果に、上
記学習環境に基づく演算結果と実環境下における正しい
演算結果とのずれを求めるように学習したニューラルネ
ットワークの出力による補正を加えることによって、実
環境下における正しい演算結果を適応的に得ることがで
きる。つまり、本実施例におけるニューラルネットワー
ク演算装置によれば、初期認識能力を保持しつつ実環境
に適応できるのである。
【0043】表1は、予め初期学習によって設定されて
第1記憶部5に記憶された重み係数w1を用いた第1演
算部2の入出力関係f(x,y)を示す。
【表1】
【0044】表2は、実環境下でのニューラルネットワ
ーク演算装置の入出力関係f"(x,y)を示す。
【表2】
【0045】表3は、上記差分部3によって算出される
差分値(f"(x,y)−f(x,y))を示す。
【表3】
【0046】上記第1表,第2表および第3表より、例
えば、入力データ(0,0)が入力層に入力されると出力
層よりf(0,0)=1.0を出力するように設定された重
み係数w1を用いて、真の出力値がf"(0,0)=0.9と
なるような実環境下で第1演算部2によってニューラル
ネットワークの演算を実施する場合には、f(0,0)の
値のf"(0,0)の値からのずれの値を求めるような学習
によって得られた重み係数w2を用いた第2演算部4に
よるニューラルネットワークの演算結果(f"(0,0)−
f(0,0)=−0.1)によって、第1演算部2による演
算結果f(0,0)=1.0を補正することによって、真の
出力値f"(0.0)=0.9を得ることができるのであ
る。
【0047】上記実施例においては、第1演算部2およ
び第2演算部4からの出力は複数要素からなるベクトル
であっても何等差し支えない。また、表1,表2および
表3では各値f(x,y),f"(x,y)およびf"(x,y)−
f(x,y)は離散値を取るようになっているが、連続値
であっても構わない。また、上記第1記憶部5は、例え
ばEPROM(消去可能プログラマブル・リード・オンリ・
メモリ)等で構成すれば、停電時であっても記憶された
重み係数w1は失われない。また、第2記憶部6は、例
えばSRAM(スタティック・ランダム・アクセス・メモ
リ)等の読み書き可能なメモリで構成する。
【0048】<第2実施例>図3は第1実施例における
ニューラルネットワーク演算装置の第2演算部用の重み
係数w2に係る記憶容量を少なくして容易に交換可能に
したニューラルネットワーク演算装置の一実施例を示す
ブロック図である。図3において、入力部11,第1演
算部12,第1差分部13,第2演算部14,第1記憶部
15,第1加算部17および出力部18の夫々について
は、図1に示した入力部1,第1演算部2,差分部3,第
2演算部4,第1記憶部5,加算部7および出力部8と同
じであるから、その説明を省略する。
【0049】第2差分部21は、上記第2演算部14に
よるニューラルネットワークの学習の際に算出されて第
2記憶部22に一時的に記憶された重み係数w2の値と
予め第3記憶部23に記憶されている基準重み係数の対
応する値との差を算出する。この算出された差分値は第
4記憶部24に記憶される。第2加算部25は、上記第
2演算部14によるニューラルネットワークの演算の際
に用いられる重み係数w2の値を、第4記憶部24に記
憶された差分値と第3記憶部23に記憶された対応する
基準重み係数の値とを加算することによって算出する。
この算出された重み係数w2の値は第2演算部14に送
出される。
【0050】すなわち、上記第1差分部13で上記差分
算出部を構成し、第2差分部21で上記重み係数差算出
部を構成し、第3記憶部23で上記基準重み係数記憶部
を構成し、第4記憶部24で上記差分値記憶部を構成
し、第2加算部25で上記重み係数算出部を構成するの
である。
【0051】上記第3記憶部23に記憶される基準重み
係数としては、先験的知識によって設定した値かあるい
は本ニューラルネットワーク演算装置が実環境下で充分
な性能を示していた際の第2演算部14用の重み係数w
2の値を用いる。また、第4記憶部24に記憶される差
分値の初期値は“0"である。
【0052】そうすると、上記第2演算部14によるニ
ューラルネットワークの学習の際に使用される重み係数
w2の初期値は、第3記憶部23に記憶される基準重み
係数の値となる。以後、第1実施例の場合と同様に、第
2演算部14によって、第1演算部15のニューラルネ
ットワークの演算による学習環境に基づく演算結果と実
環境下における真の演算結果とのずれを求めるようなニ
ューラルネットワークの学習を実施する。
【0053】その場合に、上記第2演算部14によって
算出された重み係数w2の値は一旦第2記憶部22に記
憶される。そうすると、第2差分部21によって、第2
記憶部22に記憶された新たな重み係数w2の値と第3
記憶部23に記憶された対応する基準重み係数の値との
差が算出され、この差分値によって第4記憶部24の内
容が更新される。こうして、学習の進行に伴って順次第
4記憶部24に記憶されている差分値の内容が更新され
るのである。
【0054】その際に、上記第3記憶部23に記憶され
ている基準重み係数の値は、上述のように、先験的知識
によって設定した値あるいは本ニューラルネットワーク
演算装置が実環境下で充分な性能を示していた際の第2
演算部14用の重み係数w2の値であるから、実環境が
予想以上に変化しない限り上記基準重み係数の値は第2
記憶部22に記憶されている新たな重み係数w2の値と
大略同じ値を呈することになる。その結果、上記第2差
分部21によって算出される差分値のダイナミックレン
ジは小さくなり、第4記憶部24の小型化が可能にな
る。
【0055】こうすることによって、上記第4記憶部2
4を容易に交換可能な外部記憶媒体で構成することがで
き、この外部記憶媒体を交換することによって、第2演
算部14の入出力関係および本ニューラルネットワーク
演算装置の入出力関係を簡単に変更できるのである。す
なわち、同じ実環境下であってもユーザAとユーザBと
では雰囲気の空調状態に好みの違いがある。そこで、例
えば、本ニューラルネットワーク演算装置を空気調和機
の制御に使用する場合には、初期学習に基づく第1演算
部12の演算結果と実環境下での第1演算部12の真の
演算結果とのずれの度合を各ユーザ毎に外部記憶媒体に
格納しておけば、この外部記憶媒体を交換するだけでユ
ーザAの好みに合わせた制御とユーザBの好みに合わせ
た制御とに素早く変更できるのである。
【0056】表4は、上記第2記憶部22に記憶されて
いる新たな重み係数w2、第3記憶部23に記憶されて
いる基準重み係数w2'、第4記憶部24に記憶されてい
る差分値(w2'−w2)の具体例を示す。
【表4】
【0057】表4より、上記第2記憶部22に記憶され
ている新たな重み係数w2のダイナミックレンジは“8.
74"(=5.29−(−3.45))であるの対して、上記
第4記憶部24に記憶されている差分値(w2'-w2)のダ
イナミックレンジは“0.50"(=0.20−(−0.3
0))と充分に小さい。したがって、差分値をディジタル
化する際のバイト数が少なくて済み、第4記憶部24の
容量を小さくして容易に着脱可能にできるのである。
【0058】<第3実施例>図4は、第1実施例のニュ
ーラルネットワーク演算装置における上記第2演算部の
入出力関係を複数の入出力関係に切り替え可能にしたニ
ューラルネットワーク演算装置の一実施例を示すブロッ
ク図である。図4において、入力部31,第1演算部3
2,差分部33,第2演算部34,第1記憶部35,加算部
37および出力部38の夫々については、図1に示した
入力部1,第1演算部2,差分部3,第2演算部4,第1記
憶部5,加算部7および出力部8と同じであるから、そ
の説明を省略する。
【0059】上記第2演算部34によるニューラルネッ
トワークの学習の結果得られた新たな重み係数w2の値
は、切替部41によって切り替え選択された第2記憶部
42あるいは第3記憶部43のいずれか一方の記憶部に
記憶される。また、上記第2演算部34によってニュー
ラルネットワークの演算を実施する際には、切替部41
によって切り替え選択された第2記憶部42あるいは第
3記憶部43のいずれか一方の記憶部から読み出された
重み係数w2を用いて演算が実施されるのである。
【0060】こうすることによって、上記第2演算部3
4は2種類の重み係数w2を用いたニューラルネットワ
ークの演算が可能となり、第2演算部34は2種類の入
出力関係を持つことと同じことになるのである。ここ
で、上記第2演算部34が2種類の入出力関係を持つと
いうことは次のようなことである。すなわち、例えば、
本ニューラルネットワーク演算装置を空気調和機の制御
に使用するとする。その場合には、室温が同じ20℃で
あっても夏における20℃と冬における20℃とではユ
ーザの感じ方は異なるので、本ニューラルネットワーク
演算装置は、上記入力部31にセンサから同じ入力パタ
ーンpが入力されても夏と冬とでは異なった値を出力す
る必要がある。そこで、例えば第2記憶部42には、第
1演算部32の演算結果に対する夏用の補正を実施する
為の重み係数w2を記憶する。一方、第3記憶部43に
は、第1演算部32の演算結果に対する冬用の補正を実
施する為の重み係数w2を記憶するのである。
【0061】こうして、冬になって当該空気調和機の冷
媒回路における冷媒の循環方向を切り替える際に上記切
替部41をも第3記憶部43側に切り替えれば、第2演
算部34の入出力関係を冬用の入出力関係に設定でき、
最適な制御が実施可能になるのである。
【0062】尚、本実施例においては、第2演算部34
で使用される重み係数w2格納用の記憶部として第2記
憶部42および第3記憶部43の2つの記憶部を有して
いるが、3つ以上の記憶部を有しても何等差し支えな
い。また、上記第2記憶部42および第3記憶部43に
は同じ重み係数w2を記憶し、上記第2記憶部42ある
いは第3記憶部43のいずれか一方を2次電源等によっ
てバックアップすることによって、学習の結果得られた
第2演算部34の入出力関係を停電時においても最小限
保持できるようにしてもよい。
【0063】<第4実施例>図5は、第2実施例におけ
るニューラルネットワーク演算装置の上記第2演算部の
入出力関係を複数の入出力関係に切り替え可能にしたニ
ューラルネットワーク演算装置の一実施例を示すブロッ
ク図である。図5において、入力部51,第1演算部5
2,第1差分部53,第2演算部54,第1記憶部55,第
1加算部57および出力部58の夫々は、図3における
入力部11,第1演算部12,第1差分部13,第2演算
部14,第1記憶部15,第1加算部17および出力部1
8と同じである。
【0064】さらに、第2差分部61,第2記憶部62,
第3記憶部63,第4記憶部64および第2加算部65
の夫々は、図3における第2差分部21,第2記憶部2
2,第3記憶部23,第4記憶部24及び第2加算部25
と同じである。したがって、上記各部の詳細な説明は省
略する。その際に、上述の第2実施例の場合と同様に、
上記第2差分部61によって算出される差分値のダイナ
ミックレンジは小さいので、第4記憶部64の記憶容量
を小さくして外部記憶媒体で容易に構成できるのであ
る。
【0065】切替部66は、上記第2演算部54による
ニューラルネットワークの演算の際には第2加算部65
側あるいは第3記憶部63側を切り替え選択する。そし
て、第2加算部65側を切り替え選択した場合には、第
2加算部65によって第4記憶部64に記憶された差分
値と第3記憶部63に記憶された対応する基準重み係数
の値とを加算して算出された重み係数w2の値を第2演
算部54に送出する。一方、上記第3記憶部63側を切
り替え選択した場合には、第3記憶部63に記憶されて
いる先験的知識によって設定した値あるいは本ニューラ
ルネットワーク演算装置が実環境で充分な性能を示して
いた際の第2演算部14用の重み係数w2の値等である
基準重み係数の値を読み出して第2演算部54に送出す
るのである。
【0066】したがって、上述の第3実施例の場合と同
様に、本実施例の場合にも第2演算部54は2種類の入
出力関係を持つのである。
【0067】すなわち、本実施例によれば、第1実施例
の効果に加えて、ニューラルネットワーク演算装置にお
ける上記第2演算部の入出力関係を複数の入出力関係に
切り替え可能にし、且つ上記入出力関係を設定するため
の重み係数w2を差分値によって小容量で記憶すること
によって記憶部の外部記憶媒体化を小可能にするのであ
る。
【0068】上記各実施例における第1演算部および第
2演算部によって実施されるニューラルネットワークの
演算は、図2に示すように多層パーセプトロン型ニュー
ラルネットワークの演算であってもよいし、他のニュー
ラルネットワークの演算であってもよい。
【0069】
【発明の効果】以上より明らかなように、第1の発明の
ニューラルネットワーク演算装置は、第1演算部によっ
てニューラルネットワークの演算を実施する際に用いる
重み係数を予め初期学習によって設定して第1記憶部に
記憶し、学習時には、上記第1演算部および第2演算部
に同じ入力データを入力し、初期学習に基づく上記第1
演算部による演算結果と実環境下での上記第1演算部の
真の出力値との差を差分算出部によって求め、この求め
られた上記差の値を教師データとして、第2演算部によ
って、上記入力データおよび第2記憶部に記憶された重
み係数とに基づいてニューラルネットワークの学習を実
施して得られた重み係数の値で上記第2記憶部の内容を
更新し、演算時には、上記第1記憶部および第2記憶部
に同じ入力データを入力し、両演算部によって、上記入
力データおよび上記第1又は第2記憶部に記憶された重
み係数に基づいてニューラルネットワークの演算を実施
し、加算部によって、上記第1演算部による演算結果に
上記第2演算部による演算結果を加算して得られた加算
値を出力部から出力するようにしたので、演算時におい
ては、予め実施された初期学習に基づく上記第1演算部
の演算結果を上記実環境下において実施された学習に基
づく上記第2演算部の演算結果によって補正できる。し
たがって、出力部から出力される本ニューラルネットワ
ーク演算装置による演算結果は、初期学習に基づく演算
結果ではなく上記実環境に即した最適演算結果となる。
すなわち、この発明によれば、上記第1記憶部に記憶さ
れた重み係数に基づく初期能力を保持しつつ実環境に適
応できる学習機能を有するニューラルネットワーク演算
装置を提供できる。
【0070】また、この発明における上記第2演算部に
よる学習には上記初期学習の際に使用した初期学習デー
タを必要とはしない。したがって、初期学習データ格納
用の記憶部を確保する必要がなく、初期能力を保持しつ
つ実環境に対応できる学習機能を有するニューラルネッ
トワーク演算装置を安価に提供できる。
【0071】また、第2の発明のニューラルネットワー
ク演算装置は、上記学習時に、上記第2演算部による学
習の結果得られた重み係数を第2記憶部に一時的に記憶
し、重み係数差算出部によって、上記第2記憶部に記憶
された重み係数の値と基準重み係数記憶部に記憶された
対応する基準重み係数の値との差を算出して差分値記憶
部に記憶し、上記演算時に、重み係数算出部によって、
上記差分値記憶部および基準重み係数記憶部から対応し
た上記差の値と基準重み係数の値とを読み出して加算し
て上記第2演算部用の重み係数を算出するので、上記第
2演算部用の重み係数はダイナミックレンジの小さい差
分値として差分値記憶部に記憶できる。したがって、こ
の発明によれば、上記差分値記憶部を容易に小型化して
着脱/交換可能にでき、上記差分値記憶部を交換するこ
とによって異なる実環境下に素早く対応できるのであ
る。
【0072】また、第3の発明のニューラルネットワー
ク演算装置は、上記第2記憶部を含む少なくとも二つの
記憶部を切替部によって切り替え選択し、上記学習時に
は、上記第2演算部による学習によって得られた重み係
数の値を上記選択された記憶部に送出する一方、上記演
算時には、上記選択された記憶部から読み出した重み係
数の値を上記第2演算部に送出するようにしたので、上
記切替部の制御によって第2演算部の入出力関係を複数
得ることができる。したがって、この発明によれば、複
数の記憶部に上記第2演算部用の同じ重み係数を記憶し
てバックアップ態勢を形成したり、上記複数の記憶部に
異なる環境下における重み係数を記憶して異なる環境に
対応可能にしたり容易にできる。
【0073】また、第4の発明のニューラルネットワー
ク演算装置は、上記学習時に、上記第2演算部による学
習の結果得られた重み係数の値と上記基準重み係数の値
との差を上記差分値記憶部に記憶し、上記演算時に、切
替部によって上記重み係数算出部側あるいは基準重み係
数記憶部側を切り替え選択し、上記重み係数算出部側を
選択した場合には上記重み係数算出部によって算出され
た重み係数を上記第2演算部に送出する一方、上記基準
重み係数記憶部側を選択した場合には上記基準重み係数
を上記第2演算部に送出するので、上記差分値記憶部を
容易に小型化して着脱/交換可能にでき、且つ上記切替
部の制御によって第2演算部の入出力関係を複数得るこ
とができる。したがって、この発明によれば、上記差分
値記憶部の交換に加えて上記切替部の切り替えによっ
て、更に多くの異なる実環境下に素早く対応できるので
ある。
【図面の簡単な説明】
【図1】この発明のニューラルネットワーク演算装置の
一実施例におけるブロック図である。
【図2】図1に示すニューラルネットワーク演算装置の
第2演算部によるニューラルネットワークの学習の説明
図である。
【図3】図1に示す実施例とは異なる実施例におけるブ
ロック図である。
【図4】図1および図3に示す実施例とは異なる実施例
におけるブロック図である。
【図5】図1,図3および図4に示す実施例とは異なる
実施例におけるブロック図である。
【図6】ニューラルネットワークにおけるユニットのモ
デル図である。
【図7】ニューラルネットワークの構造およびその学習
の説明図である。
【符号の説明】
1,11,31,51…入力部、 2,12,32,
52…第1演算部、3,13,33,53…差分部、
4,14,34,54…第2演算部、5,15,35,
55…第1記憶部、 6,22,62…第2記憶部、
7,17,37,57…加算部、 8,18,38,
58…出力部、21,61…第2差分部、
23,63…第3記憶部、24,64…第4記憶部、
25,65…第2加算部、41,66…切替
部。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 外部からの入力データを取り込む入力部
    と、予め初期学習によって設定されたニューラルネット
    ワークの重み係数を記憶しておく第1記憶部と、上記入
    力部からの入力データと上記第1記憶部に記憶された重
    み係数の値とに基づいて所定の手順によってニューラル
    ネットワークの演算を実施する第1演算部と、上記第1
    演算部によって得られた上記ニューラルネットワークの
    演算結果を出力する出力部を有するニューラルネットワ
    ーク演算装置において、 実環境下での上記第1演算部の真の出力値が上記入力部
    から入力されて、この入力値と上記第1演算部による演
    算結果との差の値を求める差分算出部と、 上記第1記憶部に記憶された重み係数とは異なるニュー
    ラルネットワークの重み係数を記憶しておく第2記憶部
    と、 学習時には、上記差分算出部によって求められた上記差
    の値を教師データとして、この教師データに対応して上
    記入力部から入力された入力データおよび上記第2記憶
    部に記憶された重み係数の値に基づいて所定の手順によ
    ってニューラルネットワークの学習を実施して得られた
    重み係数の値で上記第2記憶部に記憶されている重み係
    数の値を更新する一方、演算時には、上記入力部からの
    入力データと上記第2記憶部に記憶された重み係数の値
    とに基づいて所定の手順によってニューラルネットワー
    クの演算を実施する第2演算部と、 上記演算時において、同じ入力データに基づく上記第1
    演算部による演算結果と上記第2演算部による演算結果
    とを加算して上記出力部に送出する加算部を備えて、 予め実施された初期学習に基づく上記第1演算部の演算
    結果に上記実環境下において実施された学習に基づく上
    記第2演算部の演算結果による補正を行って、上記実環
    境下における上記第1演算部の真の演算結果を適応的に
    得ることを特徴とするニューラルネットワーク演算装
    置。
  2. 【請求項2】 請求項1に記載したニューラルネットワ
    ーク演算装置において、 上記第2記憶部は、上記学習時に上記第2演算部によっ
    て得られた重み係数の値を一時的に記憶するように成す
    と共に、 上記第2演算部によって用いられる重み係数の基準とな
    る基準重み係数を記憶する基準重み係数記憶部と、 上記第2記憶部に記憶された上記学習による重み係数の
    値と上記基準重み係数記憶部に記憶された対応する基準
    重み係数の値との差を算出する重み係数差算出部と、 上記重み係数差算出部によって算出された上記学習によ
    る重み係数と上記基準重み係数との差の値が記憶される
    差分値記憶部と、 演算時には、上記差分値記憶部および基準重み係数記憶
    部から対応した上記差の値と基準重み係数の値とを読み
    出し、両者を加算して上記第2演算部用の重み係数の値
    を算出する重み係数算出部を備えたことを特徴とするニ
    ューラルネットワーク演算装置。
  3. 【請求項3】 請求項1に記載したニューラルネットワ
    ーク演算装置において、 上記第2演算部での学習によって得られた重み係数を記
    憶する上記第2記憶部とは異なる少なくとも一つの記憶
    部と、 この記憶部および上記第2記憶部を含む少なくとも二つ
    の記憶部を切り替え選択して、上記学習時には上記第2
    演算部による学習によって得られた重み係数の値を上記
    選択された記憶部に送出する一方、上記演算時には上記
    選択された記憶部から読み出した重み係数の値を上記第
    2演算部に送出する切替部を備えたことを特徴とするニ
    ューラルネットワーク演算装置。
  4. 【請求項4】 請求項2に記載したニューラルネットワ
    ーク演算装置において、 上記演算時には、上記重み係数算出部側あるいは基準重
    み係数記憶部側を切り替え選択し、選択された側から読
    み出された重み係数の値あるいは基準重み係数の値を上
    記第2演算部に送出する切替部を備えたことを特徴とす
    るニューラルネットワーク演算装置。
JP4083692A 1992-04-06 1992-04-06 ニューラルネットワーク演算装置 Pending JPH05290013A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4083692A JPH05290013A (ja) 1992-04-06 1992-04-06 ニューラルネットワーク演算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4083692A JPH05290013A (ja) 1992-04-06 1992-04-06 ニューラルネットワーク演算装置

Publications (1)

Publication Number Publication Date
JPH05290013A true JPH05290013A (ja) 1993-11-05

Family

ID=13809550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4083692A Pending JPH05290013A (ja) 1992-04-06 1992-04-06 ニューラルネットワーク演算装置

Country Status (1)

Country Link
JP (1) JPH05290013A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146936A (ja) * 1993-11-24 1995-06-06 Babcock Hitachi Kk 階層型ニューラルネットワークによるパターン認識方法
JP2018026102A (ja) * 2016-08-11 2018-02-15 富士通株式会社 グループ間インデックスを用いた人工ニューラルネットワークにおける加重値の表現
JP2018529159A (ja) * 2015-08-25 2018-10-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated トレーニングされた機械学習モデルのパフォーマンスを改善するための方法
JP6869589B1 (ja) * 2019-12-24 2021-05-12 株式会社エイシング 情報処理装置、方法及びプログラム
WO2021131210A1 (ja) * 2019-12-24 2021-07-01 株式会社エイシング 情報処理装置、方法及びプログラム
US11341398B2 (en) 2016-10-03 2022-05-24 Hitachi, Ltd. Recognition apparatus and learning system using neural networks
WO2022144979A1 (ja) * 2020-12-28 2022-07-07 日本電気株式会社 学習装置、学習方法及び記憶媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63113773A (ja) * 1986-10-31 1988-05-18 Canon Inc 画像処理装置
JPH0375860A (ja) * 1989-08-18 1991-03-29 Hitachi Ltd パーソナライズド端末
JPH03216778A (ja) * 1990-01-22 1991-09-24 Matsushita Electric Ind Co Ltd 自己修正装置
JPH03233500A (ja) * 1989-12-22 1991-10-17 Oki Electric Ind Co Ltd 音声合成方式およびこれに用いる装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63113773A (ja) * 1986-10-31 1988-05-18 Canon Inc 画像処理装置
JPH0375860A (ja) * 1989-08-18 1991-03-29 Hitachi Ltd パーソナライズド端末
JPH03233500A (ja) * 1989-12-22 1991-10-17 Oki Electric Ind Co Ltd 音声合成方式およびこれに用いる装置
JPH03216778A (ja) * 1990-01-22 1991-09-24 Matsushita Electric Ind Co Ltd 自己修正装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07146936A (ja) * 1993-11-24 1995-06-06 Babcock Hitachi Kk 階層型ニューラルネットワークによるパターン認識方法
JP2018529159A (ja) * 2015-08-25 2018-10-04 クゥアルコム・インコーポレイテッドQualcomm Incorporated トレーニングされた機械学習モデルのパフォーマンスを改善するための方法
JP2018026102A (ja) * 2016-08-11 2018-02-15 富士通株式会社 グループ間インデックスを用いた人工ニューラルネットワークにおける加重値の表現
US11341398B2 (en) 2016-10-03 2022-05-24 Hitachi, Ltd. Recognition apparatus and learning system using neural networks
JP6869589B1 (ja) * 2019-12-24 2021-05-12 株式会社エイシング 情報処理装置、方法及びプログラム
WO2021131210A1 (ja) * 2019-12-24 2021-07-01 株式会社エイシング 情報処理装置、方法及びプログラム
JP2021108172A (ja) * 2019-12-24 2021-07-29 株式会社エイシング 情報処理装置、方法及びプログラム
WO2022144979A1 (ja) * 2020-12-28 2022-07-07 日本電気株式会社 学習装置、学習方法及び記憶媒体

Similar Documents

Publication Publication Date Title
Zhao et al. Distributed adaptive fixed-time consensus tracking for second-order multi-agent systems using modified terminal sliding mode
CN112947084B (zh) 一种基于强化学习的模型未知多智能体一致性控制方法
Chen et al. Combined genetic algorithm optimization and regularized orthogonal least squares learning for radial basis function networks
JP3334807B2 (ja) ニュ−ラルネットを利用したパタ−ン分類方法および装置
Liu et al. Event-triggered fuzzy adaptive quantized control for nonlinear multi-agent systems in nonaffine pure-feedback form
Liu et al. Adaptive finite-time practical consensus protocols for second-order multiagent systems with nonsymmetric input dead zone and uncertain dynamics
JPH05290013A (ja) ニューラルネットワーク演算装置
CN114547980A (zh) 具有时变状态约束的多智能体有限时间事件触发控制方法
Xie et al. Global leader-following consensus of a group of discrete-time neutrally stable linear systems by event-triggered bounded controls
Sun et al. RESO-based distributed bipartite tracking control for stochastic MASs with actuator nonlinearity
Nohooji et al. Actor–critic learning based PID control for robotic manipulators
JP3868358B2 (ja) 物理系の制御方法および装置ならびに物理系の制御のためのコンピュータプログラム
CN114918919A (zh) 一种机器人运动技能学习方法及系统
CN112327631B (zh) 一种粒子群优化rbf神经网络的pid控制方法
CN113019594B (zh) 基于多智能体tlbo算法的球磨机制粉优化控制方法
Szita et al. Factored value iteration converges
JPH05128284A (ja) ニユーロプロセツサ
Kohonen The SOM methodology
Saito et al. Discovery of relevant weights by minimizing cross-validation error
Xue et al. Data-Driven Inverse Reinforcement Learning for Expert-Learner Zero-Sum Games
JP2980421B2 (ja) ニューラルネット・モデルを用いた制御器
CN115619269A (zh) 一种基于中立二型模糊集的绿色建筑经济性判定方法
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
CN115271027A (zh) 新型多维神经网络拓扑结构构建系统
JPH0554014A (ja) ニユーラルネツトワークの学習装置