JPH05197705A - ニューラルネットワークの学習システム - Google Patents

ニューラルネットワークの学習システム

Info

Publication number
JPH05197705A
JPH05197705A JP4182706A JP18270692A JPH05197705A JP H05197705 A JPH05197705 A JP H05197705A JP 4182706 A JP4182706 A JP 4182706A JP 18270692 A JP18270692 A JP 18270692A JP H05197705 A JPH05197705 A JP H05197705A
Authority
JP
Japan
Prior art keywords
neural network
learning
layer
output
learning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4182706A
Other languages
English (en)
Inventor
Masayuki Yokono
雅之 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP4182706A priority Critical patent/JPH05197705A/ja
Publication of JPH05197705A publication Critical patent/JPH05197705A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 パターンや文字の認識、各種制御等の広い応
用分野を持つニューラルネットワークの学習方式に係わ
り、例えば中間層のユニット数が異なる複数のニューラ
ルネットワークを用いて、ハードウエア量の増加を抑え
ながら学習を効率的、かつ高速に行うことができるニュ
ーラルネットワークの学習システムを提供することを目
的とする。 【構成】 入力層、1層以上の中間層、および出力層か
ら構成される階層型ニューラルネットワークが複数個配
列されたニューラルネットワークシステムにおいて、該
複数のニューラルネットワークの2個以上に対する共通
の入力層または2個以上に対する共通の入力層および1
層以上の中間層と該複数のニューラルネットワークの学
習を制御する学習制御手段と備えるように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はパターン認識、各種制御
等の広い応用分野を持つニューラルネットワークの学習
を効率的、高速に行うためのニューラルネットワークの
学習システムに関する。
【0002】
【従来の技術及び発明が解決しようとする課題】ニュー
ロコンピュータの学習では、いくつかの学習パラメータ
や重みの初期値、中間層のユニット数などの条件によ
り、学習の結果がかなり異なってくる。従って、望みど
おりの性能を持つニューラルネットを得るためには条件
を変えて何度も試行錯誤を繰り返さなければならない。
【0003】図15は従来のニューラルネットワークを
用いた学習システムの構成例を示すブロック図である。
ネットワークが1から4まで4個あり、それぞれのネッ
トワークは入力層と中間層と出力層を持っている。そし
て、各ネットワークに学習パターンを同時に或いは順次
入力して学習を行わせるようになっている。
【0004】通常のニューラルネットワークを学習する
場合には、図16に示すように直列的な方法と、並列的
な方法がある。(a)に示す直列的な方法は、ネットワ
ーク1の学習を行い、次にネットワーク2の学習を行う
という具合に直列的に学習を行っていくものである。こ
れに対して、(b)に示す並列的な方法は、プロセス1
ではネットワーク1の学習を、プロセス2ではネットワ
ーク2の学習をという具合に、学習を並列的に、各ネッ
トワークに同時に行わせるものである。
【0005】図17は、ニューラルネットワークの学習
システムの従来例である。同図は例えば構成の異なる3
種類のニューラルネットワークA,B,及びCに学習を
行わせる学習システムの例である。同図において、パタ
ーン記憶装置10には、それぞれのニューラルネットワ
ークに学習を行わせるための入力パターンと、それに対
応する教師パターンが格納されている。入力パターンは
入力パターン部11に、また教師パターンは教師パター
ン部12に格納されている。
【0006】各ニューラルネットワークA〜Cはそれぞ
れ入力層装置13、中間層装置14、及び出力層装置1
5によって構成され、また各ニューラルネットワークに
対応して出力層装置15の出力と教師パターン部12か
ら出力される教師データとの誤差を計算するための誤差
計算機16が備えられ、また誤差計算機16の出力する
誤差に応じて中間層装置14、及び出力層装置15内に
格納されている重みの更新を行うための学習制御装置1
7が備えられている。
【0007】図17において、例えばまずニューラルネ
ットワークAについて学習を行わせ、次にニューラルネ
ットワークBについて学習を行わせるという具合に直列
的な学習が行われる。この学習時に各ニューラルネット
ワークには入力パターン部11から入力パターンが学習
パターンとして入力され、出力層装置15の出力と教師
パターン部12から出力される教師データとの差がある
一定値以下となるように学習が行われる。
【0008】図16において説明した2つの学習方法の
うちで、並列的な方法が学習の高速化に有効である。し
かしながら、従来の並列的な方法ではそれぞれのニュー
ラルネットワークを全く独立に学習させていたために、
ハードウエア量が多くなり、またニューラルネットワー
クの前向き処理、即ち入力層に値を入力させて出力層ユ
ニットの出力を得るまでの処理に際して、パターン記憶
装置からのパターンのローディングをネットワーク毎に
行わなければならないという問題点があった。
【0009】本発明は、ハードウエア量の増加を抑えな
がら学習を効率的、かつ高速に行うことができるニュー
ラルネットワークの学習システムを提供することを目的
とする。
【0010】
【課題を解決するための手段及び作用】図1は本発明の
原理ブロック図である。同図においては、入力層20の
みが共通な4つのニューラルネットワークと、これらの
ネットワークの学習を制御する学習制御手段25から構
成されるニューラルネットワークシステムが示されてい
る。中間層1,2と中間層3,4では層内のユニット数
が異なっており、また例えば入力層と中間層1の間、及
び入力層と中間層2の間では重みの初期値が異なってい
るものとすれば(入力層と中間層3及び入力層と中間層
4の間も同様)、図1は4種類のニューラルネットワー
クを示しており、例えばこれらの4種類のニューラルネ
ットワークのうち学習の収束が最も早いニューラルネッ
トワークが最適なニューラルネットワークとして用いら
れることになる。
【0011】図1において入力層20が共通化されてい
るために、同じ学習パターンを学習させる時に入力の無
駄を省いて効率的な学習を行わせることができる。即ち
ニューラルネットワークへの学習パターンのローディン
グ回数が1回でよく、学習を効率的かつ高速に行うこと
が可能となる。
【0012】なお図1において入力層のみが共通とされ
ているが、例えば重みの初期値などが同じ場合には中間
層1と中間層2、及び中間層3と中間層4とをそれぞれ
共通とすることも可能である。
【0013】
【実施例】図2〜図4はニューラルネットワークシステ
ムの構成の実施例である。本発明は構造、重み初期値、
または学習パラメータが異なる複数のネットワークを入
力層、または入力層と中間層とを共通とするニューラル
ネットワークシステムとして構成し、複数のネットワー
クに同一データを与えることによって最適のニューラル
ネットワークを見つけるものであるが、図2は構造の異
なる2つのネットワークを学習させるシステムの例であ
る。同図において中間層のユニット数が4個と3個の2
つのニューラルネットワークによって、入力層と中間層
とを共通とするニューラルネットワークシステム(中間
層のユニット数は4個)の学習システムが構成される例
を示している。
【0014】図3は重み初期値が異なる2つのニューラ
ルネットワークを1つのネットワークシステムとして学
習させる場合の例である。同図ではネットワークの構
成、即ちその層数及び各層のユニット数は同じである
が、例えば中間層ユニットと出力層ユニットとの間の重
み初期値が異なる2つのニューラルネットワークが1つ
のネットワークシステムとして構成されている。
【0015】図4は中間層と出力層との間の結合の学習
パラメータε,αが異なる2つのネットワークを1つの
ニューラルネットワークシステムとして構成した例であ
る。なお図2〜図4は1つの例であり、これらの例を組
み合わせることも可能で、ユーザが自由にパラメータを
設定してニューラルネットワークのシミュレーションを
行うことができる。
【0016】図5は本発明におけるニューラルネットワ
ーク学習システムの実施例構成ブロック図である。同図
は、図1に示したような入力層のみを共通とするニュー
ラルネットワークシステムの例である。従来例の図17
におけると同様にA〜Cの3つのネットワークによって
システムが構成されているが、入力層が共通であるため
に、図17と異なり共通入力層装置18は共通のものと
して1つだけ設けられており、本発明の特徴を示してい
る。
【0017】図6は図5における各ブロックを説明する
ために1つのニューラルネットワークだけを抜き出した
場合の説明図である。図5においてパターン記憶装置1
0はニューラルネットワークが学習するパターンを記憶
する装置であり、学習パターンは入力パターンとそれに
対応する教師パターンとから構成され、これらのパター
ンは通常ベクトルとして与えられる。1つのネットワー
クは通常複数組のパターンを学習する。これらのパター
ンが共通入力層装置13に与えられる。この入力層装置
はニューラルネットワークの入力層に相当する処理を行
う装置であり、図5では3つのネットワークA〜Cへ同
一のパターンデータのブロードキャストを行うものであ
る。
【0018】中間層装置以降は3つのネットワークA〜
Cのそれぞれにおいて異なるものであるため、図6を用
いて説明する。中間層装置はニューラルネットワークの
中間層に相当する処理を行うものであり、場合によって
はこの中間層装置は複数のニューラルネットワークの間
で共通に用いられることもある。また出力層装置はニュ
ーラルネットワークの出力層に相当する処理を行う装置
であり、学習制御装置は出力層装置の出力としての出力
パターンと教師パターンとの差の情報からネットワーク
内の結合の重みの更新を計算し、その更新量を中間層装
置および出力層装置に出力するものである。例えば中間
層装置には入力層の各ユニットと中間層の各ユニットと
の間の結合の重みが記憶されており、学習制御装置から
出力される重みの更新量に従ってその重みが更新され
る。なおこの出力パターンと教師パターンとの差は図5
の誤差計算機16によって計算される。
【0019】図5においては、3つのネットワークA,
BおよびCに対して学習制御装置17は並列に動作し、
各ネットワークの学習は並列的に行われる。この学習に
際しては、各中間層装置14、および出力層装置15か
ら重み更新のために必要なデータが学習制御装置17に
出力され、学習制御装置17からは重み更新量が各装置
14,15に与えられる。この学習は出力層装置15が
出力する出力パターンと教師パターンとの差がある一定
値以下に収束するまで続けられる。
【0020】また図5において、教師パターンは各入力
パターンに対して1つずつ、すなわち出力層のユニット
数が1個だけの場合の出力値に対応する教師パターンが
示されているが、一般的には出力層のユニット数は1個
に限定されないことは当然である。更に本実施例ではニ
ューラルネットワークの学習方式としてバックプロパゲ
ーション法を用いることを想定しているが、本発明にお
いてどのような学習方式を使用するかは本質的ではな
く、正解となるべき教師パターンが与えられている場
合、すなわちいわゆる教師あり学習であり、かつニュー
ラルネットワークが階層型であれば本発明の適用が可能
である。
【0021】図7はニューラルネットワークシステムの
学習終了後のニューラルネットワークの使用法の説明で
ある。例えば、図5の学習システムにおいて学習が終了
した後、例えば学習パターンとは異なるパターンを用い
て3つのニューラルネットワークA〜Cの試験が行わ
れ、試験結果のよいものが実行時のニューラルネットワ
ークとして選択される。例えば図5においてネットワー
クBに対する試験結果が最もよい場合には、実行時には
ネットワークAとCとを使用することなく、共通入力層
装置、ネットワークBの中間層装置、およびネットワー
クBの出力層装置を用いてニューラルネットワークの実
行が行われる。
【0022】前述のように本発明においては入力層のみ
でなく、中間層をも共通とすることが可能である。図8
は、構成Aにおいて例えば入力層と2つの中間層のそれ
ぞれとの間の結合の重みが同一である時に、構成Bに示
すように中間層を共通とした場合の例である。構成Bを
用いることにより入力層と中間層との間の結合は共有化
され、処理の簡単化と効率化が実現される。
【0023】図9は、入力層と中間層とを共通化した場
合の処理をフローチャート化したものである。図10は
中間層が複数ある場合、その1部の中間層を共通化する
例である。同図においては中間層が第1中間層と第2中
間層の2層からなっており、そのうち第1中間層が共通
化されている。
【0024】図11は従来例としての直列方式および並
列方式と、本発明とにおける前向き処理回数の算出式で
ある。ここで前向き処理とはニューラルネットワークの
入力層に入力パターンを与えて出力層のユニットから出
力を得るまでの処理をいい、また図16で説明したよう
に並列方式の場合、並列に行われる前向き処理は1回と
して数えるものとする。
【0025】そこで図11に示すように、直列方式では
ネットワーク番号nによって指定されるネットワークn
の学習回数の緩和が全体としての前向き処理回数となる
のに対して、並列方式および本発明の方式ではn個のネ
ットワークのそれぞれの学習回数のうちの最大値が全体
の前向き処理回数となる。
【0026】図12はのべ前向き回数の算出式である。
ここでのべ前向き処理回数とは、例えば直列方式の場合
次式で与えられる。
【0027】
【数1】
【0028】従って直列方式ではのべ前向き処理回数は
式で与えられ、並列方式でも個々の前向き処理はネッ
トワーク毎に独立に行われるために、のべ前向き処理回
数としては式で示すように直列方式と同じとなる。こ
れに対して本発明においては入力層への学習パターンの
ロードおよび、例えば中間層ユニットの出力の計算が共
通して行われるために、共通して行われる処理を含む前
向き処理をシステム全体として1回と数えることによ
り、のべ前向き処理回数は式で与えられる。
【0029】図13は図11および図12に示した前向
き処理回数、およびのべ前向き処理回数の具体例であ
る。例えばネットワークA,BおよびCのそれぞれの前
向き処理回数が6,4及び11回であるとすると、直列
方式では前向き処理回数およびのべ前向き処理回数は共
に21回となるのに対して、並列方式ではそれぞれ11
回と21回、本発明の方式では共に11回となる。なお
本実施例においては複数のネットワークを同期的に学習
させることを前提としており、ニューラルネットワーク
の規模に関係なく前向き処理および重み更新の制御にか
かる時間を一定と考えているために、学習回数と学習時
間とは1対1に対応したものとなる。
【0030】図14は従来方式と本発明の方式の比較を
示す。同図において処理に要するトータル時間は、従来
例の直列方式では各ネットワークの学習時間の緩和とな
るのに対して、従来例の並列方式、および本発明の方式
では各ネットワークの学習時間のうちの最大値がトータ
ル時間となる。前向き処理回数およびのべ前向き処理回
数については図11および図12に示されている。
【0031】図14におけるパターンローディングのた
めのハードウェア量の比較においては、ここでは同一の
パターンに対するメモリが共有されているものとして、
ハードウェア量とは1つのメモリから同時に複数のネッ
トワークに転送するための転送装置としてのメモリのポ
ート、転送処理装置、およびバスの量であり、その量は
直列方式と本発明の方式では1つの単位で済むのに対し
て、従来例の並列方式ではネットワーク数と同一数の単
位が必要となる。また同時に学習できるパターンの種類
は、従来例の並列方式ではネットワークを適当に区分し
て異なるパターンを与えることができるために1つ以上
となるのに対して、本発明と従来例の直列方式では同時
に学習できるパターンは1つである。
【0032】
【発明の効果】以上説明したように、本発明においては
階層型ニューラルネットワークシステムの入力層、また
は中間層の少なくとも1つを共通化することによって、
入力パターンのローディングおよびニューラルネットワ
ークの前向き処理におけるオーバーヘッドを少なくする
ことができ、例えばハード的にシステムを構築する場合
にはハードウェアを簡素化することが可能となり、学習
を効率よく行うことができるニューラルネットワークの
学習システムを提供することができ、パターン認識、制
御、その他ニューラルネットワークを用いるあらゆる産
業分野に利用することが可能である。
【図面の簡単な説明】
【図1】本発明の原理ブロック図である。
【図2】構造の異なる2つのネットワークから構成され
るシステムの実施例を示す図である。
【図3】重み初期値の異なる2つのネットワークから構
成されるシステムの実施例を示す図である。
【図4】学習パラメータの異なる2つのネットワークか
ら構成されるシステムの実施例を示す図である。
【図5】本発明におけるニューラルネットワーク学習シ
ステムの実施例の構成を示すブロック図である。
【図6】単一のネットワークに対する各装置の動作を説
明する図である。
【図7】実行時のニューラルネットワークの構成例を示
す図である。
【図8】中間層を共通とするニューラルネットワーク学
習システムの実施例を示す図である。
【図9】入力層と中間層とを共通化した場合の処理のフ
ローチャートである。
【図10】入力層と第1の中間層とを共通とするニュー
ラルネットワーク学習システムの実施例を示す図であ
る。
【図11】前向き処理回数の算出式を示す図である。
【図12】のべ前向き処理回数の算出式を示す図であ
る。
【図13】前向き処理回数とのべ前向き処理回数との具
体例の比較を示す図である。
【図14】従来方式と本発明の方式との比較を示す図で
ある。
【図15】従来のニューラルネットワーク学習システム
の構成例を示すブロック図である。
【図16】従来のニューラルネットワークシステムにお
ける学習の説明図である。
【図17】従来のニューラルネットワーク学習システム
の具体的構成例を示すブロック図である。
【符号の説明】
10 パターン記憶装置 11 入力パターン部 12 教師パターン部 13 入力層装置 14 中間層装置 15 出力層装置 16 誤差計算機 17 学習制御装置 18 共通入力層装置 20 入力層 21 中間層 22 出力層 25 学習制御手段

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 入力層(20)、1層以上の中間層(2
    1)、及び出力層(22)からなる階層型ニューラルネ
    ットワークが複数個配列されたニューラルネットワーク
    システムにおいて、 該複数のニューラルネットワークの2個以上に対する共
    通の入力層(20)、または2個以上に対する共通の入
    力層及び1層以上の中間層(21)と、 該複数のニューラルネットワークの学習を制御する学習
    制御手段(25)とを備えたことを特徴とするニューラ
    ルネットワークの学習システム。
  2. 【請求項2】 前記複数のニューラルネットワークが、
    中間層の層数の差、中間層及び出力層内のユニット数の
    差を含む構成上の相違を備えていることを特徴とする請
    求項1記載のニューラルネットワークの学習システム。
  3. 【請求項3】 前記複数のニューラルネットワークが、
    各層間の結合の重みの初期値の異なるニューラルネット
    ワークであることを特徴とする請求項1記載のニューラ
    ルネットワークの学習システム。
  4. 【請求項4】 前記複数のニューラルネットワークが、
    教師パターンの学習時における学習パラメータの異なる
    ニューラルネットワークであることを特徴とする請求項
    1記載のニューラルネットワークの学習システム。
  5. 【請求項5】 前記ニューラルネットワークの学習シス
    テムにおいて、 前記複数のニューラルネットワークの全てに共通の入力
    層が共通入力層装置(18)によって、 該複数のニューラルネットワークのそれぞれの中間層が
    それぞれ対応する中間層装置(14)によって、 該複数のニューラルネットワークのそれぞれの出力層が
    それぞれ対応する出力層装置(15)によって、 前記学習制御手段(25)が学習制御装置(17)によ
    って構成され、 該ニューラルネットワークの学習システムが、更に学習
    時に該共通入力層装置(18)に与えるべき入力パター
    ンと該入力パターンに対応してニューラルネットワーク
    から出力されるべき教師パターンとを対応させて記憶す
    るパターン記憶装置(10)と、 該パターン記憶装置(10)から出力される教師パター
    ンと、前記出力層装置(15)から出力される出力との
    誤差を計算し、該誤差を前記学習制御装置(17)に出
    力する、該出力層装置(15)と1対1に対応する複数
    の誤差計算機(16)とを備えたことを特徴とする請求
    項1記載のニューラルネットワークの学習システム。
  6. 【請求項6】 前記ニューラルネットワークの学習シス
    テムにおいて、 前記学習制御装置(17)が、該ニューラルネットワー
    クの学習システムを構成する複数のニューラルネットワ
    ークの学習をバックプロパゲーション法を用いて制御す
    ることを特徴とする請求項5記載のニューラルネットワ
    ークの学習システム。
  7. 【請求項7】 前記ニューラルネットワークの学習シス
    テムにおいて、 該ニューラルネットワークの学習システムを構成する複
    数のニューラルネットワークの学習終了後に、学習済み
    のパターン以外の入力パターンを用いて該複数のニュー
    ラルネットワークの試験を行い、 該試験結果が最も良いニューラルネットワークを除い
    て、前記共通入力層装置(18)と、中間層装置(1
    4)との接続を切り離し、 該共通入力装置(18)に入力パターンを与え、該試験
    結果が最も良いネットワークの出力層装置(15)から
    出力を得て、ニューラルネットワークの実行を行うこと
    を特徴とする請求項5記載のニューラルネットワークの
    学習システム。
JP4182706A 1991-07-09 1992-07-09 ニューラルネットワークの学習システム Pending JPH05197705A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4182706A JPH05197705A (ja) 1991-07-09 1992-07-09 ニューラルネットワークの学習システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16790191 1991-07-09
JP3-167901 1991-07-09
JP4182706A JPH05197705A (ja) 1991-07-09 1992-07-09 ニューラルネットワークの学習システム

Publications (1)

Publication Number Publication Date
JPH05197705A true JPH05197705A (ja) 1993-08-06

Family

ID=26491809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4182706A Pending JPH05197705A (ja) 1991-07-09 1992-07-09 ニューラルネットワークの学習システム

Country Status (1)

Country Link
JP (1) JPH05197705A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211799A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置および情報処理方法
CN109308481A (zh) * 2017-07-27 2019-02-05 丰田自动车株式会社 识别装置
WO2019198814A1 (ja) * 2018-04-12 2019-10-17 日本電信電話株式会社 ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム
JP2020045773A (ja) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 内燃機関の制御装置
JP2020091791A (ja) * 2018-12-07 2020-06-11 日本電信電話株式会社 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
WO2020209078A1 (ja) * 2019-04-09 2020-10-15 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2021503661A (ja) * 2017-11-20 2021-02-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017211799A (ja) * 2016-05-25 2017-11-30 キヤノン株式会社 情報処理装置および情報処理方法
CN109308481A (zh) * 2017-07-27 2019-02-05 丰田自动车株式会社 识别装置
JP2019028616A (ja) * 2017-07-27 2019-02-21 トヨタ自動車株式会社 識別装置
US11176416B2 (en) 2017-07-27 2021-11-16 Toyota Jidosha Kabushiki Kaisha Perception device
CN109308481B (zh) * 2017-07-27 2022-08-30 丰田自动车株式会社 识别装置
JP2021503661A (ja) * 2017-11-20 2021-02-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練
WO2019198814A1 (ja) * 2018-04-12 2019-10-17 日本電信電話株式会社 ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム
JPWO2019198814A1 (ja) * 2018-04-12 2021-04-01 日本電信電話株式会社 ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム
JP2020045773A (ja) * 2018-09-14 2020-03-26 トヨタ自動車株式会社 内燃機関の制御装置
JP2020091791A (ja) * 2018-12-07 2020-06-11 日本電信電話株式会社 推定装置、最適化装置、推定方法、最適化方法、及びプログラム
WO2020209078A1 (ja) * 2019-04-09 2020-10-15 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム

Similar Documents

Publication Publication Date Title
US5506998A (en) Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data
US5295227A (en) Neural network learning system
KR102555057B1 (ko) 웨이트 매트릭스를 포맷하는 방법, 포맷된 데이터를 사용하는 가속기 및 이를 포함하는 시스템
US5544336A (en) Parallel data processing system which efficiently performs matrix and neurocomputer operations, in a negligible data transmission time
Liu et al. Structure identification of uncertain general complex dynamical networks with time delay
Mühlenbein et al. Evolution algorithms in combinatorial optimization
US5517596A (en) Learning machine synapse processor system apparatus
WO1991018350A1 (en) A learning machine synapse processor system apparatus
JPH05197705A (ja) ニューラルネットワークの学習システム
US5857178A (en) Neural network apparatus and learning method thereof
CN112396154A (zh) 一种基于卷积神经网络训练的并行方法
JPH076146A (ja) 並列データ処理システム
JP2825133B2 (ja) 並列データ処理方式
Vai et al. Representing knowledge by neural networks for qualitative analysis and reasoning
JP2559884B2 (ja) ファジィ制御器
Yao et al. Sojourn Time Minimization of Successful Jobs
Berger K-coloring vertices using a neural network with convergence to valid solutions
JPH04233062A (ja) ベクトルの処理方法およびその回路
JPH05181828A (ja) 知識情報処理装置
JP2559879B2 (ja) ファジィ制御器
Obuchi et al. Weighted parallel problem solving by optimization networks
JPH04353963A (ja) 神経回路網の構築装置および方法
Hoffmann Connectionist functionality and the emergent network behavior
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
JP2559876B2 (ja) ファジィ制御器

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020514