JPH05108595A - ニユーラルネツトワークの分散学習装置 - Google Patents

ニユーラルネツトワークの分散学習装置

Info

Publication number
JPH05108595A
JPH05108595A JP3269252A JP26925291A JPH05108595A JP H05108595 A JPH05108595 A JP H05108595A JP 3269252 A JP3269252 A JP 3269252A JP 26925291 A JP26925291 A JP 26925291A JP H05108595 A JPH05108595 A JP H05108595A
Authority
JP
Japan
Prior art keywords
computer
layer
neural network
computers
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3269252A
Other languages
English (en)
Inventor
Yasushi Sugawara
康 菅原
Junichi Tono
純一 東野
Miyuki Hara
幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Solutions East Japan Ltd
Original Assignee
Hitachi Ltd
Hitachi Tohoku Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Tohoku Software Ltd filed Critical Hitachi Ltd
Priority to JP3269252A priority Critical patent/JPH05108595A/ja
Publication of JPH05108595A publication Critical patent/JPH05108595A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】BP法は、基本的には山登り法のため繰返し回
数が多く一台の計算機で実行すると学習が収束するまで
に時間がかかるという問題がある。本発明では、複数の
計算機で学習を分散実行させることにより、学習時間を
少なくする。 【構成】図1に示すように、ニューラルネットワークを
分割するために、まず計算機1にニューラルネットワー
クの情報と入出力パターンを入力する。次に、計算機1
はそれにつながれている計算機2から計算機Nと通信を
行い、それぞれの計算機の性能と通信時間を測定する。
測定したデータとニューラルネットワークの情報により
計算機1は分割方法を決定する。決定された分割方法に
従いニューラルネットワークを分割し、互いに通信しな
がら学習を分散実行する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、多層型ニューラルネッ
トワークの学習装置に係り、特に計算機を複数台用いて
学習を高速に実行するニューラルネットワークの分散学
習装置に関する。
【0002】
【従来の技術】バックプロパゲーション法を用いたニュ
ーラルネットワークの学習は、一般に計算回数が膨大に
なるため、単一処理装置構成の汎用計算機上で実行する
と長時間の計算が必要である。そもそもニューラルネッ
トワークは並列計算機と親和性がよく、その実現方法に
よっては並列度を上げることが可能である。そこで、並
列処理によって高速計算する試みがなされており、その
一つに電子情報通信学会技術研究報告書,MEとバイオ
サイバネテイツクス88−134(1989)に報告さ
れた試みがある。この試みでは、複数個の処理装置(D
SP:digital signal proces
sorとローカルメモリからなる)をリング状に配置す
る。一つの処理装置に隣接する層のノードを一つ以上割
り当て、あるノードの割り当てられた処理装置のローカ
ル・メモリ上にそのノードの属する上位層との重み係数
を格納する。入力層から出力層に向かって前向きに積和
計算を実行する時は、ある層に属する各処理装置は、そ
れぞれ独立に、ノ−ドの値と上位層への重みとの積を順
順にリングに乗せ、目的とする処理装置に到達するま
で、リング上を回転させる。出力層から入力層に向かっ
て逆向きに積和計算を実行する時は、各処理装置上に必
要な重みが格納されているためリング上に乗せる必要は
ないが、出力層からの誤差データは下位の層に伝える必
要があるので、目的とする処理装置に到達するまでリン
グ上を回転させる。すなわち、N離れたノードにデータ
を転送するには、N回リング上を回転させる必要があ
る。従って、処理装置の数が多くなると、データ転送に
要する時間が増加する。このデータ転送に伴うオーバー
ヘッドをなくすためには、処理装置の結合形態をリング
状からバス状にするのが有効である。バス型結合におい
ては、どれだけ離れていても同じ時間遅れでデータを転
送出来る。
【0003】
【発明が解決しようとする課題】バス型結合において
は、ある処理装置がバスに乗せたデータを複数の処理装
置が同時に受け取る事が可能で、積和計算が並列に実行
出来る。下位層への重みを処理装置が保持する構成とす
ると、前向き計算時、下位層の処理装置が順順にバスに
出力を乗せ、上位層の処理装置は各接続に対応した重み
から積和を計算出来る。しかし、逆方向に積和計算を実
行する時は、積和を実行する処理装置上に必要な重みが
格納されていないため、重みを上位層から下位層に転送
しなければならない。しかし、上位層と下位層はバスで
結合されているためデータを並列に転送できなくなり、
処理装置の数に比例した速度向上を期待出来なくなると
いう問題があった。
【0004】同一発明者による特開平3−185553
号公報「多層型ネットワークの学習方法」では、並列処
理によるバックプロパゲーション法を高速計算する時に
発生する上記の問題の解決方法を明らかにしている。多
層型ネットワークの重みを、中間層に属する処理装置に
ついて、下位層に対する重みだけでなく、上位層に対す
る重みも格納することにより、データの通信量を減らす
方法である。
【0005】しかしそれでは、一般の計算機をいくつか
使用して並列処理を行おうとした時、ニューラルネット
ワークの分割方法を明らかにしていなかった。
【0006】本発明は、ニューラルネットワークの分割
方法を明らかにし、一般の計算機を複数台用いて分散学
習を行い、学習速度を上げることを目的としている。
【0007】
【課題を解決するための手段】上記の目的を解決するた
め、本発明では、ニューラルネットワークの規模、使用
出来る計算機の数、計算機間の通信時間、そして計算機
の性能から分割方法を決定する手段を設ける。また、通
信時間を短縮する為、必要なデータをまとめて通信する
為のデータ記憶手段を設ける。
【0008】
【作用】上記の分割方法を用いることにより、ニューラ
ルネットワークの学習は、一般の計算機を複数台用い、
並列処理を行うことが出来る。
【0009】
【実施例】以下図面を用いて本発明の実施例について説
明する。
【0010】図1は、ニューラルネットワークの分散学
習を実現するシステムの構成を示す。ニューラルネット
ワークを分割するために、まず計算機1にネットワーク
情報9と入出力パターン8とを入力する。次に計算機1
はそれに接続されている計算機2から計算機Nと通信を
行い、それぞれの計算機の性能と通信時間を測定する。
計算機1は測定したデータとニューラルネットワークの
情報により分割方法を決定する。
【0011】図2は計算機1の機能的な構成を示す。分
割方法決定手段は入力されたネットワーク情報9を記憶
する手段と、計算機2〜NそれぞれにM回の積和計算を
させてその所要時間を測定する。計算機性能測定手段
と、計算機2〜NそれぞれとKバイトのデータ通信を行
いその所要時間を測定する通信時間測定手段とより構成
され、ニューラルネットワークの分割方法を決定する。
またニューラルネットワーク計算手段は入力された入出
力パターン8を記憶する手段と、通信データを記憶する
手段と、担当重みを記憶する手段とから構成され、決定
された分割方法に従って所要の計算を行う。
【0012】図3は計算機2〜Nの機能的な構成を示
す。ニューラルネットワーク計算手段は計算機1のもの
と同じである。なお計算機2〜Nには入出力パターンが
割り当てられているかどうかを示す割当てフラグがあ
る。
【0013】図2に示す計算機性能は、積和計算一回に
必要な時間で単位は秒であり、通信時間は、データ1バ
イト通信するのに必要な時間で単位は秒である。ネット
ワーク情報9の内容を図14に示す。層数1401は、
ニューラルネットワークの層が入力層と出力層を含めて
何層あるかを示す。ノード数1402は、各層のノード
数がいくつあるかを示し、入力層、入力層の次の層、
…、出力層という順に並ぶ。結合情報1403は、完全
結合か部分結合かなど層間のノードの結合状態を示す。
分割数1404は、ニューラルネットワークの分散数を
示す。つまり、計算機の数Nと等しい数である。情報1
405は、計算機と通信を行う時に必要な情報を示す。
この情報をもとに、各計算機を管理し通信を制御する。
情報1405は分割数だけくり返される。図15に入出
力パターン8の内容を示す。入出力パータン8は学習を
行う時の教師となるパターンである。1501は入力デ
ータで、入力層のノード数で1パターンとなり、それが
パターン数だけ必要となる。1502は出力データで教
師値とも言われ、入力パターンを入力した時、出力して
欲しい値である。これも、出力層のノード数で1パター
ンとなり、それがパターン数だけ必要となる。また、入
力パターンと出力パターンは一対一の対応になってい
る。計算機1が分割方法を決定する処理の流れを図13
に示す。ステップ1301で計算機1は図14に示され
たネットワーク情報9を読み込む。ステップ1302で
n=2とし、ステップ1304からステップ1305
を、計算機2〜Nについて調べる。ステップ1304で
は、計算機1が計算機nと通信を行う。そしてステップ
1305で計算機1は、計算機nの性能と通信時間を調
べる。ステップ1307で計算機1は各計算機の性能を
比較し、その差がある値以下の時はステップ1308
へ、そうでない時はステップ1315へ処理を進める。
ステップ1308で各層の計算量を計算し、比較する。
各層の計算量を求める式は、次の通りである。
【0014】j:層番号(1:入力層,…,J:出力
層) D:ノード数 K:計算量
【0015】
【数1】
【0016】で求まる。ここでKjはj層の計算量、D
jはj層のノード数1402である。ステップ1308
で各層の計算量の差がある値以下の時はステップ130
9へ、そうでない時はステップ1311へ処理を進め
る。ステップ1309では、層数−1が分割数1404
と等しい時、ステップ1310の方法1を採用する。そ
うでない時は、ステップ1311へ処理を進める。ステ
ップ1311では、数式1で求めた各層の計算量の比が
簡単な整数比で表される時ステップ1312へ、そうで
ない時ステップ1315へ処理を進める。ステップ13
12では、各層の計算量の比の値の合計の整数倍が、図
14に示す分割数1404である時ステップ1313
へ、そうでない時ステップ1315へ処理を進める。ス
テップ1313では、各計算機の割当てノード数≧1の
時ステップ1314の方法2を採用し、そうでない時は
ステップ1315の方法3を採用する。
【0017】ここで分割方法についてまとめる。分割方
法は三つの方法に分けられる。一つは図4のように入力
層を除く各層対応に分割する方法で、層数−1と計算機
数が等しくかつ各層に割り当てられた計算機の計算時間
が等しい場合に用いられる。各層のノード数が等しい場
合かつノード数が少ない場合有効である(方法1)。も
う一つは図5のように、各層で分割し、同一層の中でも
又いくつかに分割する方法で、計算機の性能がほぼ等し
く、各層の計算量の比が簡単な整数で表される時、各層
の比の値の合計数を整数倍した数が割り当てられる計算
機の数でありかつ、計算機には最低1ノード以上割り当
てられる場合に用いられる。各層のノード数が違う場合
かつノード数が多い場合有効である(方法2)。もう一
つは上記二つ以外の場合に用いられ、図6のように各層
においてノードの数が同じぐらいの数になるよう層間に
またがって分割する方法である。出力層のノード数に比
べて計算機の数が少ない場合有効である(方法3) 次に、上記三つの方法について詳しく説明する。方法1
を用いてニューラルネットワークを分割した例を図7
に、その時のタイムチャートを図8に示す。入力パター
ンは計算機1に、出力パターンは計算機2に割り当て
る。再学習の時は、既に入出力パターンが割り当てられ
ているかどうかフラグを見て割り当てられていると転送
しない判断をする。図8のブロックAにおいて計算機1
では、入力層のノード出力O7〜O9と重みW10〜W
18から中間層のノード出力O4〜O6が求められる。
ブロックBで計算機1は、計算機2にノード出力O4〜
O6を送信する。ブロックCでは、計算機1は次のパタ
ーンの入力層のノード出力O7〜O9と重みW10〜W
18から中間層のノード出力O4〜O6を求める。計算
機2は中間層のノード出力O4〜O6と重みW1〜W9
から出力層のノード出力O1〜O3を求め、出力層のノ
ード出力O1〜O3と教師信号T1〜T3より、出力層
のノード誤差δ1〜δ3を求める。ブロックDで計算機
1は中間層のノード出力O4〜O6を計算機2に送信
し、その後計算機2は計算機1にノード誤差δ1〜δ3
を送信する。ブロックEでは、計算機1は出力層のノー
ド誤差δ1〜δ3よりW1〜W9の修正量ΔW1〜ΔW
9を求め、出力層のノード誤差δ1〜δ3と重みW1〜
W9から中間層のノード誤差δ4〜δ6が求まり、それ
を使いW10〜W18の修正量ΔW10〜ΔW18を求
める。計算機2は、出力層のノード誤差δ1〜δ3より
重みW1〜W9の修正量ΔW1〜ΔW9を求める。その
後ブロックC、D、Eを繰り返す。この時、ブロック
C、Eにおいて、計算機1と計算機2の計算量が等し
く、パイプライン的な処理ができ、分散による効率が良
くなる。
【0018】方法2を用いてニューラルネットワークを
分割した例を図9に、その時のタイムチャートを図10
に示す。入力パターンは計算機1と2に、出力パターン
は計算機3に割り当てる。再学習の時は、既に入出力パ
ターンが割り当てられているかどうかフラグを見て割り
当てられていると転送しない判断をする。図10のブロ
ックAにおいて計算機1では、入力層のノード出力O7
〜O22と重みW9〜W42から中間層のノード出力O
3〜O4が求められる。計算機2は、入力層のノード出
力O7〜O22と重みW43〜W76から中間層のノー
ド出力O5〜O6が求められる。ブロックBで計算機1
は計算機3にノード出力O3〜O4を送信する。その後
計算機2は計算機3にノード出力O5〜O6を送信す
る。ブロックCでは、計算機1は次のパターンの入力層
のノード出力O7〜O22と重みW9〜W42から中間
層のノード出力O3〜O4を求める。計算機2は次のパ
ターンの入力層のノード出力O7〜O22と重みW43
〜W76から中間層のノード出力O5〜O6を求める。
計算機3は中間層のノード出力O3〜O6と重みW1〜
W8から出力層のノード出力O1〜O2を求め、出力層
のノード出力O1〜O2と教師信号T1〜T2より、出
力層のノード誤差δ1〜δ2を求める。ブロックDで
は、計算機1、2は中間層のノード出力O3〜O6を計
算機3に送信し、その後計算機3は計算機1、計算機2
にノード誤差δ1〜δ2を送信する。ブロックEでは、
計算機1は出力層のノード誤差δ1〜δ2よりW1、W
5、W2、W6の修正量ΔW1,5,2,6を求め、δ
1〜δ2とW1、W5、W2、W6から中間層のノード
誤差δ3〜δ4が求まり、それを使いW9〜W42の修
正量ΔW9〜ΔW42を求める。計算機2は出力層のノ
ード誤差δ1〜δ2よりW3、W7、W4、W8の修正
量ΔW3,7,4,8を求め、δ1〜δ2とW3、W
7、W4、W8から中間層のノード誤差δ5〜δ6が求
まり、それを使いW43〜W76の修正量ΔW43〜Δ
W76を求める。計算機3は、出力層のノード誤差δ1
〜δ2より重みW1〜W8の修正量ΔW1〜ΔW8を求
める。この後ブロックC、D、Eを繰り返す。この時、
ブロックC、Eにおいて、計算機3と計算機1、計算機
2の計算量が等しく、パイプライン的な処理ができ、分
散による効率が良くなる。
【0019】方法3を用いてニューラルネットワークを
分割した例を図11に、その時のタイムチャートを図1
2に示す。入出力パターンは予め計算機1、計算機2に
割り当てられており、再学習の時は、既に入出力パター
ンが割り当てられているかどうかフラグを見て割り当て
られていると転送しない判断をする。図12のブロック
Aでは、計算機1は入力層のノード出力O7〜O22と
重みW9〜W42から、中間層ノード出力O3〜O4が
求まる。計算機2は入力層ノード出力O7〜O22と重
みW43〜W76から、中間層ノード出力O5〜O6が
求まる。ブロックBでは、計算機1は中間層ノード出力
O3〜O4を計算機2へ、計算機2は中間層ノード出力
O5〜O6を計算機1へ送信する。ブロックCでは、計
算機1は中間層ノード出力O3〜O6と重みW1〜W4
から出力層ノード出力O1を求め、出力層ノード出力O
1と教師信号T1から出力層ノード誤差δ1が求めら
れ、出力層ノード誤差δ1から重みW1〜W4の修正量
ΔW1〜ΔW4が求められる。計算機2は中間層ノード
出力O3〜O6と重みW5〜W8から出力層ノード出力
O2を求め、出力層ノード出力O2と教師信号T2から
出力層ノード誤差δ2が求められ、出力層ノード誤差δ
2から重みW5〜W8の修正量ΔW5〜ΔW8が求めら
れる。ブロックDでは、計算機1は出力層ノード誤差δ
1を計算機2へ送信し、計算機2は出力層ノード誤差δ
2を計算機1へ送信する。ブロックEでは、計算機1は
出力層ノード誤差δ2から重みW5、W6の修正量ΔW
5,6を求め、出力層ノード誤差δ1〜δ2と重みW
1、W5から中間層ノード誤差δ3、出力層ノード誤差
δ1〜δ2と重みW2、W6から中間層ノード誤差δ4
を求め、中間層ノード誤差δ3〜δ4から重みW9〜W
42の修正量ΔW9〜ΔW42が求まる。計算機2は出
力層ノード誤差δ1から重みW3、W4の修正量ΔW
3,4を求め、出力層ノード誤差δ1〜δ2と重みW
3、W7から中間層ノード誤差δ5、出力層ノード誤差
δ1〜δ2と重みW4、W8から中間層ノード誤差δ6
を求め、中間層ノード誤差δ5〜δ6から重みW43〜
W76の修正量ΔW43〜ΔW76が求まる。このよう
に、計算機1と計算機2の計算量が等しくなり、分散に
よる効率は良くなる。
【0020】しかし、この方法も分割数が増えると計算
機間の通信によるロスが多くなってしまう。そこで図1
2のブロックCつまり出力層の計算を全てそれぞれの計
算機で行いブロックDつまり出力層ノード誤差の通信を
省いてしまう。この時、出力層のノード誤差の通信を行
った時と行わない時の計算時間を比較し、通信を行わな
い方が優れていれば、この方式を使う。
【0021】また、学習パターン数が多い時は、通信電
文の前後につくヘッダによるロスを少なくするため、一
度に数パターンのデータをまとめて通信する方式が有効
である。この方式を用いると、ブロックA、C、Eは、
まとめるパターン数回反復され、ブロックD、Eは、ま
とめるパターン数分の一回になり、通信回数を減らすこ
とが出来る。
【0022】
【発明の効果】本発明によれば、複数の計算機にニュー
ラルネットワークの学習を分散実行させる事により、学
習時間を短縮することができる。
【図面の簡単な説明】
【図1】ニューラルネットワークの分散学習装置の全体
構成図である。
【図2】計算機1の構成を示す図である。
【図3】計算機2〜Nの構成を示す図である。
【図4】ニューラルネットワークの分割方法1を示す図
である。
【図5】ニューラルネットワークの分割方法2を示す図
である。
【図6】ニューラルネットワークの分割方法3を示す図
である。
【図7】中間層と出力層の計算量が等しい時のニューラ
ルネットワークの分割例を示す図である。
【図8】図7についてのタイムチャートである。
【図9】中間層と出力層の計算量が違う時のニューラル
ネットワークを層ごとに分割し、中間層をさらに二つに
分割した分割例を示す図である。
【図10】図9についてのタイムチャートである。
【図11】ニューラルネットワークを中間層と出力層の
ノードが各層で同じぐらいの数になるように分割した分
割例を示す図である。
【図12】図11についてのタイムチャートである。
【図13】分割方法を決定する処理の流れを示すフロー
チャートである。
【図14】ネットワーク情報のデータ構成を示す図であ
る。
【図15】入出力パターンのデータ構成を示す図であ
る。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 原 幸 神奈川県横浜市戸塚区戸塚町5030番地株式 会社日立製作所ソフトウエア開発本部内

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】パターンを入力する複数のノードから構成
    される入力層と、パターンを出力する複数のノードから
    構成される出力層と、複数のノードから構成される層を
    1層以上有する中間層とを有する多層型のニューラルネ
    ットワークの学習装置において、 計算量に応じて、前記中間層を構成する各層対応に割り
    当てられる1台以上の計算機と、前記出力層に割り当て
    られる別の1台の計算機とを有し、複数の前記計算機の
    うちの1台は前記計算機の割り当てを行い、複数の前記
    計算機は互いに通信を行いながら重み係数の調節を行う
    ことを特徴とするニューラルネットワークの分散学習装
    置。
  2. 【請求項2】前記入力層と接続される前記中間層が割り
    当てられる前記計算機に、全ての入力パターンを割り当
    てることを特徴とする請求項1記載のニューラルネット
    ワークの分散学習装置。
  3. 【請求項3】前記出力層の割り当てられた前記計算機
    に、全ての出力パターンを割り当てることを特徴とする
    請求項1記載のニューラルネットワークの分散学習装
    置。
  4. 【請求項4】パターンを入力する複数のノードから構成
    される入力層と、パターンを出力する複数のノードから
    構成される出力層と、複数のノードから構成される層を
    1層以上有する中間層とを有する多層型のニューラルネ
    ットワークの学習装置において、 計算量に応じて、同一の層に対して少なくとも1ノード
    を含むように割り当てられる2台以上の計算機と、他の
    同一の層に対して少なくとも1ノードを含むように割り
    当てられる1台以上の計算機とを有し、複数の前記計算
    機のうちの1台は前記計算機の割り当てを行い、複数の
    前記計算機は互いに通信を行いながら重み係数の調節を
    行うことを特徴とするニューラルネットワークの分散学
    習装置。
  5. 【請求項5】パターンを入力する複数のノードから構成
    される入力層と、パターンを出力する複数のノードから
    構成される出力層と、複数のノードから構成される層を
    1層以上有する中間層とを有する多層型のニューラルネ
    ットワークの学習装置において、 計算量に応じて、各々の計算機が前記中間層と出力層に
    またがってそれぞれの層について少なくとも1つのノー
    ドを含むように割り当てられる複数台の計算機を有し、
    複数台の前記計算機のうちの1台は前記計算機の割り当
    てを行い、複数台の前記計算機は互いに通信を行いなが
    ら重み係数の調節を行うことを特徴とするニューラルネ
    ットワークの分散学習装置。
  6. 【請求項6】すべての入出力パターンをあらかじめすべ
    ての前記計算機に割り当てることを特徴とする請求項5
    記載のニューラルネットワークの分散学習装置。
JP3269252A 1991-10-17 1991-10-17 ニユーラルネツトワークの分散学習装置 Pending JPH05108595A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3269252A JPH05108595A (ja) 1991-10-17 1991-10-17 ニユーラルネツトワークの分散学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3269252A JPH05108595A (ja) 1991-10-17 1991-10-17 ニユーラルネツトワークの分散学習装置

Publications (1)

Publication Number Publication Date
JPH05108595A true JPH05108595A (ja) 1993-04-30

Family

ID=17469770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3269252A Pending JPH05108595A (ja) 1991-10-17 1991-10-17 ニユーラルネツトワークの分散学習装置

Country Status (1)

Country Link
JP (1) JPH05108595A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム
JP2018097612A (ja) * 2016-12-13 2018-06-21 富士通株式会社 情報処理装置、プログラム及び情報処理方法
KR20180077218A (ko) * 2015-10-28 2018-07-06 구글 엘엘씨 계산 그래프들 프로세싱
JP2018124754A (ja) * 2017-01-31 2018-08-09 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
WO2018155232A1 (ja) 2017-02-23 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2018195200A (ja) * 2017-05-19 2018-12-06 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019020915A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019045970A (ja) * 2017-08-30 2019-03-22 日本電気株式会社 分散システム、バックエンドサービス、エッジサーバ、及びその方法
JP2019121141A (ja) * 2017-12-29 2019-07-22 大日本印刷株式会社 デバイス、セキュアエレメント、プログラム、情報処理システム及び情報処理方法
JP2019144864A (ja) * 2018-02-21 2019-08-29 日本電気株式会社 エッジコンピューティングシステム、エッジサーバ、システム制御方法、及びプログラム
JP2020512639A (ja) * 2017-03-24 2020-04-23 グーグル エルエルシー 強化学習を用いたデバイス配置最適化
JPWO2020245864A1 (ja) * 2019-06-03 2020-12-10
JPWO2021111491A1 (ja) * 2019-12-02 2021-06-10

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012022558A (ja) * 2010-07-15 2012-02-02 Hitachi Ltd 分散計算システム
KR20200015829A (ko) * 2015-10-28 2020-02-12 구글 엘엘씨 계산 그래프들 프로세싱
KR20180077218A (ko) * 2015-10-28 2018-07-06 구글 엘엘씨 계산 그래프들 프로세싱
JP2018538607A (ja) * 2015-10-28 2018-12-27 グーグル エルエルシー 計算グラフの処理
US11769061B2 (en) 2015-10-28 2023-09-26 Google Llc Processing computational graphs
US10860925B2 (en) 2015-10-28 2020-12-08 Google Llc Processing computational graphs
JP2020129404A (ja) * 2015-10-28 2020-08-27 グーグル エルエルシー 計算グラフの処理
US10534997B2 (en) 2015-10-28 2020-01-14 Google Llc Processing computational graphs
JP2018097612A (ja) * 2016-12-13 2018-06-21 富士通株式会社 情報処理装置、プログラム及び情報処理方法
JP2018124754A (ja) * 2017-01-31 2018-08-09 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
WO2018155232A1 (ja) 2017-02-23 2018-08-30 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2020512639A (ja) * 2017-03-24 2020-04-23 グーグル エルエルシー 強化学習を用いたデバイス配置最適化
JP2018195200A (ja) * 2017-05-19 2018-12-06 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019020915A (ja) * 2017-07-13 2019-02-07 日本電信電話株式会社 多層ニューラルネットの大局構造抽出装置、方法、及びプログラム
JP2019045970A (ja) * 2017-08-30 2019-03-22 日本電気株式会社 分散システム、バックエンドサービス、エッジサーバ、及びその方法
JP2019121141A (ja) * 2017-12-29 2019-07-22 大日本印刷株式会社 デバイス、セキュアエレメント、プログラム、情報処理システム及び情報処理方法
JP2019144864A (ja) * 2018-02-21 2019-08-29 日本電気株式会社 エッジコンピューティングシステム、エッジサーバ、システム制御方法、及びプログラム
JPWO2020245864A1 (ja) * 2019-06-03 2020-12-10
WO2020245864A1 (ja) * 2019-06-03 2020-12-10 日本電信電話株式会社 分散処理システムおよび分散処理方法
JPWO2021111491A1 (ja) * 2019-12-02 2021-06-10
WO2021111491A1 (ja) * 2019-12-02 2021-06-10 日本電信電話株式会社 分散深層学習システムおよび分散深層学習方法

Similar Documents

Publication Publication Date Title
JPH05108595A (ja) ニユーラルネツトワークの分散学習装置
Tiwari et al. Priority structure in fuzzy goal programming
WO2019198959A1 (ko) 소자 결점을 보완하기 위한 구간 선형 정류 유닛을 사용하는 인공신경망 시스템
Zhao et al. Queueing analysis of a jockeying model
US11620501B2 (en) Neural network apparatus
CN115473901A (zh) 一种分布式算力集群智慧调度方法、装置及计算机设备
CN114595652B (zh) 一种用于硬件仿真平台的主频评估方法
Funabiki et al. A parallel algorithm for channel routing problems (VLSI)
JP2810170B2 (ja) 多層型ネットワークの学習装置
CN110766321A (zh) 基于物资可靠性的应急物流网络风险传播方法及其系统
US20230153587A1 (en) Stacked-Die Neural Network with Integrated High-Bandwidth Memory
CN114979000B (zh) 一种数据传输系统、方法及相关设备
JPH076146A (ja) 並列データ処理システム
CN115171433A (zh) 一种车雾辅助无人机灾后救援任务卸载方法
US5142686A (en) Multiprocessor system having processors and switches with each pair of processors connected through a single switch using Latin square matrix
JPH04182769A (ja) デジタル・ニューロプロセッサ
JP2003067354A (ja) 並列計算機システム及びプロセッサ間通信処理方法
JP3271186B2 (ja) 学習処理装置
JP2606663B2 (ja) 共通重み和積演算計算ネットワーク及びそれらを用いたファジィ推論装置
Swartzlander et al. A routing algorithm for signal processing networks
KR102574824B1 (ko) 가변 비트 수를 지원하는 병렬 처리 장치
JPH06110864A (ja) 学習処理装置
JPS63240667A (ja) 並列デ−タ処理装置
GB2622523A (en) System and method for decentralised, scalable, and secure consensus between cooperating blockchain systems
JPH02236658A (ja) 情報処理装置