JP2016197389A - 学習システム、学習プログラムおよび学習方法 - Google Patents
学習システム、学習プログラムおよび学習方法 Download PDFInfo
- Publication number
- JP2016197389A JP2016197389A JP2015220780A JP2015220780A JP2016197389A JP 2016197389 A JP2016197389 A JP 2016197389A JP 2015220780 A JP2015220780 A JP 2015220780A JP 2015220780 A JP2015220780 A JP 2015220780A JP 2016197389 A JP2016197389 A JP 2016197389A
- Authority
- JP
- Japan
- Prior art keywords
- value
- differential
- parameter
- processes
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/04—Protocols for data compression, e.g. ROHC
Abstract
Description
この構成によれば、微分値のみならず現時点のパラメータも用いた送信値を他のプロセスに送信するため、通信回数を減らすことができ、短時間でパラメータを更新できる。
この構成によれば、通信プロセスと微分プロセスとを分離し、算出が完了した送信値を他の通信プロセスに送信するため、短時間でパラメータを更新できる。
この構成によれば、送信値の算出が完了しているか否かに関わらず、パラメータを更新できる。
さらに望ましくは、前記微分プロセスのそれぞれが用いる前記教師データの数をAとし、1回の更新で用いられる前記教師データの数の最適値をBとするとき、前記組の数は、前記通信プロセスが送信を行う際に、平均B/A個の前記微分プロセスが前記送信値の算出を完了しているよう、定められる。
この構成によれば、更新で用いられる教師データの数を最適化できる。
この構成によれば、微分値を圧縮した上で送信するため、通信量を削減できる。
この構成によれば、微分値を圧縮した上で送信するため、通信量を削減できる。
さらに望ましくは、前記所定行列は、学習過程において更新される。
所定行列を更新することにより、学習の精度・速度を向上できる。
具体例として、前記所定行列は、学習過程における過去の前記微分値に対する主成分分析によって更新されてもよい。
これにより、圧縮した値を復元する際の情報欠如を少なくすることができる。
これにより、圧縮した値どうしを圧縮したままの状態で加算することができる。
この構成によれば、更新されるパラメータの数を減らすことができる。
例えば、前記ニューラルネットワーク用のフィルタの1つは、他のフィルタを所定角度回転したもの、点対称としたもの、左右反転したもの、または、上下反転したものであってもよい。
この構成によれば、更新されるパラメータの数を減らすことができる。
これにより画像処理プロセスを分離することができ、学習速度を向上できる。
図1は、畳み込みニューラルネットワーク(Convolutional Neural Network:以下、CNNという)の構造の一例を模式的に示す図である。CNNは、1または複数の畳み込み部21およびプーリング部22の組と、多層ニューラルネットワーク構造23とを備えている。初段の畳み込み部21に認識対象の画像が入力される。そして、多層ニューラルネットワーク構造23から認識結果が出力される。
W←W−r*dW ・・・(1)
プロセスA W=[W1,W2,W3]
プロセスB W=[W1,W2,W3]
プロセスC W=[W1,W2,W3] ・・・(2)
プロセスA read 教師データA
プロセスB read 教師データB
プロセスC read 教師データC ・・・(3)
プロセスA dWA=[dWA1,dWA2,dWA3]
プロセスB dWB=[dWB1,dWB2,dWB3]
プロセスC dWC=[dWC1,dWC2,dWC3] ・・・(4)
プロセスA dW1=dWA1+dWB1+dWC1
プロセスB dW2=dWA2+dWB2+dWC2
プロセスC dW3=dWA3+dWB3+dWC3 ・・・(5)
プロセスA W1←W1−r*dW1=W1−r(dWA1+dWB1+dWC1)
プロセスB W2←W2−r*dW2=W2−r(dWA2+dWB2+dWC2)
プロセスC W3←W3−r*dW3=W3−r(dWA3+dWB3+dWC3)
・・・(6)
プロセスA W←[W1,W2,W3]
プロセスB W←[W1,W2,W3]
プロセスC W←[W1,W2,W3] ・・・(7)
プロセスA VA=[W1−r*dWA1,−r*dWA2,−r*dWA3]
プロセスB VB=[−r*dWB1,W2−r*dWB2,−r*dWB3]
プロセスC VC=[−r*dWC1,−r*dWC2,W3−r*dWC3]
・・・(8)
プロセスA W←VA+VB+VC=
[W1−r(dWA1+dWB1+dWC1),
W2−r(dWA2+dWB2+dWC2),
W3−r(dWA3+dWB3+dWC3)]
プロセスB W←VA+VB+VC
プロセスC W←VA+VB+VC ・・・(9)
プロセスA VA=
[W1/3−r*dWA1,W2/3−r*dWA2,W3/3−r*dWA3]
プロセスB VB=
[W1/3−r*dWB1,W2/3−r*dWB2,W3/3−r*dWB3]
プロセスC VC=
[W1/3−r*dWC1,W2/3−r*dWC2,W3/3−r*dWC3]
・・・(8’)
Array2←[Array0(1),0,0,・・・] ・・・(10)
At Array1 = [W1 −r(dWA1 + dWC1 + dWD1),
W2 − r(dWA2 + dWC2 + dWD2),
W3 − r(dWA3 + dWC3 + dWD3),
W4 − r(dWA4 + dWC4 + dWD4),
W5 − r(dWA5 + dWC5 + dWD5),
W6 − r(dWA6 + dWC6 + dWD6)] ・・・(11)
図1に示すように、CNNには通常多数のフィルタ21aが用いられる。しかしながら、たとえ各フィルタの重みが独立して学習されたとしても、似たようなフィルタ21aが少なからず現れることが知られている。
次に説明する第3の実施形態では、微分値そのものではなく、微分値をエンコードして圧縮した上で他のノードに渡すことで、通信量を削減するものである。
δe=enc(δ,φe) ・・・(12)
δd=dec(δ’,φd) ・・・(13)
φdはエンコードに用いるパラメータであり、詳しくは後述する。
enc(δ+λ,φe)=enc(δ,φe)+enc(λ,φe) ・・・(14)
δ≒dec(enc(δ,φe),φd) ・・・(15)
locW=W+dec(De,φd) ・・・(16)
なお、最新の重みlocWは当該微分プロセスAdのみで用いられ、他の微分プロセスとの間で送受信する必要はない。
δe=enc(dW,φe) ・・・(17)
VA=De/R+δe ・・・(18)
ここでRは微分プロセスの総数である。
これをk回繰り返す(ステップS75)。
VA=De/R+δe=Array/R+δe ・・・(19)
が送信値として送信される。
Array/R ・・・(20)
が送信値として送信される。
W=W+dec(Array,φd) ・・・(21)
また、通信プロセスAtは差分値Deを0に初期化する(ステップS77)。以上の処理が所定回繰り返される(ステップS78)。
δe=enc(δ,φe)=φeδ ・・・(12’)
D=(δi-d+1,δi-d+2,・・・,δi) ・・・(22)
さらに、行列C=DDTを固有値分解することにより行列C=VEVTが得られる。
C≒φE’φT ・・・(23)
δei=enc(δi,φe)=enc(δi,φT)=φTδi ・・・(24)
δi=dec(δei,φd)=dec(δei,φ)
=φδei=φ(φTδi)=δi ・・・(25)
φT(δ+λ)=φTδ+φTλ ・・・(26)
δi’=reshape(δi,q,r) ・・・(27)
D=(δi-b+1’,δi-b+2’,・・・,δi’) ・・・(22’)
δei=enc(δi’,φe)=φTδi’ ・・・(24’)
上述したエンコード用の行列φeは(したがって行列φdも)ある小区間においては有効である。小区間の更新において、重みの更新方向はほぼ線形であり、行列φeにおける固有値ベクトルF1〜Fpと、微分値ベクトルδi(または微分値行列δi’、以下同じ)との相関が強い。よって、例えば上述の説明において、第(i−d+1)回目〜第i回目までの重み更新に使用される微分値を要素とする微分値ベクトルδi-d+1〜δiを用いて行列φeを算出したが、第(i+1)回目以降の更新にもしばらく(つまり小区間とみなせる更新回数においては)この行列φeを適用することができる。
次に説明する第5の実施形態は、画像処理用のノードを通信プロセスおよび微分プロセスを実行するノードとは別個に設け、さらなる学習の高速化を図るものである。
図17は、第5の実施形態に係る学習システムのハードウェア構成の一例を示すブロック図である。以下、図4との相違点を中心に説明する。
このような衝突を回避するためには、例えばMPIを利用すればよい。あるいは、生成される教師データのネーミングを工夫してもよい。
このように、第5の実施形態では、微分プロセスを実行するノードとは別に画像処理用のノードを設ける。そのため、学習の高速化を実現できる。
11 CPU
12a〜12c GPU
13 ストレージ
2 画像処理ノード
21a,21b GPU
22 ストレージ
Claims (24)
- 1または複数のプロセッサから構成され、該1または複数のプロセッサが複数のプロセスを実行することによりニューラルネットワーク用のパラメータを更新する学習システムであって、各プロセスは、
現時点のパラメータと、ストレージに格納された教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することと、
前記微分値のみならず前記現時点のパラメータも用いて、他のプロセスに送信される送信値を算出することと、
前記送信値を他のプロセスに送信することと、
他のプロセスから送信された前記送信値に基づいて、前記現時点のパラメータを更新することと、を含む、学習システム。 - 1または複数のプロセッサから構成され、該1または複数のプロセッサが微分プロセスおよび通信プロセスの組を複数実行することによりニューラルネットワーク用のパラメータを更新する学習システムであって、
前記微分プロセスのそれぞれは、
現時点のパラメータと、ストレージに格納された教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することと、
前記微分値のみならず前記現時点のパラメータも用いて、他の組における通信プロセスに送信される送信値を算出することと、を含み、
前記通信プロセスのそれぞれは、
組になっている前記微分プロセスが前記送信値の算出を完了している場合には前記送信値を、完了していない場合には前記現時点のパラメータの一部を、他の組における通信プロセスに送信することと、
他の通信プロセスから送信された前記送信値および前記現時点のパラメータの一部に基づいて、前記現時点のパラメータを更新することと、を含む、学習システム。 - 前記通信プロセスのそれぞれは、組になっている前記微分プロセスが前記送信値の算出を完了しているか否かに関わらず、前記送信値または前記現時点のパラメータの一部を他の通信プロセスに送信することにより、送信の度に前記パラメータを更新する、請求項2に記載の学習システム。
- 前記組の数は、
前記微分プロセスのそれぞれが用いる前記教師データの数と、
1回の更新で用いられる前記教師データの数の最適値と、
前記微分プロセスが前記送信値を算出するのに要する時間と、
に基づいて定められる、請求項2または3に記載の学習システム。 - 前記微分プロセスのそれぞれが用いる前記教師データの数をAとし、
1回の更新で用いられる前記教師データの数の最適値をBとするとき、
前記組の数は、前記通信プロセスが送信を行う際に、平均B/A個の前記微分プロセスが前記送信値の算出を完了しているよう、定められる、請求項4に記載の学習システム。 - 1または複数のプロセッサから構成され、該1または複数のプロセッサが複数のプロセスを実行することによりニューラルネットワーク用のパラメータを更新する学習システムであって、各プロセスは、
ある時点のパラメータと、差分値と、教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することであって、前記差分値は、前記ある時点でのパラメータと、その後のある時点でのパラメータとの差を圧縮した値である、ことと、
前記微分値を圧縮することと、
圧縮された前記微分値と、前記差分値とに基づいて他のプロセスに送信される送信値を算出することと、
他のプロセスから送信された前記送信値と、圧縮された前記送信値と、に基づいて、前記差分値を得ることと、
前記差分値を復元した値に基づいて、前記ある時点でのパラメータを更新することと、を含む、学習システム。 - 1または複数のプロセッサから構成され、該1または複数のプロセッサが微分プロセスおよび通信プロセスの組を複数実行することによりニューラルネットワーク用のパラメータを更新する学習システムであって、
前記微分プロセスのそれぞれは、
ある時点のパラメータと、差分値と、教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することであって、前記差分値は、前記ある時点でおパラメータと、その後のある時点でのパラメータとの差を圧縮した値である、ことと、
前記微分値を圧縮することと、
圧縮された前記微分値と、前記差分値とに基づいて他のプロセスに送信される送信値を算出することと、
を含み、
前記通信プロセスのそれぞれは、
組になっている前記微分プロセスが前記送信値の算出を完了している場合には前記送信値を、完了していない場合には前記差分値を送信値として他の組における通信プロセスに送信することと、
他の通信プロセスから送信された前記送信値と、組になっている前記微分プロセスが算出した前記送信値と、に基づいて前記差分値を得ることと、
前記差分値を復元した値に基づいて、前記ある時点でのパラメータを更新することと、を含む、学習システム。 - 前記微分値を圧縮することは、前記微分値と、所定行列との乗算である、請求項6または7に記載の学習システム。
- 前記所定行列は、学習過程において更新される、請求項8に記載の学習システム。
- 前記所定行列は、学習過程における過去の前記微分値に基づいて更新される、請求項9に記載の学習システム。
- 前記所定行列は、学習過程における過去の前記微分値に対する主成分分析によって更新される、請求項10に記載の学習システム。
- 前記微分値を圧縮することは、分配法則を満たすよう、前記微分値を圧縮することである、請求項8乃至11のいずれかに記載の学習システム。
- 前記微分値を圧縮することは、すべての前記微分プロセスからの微分値を行列化したものと、前記所定行列との乗算である、請求項8乃至12のいずれかに記載の学習システム。
- 前記ニューラルネットワーク用のパラメータの一部が他の一部と共有される、または、パラメータの一部が他の一部と所定の関係を満たす、請求項1乃至13のいずれかに記載の学習システム。
- 前記ニューラルネットワーク用のフィルタの1つが他のフィルタの1つと共有される、または、フィルタの1つが他のフィルタと所定の関係を満たす、請求項14に記載の学習システム。
- 前記ニューラルネットワーク用のフィルタの1つは、他のフィルタを所定角度回転したもの、点対称としたもの、左右反転したもの、または、上下反転したものである、請求項15に記載の学習システム。
- 前記1または複数のプロセッサとは異なる別のプロセッサが、予め用意された画像を変形して前記教師データを生成する画像処理プロセスを実行する、請求項1乃至16のいずれかに記載の学習システム。
- 請求項2または7に記載の学習システムを構築するために、1つの前記プロセッサに、前記微分プロセスを実行させる、学習プログラム。
- 請求項2または7に記載の学習システムを構築するために、1つの前記プロセッサに、前記通信プロセスを実行させる、学習プログラム。
- 1または複数のプロセッサが複数のプロセスを実行することによりニューラルネットワーク用のパラメータを更新する学習方法であって、各プロセスは、
現時点のパラメータと、ストレージに格納された教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することと、
前記微分値のみならず前記現時点のパラメータも用いて、他のプロセスに送信される送信値を算出することと、
前記送信値を他のプロセスに送信することと、
他のプロセスから送信された前記送信値に基づいて、前記現時点のパラメータを更新することと、を含む、学習方法。 - 1または複数のプロセッサが微分プロセスおよび通信プロセスの組を複数実行することによりニューラルネットワーク用のパラメータを更新する学習方法であって、
前記微分プロセスのそれぞれは、
現時点のパラメータと、ストレージに格納された教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することと、
前記微分値のみならず前記現時点のパラメータも用いて、他の組における通信プロセスに送信される送信値を算出することと、を含み、
前記通信プロセスのそれぞれは、
組になっている前記微分プロセスが前記送信値の算出を完了している場合には前記送信値を、完了していない場合には前記現時点のパラメータの一部を、他の組における通信プロセスに送信することと、
他の通信プロセスから送信された前記送信値および前記現時点のパラメータの一部に基づいて、前記現時点のパラメータを更新することと、を含む、学習方法。 - ニューラルネットワーク用のパラメータを、その一部が他の一部と共有されるとして、または、一部が他の一部と所定の関係を満たすとして、前記パラメータを更新する学習方法。
- 1または複数のプロセッサが複数のプロセスを実行することによりニューラルネットワーク用のパラメータを更新する学習方法であって、各プロセスは、
ある時点のパラメータと、差分値と、教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することであって、前記差分値は、前記ある時点でのパラメータと、その後のある時点でのパラメータとの差を圧縮した値である、ことと、
前記微分値を圧縮することと、
圧縮された前記微分値と、前記差分値とに基づいて他のプロセスに送信される送信値を算出することと、
他のプロセスから送信された前記送信値と、圧縮された前記送信値と、に基づいて、前記差分値を得ることと、
前記差分値を復元した値に基づいて、前記ある時点でのパラメータを更新することと、を含む、学習方法。 - 1または複数のプロセッサが微分プロセスおよび通信プロセスの組を複数実行することによりニューラルネットワーク用のパラメータを更新する学習方法であって、
前記微分プロセスのそれぞれは、
ある時点のパラメータと、差分値と、教師データとを用いて、誤差逆伝搬法によって前記パラメータを更新するための微分値を算出することであって、前記差分値は、前記ある時点でおパラメータと、その後のある時点でのパラメータとの差を圧縮した値である、ことと、
前記微分値を圧縮することと、
圧縮された前記微分値と、前記差分値とに基づいて他のプロセスに送信される送信値を算出することと、
を含み、
前記通信プロセスのそれぞれは、
組になっている前記微分プロセスが前記送信値の算出を完了している場合には前記送信値を、完了していない場合には前記差分値を他の組における通信プロセスに送信することと、
他の通信プロセスから送信された前記送信値と、組になっている前記微分プロセスが算出した前記送信値と、に基づいて前記差分値を得ることと、
前記差分値を復元した値に基づいて、前記ある時点でのパラメータを更新することと、を含む、学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/347,638 US20170132515A1 (en) | 2015-04-03 | 2016-11-09 | Learning system, learning program, and learning method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015077013 | 2015-04-03 | ||
JP2015077013 | 2015-04-03 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016197389A true JP2016197389A (ja) | 2016-11-24 |
Family
ID=57358196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015220780A Pending JP2016197389A (ja) | 2015-04-03 | 2015-11-10 | 学習システム、学習プログラムおよび学習方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170132515A1 (ja) |
JP (1) | JP2016197389A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018120362A (ja) * | 2017-01-24 | 2018-08-02 | 日本放送協会 | シーン変化点モデル学習装置、シーン変化点検出装置およびそれらのプログラム |
JP2018173946A (ja) * | 2017-03-06 | 2018-11-08 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ |
JP2019109875A (ja) * | 2017-12-18 | 2019-07-04 | 株式会社東芝 | システム、プログラム及び方法 |
JP2019121275A (ja) * | 2018-01-10 | 2019-07-22 | トヨタ自動車株式会社 | 自動運転装置 |
JP2020060838A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社デンソーアイティーラボラトリ | 学習方法および学習システム |
JPWO2019106730A1 (ja) * | 2017-11-28 | 2020-11-19 | 株式会社ニコン | 顕微鏡システム |
JPWO2019116494A1 (ja) * | 2017-12-14 | 2020-11-26 | 日本電気株式会社 | 学習装置、学習方法、および学習プログラム |
WO2022038743A1 (ja) * | 2020-08-20 | 2022-02-24 | 日本電気株式会社 | 組合せ最適化問題情報送信装置および組合せ最適化問題求解装置 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395141B2 (en) * | 2017-03-20 | 2019-08-27 | Sap Se | Weight initialization for machine learning models |
US11037330B2 (en) * | 2017-04-08 | 2021-06-15 | Intel Corporation | Low rank matrix compression |
WO2019050771A1 (en) * | 2017-09-05 | 2019-03-14 | Panasonic Intellectual Property Corporation Of America | EXECUTION METHOD, EXECUTION DEVICE, LEARNING METHOD, LEARNING DEVICE, AND PROGRAM FOR DEEP NEURAL NETWORK |
CN109245773B (zh) * | 2018-10-30 | 2021-09-28 | 南京大学 | 一种基于块循环稀疏矩阵神经网络的编解码方法 |
US11263011B2 (en) | 2018-11-28 | 2022-03-01 | International Business Machines Corporation | Compound instruction set architecture for a neural inference chip |
JP7238376B2 (ja) * | 2018-12-14 | 2023-03-14 | 富士通株式会社 | 情報処理システム及び情報処理システムの制御方法 |
KR20240004518A (ko) * | 2021-04-16 | 2024-01-11 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 노드 정보를 사용하여 신경망 파라미터를 업데이트하는 디코더, 인코더, 제어부, 방법 및 컴퓨터 프로그램 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04130952A (ja) * | 1990-09-21 | 1992-05-01 | Res Dev Corp Of Japan | しきい値論理回路網とその学習法 |
JPH076146A (ja) * | 1993-06-18 | 1995-01-10 | Fujitsu Ltd | 並列データ処理システム |
JP2002342738A (ja) * | 2001-03-15 | 2002-11-29 | Honda R & D Europe (Deutschland) Gmbh | 畳み込みネットワーク挙動のシミュレーション方法 |
JP2014203135A (ja) * | 2013-04-01 | 2014-10-27 | キヤノン株式会社 | 信号処理装置、信号処理方法、及び、信号処理システム |
-
2015
- 2015-11-10 JP JP2015220780A patent/JP2016197389A/ja active Pending
-
2016
- 2016-11-09 US US15/347,638 patent/US20170132515A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04130952A (ja) * | 1990-09-21 | 1992-05-01 | Res Dev Corp Of Japan | しきい値論理回路網とその学習法 |
JPH076146A (ja) * | 1993-06-18 | 1995-01-10 | Fujitsu Ltd | 並列データ処理システム |
JP2002342738A (ja) * | 2001-03-15 | 2002-11-29 | Honda R & D Europe (Deutschland) Gmbh | 畳み込みネットワーク挙動のシミュレーション方法 |
JP2014203135A (ja) * | 2013-04-01 | 2014-10-27 | キヤノン株式会社 | 信号処理装置、信号処理方法、及び、信号処理システム |
Non-Patent Citations (2)
Title |
---|
山森一人、阿部 亨、堀口 進: "超並列計算機nCUBE2上のニューラルネットワークを用いた顔画像認識法", 情報処理学会研究報告, vol. 94, no. 107, JPN6019021759, 13 December 1994 (1994-12-13), JP, pages 65 - 72, ISSN: 0004053746 * |
浦 晃、三輪 誠、鶴岡慶雅、近山 隆: "分散計算環境における並列パーセプトロンの将棋評価関数への適用", 情報処理学会研究報告[ONLINE], vol. Vol.2014-GI-31, No.6, JPN6019021758, 10 March 2014 (2014-03-10), JP, pages 1 - 8, ISSN: 0004053745 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018120362A (ja) * | 2017-01-24 | 2018-08-02 | 日本放送協会 | シーン変化点モデル学習装置、シーン変化点検出装置およびそれらのプログラム |
JP2018173946A (ja) * | 2017-03-06 | 2018-11-08 | バイドゥ ユーエスエイ エルエルシーBaidu USA LLC | 自動運転車両に用いる畳み込みニューラルネットワークモデルのコンボリューション/デコンボリューション層とバッチ正規化層のオフライン組み合わせ |
JPWO2019106730A1 (ja) * | 2017-11-28 | 2020-11-19 | 株式会社ニコン | 顕微鏡システム |
US11270163B2 (en) | 2017-12-14 | 2022-03-08 | Nec Corporation | Learning device, learning method, and storage medium |
JPWO2019116494A1 (ja) * | 2017-12-14 | 2020-11-26 | 日本電気株式会社 | 学習装置、学習方法、および学習プログラム |
JP7184801B2 (ja) | 2017-12-14 | 2022-12-06 | 日本電気株式会社 | 学習装置、学習方法、および学習プログラム |
JP2019109875A (ja) * | 2017-12-18 | 2019-07-04 | 株式会社東芝 | システム、プログラム及び方法 |
JP2019121275A (ja) * | 2018-01-10 | 2019-07-22 | トヨタ自動車株式会社 | 自動運転装置 |
JP7024415B2 (ja) | 2018-01-10 | 2022-02-24 | トヨタ自動車株式会社 | 自動運転装置 |
JP2020060838A (ja) * | 2018-10-05 | 2020-04-16 | 株式会社デンソーアイティーラボラトリ | 学習方法および学習システム |
JP7208758B2 (ja) | 2018-10-05 | 2023-01-19 | 株式会社デンソーアイティーラボラトリ | 学習方法および学習システム |
WO2022038743A1 (ja) * | 2020-08-20 | 2022-02-24 | 日本電気株式会社 | 組合せ最適化問題情報送信装置および組合せ最適化問題求解装置 |
JP7405264B2 (ja) | 2020-08-20 | 2023-12-26 | 日本電気株式会社 | 組合せ最適化問題情報送信装置および組合せ最適化問題求解装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170132515A1 (en) | 2017-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016197389A (ja) | 学習システム、学習プログラムおよび学習方法 | |
Ruehle | Data science applications to string theory | |
JP6574503B2 (ja) | 機械学習方法および装置 | |
US20200410384A1 (en) | Hybrid quantum-classical generative models for learning data distributions | |
Tsianos et al. | Communication/computation tradeoffs in consensus-based distributed optimization | |
CN111373420A (zh) | 量子近似优化中的成本函数变形 | |
EP3785187A1 (en) | Personalized gesture recognition for user interaction with assistant systems | |
WO2017031356A1 (en) | Discrete variational auto-encoder systems and methods for machine learning using adiabatic quantum computers | |
JP7438517B2 (ja) | ニューラルネットワークの圧縮方法、ニューラルネットワーク圧縮装置、コンピュータプログラム、及び圧縮されたニューラルネットワークデータの製造方法 | |
CN114219076B (zh) | 量子神经网络训练方法及装置、电子设备和介质 | |
US11687816B2 (en) | Quantum data loader | |
Broni-Bediako et al. | Evolutionary NAS with gene expression programming of cellular encoding | |
KR102105951B1 (ko) | 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치 | |
JPWO2018087814A1 (ja) | マルチタスク関係学習システム、方法およびプログラム | |
Javaheripi et al. | Swann: Small-world architecture for fast convergence of neural networks | |
US20230259775A1 (en) | Method and apparatus with pruning | |
CA3109735A1 (en) | Optimization device, optimization device control method, and optimization device control program | |
US20220083315A1 (en) | Calculation device, calculation method, and computer program product | |
JP7470019B2 (ja) | 情報処理システム | |
US11966450B2 (en) | Calculation device, calculation method, and computer program product | |
CN114511092B (zh) | 一种基于量子线路的图注意力机制实现方法 | |
JP7341804B2 (ja) | 情報処理装置および情報処理方法 | |
US20220012017A1 (en) | Information processing device, information processing system, information processing method, and storage medium | |
CN117648185A (zh) | 一种利用小内存设备求解大规模组合优化问题的方法 | |
Priyadarshi et al. | Synthesis of Neural Networks using Entangled Neurons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20151202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20151202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180404 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190618 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191210 |