JP6370469B2 - 畳み込みニューラルネットワークのトレーニングの並列化 - Google Patents
畳み込みニューラルネットワークのトレーニングの並列化 Download PDFInfo
- Publication number
- JP6370469B2 JP6370469B2 JP2017504627A JP2017504627A JP6370469B2 JP 6370469 B2 JP6370469 B2 JP 6370469B2 JP 2017504627 A JP2017504627 A JP 2017504627A JP 2017504627 A JP2017504627 A JP 2017504627A JP 6370469 B2 JP6370469 B2 JP 6370469B2
- Authority
- JP
- Japan
- Prior art keywords
- worker
- data
- workers
- layer
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Factory Administration (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Description
wn=wo-αΔQ(wo)
ここで、woは、重みの現在の重み値であり、αは、定数値であり、ΔQ(wo)は、トレーニング例に対する重みに対する勾配である。
100b ワーカー2
100c ワーカー3
102 トレーニングデータ
104a トレーニング例のバッチ1
104b トレーニング例のバッチ2
104c トレーニング例のバッチ3
106a〜106c、108a〜108c、110a〜110c、112a〜112c 畳み込み層
114a〜114c 区分
116a〜116c 区分
150 システム
Claims (20)
- トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするためのシステムであって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記システムは、複数のワーカーを含み、各ワーカーは、前記畳み込み層の各々のそれぞれのレプリカおよび前記完全結合された層の各々のそれぞれの分離区分を維持するように構成され、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含み、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含み、各ワーカーは、
前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられるステップと、
前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
を含む動作を実行するように構成される、システム。 - 前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップは、
前記ワーカーに割り当てられた前記バッチの各トレーニング例に対してそれぞれの畳み込み層のアクティブ化データを計算するために、前記ワーカーによって維持される前記畳み込み層のレプリカのすべてを通じてトレーニング例の前記バッチを処理するステップと、
前記ワーカーに割り当てられた前記バッチの前記トレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップと、
前記ワーカーによって維持される畳み込み層のレプリカを通じて、前記最も高い完全結合された層に対応する組み合わされた勾配データを逆伝搬するステップと
を含む、請求項1に記載のシステム。 - トレーニング例の前記複数のバッチの各々で、前記ワーカーによって維持される完全結合された層の区分をトレーニングするステップは、
前記複数のバッチのすべてで前記トレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップであって、前記トレーニング例の各々に対する前記畳み込みデータは、前記トレーニング例に対する畳み込み層のアクティブ化データを含む、ステップと、
前記トレーニング例に対する自身の最初の完全結合された層の区分のアクティブ化データを生成するために、前記ワーカーによって維持される最も低い完全結合された層の区分を通じて前記畳み込みデータを処理するステップと、
前記複数のワーカーの他のワーカーに前記自身の最初の完全結合された層の区分のアクティブ化データを送るステップと、
前記複数のワーカーの他のワーカーから他の最初の完全結合された層の区分のアクティブ化データを受信するステップと、
前記ワーカーによって維持される各他の完全結合された層の区分に対して、
前記完全結合された層の区分に対して自身の区分のアクティブ化データを生成するために、前記完全結合された層の区分を通じて前記ワーカーによって維持される次の最も低い完全結合された層の区分に対して、自身の区分のアクティブ化データおよび他の区分のアクティブ化データを処理するステップと、
前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分のアクティブ化データを送るステップと、
前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対する他の区分のアクティブ化データを受信するステップと、
前記トレーニング例の各々に対して、自身の最も高い完全結合された層の区分の勾配データを受信するステップと、
前記複数のワーカーの他のワーカーに前記自身の最も高い完全結合された層の区分の勾配データを送るステップと、
前記複数のワーカーの他のワーカーから他の最も高い完全結合された層の区分の勾配データを受信するステップと、
前記ワーカーによって維持される各他の完全結合された層の区分に対して、
前記完全結合された層の区分に対して自身の勾配区分データを生成するために、前記完全結合された層の部分を通じて前記ワーカーによって維持される次の最も高い完全結合された層の区分に対して、自身の区分の勾配データおよび他の区分の勾配データを逆伝搬するステップと、
前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分の勾配データを送るステップと、
前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対して他の区分の勾配データを受信するステップと
を含む、請求項2に記載のシステム。 - 前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップは、
各トレーニング例に対して前記ワーカーによって維持される前記最も高い畳み込み層のレプリカの一部に対して自身の勾配データを計算するステップと、
前記複数のワーカーの他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップと、
前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた勾配を受信するステップと
を含む、請求項3に記載のシステム。 - 前記複数のバッチのすべてで前記トレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップは、
前記複数のワーカーの他のワーカーに自身の畳み込みデータを送るステップであって、前記自身の畳み込みデータは、前記ワーカーに割り当てられたトレーニング例に対して前記それぞれの畳み込み層のアクティブ化データを含む、ステップと、
前記複数のワーカーの他のワーカーから他の畳み込みデータを受信するステップであって、前記他の畳み込みデータは、他のワーカーに割り当てられた他のトレーニング例に対してそれぞれの畳み込み層のアクティブ化データを含む、ステップと
を含む、請求項4に記載のシステム。 - 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに前記ワーカーに割り当てられた前記バッチの各トレーニング例について、自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記複数のバッチの各他のバッチの各他のトレーニング例に対して、他の畳み込みデータを受信するステップを含む、請求項5に記載のシステム。
- 他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップは、前記トレーニング例が割り当てられている前記ワーカーに前記複数のバッチの各他のバッチにおいて他のトレーニング例について自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップを含み、前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた勾配データを受信するステップは、前記ワーカーに割り当てられた前記バッチの各トレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた勾配データを各他のワーカーから受信するステップを含む、請求項6に記載のシステム。
- 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに前記ワーカーに割り当てられた前記バッチの各トレーニング例について、自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記自身の畳み込みデータを処理するのと並行して、特定の他のワーカーに割り当てられたバッチの各他のトレーニング例について、他の畳み込みデータを受信するステップを含む、請求項5に記載のシステム。
- 前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた勾配データを受信するステップは、前記ワーカーに割り当てられた前記バッチの各トレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた勾配データを各他のワーカーから受信するステップを含み、前記他の畳み込みデータを処理するステップは、前記他の最も高い完全結合された層に対応する組み合わされた勾配データを受信するのと並行して、前記特定の他のワーカーに割り当てられた前記バッチの各他のトレーニング例について、前記他の畳み込みデータを処理するステップを含む、請求項8に記載のシステム。
- 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに、前記ワーカーに割り当てられた前記バッチの事前に決定された数のトレーニング例について自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記複数のバッチの各他のバッチの事前に決定された数のトレーニング例について、他の畳み込みデータを受信するステップを含む、請求項5に記載のシステム。
- 前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップは、前記ワーカーに割り当てられた前記バッチの別の事前に決定された数のトレーニング例について、自身の畳み込みデータを送るのと並行して、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップと、前記複数のバッチの各他のバッチの別の事前に決定された数のトレーニング例について、他の畳み込みデータを受信するステップとを含む、請求項10に記載のシステム。
- 他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップは、前記トレーニング例が割り当てられる前記ワーカーに前記複数のバッチの各他のバッチにおいて前記事前に決定された数の他のトレーニング例について、自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップを含み、前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた勾配データを受信するステップは、前記事前に決定された数のトレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた勾配データを各他のワーカーから受信するステップを含み、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップは、前記事前に決定された数に対して前記自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るのと並行して、前記他の事前に決定された数のトレーニング例について、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップと、前記事前に決定された数に対する前記他の最も高い完全結合された層に対応する組み合わされた勾配データを受信するステップとを含む、請求項11に記載のシステム。
- 前記動作は、
前記勾配データを使用して前記畳み込み層のレプリカおよび前記完全結合された層の区分の重みを更新するステップ
をさらに含む、請求項3に記載のシステム。 - トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするための方法であって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記方法は、
複数のワーカーの各々によって、前記畳み込み層の各々のそれぞれのレプリカを維持するステップであって、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含む、ステップと、
前記ワーカーの各々によって、前記完全結合された層の各々のそれぞれの分離区分を維持するステップであって、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含む、ステップと、
前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられる、ステップと、
前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
前記ワーカーの各々によって、トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
を含む、方法。 - 前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップは、
前記ワーカーに割り当てられた前記バッチの各トレーニング例に対してそれぞれの畳み込み層のアクティブ化データを計算するために、前記ワーカーによって維持される前記畳み込み層のレプリカのすべてを通じてトレーニング例の前記バッチを処理するステップと、
前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップと、
前記ワーカーによって維持される畳み込み層のレプリカを通じて、前記最も高い完全結合された層に対応する組み合わされた勾配データを逆伝搬するステップと
を含む、請求項14に記載の方法。 - トレーニング例の前記複数のバッチの各々で、前記ワーカーによって維持される完全結合された層の区分をトレーニングするステップは、
前記複数のバッチのすべてでトレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップであって、前記トレーニング例の各々に対する前記畳み込みデータは、前記トレーニング例に対する畳み込み層のアクティブ化データを含む、ステップと、
前記トレーニング例に対する自身の最初の完全結合された層の区分のアクティブ化データを生成するために、前記ワーカーによって維持される最も低い完全結合された層の区分を通じて前記畳み込みデータを処理するステップと、
前記複数のワーカーの他のワーカーに前記自身の最初の完全結合された層の区分のアクティブ化データを送るステップと、
前記複数のワーカーの他のワーカーから他の最初の完全結合された層の区分のアクティブ化データを受信するステップと、
前記ワーカーによって維持される各他の完全結合された層の区分に対して、
前記完全結合された層の区分に対して自身の区分のアクティブ化データを生成するために、前記完全結合された層の区分を通じて前記ワーカーによって維持される次の最も低い完全結合された層の区分に対して、自身の区分のアクティブ化データおよび他の区分のアクティブ化データを処理するステップと、
前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分のアクティブ化データを送るステップと、
前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対する他の区分のアクティブ化データを受信するステップと、
前記トレーニング例の各々に対して、自身の最も高い完全結合された層の区分の勾配データを受信するステップと、
前記複数のワーカーの他のワーカーに前記自身の最も高い完全結合された層の区分の勾配データを送るステップと、
前記複数のワーカーの他のワーカーから他の最も高い完全結合された層の区分の勾配データを受信するステップと、
前記ワーカーによって維持される各他の完全結合された層の区分に対して、
前記完全結合された層の区分に対して自身の勾配区分データを生成するために、前記完全結合された層の部分を通じて前記ワーカーによって維持される次の最も高い完全結合された層の区分に対して、自身の区分の勾配データおよび他の区分の勾配データを逆伝搬するステップと、
前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分の勾配データを送るステップと、
前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対して他の区分の勾配データを受信するステップと
を含む、請求項15に記載の方法。 - 前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップは、
各トレーニング例に対して前記ワーカーによって維持される前記最も高い畳み込み層のレプリカの一部に対して自身の勾配データを計算するステップと、
前記複数のワーカーの他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた勾配データを送るステップと、
前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた勾配を受信するステップと
を含む、請求項16に記載の方法。 - 前記複数のバッチのすべてでトレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップは、
前記複数のワーカーの他のワーカーに自身の畳み込みデータを送るステップであって、前記自身の畳み込みデータは、前記ワーカーに割り当てられたトレーニング例に対して前記それぞれの畳み込み層のアクティブ化データを含む、ステップと、
前記複数のワーカーの他のワーカーから他の畳み込みデータを受信するステップと、前記他の畳み込みデータは、他のワーカーに割り当てられた他のトレーニング例に対してそれぞれの畳み込み層のアクティブ化データを含む
を含む、請求項17に記載の方法。 - 前記ワーカーの各々によって、前記ワーカーによって維持される前記畳み込み層のレプリカの重みおよび前記勾配データを使用して、前記ワーカーによって維持される前記完全結合された層の区分を更新するステップ
をさらに含む、請求項16に記載の方法。 - 1つまたは複数のコンピュータによって実行された場合、前記1つまたは複数のコンピュータに、トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするための動作を実行させる命令を用いて符号化された1つまたは複数のコンピュータ記憶媒体であって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記動作は、複数のワーカーの各々によって、前記畳み込み層の各々のそれぞれのレプリカを維持するステップであって、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含む、ステップと、
前記ワーカーの各々によって、前記完全結合された層の各々のそれぞれの分離区分を維持するステップであって、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含む、ステップと、
前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられる、ステップと、
前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
前記ワーカーの各々によって、トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
を含む、1つまたは複数のコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461978734P | 2014-04-11 | 2014-04-11 | |
US61/978,734 | 2014-04-11 | ||
PCT/US2015/025451 WO2015157718A2 (en) | 2014-04-11 | 2015-04-10 | Parallelizing the training of convolutional neural networks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017514251A JP2017514251A (ja) | 2017-06-01 |
JP6370469B2 true JP6370469B2 (ja) | 2018-08-08 |
Family
ID=53015929
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017504627A Active JP6370469B2 (ja) | 2014-04-11 | 2015-04-10 | 畳み込みニューラルネットワークのトレーニングの並列化 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10540587B2 (ja) |
EP (1) | EP3129920B1 (ja) |
JP (1) | JP6370469B2 (ja) |
KR (1) | KR101934067B1 (ja) |
CN (2) | CN113255885A (ja) |
WO (1) | WO2015157718A2 (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255885A (zh) * | 2014-04-11 | 2021-08-13 | 谷歌有限责任公司 | 使卷积神经网络的训练并行化 |
US9953425B2 (en) * | 2014-07-30 | 2018-04-24 | Adobe Systems Incorporated | Learning image categorization using related attributes |
CA3004885C (en) | 2015-11-12 | 2020-07-14 | Deepmind Technologies Limited | Asynchronous deep reinforcement learning |
US10572800B2 (en) * | 2016-02-05 | 2020-02-25 | Nec Corporation | Accelerating deep neural network training with inconsistent stochastic gradient descent |
JP6561004B2 (ja) * | 2016-03-25 | 2019-08-14 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法 |
CN107341547B (zh) * | 2016-04-29 | 2021-04-20 | 中科寒武纪科技股份有限公司 | 一种用于执行卷积神经网络训练的装置和方法 |
US9940544B2 (en) | 2016-06-08 | 2018-04-10 | Adobe Systems Incorporated | Event image curation |
US10467529B2 (en) * | 2016-06-08 | 2019-11-05 | Adobe Inc. | Convolutional neural network joint training |
US10546211B2 (en) * | 2016-07-01 | 2020-01-28 | Google Llc | Convolutional neural network on programmable two dimensional image processor |
US9715656B1 (en) | 2016-09-12 | 2017-07-25 | International Business Machines Corporation | Killing asymmetric resistive processing units for neural network training |
US9646243B1 (en) | 2016-09-12 | 2017-05-09 | International Business Machines Corporation | Convolutional neural networks using resistive processing unit array |
US10656962B2 (en) | 2016-10-21 | 2020-05-19 | International Business Machines Corporation | Accelerate deep neural network in an FPGA |
US10339443B1 (en) * | 2017-02-24 | 2019-07-02 | Gopro, Inc. | Systems and methods for processing convolutional neural network operations using textures |
CN110520871B (zh) * | 2017-02-24 | 2023-11-07 | 渊慧科技有限公司 | 使用学习进度测量训练机器学习模型 |
CN110268456A (zh) * | 2017-03-14 | 2019-09-20 | 欧姆龙株式会社 | 驾驶员监视装置、驾驶员监视方法、学习装置及学习方法 |
US10839286B2 (en) * | 2017-09-14 | 2020-11-17 | Xilinx, Inc. | System and method for implementing neural networks in integrated circuits |
CN107590534B (zh) * | 2017-10-17 | 2021-02-09 | 北京小米移动软件有限公司 | 训练深度卷积神经网络模型的方法、装置及存储介质 |
KR102072757B1 (ko) * | 2017-10-31 | 2020-02-03 | 국방과학연구소 | 딥 러닝을 이용한 이종 센서 정보 융합 장치 및 방법 |
US11734545B2 (en) * | 2017-11-14 | 2023-08-22 | Google Llc | Highly efficient convolutional neural networks |
WO2019098418A1 (ko) * | 2017-11-16 | 2019-05-23 | 삼성전자 주식회사 | 뉴럴 네트워크 학습 방법 및 디바이스 |
US11715287B2 (en) * | 2017-11-18 | 2023-08-01 | Neuralmagic Inc. | Systems and methods for exchange of data in distributed training of machine learning algorithms |
US11836610B2 (en) * | 2017-12-13 | 2023-12-05 | Advanced Micro Devices, Inc. | Concurrent training of functional subnetworks of a neural network |
US20190197395A1 (en) * | 2017-12-21 | 2019-06-27 | Fujitsu Limited | Model ensemble generation |
CN108090565A (zh) * | 2018-01-16 | 2018-05-29 | 电子科技大学 | 一种卷积神经网络并行化训练加速方法 |
WO2019198814A1 (ja) * | 2018-04-12 | 2019-10-17 | 日本電信電話株式会社 | ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム |
US10720151B2 (en) | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
US11423284B2 (en) * | 2018-09-07 | 2022-08-23 | Black Sesame Technologies, Inc | Subgraph tile fusion in a convolutional neural network |
KR20200030806A (ko) | 2018-09-13 | 2020-03-23 | 삼성전자주식회사 | 반도체 제조 공정을 모니터링하기 위해 인공 신경망에 기초하는 이미지 변환 모델을 포함하는 비일시적 컴퓨터 판독가능 매체 그리고 반도체 웨이퍼의 이미지를 변환하는 방법 |
KR20200051278A (ko) | 2018-11-05 | 2020-05-13 | 삼성전자주식회사 | 인공 신경망에서의 작업 관리 방법 및 이를 포함하는 시스템 |
US11995533B1 (en) * | 2018-12-05 | 2024-05-28 | Perceive Corporation | Executing replicated neural network layers on inference circuit |
US11847567B1 (en) | 2018-12-05 | 2023-12-19 | Perceive Corporation | Loss-aware replication of neural network layers |
CN109784489B (zh) * | 2019-01-16 | 2021-07-30 | 北京大学软件与微电子学院 | 基于fpga的卷积神经网络ip核 |
KR102333730B1 (ko) * | 2019-02-13 | 2021-11-30 | 아주대학교 산학협력단 | 학습 모델 생성 장치 및 방법 |
CN110096346B (zh) * | 2019-03-29 | 2021-06-15 | 广州思德医疗科技有限公司 | 一种多计算节点的训练任务处理方法及装置 |
JP7208528B2 (ja) * | 2019-05-23 | 2023-01-19 | 富士通株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN112396154A (zh) * | 2019-08-16 | 2021-02-23 | 华东交通大学 | 一种基于卷积神经网络训练的并行方法 |
US11494695B2 (en) * | 2019-09-27 | 2022-11-08 | Google Llc | Training neural networks to generate structured embeddings |
US20220351039A1 (en) * | 2019-10-04 | 2022-11-03 | Telefonaktiebolaget Lm Ericsson (Publ) | Federated learning using heterogeneous model types and architectures |
US11556450B2 (en) * | 2019-10-11 | 2023-01-17 | International Business Machines Corporation | Hybrid data-model parallelism for efficient deep learning |
JP2023017335A (ja) | 2021-07-26 | 2023-02-07 | 富士通株式会社 | 機械学習プログラム,情報処理装置および機械学習方法 |
KR20230068509A (ko) * | 2021-11-11 | 2023-05-18 | 한국전자기술연구원 | 경량 딥러닝 학습 메모리 제어 방법 및 장치 |
CN114912587B (zh) * | 2022-06-09 | 2023-05-26 | 上海燧原科技有限公司 | 神经网络分布式训练系统、方法、装置、计算单元及介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7747070B2 (en) | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
US8027938B1 (en) * | 2007-03-26 | 2011-09-27 | Google Inc. | Discriminative training in machine learning |
US8234228B2 (en) * | 2008-02-07 | 2012-07-31 | Nec Laboratories America, Inc. | Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data |
US9390370B2 (en) * | 2012-08-28 | 2016-07-12 | International Business Machines Corporation | Training deep neural network acoustic models using distributed hessian-free optimization |
US9495620B2 (en) * | 2013-06-09 | 2016-11-15 | Apple Inc. | Multi-script handwriting recognition using a universal recognizer |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
CN113255885A (zh) * | 2014-04-11 | 2021-08-13 | 谷歌有限责任公司 | 使卷积神经网络的训练并行化 |
-
2015
- 2015-04-10 CN CN202110558370.7A patent/CN113255885A/zh active Pending
- 2015-04-10 EP EP15719356.6A patent/EP3129920B1/en active Active
- 2015-04-10 JP JP2017504627A patent/JP6370469B2/ja active Active
- 2015-04-10 WO PCT/US2015/025451 patent/WO2015157718A2/en active Application Filing
- 2015-04-10 CN CN201580024703.0A patent/CN106462800A/zh active Pending
- 2015-04-10 US US14/684,186 patent/US10540587B2/en active Active
- 2015-04-10 KR KR1020167031625A patent/KR101934067B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
WO2015157718A2 (en) | 2015-10-15 |
KR20160144467A (ko) | 2016-12-16 |
EP3129920B1 (en) | 2022-06-08 |
WO2015157718A3 (en) | 2016-01-21 |
CN106462800A (zh) | 2017-02-22 |
CN113255885A (zh) | 2021-08-13 |
US20150294219A1 (en) | 2015-10-15 |
JP2017514251A (ja) | 2017-06-01 |
EP3129920A2 (en) | 2017-02-15 |
US10540587B2 (en) | 2020-01-21 |
KR101934067B1 (ko) | 2019-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6370469B2 (ja) | 畳み込みニューラルネットワークのトレーニングの並列化 | |
US11783182B2 (en) | Asynchronous deep reinforcement learning | |
US20210342747A1 (en) | Method and system for distributed deep machine learning | |
US11886992B2 (en) | Training reinforcement learning neural networks | |
CN107209872B (zh) | 用于训练强化学习系统的系统、方法和存储介质 | |
EP3797385B1 (en) | Highly performant pipeline parallel deep neural network training | |
US10970628B2 (en) | Training neural networks represented as computational graphs | |
JP6636630B2 (ja) | 計算グラフの修正 | |
WO2020011283A3 (en) | System and method for deleting node in blockchain network | |
Hunter et al. | Parallel ranking and selection | |
CN111406264A (zh) | 神经架构搜索 | |
CN111819578A (zh) | 使用带有急速更新的分布式参数服务器对神经网络进行优化的异步训练 | |
US10769521B1 (en) | Processing loops in computational graphs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171030 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180611 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6370469 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |