JP6370469B2 - 畳み込みニューラルネットワークのトレーニングの並列化 - Google Patents

畳み込みニューラルネットワークのトレーニングの並列化 Download PDF

Info

Publication number
JP6370469B2
JP6370469B2 JP2017504627A JP2017504627A JP6370469B2 JP 6370469 B2 JP6370469 B2 JP 6370469B2 JP 2017504627 A JP2017504627 A JP 2017504627A JP 2017504627 A JP2017504627 A JP 2017504627A JP 6370469 B2 JP6370469 B2 JP 6370469B2
Authority
JP
Japan
Prior art keywords
worker
data
workers
layer
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017504627A
Other languages
English (en)
Other versions
JP2017514251A (ja
Inventor
アレクサンダー・クリジェフスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2017514251A publication Critical patent/JP2017514251A/ja
Application granted granted Critical
Publication of JP6370469B2 publication Critical patent/JP6370469B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

本明細書は、畳み込みニューラルネットワークのトレーニングの並列化に関する。
畳み込みニューラルネットワークは、一般的に、畳み込みニューラルネットワーク層および完全結合されたニューラルネットワーク層という2種類のニューラルネットワーク層を含む。畳み込みニューラルネットワーク層は、まばらな結合性を有し、畳み込み層の各ノードは、次に最も低いニューラルネットワーク層のノードのサブセットのみから入力を受信する。一部の畳み込みニューラルネットワーク層は、層の他のノードと重みを共有するノードを有している。しかし、完全結合された層のノードは、次に最も低いニューラルネットワーク層の各ノードから入力を受信する。
全体として、本明細書では、トレーニング例の複数のバッチにおいて畳み込みニューラルネットワーク(CNN)をトレーニングするための手法について記述する。CNNは、複数のワーカー(worker)によってトレーニングされる。各ワーカーは、CNNの畳み込み層の各々のそれぞれのレプリカおよびCNNの完全結合された層の各々のそれぞれの分離区分を維持するように構成される。畳み込み層の各レプリカは、畳み込み層のノードのすべてを含み、完全結合された層の各分離区分は、完全結合された層のノードの一部を含む。各ワーカーは、トレーニング例の複数のバッチのすべてでワーカーによって維持される完全結合された層の区分をトレーニングしている間、ワーカーに割り当てられたトレーニング例のバッチでワーカーによって維持される畳み込み層のレプリカをトレーニングする。
本明細書に記述した主題の特定の実施形態は、以下の利点の1つまたは複数を実現するように実装され得る。畳み込みニューラルネットワークのトレーニングの間に、完全結合された層から異なるように畳み込み層を並列化することによって、ネットワークは、2つのタイプの層の異なる構造を活用することによって、効率的かつ迅速にトレーニングされ得る。加えて、たとえば、他のトレーニング例のためにワーカーがデータを処理するのと並行して、あるワーカーから別のワーカーにアクティブ化データを送ることによって、他のトレーニング例のためにワーカーがデータを処理するのと並行して、あるワーカーから別のワーカーに勾配データを送ることによって、または両方によって、トレーニングとの中間の通信を重複させることによって、トレーニング時間が短縮され得て、畳み込みニューラルネットワークをトレーニングするワーカー間のデータの送信によるトレーニング遅延が緩和され得る。
本明細書の主題の1つまたは複数の実施形態の詳細については、添付の図面および以下の記述において説明する。主題の他の機能、態様、および利点については、記述、図面、および特許請求の範囲から明白になるであろう。
畳み込みニューラルネットワーク(CNN)をトレーニングするための例示的なシステムを示すブロック図である。 CNNをトレーニングするための例示的なプロセスを示す流れ図である。 ワーカーによって維持される完全結合された層の区分を通じてアクティブ化データを処理するための例示的なプロセスを示す流れ図である。 ワーカーによって維持される完全結合された層の区分を通じて勾配を逆伝搬するための例示的なプロセスを示す流れ図である。 ワーカー間のアクティブ化データおよび勾配データを通信するための例示的なプロセスを示す流れ図である。 ワーカー間のアクティブ化データおよび勾配データを通信するための別の例示的なプロセスを示す流れ図である。 ワーカー間のアクティブ化データおよび勾配データを通信するための別の例示的なプロセスを示す流れ図である。
様々な図面において同様の参考番号および名称は、同様の要素を示している。
図1は、畳み込みニューラルネットワーク(CNN)をトレーニングするための例示的なシステム150を示すブロック図である。CNNは、ニューラルネットワーク層の連続を含み、CNNへの入力は、連続における最も低い層によって受信され、入力から出力を生成するために連続において層のすべてを通じて処理される。たとえば、入力は画像の場合があり、出力はカテゴリの組の各々に対するスコアの組の場合がある。所与のカテゴリについて生成されたスコアは、入力画像がカテゴリに属するオブジェクトの画像を含む可能性を表している。
CNNの各ニューラルネットワーク層は、ノードの組を含む。各ノードは、すなわち、連続においてニューラルネットワーク層の直下にある層の1つまたは複数のノードから、入力を受信するか、または層が連続において最も低い層である場合、CNNへの入力のすべてもしくは一部を受信し、入力からアクティブ化を生成する。次に、所与のニューラルネットワーク層のノードによって生成されたアクティブ化は、連続において次に最も高い層のノードに入力として提供されるか、または層が連続において最も高い層である場合、CNNの出力として処理される。
特に、ニューラルネットワーク層の連続は、完全結合されたニューラルネットワーク層の組に続いて、畳み込みニューラルネットワーク層の組を含む。一般的に、完全結合された層の各ノードは、連続において次に最も低い層の各ノードから入力を受信し、ノードに対する重みの組に従って受信された入力からアクティブ化を生成する。所与の完全結合された層の各ノードによって生成されたアクティブ化は、連続において次に最も高い完全結合された層の各ノードに入力として提供されるか、または完全結合された層が連続における最も高い層である場合、CNNの出力として処理される。
完全結合された層とは異なり、畳み込み層は、一般的に、まばらに結合されたニューラルネットワーク層である。すなわち、畳み込み層の各ノードは、先行するニューラルネットワーク層のノードの一部、すなわちすべて未満から入力を受信するか、または畳み込み層が連続において最も低い層である場合、CNNへの入力の一部を受信し、入力からアクティブ化を生成する。一般的に、畳み込み層は、各ノードに対する重みの組に従って受信された入力を畳み込むことによってアクティブ化を生成するノードを有している。一部の場合には、畳み込み層のノードは、重みを共有するように構成され得る。すなわち、層のノードの一部は、層の他のノードと同じ重み値を常に有するように制約されている場合がある。
一部のCNNは、層の連続に点在する他のタイプの層を有している。たとえば、他の層は、プーリング層、すなわち、連続において次に最も低い層のノードの一部から入力を受信するノードを含む層を含む場合があり、たとえば、受信された入力の最大または中間のいずれかを計算することによってなど、受信された入力をプーリングすることによって、アクティブ化を生成する。別の例として、他の層は、スケーリング層、すなわち、連続において次に最も低い層から入力を受信する層を含むことができ、各受信された入力における各要素にスカラ関数を適用することができる。これらの他の層は、CNNのトレーニングの間に修正される重みを有していないので、連続にそれらがあるかないかは、以下に記述されたCNNのトレーニング技術に影響しない。したがって、以下に記述したCNNは、記述を明瞭にするために、これらの他のタイプの層を含んでいないものとして記述する。しかし、トレーニングプロセスに影響することなく、他のタイプの層がCNNに含まれ得ることを当業者は理解されるであろう。
システム150は、複数のワーカー、すなわちワーカー1 100a、ワーカー2 100b、およびワーカー3 100cを含む。各ワーカー100a〜100cは、たとえば、コンピュータ、複数のコアを有するコンピュータ内のコア、またはCNNの区分もしくはレプリカをトレーニングするために計算を実行することができるコンピュータ内の他のハードウェアもしくはソフトウェアの場合がある。
ワーカー100a〜100cの各々は、CNNの各畳み込み層のそれぞれのレプリカを維持するように構成される。図1の例では、各ワーカーは、4つの畳み込み層106a〜106c、108a〜108c、110a〜110c、および112a〜112cのレプリカを維持する。各畳み込み層の各レプリカは、畳み込み層の個別のインスタンスである。すなわち、各レプリカは、畳み込み層のノードのすべてを含む。
ワーカー100a〜100cの各々は、CNNの完全結合された層の各々のそれぞれの区分を維持するようにも構成される。図1の例では、各ワーカーは、CNNの第1の完全結合された層のそれぞれの区分114a〜114c、およびCNNの第2の完全結合された層のそれぞれの区分116a〜116cを維持する。完全結合された層の各区分は、完全結合された層のノードの分離区分を含む。したがって、総体として、ワーカー100a〜100cによって維持される所与の完全結合された層の区分は、完全結合された層の単一のインスタンスを形作る。すなわち、各区分が所与の層のノードの一部のみを含む一方、区分は、層のノードのすべてを総体として含む。
ワーカー100a〜100cは、トレーニングデータ102から選択されたトレーニング例のCNNをトレーニングする。たとえば、トレーニング例は、特定のカテゴリからのオブジェクトの画像を含むものとして分類された画像の場合がある。トレーニングデータ102は、トレーニング例104a〜104cの複数のバッチを含み、各バッチは、事前に決定された数のトレーニング例を含む。
トレーニング例を使用してCNNをトレーニングするために、各ワーカー100a〜100cには、トレーニング例の異なるバッチが割り当てられ、トレーニングデータでCNNをトレーニングするためにニューラルネットワークトレーニング技術を実行する。たとえば、トレーニング技術は、確率的勾配降下法(SGD:stochastic gradient descent)を使用して、CNNに対する目的関数を最小化または最大化するトレーニング技術の場合がある。複数のワーカーを用いるシステムでトレーニングデータのバッチでCNNをトレーニングすることについては、図3に関してより詳細に以下に記述している。各ワーカーが、ワーカーの割り当てられたバッチでトレーニング技術を実行すると、各ワーカーには、トレーニング例の新しいバッチが割り当てられ得て、たとえば、目的関数を最小化または最大化することを試み続けるために、新しいバッチでCNNをトレーニングするためにトレーニング技術の追加の反復を実行することができる。
図2は、CNNをトレーニングするための例示的なプロセス200を示す流れ図である。プロセス200は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々によって実行され得る。上に記述したように、各ワーカーは、CNNの畳み込み層の各々のそれぞれのレプリカおよびCNNの完全結合された層の各々のそれぞれの区分を維持するように構成される。
ワーカーは、ワーカーに割り当てられたトレーニング例のバッチを受信する(ステップ202)。
ワーカーは、バッチの各トレーニング例に対してそれぞれの畳み込みアクティブ化を計算するために、ワーカーによって維持される畳み込み層のレプリカのすべてを通じてバッチの各トレーニング例を処理する(ステップ204)。すなわち、ワーカーは、トレーニング例に対する最初の畳み込みアクティブ化を生成するために、最も低い畳み込み層のレプリカを通じて各トレーニング例を処理し、次に、トレーニング例に対する畳み込みアクティブ化を計算するために、各畳み込み層のレプリカを通じて最も低い畳み込みアクティブ化を順に処理する。
ワーカーは、CNNをトレーニングしている他のワーカーに自身の畳み込みアクティブ化データを送り、CNNをトレーニングしている他のワーカーから他の畳み込みアクティブ化データを受信する(ステップ206)。一般的に、自身の畳み込みアクティブ化データは、各自身のトレーニング例に対して、すなわち、ワーカーに割り当てられたバッチの各トレーニング例に対して、トレーニング例に対する畳み込みアクティブ化を含む。同様に、所与の他のトレーニング例に対する他の畳み込みアクティブ化データ、すなわち、CNNをトレーニングする他のワーカーの1つに割り当てられたトレーニング例は、他のワーカーによってトレーニング例に対して計算された畳み込みアクティブ化を含む。他のワーカーにどの畳み込みアクティブ化データを送るか、および畳み込みアクティブ化データをいつ送るべきかを決定するための例示的な手法については、図5、図6、および図7に関して以下に記述している。
ワーカーは、各自身のトレーニング例および各他のトレーニング例に対してそれぞれの出力区分を計算するために、完全結合された層の区分のすべてを通じて自身のトレーニング例および他のトレーニング例に対する畳み込みアクティブ化データを処理する(ステップ208)。特に、トレーニング例に対する出力区分は、トレーニング例に対してワーカーによって維持される最も高い完全結合された層の区分のアクティブ化を含む。出力区分を計算するために畳み込みアクティブ化データを処理することについては、図3に関してより詳細に下に記述している。
ワーカーは、各自身のトレーニング例および各他のトレーニング例に対してそれぞれの勾配部分を取得する(ステップ210)。一部の実装では、各ワーカーは、ワーカーの指定された1つにワーカーによって計算された出力区分を送る。次に、そのワーカーは、目的関数の勾配を計算し、ワーカーの各々に適切な勾配部分を送ることができる。他の一部の実装では、各ワーカーは、各トレーニング例に対するそれぞれの勾配部分を計算する。たとえば、各トレーニング例について、ワーカーは、ワーカーによって計算された出力部分と、トレーニング例に対する既知の出力の対応する部分の間の誤差を決定する。すなわち、トレーニング例に対してワーカーによって維持される最も高い完全結合された層の区分におけるノードによって計算されるべきだったアクティブ化である。次に、ワーカーは、誤差を使用して、トレーニング例に対する目的関数の勾配を計算する。ワーカーは、最も高い完全結合された層のノードの区分のみを維持するので、ワーカーによって計算された勾配は、トレーニング例に対する勾配の合計の一部のみである。
ワーカーは、ワーカーによって維持される完全結合された層の区分のすべてを通じて勾配部分を逆伝搬し、逆伝搬された勾配を使用して、ワーカーによって維持される最も高い畳み込み層のレプリカに対する勾配部分を計算する(ステップ212)。完全結合された層の区分を通じて勾配部分を逆伝搬することについては、図4に関して下に記述している。
ワーカーは、自身の勾配データ、すなわち、ワーカーによって維持される最も高い畳み込み層のレプリカに対する勾配部分を他のワーカーに送り、他の勾配データ、すなわち、他のワーカーから他のワーカーによって維持される、最も高い畳み込み層のレプリカの区分に対する勾配部分を受信する(ステップ214)。他のワーカーにどの勾配データを送るか、および勾配データがいつ送られるべきかを決定するための例示的な手法については、図5、図6、および図7に関して下に記述している。一般的に、ワーカーは、トレーニング例が割り当てられたワーカーに、所与のトレーニング例に対する自身の勾配データを送る。これをするために、各ワーカーは、どのデータがどのトレーニング例に関連付けられているか、したがって、どのデータがどのワーカーに送られるべきかを追跡する。一部の実装では、ワーカーが、ワーカーによって処理されているどのデータがどのトレーニング例に対応するかを決定するために、各ワーカーは、どのデータがどのトレーニング例に対応するか、およびどのトレーニング例がどの他のワーカーに割り当てられるかを定義する、固定された順の他のワーカーからの受信されたデータを維持する。他の一部の実装では、ワーカーが、別のワーカーにトレーニング例に対するデータを送ると、ワーカーは、また、他のワーカーに、トレーニング例にデータを関連付けるメタデータを送ることができる。
受信されると、ワーカーは、ワーカーに割り当てられたトレーニング例のバッチで各トレーニング例に対する最も高い畳み込み層のレプリカに対してそれぞれの完全な勾配を生成するために、他のワーカーによって計算されたトレーニング例に対して他の勾配部分に、ワーカーに割り当てられた各トレーニング例に対するワーカーによって計算された自身の勾配部分を組み合わせることができる。
ワーカーは、ワーカーによって維持される残りの畳み込み層のレプリカのすべてを通じて完全な勾配を逆伝搬する(ステップ216)。すなわち、ワーカーは、各畳み込み層のレプリカで完全な勾配を計算し、次に、そのレプリカに対して完全な勾配を計算するのに使用するために次に最も低い畳み込み層のレプリカに完全な勾配を逆伝搬する。
ワーカーは、各レプリカおよび区分に対して対応する勾配を使用して、ワーカーによって維持される畳み込み層のレプリカおよび完全結合された層の区分に対する重み値を更新する(ステップ218)。一般的に、ワーカーがどのように重み値を更新するかは、使用されているトレーニング技術に左右される。たとえば、一部のトレーニング技術では、所与のトレーニング例に対して勾配を使用して計算された所与の重みの新しい値wnは、以下を満たすことができる。
wn=wo-αΔQ(wo)
ここで、woは、重みの現在の重み値であり、αは、定数値であり、ΔQ(wo)は、トレーニング例に対する重みに対する勾配である。
一般的に、1つのワーカーのみが所与の完全結合された層において各ノードを維持するので、完全結合された層の各ノードについて、各ワーカーは、ワーカーによって計算される勾配部分を使用して、ワーカーによって維持されるノードに対する重み値を更新する。
しかし、畳み込み層の重みの値が各ワーカーによって別々に維持されるので、畳み込み層に対する勾配は、各ワーカーがそれらの畳み込み層のレプリカに対する重みを更新する前に同期される必要がある。勾配を同期させるために、各ワーカーには、重みを同期させる各畳み込み層の異なる部分が割り当てられ得る。各他のワーカーは、ノードが割り当てられたワーカーに所与のノードに対する勾配を送ることができる。割り当てられた側のワーカーは、勾配を蓄積し、次に、各他のワーカーに蓄積された勾配を送ることができる。次に、各ワーカーは、各他のワーカーと同じ蓄積された勾配を使用して、畳み込み層のノードに対する重みを更新することができる。
オプションとして、各ワーカーに各畳み込み層の異なる部分を割り当てるのではなく、各ワーカーは、中央のサーバに各畳み込み層のレプリカの各ノードに対する勾配を送ることができる。中央のサーバは、サーバがワーカーから受信したノードの各々に対して勾配を蓄積し、次いで、各ワーカーに蓄積された勾配を送ることができる。
各ワーカーがプロセス200を完了すると、各ワーカーには、トレーニング例の新しいバッチが割り当てられ得て、新しいバッチに対してプロセス200を繰り返すことができる。ワーカーは、たとえば、CNNのトレーニングに対する収束基準が満たされるまで、または事前に決定したプロセスの反復の数が実行されるまで、プロセス200を繰り返し続けることができる。
図3は、ワーカーによって維持される完全結合された層の区分を通じてアクティブ化データを処理するための例示的なプロセス300を示す流れ図である。次に、プロセス300は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々によって実行され得る。
ワーカーは、トレーニング例に対する畳み込みアクティブ化データを取得する(ステップ302)。
ワーカーは、アクティブ化データにおいて識別された各トレーニング例に対してそれぞれの最初の完全結合された層の部分のアクティブ化を計算するために、最初の完全結合された層の区分を通じて畳み込みアクティブ化データを処理する(ステップ304)。特に、ワーカーは、各例に対するそれぞれの最初の完全結合された層の部分アクティブ化を生成するために、アクティブ化データの最初の完全結合された層の区分を通じて、各例に対する畳み込みアクティブ化を処理する。各例に対する最初の完全結合された層の部分のアクティブ化は、ワーカーによって維持される最初の完全結合された層の区分における各ノードによって生成されたそれぞれのアクティブ化を含む。
ワーカーは、他のワーカーに自身の最初の完全結合された層のアクティブ化データを提供し、他のワーカーから他の最初の完全結合されたアクティブ化データを受信する(ステップ306)。すなわち、ワーカーは、各トレーニング例について、各他のワーカーにトレーニング例に対する最初の完全結合された層のアクティブ化を提供する。ワーカーは、また、他のワーカーから、各トレーニング例に対する最初の完全結合された層のアクティブ化を受信する。したがって、ワーカーが他のアクティブ化を受信した後、ワーカーは、トレーニング例の各々について、トレーニング例の各々に対して完全な最初の完全結合された層のアクティブ化を有している。同様に、ワーカーは、トレーニング例の各々について、他のワーカーが、完全な最初の完全結合された層のアクティブ化を所有することを可能にするために、各他のワーカーに自身の最初に完全結合された層のアクティブ化データを提供する。
システムは、各トレーニング例に対するそれぞれの次の完全結合された層の区分のアクティブ化を生成するために、ワーカーによって維持される次の最も高い完全結合された層の区分を通じて各トレーニング例に対する完全な最初の完全結合された層のアクティブ化を処理する(ステップ308)。所与のワーカーに対する次の完全結合された層の部分のアクティブ化は、ワーカーによって維持される次の最も高い完全結合された層の区分における各ノードによって生成されたそれぞれのアクティブ化を含む。
次の層がCNNで最も高い完全結合された層である場合、ワーカーは、ワーカーに対する最後の完全結合されたアクティブ化として、次の完全結合された層の区分のアクティブ化を処理する。連続において次の層よりも高い層が1つまたは複数ある場合、ワーカーは、すなわち、他のワーカーに、自身の現在の完全結合された層の区分のアクティブ化データを提供し、組み合わせられた現在の完全結合された層のアクティブ化を生成するために、他のワーカーから他の現在の完全結合された層の区分のアクティブ化データを受信し、次いで、連続で次に高い層を使用して、組み合わせられたアクティブ化を処理することによって、各高い層に対してステップ304およびステップ306を繰り返すことができる。
図4は、ワーカーによって維持される完全結合された層の区分を通じて勾配を逆伝搬するための例示的なプロセス400を示す流れ図である。次に、プロセス400は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々、によって実行され得る。
ワーカーは、最も高い層の勾配データを受信する(ステップ402)。最も高い層の勾配データは、複数のトレーニング例の各々に対して、ワーカーによって維持される最も高い完全結合された層の区分に対する目的関数のそれぞれの勾配を含む。
ワーカーは、自身の最も高い層の勾配データ、すなわち、各トレーニング例に対する最も高い層の勾配を他のワーカーに送り、他のワーカーから他の最も高い層の勾配を受信する(ステップ404)。各トレーニング例について、ワーカーは、トレーニング例に対して、組み合わせられた最も高い層の勾配を生成するために、トレーニング例に対する他の最も高い層の勾配をトレーニング例に対する自身の最も高い層の勾配に組み合わせることができる。
ワーカーは、各トレーニング例に対して、組み合わせられた最も高い層の勾配を使用して、最も高い完全結合された層の区分の直下にある完全結合された層の区分に対して勾配部分を計算する(ステップ406)。最も高い完全結合された層の区分の直下にある完全結合された層の区分が、連続において最も低い区分である場合、ワーカーは、最も高い区分の直下にある区分の勾配を連続において最も低い完全結合された層の区分に対する勾配として処理する。追加の完全結合された層の区分がある場合、ワーカーは、各より低い完全結合された層の区分に対して、ステップ404および406を繰り返すことができる。
ワーカーは、最も低い完全結合された層の区分の勾配を使用して、各トレーニング例に対する最も高い畳み込み層に対する勾配部分を計算する(ステップ408)。すなわち、ワーカーは、ワーカーによって維持される最も低い完全結合された層の区分のノードに対する重みの値および完全結合された層の区分を通じて逆伝搬されたデータを使用して、最も高い畳み込み層に対する勾配部分を計算する。
図5は、ワーカー間でアクティブ化データおよび勾配データを通信するための例示的なプロセス500を示す流れ図である。プロセス500は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々によって実行され得る。
ワーカーは、すべての自身の畳み込みアクティブ化データ、すなわち、ワーカーに割り当てられたトレーニング例のバッチの各トレーニング例に対するアクティブ化をCNNをトレーニングしている各他のワーカーに送る(ステップ502)。
ワーカーは、CNNをトレーニングしている各他のワーカーから他の畳み込みアクティブ化データを受信する(ステップ504)。畳み込みアクティブ化のすべてが受信されたら、ワーカーは、トレーニング技術の現在の反復の間にCNNをトレーニングするワーカーのいずれかに割り当てられた各トレーニング例に対する畳み込みアクティブ化を有している。
ワーカーは、たとえば、図2、図3、および図4に関して上に記述したように、各トレーニング例に対する勾配データを計算するために、完全結合された層の区分のすべてを通じて、自身および他のアクティブ化データを処理する(ステップ506)。
ワーカーは、他のワーカーに自身の勾配データを送る(ステップ508)。すなわち、ワーカーは、ワーカーによって計算された各最も高い完全結合された層のレプリカの勾配部分について、対応するトレーニング例およびトレーニング例に対するアクティブ化データが受信されたワーカーを識別する。次に、ワーカーは、トレーニング例に対するアクティブ化データが受信されたワーカーに、各トレーニング例に対する最も高い完全結合された層のレプリカの勾配部分を送る。
ワーカーは、他のワーカーから他の勾配データを受信する(ステップ510)。すなわち、ワーカーに割り当てられたバッチの各トレーニング例について、ワーカーは、CNNをトレーニングしている各他のワーカーからのトレーニング例について、最も高い完全結合された層のレプリカの勾配部分を受信する。ワーカーに割り当てられたバッチの各トレーニング例について、システムは、トレーニング例に対する組み合わせられた勾配を生成するために、トレーニング例に対する自身の勾配データおよびトレーニング例に対する他方の勾配データを組み合わせる。
たとえば、図2に関して上に記述したように、ワーカーは、ワーカーによって維持される残りの畳み込み層のレプリカを通じて、ワーカーに割り当てられたバッチにおけるトレーニング例に対する組み合わせられた勾配を逆伝搬する(ステップ512)。
一部の実装では、ワーカーによって維持された完全結合された層の区分を通じてアクティブ化データを処理し始める前に、各ワーカーが、トレーニング例のすべてについてアクティブ化データを送信および受信するのではなく、動作の一部が並列化され得る。すなわち、他のトレーニング例に対するアクティブ化データがワーカーによって受信されている間に、ワーカーは、一部のトレーニング例に対するアクティブ化データを処理し始めることができる。
図6は、ワーカー間のアクティブ化データおよび勾配データを通信するための別の例示的なプロセス600を示す流れ図である。プロセス600は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々によって実行され得る。
ワーカーは、CNNをトレーニングする別のワーカーからトレーニング例のバッチに対する他の畳み込みアクティブ化データを受信するか、またはCNNをトレーニングする各他のワーカーに、ワーカーに割り当てられたバッチに対する自身の畳み込みアクティブ化データを送る(ステップ602)。CNNをトレーニングする各ワーカーは、ワーカーは、他の畳み込みデータの受信ではなく自身の畳み込みデータを送ることになるワーカーの順序においてそれぞれの位置が割り当てられる。順序における現在の位置がワーカーに割り当てられた位置である場合、ワーカーは自身のデータを送る。そうでない場合、ワーカーは他のデータを受信する。現在のワーカーが各他のワーカーに自身のデータを送ると、順序における現在の位置は、次の位置に増分される。
ワーカーは、たとえば、図2、図3、および図4に関して上に記述したように、ワーカーによって維持される完全結合された層の区分を通じて、自身のバッチ、または他のバッチに対する畳み込みアクティブ化データを処理し、バッチに対する最も高い完全結合された層のレプリカの勾配部分を計算する(ステップ606)。
ワーカーが、バッチに対してアクティブ化データを処理するのと並行して、ワーカーは、ワーカーに割り当てられたバッチに対して異なるワーカーから他のアクティブ化データを受信するか、または自身のアクティブ化データを送る(ステップ602)。すなわち、ワーカーは、順序における現在の位置がワーカーに割り当てられた位置に一致するかどうかを再び決定し、現在の位置が一致する場合、自身のデータを送り、現在の位置が一致しない場合、自身のデータを受信する。
ワーカーは、バッチに対する最も高い完全結合された層のレプリカの勾配部分を計算したら、ワーカーは、他のワーカーに自身の勾配データを送るか、または他のワーカーから他の勾配データを受信する(ステップ606)。
勾配データを送信または受信するのと並行して、ワーカーは、勾配データを生成するために、ワーカーが前のアクティブ化データを処理するのと並行して送信または受信された畳み込みアクティブ化データを処理する(ステップ604)。
ワーカーのいずれかに割り当てられたバッチのすべてが、ワーカーによって処理され、ワーカーが、ワーカーに割り当てられたバッチの各トレーニング例に対して完全な勾配データを有している場合、ワーカーは、たとえば、図2に関して上に記述したように、ワーカーによって維持される残りの畳み込み層のレプリカを通じて完全な勾配データを逆伝搬する(ステップ608)。
図7は、ワーカー間のアクティブ化データおよび勾配データを通信するための別の例示的なプロセス700を示す流れ図である。プロセス700は、CNNをトレーニングするための手法の一部として、たとえば、適切にプログラムされた図1のワーカー100a〜100cの各々など、複数のワーカーの各々によって実行され得る。
ワーカーは、各他のワーカーにN/K個のトレーニング例について畳み込みアクティブ化データを送り、ここでNは、ワーカーに割り当てられたバッチのトレーニング例の総数であり、Kは、CNNをトレーニングするワーカーの総数である(ステップ702)。
ワーカーは、各他のワーカーからN/K個の他のトレーニング例に対する他の畳み込みアクティブ化データを受信する(ステップ704)。したがって、ワーカーは、(N)*(K-1)/K個の合計のトレーニング例に対する畳み込みアクティブ化データを受信する。
ワーカーは、ワーカーによって維持される完全結合された層の区分を通じて、N個のトレーニング例、すなわち、(N)*(K-1)/K個の他のトレーニング例およびN/K個の自身のトレーニング例に対する畳み込みアクティブ化データを処理し、たとえば、図2、図3、および図4に関して上に記述したように、各トレーニング例に対して最も高い完全結合された層のレプリカの勾配部分を計算する(ステップ706)。
ワーカーが、N個のトレーニング例に対する畳み込みアクティブ化データを処理するのと並行して、ワーカーは、他のワーカーに送られるより多くの畳み込みアクティブ化データがあるかどうかを決定する(ステップ708)。特に、ワーカーは、CNNをトレーニングしている他のワーカーにまだ送られていないワーカーに割り当てられたバッチにトレーニング例があるかどうかを決定する。
他のワーカーに送られるより多くの畳み込みアクティブ化データがある場合、ワーカーは、現在のN個のトレーニング例に対する畳み込みアクティブ化データを処理するのと並行して、各他のワーカーにN/K個多いトレーニング例に対する畳み込みアクティブ化データを送り(ステップ702)、各他のワーカーからN/K個多いトレーニング例に対する他の畳み込みデータを受信する(ステップ704)。
現在のN個のトレーニング例に対する最も高い完全結合された層のレプリカの勾配部分が計算されると、ワーカーは、N個のトレーニング例の各々について勾配データをトレーニング例が割り当てられたワーカーに送り(ステップ710)、ワーカーに割り当てられたトレーニング例について他のワーカーから勾配データを受信する(ステップ712)。
勾配データを送信および受信するのと並行して、ワーカーが、ステップ708で送られるより多くの畳み込みアクティブ化データがあったと決定した場合、ワーカーは、次のN個のトレーニング例に対する畳み込みアクティブ化データを処理し始める(ステップ706)。
ステップ708で送られるより多くの畳み込みデータがなかったとワーカーが決定した場合、ワーカーに割り当てられたすべてのN個のトレーニング例に対する勾配データが受信されると、ワーカーは、たとえば、図2に関して上に記述したように、ワーカーによって維持される残りの畳み込み層のレプリカを通じて勾配データを逆伝搬する。
上の記述は、一般的に、ワーカーによって維持される畳み込み層のレプリカのすべてを通じて、ワーカーに割り当てられたトレーニング例のすべてに対する勾配データが逆伝搬されるまで、ワーカーが完全結合された層の重みを更新するのを待つことを記述している。しかし、一部の実装では、ワーカーは、畳み込み層に対する重みが更新されるのとは異なる間隔で、完全結合された層の重みを更新することができる。たとえば、プロセス700が、畳み込み層のレプリカと完全結合された層の区分の間でデータを交換するために使用される実装では、各ワーカーは、畳み込み層のレプリカのすべてを通じて、ワーカーに割り当てられたバッチのすべてのN個のトレーニング例に対する勾配が逆伝搬されるまで、ワーカーによって維持される畳み込み層のレプリカに対する重みを更新するのを待っている間に、N個のトレーニング例の各組に対する勾配が計算された後、ワーカーによって維持される完全結合された層の区分に対する重みを更新することができる。同様に、畳み込み層のレプリカと完全結合された層の区分の間でデータを交換するためにプロセス600が使用される実装では、各ワーカーは、畳み込み層のレプリカのすべてを通じて、ワーカーに割り当てられたバッチのすべてのN個のトレーニング例に対する勾配が逆伝搬されるまで、ワーカーによって維持される畳み込み層のレプリカに対する重みを更新するのを待っている間に、ワーカーによって現在処理されているトレーニング例に対する勾配が計算された後、ワーカーによって維持される完全結合された層の区分に対する重みを更新することができる。
本明細書に記述した主題および機能動作の実施形態は、デジタル電子回路、明確に具現化されたコンピュータソフトウェアもしくはファームウェア、本明細書に開示した構造およびそれらの構造の等価物を含むコンピュータハードウェア、またはそれらの1つまたは複数の組み合わせにおいて実装され得る。本明細書に記述した主題の実施形態は、1つまたは複数のコンピュータプログラム、すなわち、データ処理装置によって、またはその動作を制御するために実行するために有形の非一時的プログラムキャリアで符号化されたコンピュータプログラム命令の1つまたは複数のモジュールとして実装され得る。あるいはまたは加えて、プログラム命令は、人工的に生成された伝播された信号、たとえば、データ処理装置によって実行するために適切な受信機装置に送信するために情報を符号化するために生成される、マシンによって生成された電気的、光学的、または電磁気的な信号で符号化され得る。コンピュータ記憶媒体は、機械可読の記憶デバイス、機械可読の記憶基板、ランダムアクセスもしくはシリアルアクセスのメモリのデバイス、またはそれらの1つまたは複数の組み合わせの場合がある。
「データ処理装置」という用語は、例をあげると、1つのプログラマブルプロセッサ、1つのコンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するためのすべての種類の装置、デバイス、およびマシンを包含する。装置は、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)など、専用論理回路を含むことができる。装置は、また、ハードウェアに加えて、たとえば、プロセッサのファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの1つまたは複数の組み合わせを構成するコードなど、当該のコンピュータプログラムに対して実行環境を作成するコードを含むことができる。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、もしくはコードとも呼ばれまたは記述され得る)は、コンパイルされた言語もしくは解釈された言語、または宣言型言語もしくは手続き型言語を含む、任意の形式のプログラミング言語で記述され得て、独立型のプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境で使用するに適した他のユニットとしてなど、任意の形式で展開され得る。コンピュータプログラムは、必須ではないが、ファイルシステムのファイルに対応する場合がある。プログラムは、たとえば、マークアップ言語文書、当該のプログラムに専用される単一のファイル、またはたとえば、1つまたは複数のモジュール、サブプログラム、もしくはコードの部分を記憶するファイルなど複数の調整されたファイルに記憶された1つもしくは複数のスクリプトなど、他のプログラムまたはデータを保持するファイルの一部に記憶され得る。コンピュータプログラムは、1台のコンピュータ、または1つのサイトに位置するか、もしくは複数のサイトに分散され通信ネットワークによって相互に結合された複数のコンピュータで実行されるように展開され得る。
本明細書に記述したプロセスおよびロジックのフローは、入力データに対して動作し出力を生成することによって機能を実行するために、1つまたは複数のコンピュータプログラムを実行する1つまたは複数のプログラム可能なコンピュータによって実行され得る。プロセスおよびロジックのフローは、たとえば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)など、専用論理回路によって実行され得て、装置は、また、専用論理回路として実装され得る。
コンピュータプログラムの実行に適したコンピュータは、例をあげると、汎用もしくは専用、または両方のマイクロプロセッサ、または他の種類の中央処理装置に基づくことができる。一般的に、中央処理装置は、読み取り専用メモリもしくはランダムアクセスメモリ、または両方から命令およびデータを受信する。コンピュータの必須の要素は、命令を実行または実施するための中央処理装置、ならびに命令およびデータを記憶するための1つまたは複数のメモリデバイスである。一般的に、コンピュータは、また、たとえば磁気、光磁気ディスク、または光ディスクなど、データを記憶するための1つまたは複数の大容量記憶装置を含むか、またはデータを受信もしくは転送もしくは両方を実行するために動作可能に結合される。しかし、コンピュータには、そのようなデバイスは必要がない。さらに、コンピュータは、例をあげると、たとえば、自動車電話、携帯情報端末(PDA)、モバイル型のオーディオもしくはビデオプレーヤー、ゲームコンソール、全地球測位システム(GPS)の受信機、またはたとえば、ユニバーサルシリアルバス(USB)フラッシュドライブなど携帯型記憶デバイスなど別のデバイスに組み込まれ得る。
コンピュータプログラム命令およびデータを記憶するのに適したコンピュータ可読媒体は、例をあげると、たとえばEPROM、EEPROM、およびフラッシュメモリデバイスなどの半導体記憶装置、たとえば内部ハードディスクまたはリムーバブルディスクなどの磁気ディスク、光磁気ディスク、ならびにCD ROMおよびDVD-ROMディスクなど、すべての形式の不揮発性メモリ、メディア、およびメモリデバイスを含む。プロセッサおよびメモリは、専用論理回路によって補足され得るか、または組み込まれ得る。
ユーザとの対話を提供するために、本明細書に記述した主題の実施形態は、ユーザに情報を表示するためにたとえばCRT(陰極線管)またはLCD(液晶ディスプレイ)のモニタなどのディスプレイデバイス、およびキーボード、ならびにたとえばそれによってユーザがコンピュータに入力を提供できるマウスまたはトラックボールなどのポインティングデバイスを有するコンピュータに実装され得る。他の種類のデバイスは、同様に、ユーザとの対話を提供するために使用され得る。たとえば、ユーザに提供されるフィードバックは、たとえば視覚フィードバック、聴覚フィードバック、または触覚フィードバックなど、任意の形式の感覚フィードバックの場合があり、ユーザからの入力は、音響、言語、または触覚の入力を含む任意の形式で受信され得る。加えて、コンピュータは、たとえば、ウェブブラウザから受信された要求に応じて、ユーザのクライアントデバイスのウェブブラウザにウェブページを送ることによってなど、ユーザによって使用されるデバイスに文書を送り、そこから文書を受信することによってユーザと対話することができる。
本明細書に記述した主題の実施形態は、たとえば、データサーバとしてなどバックエンドコンポーネントを含む、またはたとえばアプリケーションサーバとしてミドルウェアコンポーネントを含む、またはたとえばユーザが、本明細書に記述した主題の実装と対話することができるグラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータなどのフロントエンドコンポーネント、または1つもしくは複数のそのようなバックエンド、ミドルウェア、もしくはフロントエンドのコンポーネントの任意の組み合わせを含むコンピューティングシステムに実装され得る。システムのコンポーネントは、たとえば通信ネットワークなど、デジタルデータ通信の任意の形式または媒体によって相互に結合され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)およびたとえばインターネットなどのワイドエリアネットワーク(「WAN」)を含む。
コンピューティングシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは、一般的に、相互に離れており、典型的には、通信ネットワークを通じて対話する。クライアントとサーバの関係は、それぞれのコンピュータで実行されていて、相互にクライアントサーバ関係を有するコンピュータプログラムによって発生する。
本明細書は、多くの特定の実装詳細を含んでいるが、これらは、発明または請求され得るものの範囲に対する制限として解釈されるべきではなく、むしろ、特定の発明の特定の実施形態に特有な場合がある機能の記述として解釈されるべきである。個別の実施形態の文脈において本明細書に記述した特定の機能は、また、単一の実施形態の組み合わせにも実装され得る。反対に、単一の実施形態の文脈において記述した様々な機能は、また、複数の実施形態で別々に、または適切な下位の組み合わせにおいて実装され得る。さらに、機能は、特定の組み合わせで機能するものとして上に記述され、そのようなものと最初に請求さえされているが、請求された組み合わせからの1つまたは複数の機能は、一部の場合には、組み合わせから削除することができ、請求された組み合わせは、下位の組み合わせまたは下位組み合わせの変形を対象とすることができる。
同様に、動作は、特定の順で図面に描写されているが、これは望ましい結果を達成するために、そのような動作が、図示された特定の順もしくは順番に実行されたり、またはすべての図示された動作が実行されたりすることを必要とするものと理解されるべきではない。特定の状況では、マルチタスクおよび並列処理が有利な場合がある。さらに、上に記述した実施形態の様々なシステムモジュールおよびコンポーネントの分離は、すべての実施形態においてそのような分離を必要とするものと理解されるべきではなく、記述されたプログラムコンポーネントおよびシステムは、一般的に、単一のソフトウェア製品にともに統合されるか、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。
主題の特定の実施形態について記述してきた。他の実施形態は、以下の特許請求の範囲の範囲内にある。たとえば、特許請求の範囲に詳述されたアクションは、異なる順で実行され得て、それでも望ましい結果を達成することができる。一例をあげると、添付の図面に描写したプロセスは、望ましい結果を達成するために、図示された特定の順序、または順番を必ずしも必要としない。特定の実装では、マルチタスクおよび並列処理が有利な場合がある。
100a ワーカー1
100b ワーカー2
100c ワーカー3
102 トレーニングデータ
104a トレーニング例のバッチ1
104b トレーニング例のバッチ2
104c トレーニング例のバッチ3
106a〜106c、108a〜108c、110a〜110c、112a〜112c 畳み込み層
114a〜114c 区分
116a〜116c 区分
150 システム

Claims (20)

  1. トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするためのシステムであって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記システムは、複数のワーカーを含み、各ワーカーは、前記畳み込み層の各々のそれぞれのレプリカおよび前記完全結合された層の各々のそれぞれの分離区分を維持するように構成され、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含み、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含み、各ワーカーは、
    前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられるステップと、
    前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
    トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
    を含む動作を実行するように構成されるシステム。
  2. 前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップは、
    前記ワーカーに割り当てられた前記バッチの各トレーニング例に対してそれぞれの畳み込み層のアクティブ化データを計算するために、前記ワーカーによって維持される前記畳み込み層のレプリカのすべてを通じてトレーニング例の前記バッチを処理するステップと、
    前記ワーカーに割り当てられた前記バッチの前記トレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップと
    記ワーカーによって維持される畳み込み層のレプリカを通じて、前記最も高い完全結合された層に対応する組み合わされた勾配データを逆伝搬するステップと
    を含む請求項1に記載のシステム。
  3. トレーニング例の前記複数のバッチの各々で、前記ワーカーによって維持される完全結合された層の区分をトレーニングするステップは、
    前記複数のバッチのすべてで前記トレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップであって、前記トレーニング例の各々に対する前記畳み込みデータは、前記トレーニング例に対する畳み込み層のアクティブ化データを含む、ステップと、
    記トレーニング例に対する自身の最初の完全結合された層の区分のアクティブ化データを生成するために、前記ワーカーによって維持される最も低い完全結合された層の区分を通じて前記畳み込みデータを処理するステップと、
    前記複数のワーカーの他のワーカーに前記自身の最初の完全結合された層の区分のアクティブ化データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最初の完全結合された層の区分のアクティブ化データを受信するステップと、
    前記ワーカーによって維持される各他の完全結合された層の区分に対して、
    前記完全結合された層の区分に対して自身の区分のアクティブ化データを生成するために、前記完全結合された層の区分を通じて前記ワーカーによって維持される次の最も低い完全結合された層の区分に対して、自身の区分のアクティブ化データおよび他の区分のアクティブ化データを処理するステップと、
    前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分のアクティブ化データを送るステップと、
    前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対する他の区分のアクティブ化データを受信するステップと、
    前記トレーニング例の各々に対して、自身の最も高い完全結合された層の区分の勾配データを受信するステップと、
    前記複数のワーカーの他のワーカーに前記自身の最も高い完全結合された層の区分の勾配データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最も高い完全結合された層の区分の勾配データを受信するステップと、
    前記ワーカーによって維持される各他の完全結合された層の区分に対して、
    前記完全結合された層の区分に対して自身の勾配区分データを生成するために、前記完全結合された層の部分を通じて前記ワーカーによって維持される次の最も高い完全結合された層の区分に対して、自身の区分の勾配データおよび他の区分の勾配データを逆伝搬するステップと、
    前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分の勾配データを送るステップと、
    前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対して他の区分の勾配データを受信するステップと
    を含む請求項2に記載のシステム。
  4. 前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップは、
    各トレーニング例に対して前記ワーカーによって維持される前記最も高い畳み込み層のレプリカの一部に対して自身の勾配データを計算するステップと、
    前記複数のワーカーの他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた配を受信するステップと
    を含む請求項3に記載のシステム。
  5. 前記複数のバッチのすべてで前記トレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップは、
    前記複数のワーカーの他のワーカーに自身の畳み込みデータを送るステップであって、前記自身の畳み込みデータは、前記ワーカーに割り当てられたトレーニング例に対して前記それぞれの畳み込み層のアクティブ化データを含む、ステップと、
    前記複数のワーカーの他のワーカーから他の畳み込みデータを受信するステップであって、前記他の畳み込みデータは、他のワーカーに割り当てられた他のトレーニング例に対してそれぞれの畳み込み層のアクティブ化データを含む、ステップと
    を含む請求項4に記載のシステム。
  6. 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに前記ワーカーに割り当てられた前記バッチの各トレーニング例について、自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記複数のバッチの各他のバッチの各他のトレーニング例に対して、他の畳み込みデータを受信するステップを含む請求項5に記載のシステム。
  7. 他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップは、前記トレーニング例が割り当てられている前記ワーカーに前記複数のバッチの各他のバッチにおいて他のトレーニング例について自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップを含み、前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた配データを受信するステップは、前記ワーカーに割り当てられた前記バッチの各トレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた配データを各他のワーカーから受信するステップを含む請求項6に記載のシステム。
  8. 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに前記ワーカーに割り当てられた前記バッチの各トレーニング例について、自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記自身の畳み込みデータを処理するのと並行して、特定の他のワーカーに割り当てられたバッチの各他のトレーニング例について、他の畳み込みデータを受信するステップを含む請求項5に記載のシステム。
  9. 前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた配データを受信するステップは、前記ワーカーに割り当てられた前記バッチの各トレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた配データを各他のワーカーから受信するステップを含み、前記他の畳み込みデータを処理するステップは、前記他の最も高い完全結合された層に対応する組み合わされた配データを受信するのと並行して、前記特定の他のワーカーに割り当てられた前記バッチの各他のトレーニング例について、前記他の畳み込みデータを処理するステップを含む請求項8に記載のシステム。
  10. 他のワーカーに自身の畳み込みデータを送るステップは、前記複数のワーカーの各他のワーカーに、前記ワーカーに割り当てられた前記バッチの事前に決定された数のトレーニング例について自身の畳み込みデータを送るステップを含み、他の畳み込みデータを受信するステップは、前記複数のバッチの各他のバッチの事前に決定された数のトレーニング例について、他の畳み込みデータを受信するステップを含む請求項5に記載のシステム。
  11. 前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップは、前記ワーカーに割り当てられた前記バッチの別の事前に決定された数のトレーニング例について、自身の畳み込みデータを送るのと並行して、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップと、前記複数のバッチの各他のバッチの別の事前に決定された数のトレーニング例について、他の畳み込みデータを受信するステップとを含む請求項10に記載のシステム。
  12. 他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップは、前記トレーニング例が割り当てられる前記ワーカーに前記複数のバッチの各他のバッチにおいて前記事前に決定された数の他のトレーニング例について、自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップを含み、前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた配データを受信するステップは、前記事前に決定された数のトレーニング例に対して他の最も高い完全結合された層に対応する組み合わされた配データを各他のワーカーから受信するステップを含み、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップは、前記事前に決定された数に対して前記自身の最も高い完全結合された層に対応する組み合わされた配データを送るのと並行して、前記他の事前に決定された数のトレーニング例について、前記自身の畳み込みデータおよび前記他の畳み込みデータを処理するステップと、前記事前に決定された数に対する前記他の最も高い完全結合された層に対応する組み合わされた配データを受信するステップとを含む請求項11に記載のシステム。
  13. 前記動作は、
    記勾配データを使用して前記畳み込み層のレプリカおよび前記完全結合された層の区分の重みを更新するステップ
    をさらに含む請求項3に記載のシステム。
  14. トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするための方法であって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記方法は、
    複数のワーカーの各々によって、前記畳み込み層の各々のそれぞれのレプリカを維持するステップであって、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含む、ステップと、
    前記ワーカーの各々によって、前記完全結合された層の各々のそれぞれの分離区分を維持するステップであって、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含む、ステップと、
    前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられる、ステップと、
    前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
    前記ワーカーの各々によって、トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
    を含む方法。
  15. 前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップは、
    前記ワーカーに割り当てられた前記バッチの各トレーニング例に対してそれぞれの畳み込み層のアクティブ化データを計算するために、前記ワーカーによって維持される前記畳み込み層のレプリカのすべてを通じてトレーニング例の前記バッチを処理するステップと、
    前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップと
    記ワーカーによって維持される畳み込み層のレプリカを通じて、前記最も高い完全結合された層に対応する組み合わされた勾配データを逆伝搬するステップと
    を含む請求項14に記載の方法。
  16. トレーニング例の前記複数のバッチの各々で、前記ワーカーによって維持される完全結合された層の区分をトレーニングするステップは、
    前記複数のバッチのすべてでトレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップであって、前記トレーニング例の各々に対する前記畳み込みデータは、前記トレーニング例に対する畳み込み層のアクティブ化データを含む、ステップと、
    記トレーニング例に対する自身の最初の完全結合された層の区分のアクティブ化データを生成するために、前記ワーカーによって維持される最も低い完全結合された層の区分を通じて前記畳み込みデータを処理するステップと、
    前記複数のワーカーの他のワーカーに前記自身の最初の完全結合された層の区分のアクティブ化データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最初の完全結合された層の区分のアクティブ化データを受信するステップと、
    前記ワーカーによって維持される各他の完全結合された層の区分に対して、
    前記完全結合された層の区分に対して自身の区分のアクティブ化データを生成するために、前記完全結合された層の区分を通じて前記ワーカーによって維持される次の最も低い完全結合された層の区分に対して、自身の区分のアクティブ化データおよび他の区分のアクティブ化データを処理するステップと、
    前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分のアクティブ化データを送るステップと、
    前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対する他の区分のアクティブ化データを受信するステップと、
    前記トレーニング例の各々に対して、自身の最も高い完全結合された層の区分の勾配データを受信するステップと、
    前記複数のワーカーの他のワーカーに前記自身の最も高い完全結合された層の区分の勾配データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最も高い完全結合された層の区分の勾配データを受信するステップと、
    前記ワーカーによって維持される各他の完全結合された層の区分に対して、
    前記完全結合された層の区分に対して自身の勾配区分データを生成するために、前記完全結合された層の部分を通じて前記ワーカーによって維持される次の最も高い完全結合された層の区分に対して、自身の区分の勾配データおよび他の区分の勾配データを逆伝搬するステップと、
    前記複数のワーカーの他のワーカーに前記完全結合された層の区分に対して前記自身の区分の勾配データを送るステップと、
    前記複数のワーカーの他のワーカーから前記完全結合された層の区分に対して他の区分の勾配データを受信するステップと
    を含む請求項15に記載の方法。
  17. 前記ワーカーに割り当てられた前記バッチのトレーニング例の各々に対して、前記ワーカーによって維持される最も高い完全結合された層に対応する組み合わされた勾配データを取得するステップは、
    各トレーニング例に対して前記ワーカーによって維持される前記最も高い畳み込み層のレプリカの一部に対して自身の勾配データを計算するステップと、
    前記複数のワーカーの他のワーカーに自身の最も高い完全結合された層に対応する組み合わされた配データを送るステップと、
    前記複数のワーカーの他のワーカーから他の最も高い完全結合された層に対応する組み合わされた配を受信するステップと
    を含む請求項16に記載の方法。
  18. 前記複数のバッチのすべてでトレーニング例の各々に対して、それぞれの畳み込みデータを取得するステップは、
    前記複数のワーカーの他のワーカーに自身の畳み込みデータを送るステップであって、前記自身の畳み込みデータは、前記ワーカーに割り当てられたトレーニング例に対して前記それぞれの畳み込み層のアクティブ化データを含む、ステップと、
    前記複数のワーカーの他のワーカーから他の畳み込みデータを受信するステップと、前記他の畳み込みデータは、他のワーカーに割り当てられた他のトレーニング例に対してそれぞれの畳み込み層のアクティブ化データを含む
    を含む請求項17に記載の方法。
  19. 前記ワーカーの各々によって、前記ワーカーによって維持される前記畳み込み層のレプリカの重みおよび前記勾配データを使用して、前記ワーカーによって維持される前記完全結合された層の区分を更新するステップ
    をさらに含む請求項16に記載の方法。
  20. 1つまたは複数のコンピュータによって実行された場合、前記1つまたは複数のコンピュータに、トレーニング例の複数のバッチで畳み込みニューラルネットワークをトレーニングするための動作を実行させる命令を用いて符号化された1つまたは複数のコンピュータ記憶媒体であって、前記畳み込みニューラルネットワークは、最低から最高の連続に配置された複数の層を有し、前記複数の層は、1つまたは複数の完全結合された層が続く1つまたは複数の畳み込み層を含み、各畳み込み層および各完全結合された層は、それぞれの複数のノードを含み、前記動作は、複数のワーカーの各々によって、前記畳み込み層の各々のそれぞれのレプリカを維持するステップであって、畳み込み層の各レプリカは、前記畳み込み層に前記ノードのすべてを含む、ステップと、
    前記ワーカーの各々によって、前記完全結合された層の各々のそれぞれの分離区分を維持するステップであって、完全結合された層の各分離区分は、前記完全結合された層の前記ノードの一部を含む、ステップと、
    前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例のバッチを受信するステップであって、各ワーカーが前記複数のバッチのそれぞれのバッチを受信するように、トレーニング例の前記バッチが割り当てられる、ステップと、
    前記ワーカーの各々によって、前記ワーカーに割り当てられたトレーニング例の前記バッチで前記ワーカーによって維持される前記畳み込み層のレプリカをトレーニングするステップと、
    前記ワーカーの各々によって、トレーニング例の前記複数のバッチの各々で前記ワーカーによって維持される前記完全結合された層の区分をトレーニングするステップと
    を含む1つまたは複数のコンピュータ記憶媒体。
JP2017504627A 2014-04-11 2015-04-10 畳み込みニューラルネットワークのトレーニングの並列化 Active JP6370469B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461978734P 2014-04-11 2014-04-11
US61/978,734 2014-04-11
PCT/US2015/025451 WO2015157718A2 (en) 2014-04-11 2015-04-10 Parallelizing the training of convolutional neural networks

Publications (2)

Publication Number Publication Date
JP2017514251A JP2017514251A (ja) 2017-06-01
JP6370469B2 true JP6370469B2 (ja) 2018-08-08

Family

ID=53015929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017504627A Active JP6370469B2 (ja) 2014-04-11 2015-04-10 畳み込みニューラルネットワークのトレーニングの並列化

Country Status (6)

Country Link
US (1) US10540587B2 (ja)
EP (1) EP3129920B1 (ja)
JP (1) JP6370469B2 (ja)
KR (1) KR101934067B1 (ja)
CN (2) CN113255885A (ja)
WO (1) WO2015157718A2 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255885A (zh) * 2014-04-11 2021-08-13 谷歌有限责任公司 使卷积神经网络的训练并行化
US9953425B2 (en) * 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
CA3004885C (en) 2015-11-12 2020-07-14 Deepmind Technologies Limited Asynchronous deep reinforcement learning
US10572800B2 (en) * 2016-02-05 2020-02-25 Nec Corporation Accelerating deep neural network training with inconsistent stochastic gradient descent
JP6561004B2 (ja) * 2016-03-25 2019-08-14 株式会社デンソーアイティーラボラトリ ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
CN107341547B (zh) * 2016-04-29 2021-04-20 中科寒武纪科技股份有限公司 一种用于执行卷积神经网络训练的装置和方法
US9940544B2 (en) 2016-06-08 2018-04-10 Adobe Systems Incorporated Event image curation
US10467529B2 (en) * 2016-06-08 2019-11-05 Adobe Inc. Convolutional neural network joint training
US10546211B2 (en) * 2016-07-01 2020-01-28 Google Llc Convolutional neural network on programmable two dimensional image processor
US9715656B1 (en) 2016-09-12 2017-07-25 International Business Machines Corporation Killing asymmetric resistive processing units for neural network training
US9646243B1 (en) 2016-09-12 2017-05-09 International Business Machines Corporation Convolutional neural networks using resistive processing unit array
US10656962B2 (en) 2016-10-21 2020-05-19 International Business Machines Corporation Accelerate deep neural network in an FPGA
US10339443B1 (en) * 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
CN110520871B (zh) * 2017-02-24 2023-11-07 渊慧科技有限公司 使用学习进度测量训练机器学习模型
CN110268456A (zh) * 2017-03-14 2019-09-20 欧姆龙株式会社 驾驶员监视装置、驾驶员监视方法、学习装置及学习方法
US10839286B2 (en) * 2017-09-14 2020-11-17 Xilinx, Inc. System and method for implementing neural networks in integrated circuits
CN107590534B (zh) * 2017-10-17 2021-02-09 北京小米移动软件有限公司 训练深度卷积神经网络模型的方法、装置及存储介质
KR102072757B1 (ko) * 2017-10-31 2020-02-03 국방과학연구소 딥 러닝을 이용한 이종 센서 정보 융합 장치 및 방법
US11734545B2 (en) * 2017-11-14 2023-08-22 Google Llc Highly efficient convolutional neural networks
WO2019098418A1 (ko) * 2017-11-16 2019-05-23 삼성전자 주식회사 뉴럴 네트워크 학습 방법 및 디바이스
US11715287B2 (en) * 2017-11-18 2023-08-01 Neuralmagic Inc. Systems and methods for exchange of data in distributed training of machine learning algorithms
US11836610B2 (en) * 2017-12-13 2023-12-05 Advanced Micro Devices, Inc. Concurrent training of functional subnetworks of a neural network
US20190197395A1 (en) * 2017-12-21 2019-06-27 Fujitsu Limited Model ensemble generation
CN108090565A (zh) * 2018-01-16 2018-05-29 电子科技大学 一种卷积神经网络并行化训练加速方法
WO2019198814A1 (ja) * 2018-04-12 2019-10-17 日本電信電話株式会社 ニューラルネットワークシステム、ニューラルネットワーク方法、プログラム
US10720151B2 (en) 2018-07-27 2020-07-21 Deepgram, Inc. End-to-end neural networks for speech recognition and classification
US11423284B2 (en) * 2018-09-07 2022-08-23 Black Sesame Technologies, Inc Subgraph tile fusion in a convolutional neural network
KR20200030806A (ko) 2018-09-13 2020-03-23 삼성전자주식회사 반도체 제조 공정을 모니터링하기 위해 인공 신경망에 기초하는 이미지 변환 모델을 포함하는 비일시적 컴퓨터 판독가능 매체 그리고 반도체 웨이퍼의 이미지를 변환하는 방법
KR20200051278A (ko) 2018-11-05 2020-05-13 삼성전자주식회사 인공 신경망에서의 작업 관리 방법 및 이를 포함하는 시스템
US11995533B1 (en) * 2018-12-05 2024-05-28 Perceive Corporation Executing replicated neural network layers on inference circuit
US11847567B1 (en) 2018-12-05 2023-12-19 Perceive Corporation Loss-aware replication of neural network layers
CN109784489B (zh) * 2019-01-16 2021-07-30 北京大学软件与微电子学院 基于fpga的卷积神经网络ip核
KR102333730B1 (ko) * 2019-02-13 2021-11-30 아주대학교 산학협력단 학습 모델 생성 장치 및 방법
CN110096346B (zh) * 2019-03-29 2021-06-15 广州思德医疗科技有限公司 一种多计算节点的训练任务处理方法及装置
JP7208528B2 (ja) * 2019-05-23 2023-01-19 富士通株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN112396154A (zh) * 2019-08-16 2021-02-23 华东交通大学 一种基于卷积神经网络训练的并行方法
US11494695B2 (en) * 2019-09-27 2022-11-08 Google Llc Training neural networks to generate structured embeddings
US20220351039A1 (en) * 2019-10-04 2022-11-03 Telefonaktiebolaget Lm Ericsson (Publ) Federated learning using heterogeneous model types and architectures
US11556450B2 (en) * 2019-10-11 2023-01-17 International Business Machines Corporation Hybrid data-model parallelism for efficient deep learning
JP2023017335A (ja) 2021-07-26 2023-02-07 富士通株式会社 機械学習プログラム,情報処理装置および機械学習方法
KR20230068509A (ko) * 2021-11-11 2023-05-18 한국전자기술연구원 경량 딥러닝 학습 메모리 제어 방법 및 장치
CN114912587B (zh) * 2022-06-09 2023-05-26 上海燧原科技有限公司 神经网络分布式训练系统、方法、装置、计算单元及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
US8027938B1 (en) * 2007-03-26 2011-09-27 Google Inc. Discriminative training in machine learning
US8234228B2 (en) * 2008-02-07 2012-07-31 Nec Laboratories America, Inc. Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data
US9390370B2 (en) * 2012-08-28 2016-07-12 International Business Machines Corporation Training deep neural network acoustic models using distributed hessian-free optimization
US9495620B2 (en) * 2013-06-09 2016-11-15 Apple Inc. Multi-script handwriting recognition using a universal recognizer
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
CN113255885A (zh) * 2014-04-11 2021-08-13 谷歌有限责任公司 使卷积神经网络的训练并行化

Also Published As

Publication number Publication date
WO2015157718A2 (en) 2015-10-15
KR20160144467A (ko) 2016-12-16
EP3129920B1 (en) 2022-06-08
WO2015157718A3 (en) 2016-01-21
CN106462800A (zh) 2017-02-22
CN113255885A (zh) 2021-08-13
US20150294219A1 (en) 2015-10-15
JP2017514251A (ja) 2017-06-01
EP3129920A2 (en) 2017-02-15
US10540587B2 (en) 2020-01-21
KR101934067B1 (ko) 2019-01-02

Similar Documents

Publication Publication Date Title
JP6370469B2 (ja) 畳み込みニューラルネットワークのトレーニングの並列化
US11783182B2 (en) Asynchronous deep reinforcement learning
US20210342747A1 (en) Method and system for distributed deep machine learning
US11886992B2 (en) Training reinforcement learning neural networks
CN107209872B (zh) 用于训练强化学习系统的系统、方法和存储介质
EP3797385B1 (en) Highly performant pipeline parallel deep neural network training
US10970628B2 (en) Training neural networks represented as computational graphs
JP6636630B2 (ja) 計算グラフの修正
WO2020011283A3 (en) System and method for deleting node in blockchain network
Hunter et al. Parallel ranking and selection
CN111406264A (zh) 神经架构搜索
CN111819578A (zh) 使用带有急速更新的分布式参数服务器对神经网络进行优化的异步训练
US10769521B1 (en) Processing loops in computational graphs

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171030

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180710

R150 Certificate of patent or registration of utility model

Ref document number: 6370469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250