JP2020526855A - ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体 - Google Patents

ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体 Download PDF

Info

Publication number
JP2020526855A
JP2020526855A JP2020508039A JP2020508039A JP2020526855A JP 2020526855 A JP2020526855 A JP 2020526855A JP 2020508039 A JP2020508039 A JP 2020508039A JP 2020508039 A JP2020508039 A JP 2020508039A JP 2020526855 A JP2020526855 A JP 2020526855A
Authority
JP
Japan
Prior art keywords
network
neural network
sampling
accuracy
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020508039A
Other languages
English (en)
Other versions
JP6811894B2 (ja
Inventor
ジャオ ジョン
ジャオ ジョン
ジュンジエ イエン
ジュンジエ イエン
チョンリン リウ
チョンリン リウ
Original Assignee
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド, ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド filed Critical ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド
Publication of JP2020526855A publication Critical patent/JP2020526855A/ja
Application granted granted Critical
Publication of JP6811894B2 publication Critical patent/JP6811894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本願の実施例はニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体を開示し、該方法は、ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成すること(101)と、前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築すること(102)と、サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得ること(103)と、前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすること(104)と、を含む。本願の実施例ではサンプルデータに基づいて強化学習によってニューラルネットワークにおけるネットワークブロックを生成し、生成されたネットワークブロックによって構築されたニューラルネットワークがサンプルデータに対応するタスクおよび/またはデータの予測正確度を達成でき、ネットワーク構造設計のコストおよび時間を削減する。

Description

本願は2017年08月18日に中国特許局に提出された、出願番号CN201710718042.2、発明の名称「ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
本願は人工知能技術に関し、特にニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体に関する。
ニューラルネットワークは動物のニューラルネットワークによる行動特性を模することで分散並列情報処理を行うアルゴリズム数学モデルである。コンピュータビジョン技術の発展に伴い、ニューラルネットワークは画像認識システムにおけるコア技術であるため、セキュリティ監視、金融、乃至無人運転などの技術分野において広く応用されている。タスクまたは応用シーンによっては、必要なニューラルネットワークの構造およびパラメータが異なる。
本願の実施例はニューラルネットワーク構造を生成する技術的解決手段を提供する。
本願の実施例の第一態様は、
ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成することと、
前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築することと、
サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得ることと、
前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることと、を含むニューラルネットワーク構造の生成方法を提供する。
本願の実施例の第二態様によれば、
ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成するためのサンプリングユニットと、
前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築するためのネットワーク構築ユニットと、
サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得るための訓練ユニットと、
前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするためのネットワーク出力ユニットと、を含むニューラルネットワーク構造の生成装置が提供される。
本願の実施例の第三態様によれば、上述のニューラルネットワーク構造の生成装置を含むプロセッサを含む電子機器が提供される。
本願の実施例の第四態様によれば、実行可能命令を記憶するためのメモリと、
前記メモリと通信して前記実行可能命令を実行することで上述のニューラルネットワーク構造の生成方法の動作を完了するためのプロセッサと、を含む電子機器が提供される。
本願の実施例の第五態様によれば、コンピュータ可読命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に上述のニューラルネットワーク構造の生成方法の動作を実行するコンピュータ記憶媒体が提供される。
本願の上記実施例が提供するニューラルネットワーク構造の生成方法および装置、電子機器、ならびにコンピュータ記憶媒体に基づき、ニューラルネットワーク構造をサンプリングし、ネットワークブロックを生成し、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築し、サンプリングによってサンプリングニューラルネットワークを構築ことでネットワーク構造を手動で設定することを回避し、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得て、訓練によってサンプリングニューラルネットワークにおけるパラメータを現在の構造に好適であるようにし、該サンプリングニューラルネットワークに対応する好適な正確度を得ることができ、そして正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとし、このサンプルデータに基づいて強化学習によって生成されるサンプリングニューラルネットワークは、サンプルデータに対応するタスクおよび/またはデータの予測正確度を達成でき、ネットワーク構造設計のコストおよび時間を削減する。
以下に図面および実施例により、本願の技術的解決手段をさらに詳しく説明する。
明細書の一部を構成する図面は、本願の実施例を説明し、その説明と共に本願の原理を解釈することに用いられる。
図面を参照し、以下の詳細な説明により本願をより明瞭に理解することができる。
本願のニューラルネットワーク構造の生成方法の一実施例のフローチャートである。 本願の実施例においてネットワーク層に基づいて構築されたネットワークブロックの構成模式図である。 本願の実施例においてネットワーク層に基づいて構築された別のネットワークブロックの構成模式図である。 本願の方法によって構築された分散システムの構成模式図である。 本願のニューラルネットワーク構造の生成装置の一実施例の構成模式図である。 本願の電子機器の一実施例の構成模式図である。
ここで、図面を参照しながら本願の様々な例示的実施例を詳細に説明する。なお、特に断らない限り、これらの実施例において記述した部材およびステップの相対的配置、数式および数値は本願の範囲を限定するものではないことに注意すべきである。
同時に、説明の便宜上、図面に示した各部分の寸法は実際の比例関係に従って描いたものではないことを理解すべきである。
以下の少なくとも1つの例示的実施例に対する説明は実際に説明的なものに過ぎず、本願およびその適用または使用へのなんらの制限にもならない。
関連分野の当業者に既知の技術、方法および機器については、詳細に説明しないが、場合によって、前記技術、方法および機器は明細書の一部と見なすべきである。
なお、類似する符号および英文字は以下の図面において類似項目を表し、従って、ある一項が1つの図面において定義されれば、以降の図面においてそれをさらに説明する必要がないことに注意すべきである。
本願の実施例はコンピュータシステム/サーバに適用可能であり、それは他の様々な共通または専用計算システム環境または構成と共に動作可能である。コンピュータシステム/サーバとの併用に適する公知の計算システム、環境および/または構成の例は、パーソナルコンピュータシステム、サーバコンピュータシステム、シンクライアント、ファットクライアント、手持ちまたはラップトップデバイス、マイクロプロセッサに基づくシステム、セットトップボックス、プログラマブル消費者用電子機器、ネットワークパソコン、小型コンピュータシステム、大型コンピュータシステムおよび上記任意のシステムを含む分散型クラウドコンピューティング技術環境などを含むが、これらに限定されない。
コンピュータシステム/サーバはコンピュータシステムにより実行されるコンピュータシステム実行可能命令(例えばプログラムモジュール)の一般的な言語環境において説明できる。通常、プログラムモジュールは、特定のタスクを実行するかまたは特定の抽象データ型を実現するルーチン、プログラム、目標プログラム、コンポーネント、ロジック、データ構造などを含むことができる。コンピュータシステム/サーバは、タスクが通信ネットワークにわたって連結された遠隔処理機器により実行される分散型クラウドコンピューティング環境において実施できる。分散型クラウドコンピューティング環境において、プログラムモジュールは記憶機器を含むローカルまたは遠隔計算システムの記憶媒体に存在してもよい。
図1は本願のニューラルネットワーク構造の生成方法の一実施例のフローチャートである。図1に示すように、該実施例の方法は以下を含む。
ステップ101において、ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成する。
ここで、ニューラルネットワーク構造はネットワーク層、ネットワーク層に対応するネットワークパラメータ、ネットワーク層の間の設定された連結方式などを含み、ただし、ネットワーク層は従来技術における一部または全ての種類のネットワーク層を含んでもよく、本願はネットワークブロックを構成するネットワーク層のタイプおよび数を限定せず、本願で言及されたネットワーク層とは、ニューラルネットワーク構築用の、ある機能を独立して実現可能なユニット、例えば畳み込み層、プーリング層、全連結層などをいう。
任意選択的な一例では、該ステップ101はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるサンプリングユニット51によって実行してもよい。
ステップ102において、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築する。
ここで、ニューラルネットワークは少なくとも1つのネットワークブロックを含み、ネットワークブロックは1つのネットワーク下部構造とされ、本願では、訓練されるサンプリングニューラルネットワークはK個のネットワークブロックからなるように予め設定されてもよく、このK個のネットワークブロックの構造は同じであってもなくてもよく、Kは1以上の整数である。Kの値は実際の応用において訓練効率および精度を考慮した上で決定される。
任意選択的な一例では、該ステップ102はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるネットワーク構築ユニット52によって実行してもよい。
ステップ103において、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得る。
任意選択的な一例では、該ステップ103はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用される訓練ユニット53によって実行してもよい。
ステップ104において、正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとする。
訓練によって正確度が予め設定された条件を満たす目標ニューラルネットワークが得られ、該目標ニューラルネットワークにおけるパラメータは訓練を経て該サンプルデータに対して好適なパラメータとなり、従って、出力される目標ニューラルネットワークはその構造もパラメータも該サンプルデータに適用可能であり、それは特定のタスクについて構造およびパラメータを自動的に好適に設定できる目標ニューラルネットワークである。
任意選択的な一例では、該ステップ104はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるネットワーク出力ユニット54によって実行してもよい。
本願の上記実施例が提供するネットワーク訓練方法に基づき、ニューラルネットワーク構造をサンプリングし、ネットワークブロックを生成し、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築し、サンプリングによってサンプリングニューラルネットワークを構築することでネットワーク構造を手動で設定することを回避し、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得て、訓練によってサンプリングニューラルネットワークにおけるパラメータを現在の構造に好適であるようにし、該サンプリングニューラルネットワークの好適な正確度を得ることができ、そして正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとし、このサンプルデータに基づいて強化学習によって生成されるサンプリングニューラルネットワークは、サンプルデータに対応するタスクおよび/またはデータに対して所望の正確度に達することが可能であり、ネットワーク構造設計のコストおよび時間を削減する。
本願のニューラルネットワーク構造の生成方法の別の実施例では、上記実施例のもとに、ステップ101は、
1つの確率ベクトルに基づいてニューラルネットワーク構造をサンプリングし、少なくとも1種類のネットワーク層、少なくとも1種類のネットワーク層に対応するネットワークパラメータおよび少なくとも1種類のネットワーク層の間の連結方式を得て、少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを構成することを含む。
本実施例では、ネットワーク層データベースに少なくとも1種類のネットワーク層が含まれるため、ネットワーク層のタイプや数に対応する確率ベクトルによってサンプリングすれば、少なくとも1種類のネットワーク層をサンプリングでき、ネットワーク層には対応するネットワークパラメータが存在しており、サンプリング中にネットワーク層に対応するネットワークパラメータが同時に取得され、ネットワーク層それぞれは、予め設定された連結方式を有し、任意選択的に、ネットワーク層を取得すると共に、ネットワーク層の間の連結方式を取得してもよく、ここで、確率ベクトル内の確率値それぞれは1種類のネットワーク層に対応しており、ある1種類のネットワーク層に対応する確率値が0である場合、サンプリングして構成されたネットワークブロックには該種類のネットワーク層が含まれないようになり、また確率ベクトル内の確率値によって、サンプリングして得られた各種類のネットワーク層の数を決定でき、1種類毎にネットワーク層を1つサンプリングすることに限定されない。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、ネットワーク層は、
畳み込み層(Convolution)、最大プーリング層(Max Pooling)、平均プーリング層(Average Pooling)、アイデンティティ層(Identity)、特徴重畳層(Elemental Add)および連結層(concat)などの任意の1つまたは複数を含む。
本実施例において挙げられた以上のネットワーク層は当業者の理解および実施を助けるためのものであり、本願を限定するものではなく、畳み込みは2つの変数をある範囲内で乗算した後に和を求めた結果を実現し、畳み込み層は複数の畳み込みユニットからなってもよく、畳み込みユニットのパラメータは逆伝播アルゴリズムによって最適化して得られ、畳み込み演算の目的は入力される様々な特徴を抽出することであり、1層目の畳み込み層は、エッジ、ラインおよび角などのような低レベルの特徴しか抽出できないことがあるが、より多層のネットワークは低レベルの特徴から反復してより複雑な特徴を抽出可能である。最大プーリング層(Max pooling)は主に、認識結果を損なうことなく、近傍内の特徴点について最大を取ることでダウンサンプリング(downsampling)を実現するという機能を発揮し、平均プーリング層(Average Pooling)は主に、認識結果を損なうことなく、近傍内の特徴点を平均することでダウンサンプリング(downsampling)を実現するという機能を発揮し、アイデンティティ層(Identity)は主に、異なるネットワーク層の間の連結を助けるよう、その出力がその入力に相当し、特徴重畳層(Elemental Add)は受信した異なるネットワーク層の特徴を重ね合わせ、連結層(concat)は主に、受信した異なるネットワーク層の特徴を連結するという機能を発揮する。図2は本願の実施例においてネットワーク層に基づいて構築されたネットワークブロックの構成模式図である。図中、アイデンティティ層(Identity)、畳み込み層(Convolution)、特徴重畳層(Elemental Add)、最大プーリング層(Max Pooling)、平均プーリング層(Average Pooling)および連結層(concat)が含まれている。図3は本願の実施例においてネットワーク層に基づいて構築された別のネットワークブロックの構成模式図である。図中、アイデンティティ層(Identity)、畳み込み層(Convolution)、特徴重畳層(Elemental Add)、平均プーリング層(Average Pooling)および連結層(concat)が含まれている。図2および図3に示すネットワークブロックの構造から、ネットワークブロックを構成するものは一部または全てのタイプのネットワーク層を含んでもよく、かつ各種類のネットワーク層の数は一定ではないことがわかる。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを得るステップは、
サンプリングして得られたネットワーク層を分析し、少なくとも1種類のネットワーク層のタイプ、少なくとも1タイプのネットワーク層の数、および少なくとも1種類のネットワーク層の連結順序を得ることと、
得られたネットワーク層を少なくとも1種類のネットワーク層に対応する連結順序に従って、少なくとも1種類のネットワーク層の間の連結関係によって連結して1種類のネットワークブロックを得ることと、を含む。
本実施例ではネットワークブロックを構築するために、まずそれに含まれる要素(ネットワーク層)を決定すべきであり、ネットワーク層の決定はそのタイプおよび数の決定を含み、ネットワーク層のタイプおよび数が知られた後にネットワーク層の連結順序および連結関係を決定する必要があり、任意選択的に、各ネットワーク層についてその上のネットワーク層を設定し、1つのネットワーク層の上のネットワーク層を決定してから、得られたネットワーク層を重ね合わせ、1つのネットワークブロックを構成するようにしてもよく、同じタイプおよび数の1群のネットワーク層は、重ね合わせ方式によって複数のネットワークブロックを構成できる。
本願のニューラルネットワーク構造の生成方法のさらに別の実施例では、上記各実施例のもとに、ステップ104は、
サンプリングニューラルネットワークに対応する正確度に応じてニューラルネットワーク構造をサンプリングする確率ベクトルを調整し、調整後の確率ベクトルによってニューラルネットワーク構造をサンプリングし、1種類の新たなネットワークブロックを生成することを含む。
本実施例では、任意選択的に、強化学習という方式でネットワークブロックの構造を調整し、ニューラルネットワークの正確度が設定値に達していない場合、このニューラルネットワーク構造は十分に良好ではなく、返される報酬(reward)が少なく、このとき、改めてサンプリングして新たなネットワークブロックを構成し、さらに新たなネットワークブロックでニューラルネットワークを、正確度が標準に達するニューラルネットワークを得るまで、構築する。
正確度に応じてニューラルネットワークが標準に達したかどうかを判定し、該ニューラルネットワークの正確度が設定値に達していない場合、このニューラルネットワークの構造は現在のサンプルデータに適さず、このとき、ニューラルネットワークにおけるパラメータは比較的十分に訓練されていたので、ネットワーク構造を調整する必要があるが、ネットワーク構造において調整可能なのは主にネットワークブロックであるため、ネットワークブロックの構造を調整する必要があり、ネットワークブロックの構造はネットワークブロック内のネットワーク層の数またはネットワークブロック内のネットワーク層の連結関係を調整することで調整してもよく、サンプリング対象のネットワーク層について毎回、異なる連結関係によって既に少なくとも1種類のネットワークブロック(少なくとも1種類のネットワークブロック同士は、ネットワーク層のタイプおよび数が同じであるが、ネットワーク層の位置およびネットワーク層の間の連結関係が異なる)が構築されていたので、サンプリングの確率ベクトルを変更することで、ネットワークブロックを構成するネットワーク層の数を変更し、それによってネットワークブロック構造の変更を実現する。
本願のニューラルネットワーク構造の生成方法のさらに別の実施例では、上記各実施例のもとに、サンプルデータに基づいてサンプリングニューラルネットワークを訓練するステップ103は、
サンプリングニューラルネットワークを利用してサンプルデータを処理し、処理結果を得ることと、
損失関数を利用し、監督情報でラベル付けされたサンプルデータにラベル付けした監督情報と処理結果との間の誤差値を計算することと、
サンプリングニューラルネットワークが収束条件を満たすようになるまで、誤差値に基づいて前サンプリングニューラルネットワークを訓練することと、を含む。
ここで、サンプルデータは監督情報でラベル付けされ、該監督情報はサンプルデータが既知の、該サンプリングニューラルネットワークに対応する処理すべき目標結果であり、訓練して得られたニューラルネットワークの機能はその内容によって決定される。
本実施例では、構築されるニューラルネットワークの構造が特定のタスクデータに適応するように保証し、該ニューラルネットワークが該タスクデータを正確に処理可能であるかどうかを識別するために、該タスクデータの対応するサンプルデータでニューラルネットワークを訓練する必要があり、ニューラルネットワークの訓練プロセスは従来技術における一般的な逆勾配アルゴリズムによって実現してもよく、ニューラルネットワークにおけるパラメータが好適になることを訓練の結果とし、このとき、得られた監督情報と処理結果との間の誤差値によって該ニューラルネットワークの正確度を特定でき、正確度と誤差値は反比例し、誤差値が大きければ大きくなるほど、正確度が小さくなり、該サンプルデータに対する該ニューラルネットワークの処理効果が悪くなり、誤差値が小さければ小さくなるほど、正確度が大きくなり、該サンプルデータに対する該ニューラルネットワークの処理効果が高くなる。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、サンプリングニューラルネットワークが収束条件を満たすようになるまで、誤差値に基づいてサンプリングニューラルネットワークを訓練することは、
損失関数の収束速度が設定値以上であることに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによってサンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得ることと、調整後のニューラルネットワークに対応する損失関数の収束速度が設定値よりも小さくなるまで調整し続けることと、を含む。
本実施例では、ニューラルネットワークが該サンプルデータの処理に適用可能であるかどうかを特定できないため、収束条件は誤差値の大小を設定することで実現できず(ニューラルネットワークを何回訓練しても誤差値が要求を満たさないことがある)、ニューラルネットワークにおけるパラメータを好適にするために、損失関数の収束速度に基づいて評価する必要があり、損失関数の収束速度が設定値以下に低下した場合、反復を継続しても誤差値への影響が小さく、このとき、訓練を終了し、対応の誤差値を出力し、該サンプルデータに対する該ニューラルネットワークの正確度をさらに計算してよい。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、サンプリングニューラルネットワークが収束条件を満たすようになるまで、誤差値に基づいてサンプリングニューラルネットワークを訓練することは、
損失関数による誤差値計算回数が設定値よりも小さいことに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによってサンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、かつ損失関数による誤差値計算回数に1を加えることと、調整後のニューラルネットワークに対応する損失関数による誤差値計算回数が設定値以上になるまで調整し続けることと、を含む。
本実施例では、ニューラルネットワークを高速に訓練するために、1つの設定値を設定して反復の回数を制御し、反復訓練の回数が該設定値に達した時に、直ちに訓練を停止し、それによってニューラルネットワーク構造の生成速度を向上させる。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、ステップ103はさらに、
訓練が完了したサンプリングニューラルネットワークの誤差値にしたがってサンプリングニューラルネットワークの予測正確度を計算して得ることと、
予測正確度に基づき、サンプリングニューラルネットワークに対応するネットワーク計算複雑度およびネットワーク密度を予め設定された比率で差し引き、サンプリングニューラルネットワークに対応する正確度を得ることと、を含む。
上記実施例は設定回数に反復した時に訓練を終了することを提案したが、このとき、訓練を終了すると、得られる正確度は必然的に該サンプリングニューラルネットワークの好適な正確度ではないため、正確度の問題について、本実施例により修正し、任意選択的に式(1)を用いて修正を実現してもよい。

式(1)
ここで、
は正確度であり、
は予測正確度であり、FLOPsは秒毎の浮動小数点演算回数(秒毎のピーク速度とも呼ばれる)で、1秒あたり実行される浮動小数点演算の回数(Floating−point operations per second、FLOPs)の略称であり、特に浮動小数点演算が大量使用されている科学計算分野において、コンピュータのパフォーマンスを推定するために用いられ、FLOPsはニューラルネットワークのネットワーク計算複雑度とされる場合、その理論的推定式は式(2)であってもよいが、それに限定されない。

式(2)
ここで、
はこの層のサンプリングニューラルネットワークの入力チャネル数であり、
はこの層のサンプリングニューラルネットワークの出力チャネル数であり、
は畳み込みカーネルのサイズ(kernel size)であり、
はこの層の出力の特徴マップ(feature map)のサイズである。Densityはグラフ(数学分野における)の辺数をグラフの点数で除算したネットワーク密度であり、グラフの複雑度を測定するために用いられる。式(1)の修正によって、得られた正確度を該サンプリングニューラルネットワークの該サンプルデータに対応する正確度とすることができ、同時に、修正された正確度を使用すれば、サンプリングニューラルネットワークの正確度を予め設定された条件に高速に収束させ、ネットワークの訓練速度を向上させることができる。
本願のニューラルネットワーク構造の生成方法のさらに別の実施例では、上記各実施例のもとに、
ステップ101は、ニューラルネットワーク構造をサンプリングし、N種類のネットワークブロックを生成することを含んでもよい。ここで、Nはゼロよりも大きい整数である。
例示的に、サンプリングプロセスは1つのエージェント(agent)を利用して実現してもよく、N種類のネットワークブロックはネットワークコントローラーに送信される。
任意選択的な一例では、該ステップ101はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるサンプリングユニット51によって実行してもよい。
ステップ102は、それぞれN種類のネットワークブロックに基づいてN個のサンプリングニューラルネットワークを構築することを含んでもよい。
例示的に、サンプリングニューラルネットワークの構築プロセスはネットワーク構造コントローラー(Network structure controller)で実現してもよく、ネットワークコントローラーはN個のサンプリングニューラルネットワークをN個の訓練ノード(環境変数、env)にそれぞれ配信する。ここで、envは外部命令、プログラムファイルを表し、全ての環境変数およびそれに割り当てられた値をリストアップしている。
任意選択的な一例では、該ステップ102はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるネットワーク構築ユニット52によって実行してもよい。
ステップ103は、サンプルデータに基づいてN個のサンプリングニューラルネットワークをそれぞれ訓練し、N個のサンプリングニューラルネットワークに対応するN個の正確度を得ることを含んでもよい。
例示的に、同じまたは類似のサンプルデータを受信する(同一訓練対象のサンプルデータ集合からの抽出に基づく)N個の訓練ノード(環境変数、env)でN個のサンプリングニューラルネットワークをそれぞれ訓練する。
任意選択的な一例では、該ステップ103はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用される訓練ユニット53によって実行してもよい。
ステップ104は、N個の正確度のうち予め設定された条件を満す正確度が存在しないことに応答して、新たなネットワークブロックによってそれぞれ構築されたN個のサンプリングニューラルネットワークのうち予め設定された条件を満たすニューラルネットワークが存在するようになるまで、それぞれN個の正確度に応じてN種類の新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることを含んでもよい。
例示的に、N個の訓練ノードに基づいて得られたN個の正確度をネットワークコントローラーによってエージェント(agent)に伝送し、エージェントは正確度に基づいて該サンプリングニューラルネットワークが目標ニューラルネットワークであるかどうかを判断し、該サンプリングニューラルネットワークが目標ニューラルネットワークではない場合、サンプリング確率を修正し、新たなネットワークブロックを得て、新たなサンプリングニューラルネットワークを再度構成する。
任意選択的な一例では、該ステップ104はプロセッサによってメモリに記憶された対応の命令を呼び出して実行してもよく、プロセッサにより運用されるネットワーク出力ユニット54によって実行してもよい。
本実施例では、図4は本願の方法によって構築された分散システムの構成模式図である。図4に示すように、エージェント(agent)、ネットワーク構造コントローラー(Network structure controller)および少なくとも1つの訓練ノード(環境変数、即ちenvであって、図中の環境1、環境2…環境Nに対応するものであり、つまり、図中の環境それぞれは1つの訓練ノードを表す)を含む分散システムを構築することで複数の異なるニューラルネットワークの同時訓練を実現し、さらにニューラルネットワーク構造の生成速度を向上させ、訓練時間を節約し、ニューラルネットワークの訓練効率を向上させる。
ニューラルネットワークに対応する正確度によってニューラルネットワークの優劣を評価し、正確度が設定条件に達した場合、該ニューラルネットワークは要求に適合すると認められ、サンプルデータに対応するタスクデータを処理し、良好な結果を得ることができ、当然ながら、正確度が高ければ高くなるほど、タスクデータに対するニューラルネットワークの処理結果は正確である。予め設定された条件は、X回循環した後、N個の「サンプリングニューラルネットワーク」のうち正確度が高いY個のサンプリングニューラルネットワークを、出力される目標ニューラルネットワークとするようにしてもよく、ここで、X、NおよびYはそれぞれ1以上の整数である。
本願のニューラルネットワーク構造の生成方法の上記各実施例の任意選択的な一例では、ステップ103の後に、さらに、
正確度が予め設定された条件を満たすことに応答して、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすること、
または、
正確度が予め設定された条件を満たさず、かつニューラルネットワーク構造に対するサンプリングが予め設定された回数に達したことに応答して、現在のサンプリングニューラルネットワークを目標ニューラルネットワークとすることを含む。
本実施例では、ネットワークブロックからなるサンプリングニューラルネットワークが予め設定された条件を満たす場合、そのまま該サンプリングニューラルネットワークを目標ニューラルネットワークとすること、またはサンプリングが予め設定された回数に達した時に、得られたサンプリングニューラルネットワークを目標ニューラルネットワークとすることを初めて提案し、それによってニューラルネットワーク構造の生成速度を向上させる。
当業者であれば、上記方法の実施例を実現する全てまたは一部のステップはプログラムによって関連ハードウェアに命令を出すことにより完了できることを理解でき、前記プログラムは、ROM、RAM、磁気ディスクまたは光ディスクなどのプログラムコードを記憶可能である様々な媒体を含むコンピュータ可読記憶媒体に記憶可能であり、該プログラムは実行される時に、上記方法の実施例を含むステップを実行する。
図5は本願のニューラルネットワーク構造の生成装置の実施例の構成模式図である。該実施例の装置は本願の上記各方法の実施例を実現するために用いることができる。図5に示すように、該実施例の装置は、
ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成するためのサンプリングユニット51と、
ネットワークブロックに基づいてサンプリングニューラルネットワークを構築するためのネットワーク構築ユニット52と、
サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得るための訓練ユニット53と、
正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするためのネットワーク出力ユニット54と、を含む。
本願の上記実施例が提供するニューラルネットワーク構造の生成装置に基づき、ニューラルネットワーク構造をサンプリングし、ネットワークブロックを生成し、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築し、サンプリングによってサンプリングニューラルネットワークを構築することでネットワーク構造を手動で設定することを回避し、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得て、訓練によってサンプリングニューラルネットワークにおけるパラメータを現在の構造に好適であるようにし、該サンプリングニューラルネットワークに対応する好適な正確度を得ることができ、そして正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとし、このサンプルデータに基づいて強化学習によって生成されるサンプリングニューラルネットワークは、サンプルデータに対応するタスクおよび/またはデータに対して所望の正確度に達することが可能であり、ネットワーク構造設計のコストおよび時間を削減する。
本願のニューラルネットワーク構造の生成装置の別の実施例では、上記実施例のもとに、サンプリングユニット51は、
1つの確率ベクトルに基づいてニューラルネットワーク構造をサンプリングし、少なくとも1種類のネットワーク層、少なくとも1種類のネットワーク層に対応するネットワークパラメータおよび少なくとも1種類のネットワーク層の間の連結方式を得るための確率サンプリングモジュールと、
少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを構成するためのネットワークブロック生成モジュールと、を含む。
本実施例では、ネットワーク層データベースに少なくとも1種類のネットワーク層が含まれるため、ネットワーク層のタイプや数に対応する確率ベクトルによってサンプリングすれば、少なくとも1種類のネットワーク層をサンプリングでき、ネットワーク層には対応するネットワークパラメータが存在しており、サンプリング中にネットワーク層に対応するネットワークパラメータが同時に取得され、ネットワーク層それぞれは、予め設定された連結方式を有し、任意選択的に、ネットワーク層を取得すると共に、ネットワーク層の間の連結方式を取得してもよく、ここで、確率ベクトル内の確率値それぞれは1種類のネットワーク層に対応しており、ある1種類のネットワーク層に対応する確率値が0である場合、サンプリングして構成されたネットワークブロックには該種類のネットワーク層が含まれないようになり、また確率ベクトル内の確率値によって、サンプリングして得られた各種類のネットワーク層の数を決定でき、1種類毎にネットワーク層を1つサンプリングすることに限定されない。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、ネットワーク層は、
畳み込み層、最大プーリング層、平均プーリング層、アイデンティティ層、特徴重畳層および連結層などの任意の1つまたは複数を含む。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、ネットワークブロック生成モジュールは、サンプリングして得られたネットワーク層を分析し、少なくとも1種類のネットワーク層のタイプ、少なくとも1タイプのネットワーク層の数、および少なくとも1種類のネットワーク層の連結順序を得て、そして得られたネットワーク層を少なくとも1種類のネットワーク層に対応する連結順序に従って、少なくとも1種類のネットワーク層の間の連結関係によって連結して1種類のネットワークブロックを得るために用いられてもよい。
本願のニューラルネットワーク構造の生成装置の別の実施例では、上記各実施例のもとに、ネットワーク出力ユニット54は、サンプリングニューラルネットワークに対応する正確度に応じてニューラルネットワーク構造をサンプリングする確率ベクトルを調整し、調整後の確率ベクトルによってニューラルネットワーク構造をサンプリングし、1種類の新たなネットワークブロックを生成するために用いられてもよい。
本実施例では、任意選択的に、強化学習という方式でネットワークブロックの構造を調整し、ニューラルネットワークの正確度が設定値に達していない場合、このニューラルネットワーク構造は十分に良好ではなく、返される報酬(reward)が少なく、このとき、改めてサンプリングして新たなネットワークブロックを構成し、さらに新たなネットワークブロックでニューラルネットワークを、正確度が標準に達するニューラルネットワークを得るまで、構築する。
本願のニューラルネットワーク構造の生成装置のさらに別の実施例では、上記各実施例のもとに、訓練ユニット53は、
サンプリングニューラルネットワークを利用してサンプルデータを処理し、処理結果を得るためのネットワーク処理モジュールと、
損失関数を利用し、監督情報でラベル付けされたサンプルデータにラベル付けした監督情報と処理結果との間の誤差値を計算するための誤差計算モジュールと、
サンプリングニューラルネットワークが収束条件を満たすようになるまで、誤差値に基づいてサンプリングニューラルネットワークを訓練するためのネットワーク訓練モジュールと、を含む。
ここで、サンプルデータは監督情報でラベル付けされ、該監督情報はサンプルデータが既知の、該サンプリングニューラルネットワークに対応する処理すべき目標結果であり、訓練して得られたニューラルネットワークの機能はその内容によって決定される。
本実施例では、構築されるニューラルネットワークの構造が特定のタスクデータに適応するように保証し、該ニューラルネットワークが該タスクデータを正確に処理可能であるかどうかを識別するために、該タスクデータの対応するサンプルデータでニューラルネットワークを訓練する必要があり、ニューラルネットワークの訓練プロセスは従来技術における一般的な逆勾配アルゴリズムによって実現してもよく、ニューラルネットワークにおけるパラメータが好適になることを訓練の結果とし、このとき、得られた監督情報と処理結果との間の誤差値によって該ニューラルネットワークの正確度を特定でき、正確度と誤差値は反比例し、誤差値が大きければ大きくなるほど、正確度が小さくなり、該サンプルデータに対する該ニューラルネットワークの処理効果が悪くなり、誤差値が小さければ小さくなるほど、正確度が大きくなり、該サンプルデータに対する該ニューラルネットワークの処理効果が高くなる。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、ネットワーク訓練モジュールは、
損失関数の収束速度が設定値以上であることに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによってサンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、そして調整後のニューラルネットワークに対応する損失関数の収束速度が設定値よりも小さくなるまで調整し続けるために用いられてもよい。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、ネットワーク訓練モジュールは、
損失関数による誤差値計算回数が設定値よりも小さいことに応じて、得られた誤差値に応じて、逆勾配アルゴリズムによってサンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、かつ損失関数による誤差値計算回数に1を加え、そして調整後のニューラルネットワークの対応する損失関数による誤差値計算回数が設定値以上になるまで行うために用いられてもよい。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、訓練ユニット53はさらに、
訓練が完了したサンプリングニューラルネットワークの誤差値にしたがってサンプリングニューラルネットワークの予測正確度を計算して得るための正確度予測モジュールと、
予測正確度に基づき、前記サンプリングニューラルネットワークに対応するネットワーク計算複雑度およびネットワーク密度を予め設定された比率で差し引き、サンプリングニューラルネットワークに対応する正確度を得るための正確度調整モジュールと、を含んでもよい。
本願のニューラルネットワーク構造の生成装置のさらに別の実施例では、上記各実施例のもとに、
サンプリングユニット51は、ニューラルネットワーク構造をサンプリングし、N種類のネットワークブロックを生成するために用いられてもよく、
ネットワーク構築ユニット52は、それぞれN種類のネットワークブロックに基づいてN個のサンプリングニューラルネットワークを構築するために用いられてもよく、
訓練ユニット53は、サンプルデータに基づいてN個のサンプリングニューラルネットワークをそれぞれ訓練し、N個のサンプリングニューラルネットワークに対応するN個の正確度を得るために用いられてもよく、
ネットワーク出力ユニット54は、N個の正確度のうち予め設定された条件を満たす正確度が存在しないことに応答して、新たなネットワークブロックによってそれぞれ構築されたN個のサンプリングニューラルネットワークのうち予め設定された条件を満たすニューラルネットワークが存在するようになるまで、それぞれN個の正確度に応じてN種類の新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするために用いられてもよく、
ここで、Nはゼロよりも大きい整数である。
本実施例では、エージェント(agent)、ネットワーク構造コントローラー(Network structure controller)および少なくとも1つの訓練ノード(環境変数、env)を含む分散システムを構築することで複数の異なるニューラルネットワークの同時訓練を実現し、さらにニューラルネットワーク構造の生成速度を向上させ、訓練時間を節約し、ニューラルネットワークの訓練効率を向上させる。
本願のニューラルネットワーク構造の生成装置の上記各実施例の任意選択的な一例では、さらに、
正確度が予め設定された条件を満たすことに応答して、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするための、
または、正確度が予め設定された条件を満たさず、かつニューラルネットワーク構造に対するサンプリングが予め設定された回数に達したことに応答して、現在のサンプリングニューラルネットワークを目標ニューラルネットワークとするための目標ネットワーク判定ユニットを含む。
本願の実施例の一態様によれば、本願のニューラルネットワーク構造の生成装置の各実施例のいずれかを含むプロセッサを含む電子機器が提供される。
本願の実施例の一態様によれば、実行可能命令を記憶するためのメモリと、
メモリと通信して実行可能命令を実行することで本願のニューラルネットワーク構造の生成方法の各実施例のいずれかにおける動作を完了するためのプロセッサと、を含む電子機器が提供される。
本願の実施例の一態様によれば、コンピュータ可読命令を記憶するためのコンピュータ記憶媒体であって、前記命令は実行される時に本願のニューラルネットワーク構造の生成方法の各実施例のいずれかにおける動作を実行するコンピュータ記憶媒体が提供される。
本願の実施例はさらに電子機器を提供し、例えば移動端末、パーソナルコンピュータ(PC)、タブレット、サーバなどであってもよい。以下に図6を参照すると、本願の実施例の端末機器またはサーバの実現に適する電子機器600の構成模式図が示される。図6に示すように、コンピュータシステム600は一つ以上のプロセッサ、通信部などを含み、前記一つ以上のプロセッサは例えば、一つ以上の中央処理装置(CPU)601、および/または一つ以上の画像処理装置(GPU)613などであり、プロセッサは読み取り専用メモリ(ROM)602に記憶されている実行可能命令または記憶部分608からランダムアクセスメモリ(RAM)603にロードされた実行可能命令に従って様々な適当の動作および処理を実行できる。通信部612はネットワークカードを含むことができるが、これに限定されず、前記ネットワークカードはIB(Infiniband)ネットワークカードを含むことができるが、これに限定されず、プロセッサは読み取り専用メモリ602および/またはランダムアクセスメモリ603と通信して実行可能命令を実行し、バス604を介して通信部612と連結し、通信部612によって他の目標機器と通信し、それにより本願の実施例が提供するいずれか一項の方法の対応する動作、例えば、ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成することと、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築することと、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得ることと、正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることと、を完了することができる。
また、RAM603には、装置の動作に必要な種々のプログラムおよびデータを記憶することができる。CPU601、ROM602およびRAM603はバス604を介して互いに連結される。RAM603が存在する場合、ROM602は任意選択的なモジュールとなる。RAM603は実行可能命令を記憶するか、または動作時にROM602へ実行可能命令を書き込み、実行可能命令によってプロセッサ601は上記通信方法の対応する動作を実行する。入力/出力(I/O)インタフェース605もバス604に連結される。通信部612は統合設置してもよく、また複数のサブモジュール(例えば複数のIBネットワークカード)を有するように設置してもよく、かつバスリンクに存在する。
キーボード、マウスなどを含む入力部分606、陰極線管(CRT)、液晶ディスプレイ(LCD)などおよびスピーカーなどを含む出力部分607、ハードディスクなどを含む記憶部分608、およびLANカード、モデムのネットワークインタフェースカードなどを含む通信部分609といった部品は、I/Oインタフェース605に連結される。通信部分609はインタネットのようなネットワークによって通信処理を実行する。ドライバ610も必要に応じてI/Oインタフェース605に連結される。取り外し可能な媒体611、例えば磁気ディスク、光ディスク、磁気光ディスク、半導体メモリなどは、必要に応じてドライバ610に取り付けられ、それによってそこから読み出されたコンピュータプログラムが必要に応じて記憶部分608にインストールされる。
なお、図6に示すアーキテクチャは任意選択的な一実施形態に過ぎず、任意選択的な実践では、実際の必要に応じて上記図6の部品数およびタイプを選択、減少、増加または交換することができ、異なる機能部品の設置上でも、分離設置または統合設置などの実施形態を採用でき、例えばGPUとCPUは分離設置するかまたはGPUをCPUに統合するようにしてもよく、通信部は分離設置するか、またCPUやGPUに統合設置することなども可能であることを説明する必要がある。これらの置換可能な実施形態はいずれも本願が開示した保護範囲に属する。
特に、本願の実施例によれば、フローチャートを参照しながら上述したプロセスはコンピュータソフトウェアプログラムとして実現可能である。例えば、本願の実施例はコンピュータプログラム製品を含み、それは機械可読媒体に有形に具現化された、フローチャートに示す方法を実行するためのプログラムコードを含むコンピュータプログラムを含み、プログラムコードは本願の実施例が提供する方法のステップを対応して実行する対応の命令、例えば、ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成することと、ネットワークブロックに基づいてサンプリングニューラルネットワークを構築することと、サンプルデータに基づいてサンプリングニューラルネットワークを訓練し、サンプリングニューラルネットワークに対応する正確度を得ることと、正確度が予め設定された条件を満たさないことに応答して、正確度に応じて新たなネットワークブロックを、それが構築するサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることと、を含んでもよい。このような実施例では、該コンピュータプログラムは通信部分609によってネットワークからダウンロードおよびインストールされ、および/または取り外し可能な媒体611からインストールされ得る。該コンピュータプログラムは中央処理装置(CPU)601により実行される時、本願の方法で限定された上記機能を実行する。
本明細書における様々な実施例は漸進的に説明され、各実施例は他の実施例との相違点に集中して説明したが、各実施例間の同一または類似の部分については相互に参照すればよい。システム実施例については、それは基本的に方法実施例に対応するので、説明は比較的簡単であり、関連部分は方法実施例の説明の一部を参照すればよい。
本願の方法および装置は、様々な形態で実現され得る。例えば、ソフトウェア、ハードウェア、ファームウェアまたはソフトウェア、ハードウェア、ファームウェアの任意の組み合わせによって本願の方法および装置を実現することができる。前記方法のステップのための上記順序は説明することのみを目的とし、本願の方法のステップは、特に断らない限り、以上で具体的に説明した順序に限定されない。また、いくつかの実施例では、本願は記録媒体に記憶されたプログラムとしてもよく、これらのプログラムは本願の方法を実現するための機械可読命令を含む。従って、本願は本願の方法を実行するためのプログラムが記憶された記録媒体も含む。
本願の説明は、例示および説明のために提示されたものであり、網羅的なものでありもしくは開示された形式に本願を限定するというわけでない。当業者にとっては多くの修正および変形を加えることができるのは明らかであろう。実施例は本願の原理および実際の適用をより明瞭に説明するため、かつ当業者が本願を理解して特定用途に適した様々な修正を加えた様々な実施例を設計可能にするように選択され説明されたものである。

Claims (25)

  1. ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成することと、
    前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築することと、
    サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得ることと、
    前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることと、を含むことを特徴とするニューラルネットワーク構造の生成方法。
  2. 前記ニューラルネットワーク構造をサンプリングし、ネットワークブロックを生成することは、
    1つの確率ベクトルに基づいてニューラルネットワーク構造をサンプリングし、少なくとも1種類のネットワーク層、前記少なくとも1種類のネットワーク層に対応するネットワークパラメータおよび前記少なくとも1種類のネットワーク層の間の連結方式を得て、前記少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを得ることを含むことを特徴とする請求項1に記載の方法。
  3. 前記ネットワーク層は、
    畳み込み層、最大プーリング層、平均プーリング層、アイデンティティ層、特徴重畳層および連結層の任意の1つまたは複数を含むことを特徴とする請求項1または2に記載の方法。
  4. 前記少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを得ることは、
    サンプリングして得られたネットワーク層を分析し、少なくとも1種類の前記ネットワーク層のタイプ、少なくとも1タイプの前記ネットワーク層の数、および少なくとも1種類の前記ネットワーク層の連結順序を得ることと、
    得られた前記ネットワーク層を前記少なくとも1種類のネットワーク層に対応する連結順序に従って、前記少なくとも1種類のネットワーク層の間の連結関係によって連結して1種類のネットワークブロックを得ることと、を含むことを特徴とする請求項2または3に記載の方法。
  5. 前記正確度に応じて新たなネットワークブロックを再度生成することは、
    前記サンプリングニューラルネットワークに対応する正確度に応じてニューラルネットワーク構造をサンプリングする確率ベクトルを調整し、調整後の確率ベクトルによってニューラルネットワーク構造をサンプリングし、1種類の新たなネットワークブロックを生成することを含むことを特徴とする請求項1から4のいずれか一項に記載の方法。
  6. 前記サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練することは、
    前記サンプリングニューラルネットワークを利用して前記サンプルデータを処理し、処理結果を得ることと、
    損失関数を利用し、前記サンプルデータにラベル付けした監督情報と前記処理結果との間の誤差値を計算することであって、前記サンプルデータには監督情報がラベルつけされる、ことと、
    前記サンプリングニューラルネットワークが収束条件を満たすようになるまで、前記誤差値に基づいて前記サンプリングニューラルネットワークを訓練することと、を含むことを特徴とする請求項1から5のいずれか一項に記載の方法。
  7. 前記サンプリングニューラルネットワークが収束条件を満たすようになるまで、前記誤差値に基づいて前記サンプリングニューラルネットワークを訓練することは、
    前記損失関数の収束速度が設定値以上であることに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによって前記サンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得ることと、調整後のニューラルネットワークに対応する損失関数の収束速度が設定値よりも小さくなるまで調整し続けることと、を含むことを特徴とする請求項6に記載の方法。
  8. 前記サンプリングニューラルネットワークが収束条件を満たすようになるまで、前記誤差値に基づいて前記サンプリングニューラルネットワークを訓練することは、
    前記損失関数による誤差値計算回数が設定値よりも小さいことに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによって前記サンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、かつ前記損失関数による誤差値計算回数に1を加えることと、
    調整後のニューラルネットワークに対応する損失関数による誤差値計算回数が設定値以上になるまで調整し続けることと、を含むことを特徴とする請求項6に記載の方法。
  9. 前記サンプリングニューラルネットワークに対応する正確度を得ることは、
    訓練が完了した前記サンプリングニューラルネットワークの誤差値にしたがって前記サンプリングニューラルネットワークの予測正確度を計算して得ることと、
    前記予測正確度に基づき、前記サンプリングニューラルネットワークに対応するネットワーク計算複雑度およびネットワーク密度を予め設定された比率で差し引き、前記サンプリングニューラルネットワークに対応する正確度を得ることと、を含むことを特徴とする請求項6から8のいずれか一項に記載の方法。
  10. 前記ニューラルネットワーク構造をサンプリングし、ネットワークブロックを生成することは、
    ニューラルネットワーク構造をサンプリングし、N種類のネットワークブロックを生成することを含み、
    前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築することは、
    前記それぞれN種類のネットワークブロックに基づいてN個のサンプリングニューラルネットワークを構築することを含み、
    前記サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得ることは、
    サンプルデータに基づいて前記N個のサンプリングニューラルネットワークをそれぞれ訓練し、前記N個のサンプリングニューラルネットワークに対応するN個の正確度を得ることを含み、
    前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることは、
    前記N個の正確度のうち予め設定された条件を満たす正確度が存在しないことに応答して、新たなネットワークブロックがそれぞれ構築するN個のサンプリングニューラルネットワークのうち予め設定された条件を満たすニューラルネットワークが存在するようになるまで、前記それぞれN個の正確度に応じてN種類の新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすることを含み、
    ここで、前記Nはゼロよりも大きい整数であることを特徴とする請求項1から9のいずれか一項に記載の方法。
  11. 前記サンプリングニューラルネットワークに対応する正確度を得る後に、さらに、
    前記正確度が予め設定された条件を満たすことに応答して、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとすること、
    または、
    前記正確度が予め設定された条件を満たさず、かつニューラルネットワーク構造に対する前記サンプリングが予め設定された回数に達したことに応答して、現在のサンプリングニューラルネットワークを目標ニューラルネットワークとすることを含むことを特徴とする請求項1に記載の方法。
  12. ニューラルネットワーク構造をサンプリングし、少なくとも1つのネットワーク層が含まれるネットワークブロックを生成するためのサンプリングユニットと、
    前記ネットワークブロックに基づいてサンプリングニューラルネットワークを構築するためのネットワーク構築ユニットと、
    サンプルデータに基づいて前記サンプリングニューラルネットワークを訓練し、前記サンプリングニューラルネットワークに対応する正確度を得るための訓練ユニットと、
    前記正確度が予め設定された条件を満たさないことに応答して、新たなネットワークブロックによって構築されたサンプリングニューラルネットワークが予め設定された条件を満たすようになるまで、前記正確度に応じて新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするためのネットワーク出力ユニットと、を含むことを特徴とするニューラルネットワーク構造の生成装置。
  13. 前記サンプリングユニットは、
    1つの確率ベクトルに基づいてニューラルネットワーク構造をサンプリングし、少なくとも1種類のネットワーク層、前記少なくとも1種類のネットワーク層に対応するネットワークパラメータおよび前記少なくとも1種類のネットワーク層の間の連結方式を得るための確率サンプリングモジュールと、
    前記少なくとも1種類のネットワーク層を積み上げて1種類のネットワークブロックを得るためのネットワークブロック生成モジュールと、を含むことを特徴とする請求項12に記載の装置。
  14. 前記ネットワーク層は、
    畳み込み層、最大プーリング層、平均プーリング層、アイデンティティ層、特徴重畳層および連結層の任意の1つまたは複数を含むことを特徴とする請求項12または13に記載の装置。
  15. 前記ネットワークブロック生成モジュールは、具体的には、サンプリングして得られたネットワーク層を分析し、少なくとも1種類の前記ネットワーク層のタイプ、少なくとも1タイプの前記ネットワーク層の数、および少なくとも1種類の前記ネットワーク層の連結順序を得て、そして得られた前記ネットワーク層を前記少なくとも1種類のネットワーク層に対応する連結順序に従って、前記少なくとも1種類のネットワーク層の間の連結関係によって連結して1種類のネットワークブロックを得るために用いられることを特徴とする請求項13または14に記載の装置。
  16. 前記ネットワーク出力ユニットは、具体的には、前記サンプリングニューラルネットワークに対応する正確度に応じてニューラルネットワーク構造をサンプリングする確率ベクトルを調整し、調整後の確率ベクトルによってニューラルネットワーク構造をサンプリングし、1種類の新たなネットワークブロックを生成するために用いられることを特徴とする請求項12から15のいずれか一項に記載の装置。
  17. 前記訓練ユニットは、
    前記サンプリングニューラルネットワークを利用して前記サンプルデータを処理し、処理結果を得るためのネットワーク処理モジュールと、
    損失関数を利用し、前記サンプルデータにラベル付けした監督情報と前記処理結果との間の誤差値を計算するための誤差計算モジュールであって、前記サンプルデータには監督情報がラベルつけされる、誤差計算モジュールと、
    前記サンプリングニューラルネットワークが収束条件を満たすようになるまで、前記誤差値に基づいて前記サンプリングニューラルネットワークを訓練するためのネットワーク訓練モジュールと、を含むことを特徴とする請求項12から16のいずれか一項に記載の装置。
  18. 前記ネットワーク訓練モジュールは、具体的には、
    前記損失関数の収束速度が設定値以上であることに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによって前記サンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、そして調整後のニューラルネットワークに対応する損失関数の収束速度が設定値よりも小さくなるまで調整し続けるために用いられることを特徴とする請求項17に記載の装置。
  19. 前記ネットワーク訓練モジュールは、具体的には、
    前記損失関数による誤差値計算回数が設定値よりも小さいことに応答して、得られた誤差値に応じて、逆勾配アルゴリズムによって前記サンプリングニューラルネットワークにおけるパラメータを調整し、調整後のサンプリングニューラルネットワークを得て、かつ前記損失関数による誤差値計算回数に1を加え、そして調整後のニューラルネットワークに対応する損失関数による誤差値計算回数が設定値以上になるまで調整し続けるために用いられることを特徴とする請求項17に記載の装置。
  20. 前記訓練ユニットは、さらに、
    訓練が完了した前記サンプリングニューラルネットワークの誤差値にしたがって前記サンプリングニューラルネットワークの予測正確度を計算して得るための正確度予測モジュールと、
    前記予測正確度に基づき、前記サンプリングニューラルネットワークに対応するネットワーク計算複雑度およびネットワーク密度を予め設定された比率で差し引き、前記サンプリングニューラルネットワークに対応する正確度を得るための正確度調整モジュールと、を含むことを特徴とする請求項17から19のいずれか一項に記載の装置。
  21. 前記サンプリングユニットは、具体的には、ニューラルネットワーク構造をサンプリングし、N種類のネットワークブロックを生成するために用いられ、
    前記ネットワーク構築ユニットは、具体的には、前記それぞれN種類のネットワークブロックに基づいてN個のサンプリングニューラルネットワークを構築するために用いられ、
    前記訓練ユニットは、具体的には、サンプルデータに基づいて前記N個のサンプリングニューラルネットワークをそれぞれ訓練し、前記N個のサンプリングニューラルネットワークに対応するN個の正確度を得るために用いられ、
    前記ネットワーク出力ユニットは、前記N個の正確度のうち予め設定された条件を満たす正確度が存在しないことに応答して、新たなネットワークブロックによってそれぞれ構築されたN個のサンプリングニューラルネットワークのうち予め設定された条件を満たすニューラルネットワークが存在するようになるまで、前記それぞれN個の正確度に応じてN種類の新たなネットワークブロックを再度生成し、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするために用いられ、
    ここで、前記Nはゼロよりも大きい整数であることを特徴とする請求項12から20のいずれか一項に記載の装置。
  22. 前記正確度が予め設定された条件を満たすことに応答して、予め設定された条件を満たすサンプリングニューラルネットワークを目標ニューラルネットワークとするための、
    または、
    前記正確度が予め設定された条件を満たさず、かつニューラルネットワーク構造に対する前記サンプリングが予め設定された回数に達したことに応答して、現在のサンプリングニューラルネットワークを目標ニューラルネットワークとするための目標ネットワーク判定ユニットをさらに含むことを特徴とする請求項12に記載の装置。
  23. プロセッサを含む電子機器であって、前記プロセッサは請求項12から22のいずれか一項に記載のニューラルネットワーク構造の生成装置を含むことを特徴とする電子機器。
  24. 実行可能命令を記憶するためのメモリと、
    前記メモリと通信して前記実行可能命令を実行することで請求項1から11のいずれか一項に記載のニューラルネットワーク構造の生成方法の動作を完了するためのプロセッサと、を含むことを特徴とする電子機器。
  25. コンピュータ可読命令を記憶するためのコンピュータ記憶媒体であって、前記命令が実行される時に請求項1から11のいずれか一項に記載のニューラルネットワーク構造の生成方法の動作を実行することを特徴とするコンピュータ記憶媒体。
JP2020508039A 2017-08-18 2018-08-17 ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体 Active JP6811894B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710718042.2A CN108229647A (zh) 2017-08-18 2017-08-18 神经网络结构的生成方法和装置、电子设备、存储介质
CN201710718042.2 2017-08-18
PCT/CN2018/100914 WO2019034129A1 (zh) 2017-08-18 2018-08-17 神经网络结构的生成方法和装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
JP2020526855A true JP2020526855A (ja) 2020-08-31
JP6811894B2 JP6811894B2 (ja) 2021-01-13

Family

ID=62655197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020508039A Active JP6811894B2 (ja) 2017-08-18 2018-08-17 ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体

Country Status (6)

Country Link
US (1) US11270190B2 (ja)
JP (1) JP6811894B2 (ja)
KR (1) KR102170105B1 (ja)
CN (1) CN108229647A (ja)
SG (1) SG11201912129TA (ja)
WO (1) WO2019034129A1 (ja)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
CN108229647A (zh) * 2017-08-18 2018-06-29 北京市商汤科技开发有限公司 神经网络结构的生成方法和装置、电子设备、存储介质
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP3864573A1 (en) 2018-10-11 2021-08-18 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
CN111105029B (zh) * 2018-10-29 2024-04-16 北京地平线机器人技术研发有限公司 神经网络的生成方法、生成装置和电子设备
CN109635920B (zh) * 2018-11-12 2021-09-03 北京市商汤科技开发有限公司 神经网络优化方法及装置、电子设备和存储介质
CN109598332B (zh) * 2018-11-14 2021-04-09 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备和存储介质
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
CN109359727B (zh) * 2018-12-07 2022-01-11 北京字节跳动网络技术有限公司 神经网络的结构确定方法、装置、设备及可读介质
CN111325311B (zh) * 2018-12-14 2024-03-29 深圳云天励飞技术有限公司 用于图像识别的神经网络模型生成方法及相关设备
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
CN109800807B (zh) * 2019-01-18 2021-08-31 北京市商汤科技开发有限公司 分类网络的训练方法及分类方法和装置、电子设备
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN109948795B (zh) * 2019-03-11 2021-12-14 驭势科技(北京)有限公司 一种确定网络结构精度和延时优化点的方法和装置
CN110070120B (zh) * 2019-04-11 2021-08-27 清华大学 基于判别采样策略的深度度量学习方法及系统
CN110070029B (zh) * 2019-04-17 2021-07-16 北京易达图灵科技有限公司 一种步态识别方法及装置
CN110110861B (zh) * 2019-05-09 2021-11-26 北京市商汤科技开发有限公司 确定模型超参数及模型训练的方法和装置、存储介质
CN110147883B (zh) * 2019-05-28 2022-06-03 航天科工系统仿真科技(北京)有限公司 用于作战仿真的模型的训练方法、装置、设备和存储介质
CN111684472A (zh) * 2019-05-31 2020-09-18 深圳市大疆创新科技有限公司 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品
CN110390385B (zh) * 2019-06-28 2021-09-28 东南大学 一种基于bnrp的可配置并行通用卷积神经网络加速器
CN112446462B (zh) * 2019-08-30 2024-06-18 华为技术有限公司 目标神经网络模型的生成方法和装置
CN110647990A (zh) * 2019-09-18 2020-01-03 无锡信捷电气股份有限公司 基于灰色关联分析的深度卷积神经网络模型的裁剪方法
CN111105031B (zh) * 2019-11-11 2023-10-17 北京地平线机器人技术研发有限公司 网络结构搜索方法和装置、存储介质、电子设备
CN112990461B (zh) * 2019-12-16 2023-09-19 杭州海康威视数字技术股份有限公司 构建神经网络模型的方法、装置、计算机设备和存储介质
CN111222637B (zh) * 2020-01-17 2023-11-28 上海商汤智能科技有限公司 神经网络模型部署方法及装置、电子设备和存储介质
CN111325343B (zh) * 2020-02-20 2022-09-09 北京市商汤科技开发有限公司 神经网络的确定、目标检测、智能行驶控制方法及装置
CN111582474B (zh) * 2020-04-24 2023-08-25 中科物栖(南京)科技有限公司 神经网络结构探测方法、结构探测模型的训练方法及装置
CN111783937A (zh) * 2020-05-19 2020-10-16 华为技术有限公司 一种神经网络构建方法以及系统
CN111797983A (zh) * 2020-05-25 2020-10-20 华为技术有限公司 一种神经网络构建方法以及装置
CN113723603A (zh) * 2020-05-26 2021-11-30 华为技术有限公司 一种更新参数的方法、装置及存储介质
CN113873539A (zh) * 2020-06-30 2021-12-31 华为技术有限公司 获取神经网络的方法和装置
CN111985644B (zh) * 2020-08-28 2024-03-08 北京市商汤科技开发有限公司 神经网络生成方法及装置、电子设备及存储介质
WO2022126448A1 (zh) * 2020-12-16 2022-06-23 华为技术有限公司 一种基于演化学习的神经网络结构搜索方法和系统
KR102455681B1 (ko) * 2020-12-16 2022-10-18 경북대학교 산학협력단 긴 시퀀스 데이터 내 존재하는 관계 정보를 저장 가능한 분산 연관 메모리 네트워크 시스템
CN112818788B (zh) * 2021-01-25 2022-05-03 电子科技大学 一种基于无人机集群的分布式卷积神经网络分层匹配方法
CN113344181B (zh) * 2021-05-31 2022-10-18 北京市商汤科技开发有限公司 神经网络的结构搜索方法、装置、计算机设备及存储介质
CN113869496A (zh) * 2021-09-30 2021-12-31 华为技术有限公司 一种神经网络的获取方法、数据处理方法以及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04353963A (ja) * 1991-05-30 1992-12-08 Toshiba Corp 神経回路網の構築装置および方法
JPH0887483A (ja) * 1994-09-16 1996-04-02 Hitachi Ltd ネットワーク合成方法
JPH1049566A (ja) * 1996-05-31 1998-02-20 Toshiba Corp システム構築装置、システム構築方法、及びシステム構築プログラムを記録した媒体
JP2015011510A (ja) * 2013-06-28 2015-01-19 株式会社デンソーアイティーラボラトリ ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム
US20170140272A1 (en) * 2015-11-12 2017-05-18 Google Inc. Generating larger neural networks

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2880556B2 (ja) 1990-04-25 1999-04-12 松下冷機株式会社 冷蔵庫
JPH087483A (ja) 1994-06-14 1996-01-12 Sony Corp ディスク再生装置
CN101726742A (zh) * 2009-12-01 2010-06-09 中国地质大学(北京) 农作物污染胁迫水平遥感测量方法
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
CN105701540B (zh) 2016-01-11 2017-12-19 清华大学 一种自生成神经网络构建方法
CN106203330A (zh) * 2016-07-08 2016-12-07 西安理工大学 一种基于卷积神经网络的车辆分类方法
KR102415506B1 (ko) * 2016-10-26 2022-07-01 삼성전자주식회사 뉴럴 네트워크 간소화 방법 및 장치
CN106778902B (zh) * 2017-01-03 2020-01-21 河北工业大学 基于深度卷积神经网络的奶牛个体识别方法
KR101932835B1 (ko) * 2017-02-01 2019-03-20 성균관대학교산학협력단 행동 결정 장치 및 방법, 컴퓨터 판독 가능한 저장 매체
CN108229647A (zh) * 2017-08-18 2018-06-29 北京市商汤科技开发有限公司 神经网络结构的生成方法和装置、电子设备、存储介质
CN109902186B (zh) 2019-03-12 2021-05-11 北京百度网讯科技有限公司 用于生成神经网络的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04353963A (ja) * 1991-05-30 1992-12-08 Toshiba Corp 神経回路網の構築装置および方法
JPH0887483A (ja) * 1994-09-16 1996-04-02 Hitachi Ltd ネットワーク合成方法
JPH1049566A (ja) * 1996-05-31 1998-02-20 Toshiba Corp システム構築装置、システム構築方法、及びシステム構築プログラムを記録した媒体
JP2015011510A (ja) * 2013-06-28 2015-01-19 株式会社デンソーアイティーラボラトリ ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム
US20170140272A1 (en) * 2015-11-12 2017-05-18 Google Inc. Generating larger neural networks

Also Published As

Publication number Publication date
CN108229647A (zh) 2018-06-29
JP6811894B2 (ja) 2021-01-13
US20190095780A1 (en) 2019-03-28
SG11201912129TA (en) 2020-02-27
US11270190B2 (en) 2022-03-08
KR20200031163A (ko) 2020-03-23
WO2019034129A1 (zh) 2019-02-21
KR102170105B1 (ko) 2020-10-26

Similar Documents

Publication Publication Date Title
JP6811894B2 (ja) ニューラルネットワーク構造の生成方法および装置、電子機器、ならびに記憶媒体
US11301719B2 (en) Semantic segmentation model training methods and apparatuses, electronic devices, and storage media
US11669711B2 (en) System reinforcement learning method and apparatus, and computer storage medium
CN107292352B (zh) 基于卷积神经网络的图像分类方法和装置
CN113408743A (zh) 联邦模型的生成方法、装置、电子设备和存储介质
US20170206450A1 (en) Method and apparatus for machine learning
CN111176820A (zh) 一种基于深度神经网络的边缘计算任务的分配方法及装置
CN114065863B (zh) 联邦学习的方法、装置、系统、电子设备及存储介质
CN113963176B (zh) 一种模型蒸馏方法、装置、电子设备及存储介质
CN110807529A (zh) 一种机器学习模型的训练方法、装置、设备及存储介质
CN116721179A (zh) 一种基于扩散模型生成图像的方法、设备和存储介质
CN113393468A (zh) 图像处理方法、模型训练方法、装置和电子设备
CN115456167A (zh) 轻量级模型训练方法、图像处理方法、装置及电子设备
CN117351299A (zh) 图像生成及模型训练方法、装置、设备和存储介质
CN113344213A (zh) 知识蒸馏方法、装置、电子设备及计算机可读存储介质
CN115001937B (zh) 面向智慧城市物联网的故障预测方法及装置
JP7352609B2 (ja) ニューラルネットワーク加速器のデータ処理方法、装置、機器及び記憶媒体
WO2022127603A1 (zh) 一种模型处理方法及相关装置
CN112784967B (zh) 信息处理方法、装置以及电子设备
US20150227802A1 (en) Image processing using cellular simultaneous recurrent network
KR102393761B1 (ko) 이미지 처리를 위한 인공 신경망 모델 학습 방법 및 시스템
CN115600693A (zh) 机器学习模型训练方法、识别方法、相关装置及电子设备
CN114564801A (zh) 液压系统模型辨识方法及装置
CN114021697A (zh) 基于强化学习的端云框架神经网络生成方法和系统
CN113344200A (zh) 用于训练可分离卷积网络的方法、路侧设备及云控平台

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6811894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250