JP2023531538A - ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 - Google Patents

ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2023531538A
JP2023531538A JP2022580186A JP2022580186A JP2023531538A JP 2023531538 A JP2023531538 A JP 2023531538A JP 2022580186 A JP2022580186 A JP 2022580186A JP 2022580186 A JP2022580186 A JP 2022580186A JP 2023531538 A JP2023531538 A JP 2023531538A
Authority
JP
Japan
Prior art keywords
network
neural network
microunits
training
optimal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022580186A
Other languages
English (en)
Other versions
JP7488375B2 (ja
Inventor
瑞涛 裘
▲璽▼坤 楊
慶開 駱
炳涛 韓
永成 王
要峰 屠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Publication of JP2023531538A publication Critical patent/JP2023531538A/ja
Application granted granted Critical
Publication of JP7488375B2 publication Critical patent/JP7488375B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Figure 2023531538000001
本願はニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体を提供し、ニューラルネットワークの生成方法によれば、最適マイクロユニットを取得し、該最適マイクロユニットを用いて第1ネットワークを構築する(S100)ことで、第1ネットワークが十分に強力な性能を有するようになり、実際の応用需要を満たすことができる。既定の訓練データセットを用いて第1ネットワークを訓練して、第2ネットワークを得る(S200)。マイクロユニットの数が第2ネットワークのマイクロユニットの数より少ない第3ネットワークを構築し、第2ネットワークを用いてすべての第3ネットワークの各マイクロユニットを訓練する(S300)。訓練を経た第3ネットワークのマイクロユニットに基づいて構築すると、ニューラルネットワークモデルを得る(S400)ことができる。

Description

本願は出願番号が202010581487.2で、出願日が2020年06月23日である中国特許出願に基づいて提出され、その中国特許出願の優先権を主張し、その中国特許出願の全ての内容を参考として本願に援用する。
本願は、コンピュータ技術の分野に関し、特に、ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体に関する。
近年では、深層学習技術はより強い計算能力のサポートにより大きく発展し、コンピュータ視覚、音声認識、自然言語処理など多くの分野で大きな成功を収めている。研究者は、深層学習モデルを構成する複数の要素のうち、人工ニューラルネットワークの構造の違いがモデルの最終的な性能に莫大な影響を与えることを発見した。通常、特定の問題に対して適切なニューラルネットワークを設計するには、経験が豊富なアルゴリズムエンジニアが膨大な時間と労力を費やしてモデルの調整と検証を繰り返す必要があり、調整の効率が悪く、効果の保証が難しい。そのため、目標問題に合わせてニューラルネットワーク構造を自動的に決定できるニューラルネットワークアーキテクチャ探索技術は、深層学習分野における近年の研究の焦点となっている。
しかしながら、従来のニューラルネットワーク探索技術では、実際の応用時に、具体的な配置の問題が存在し、すなわち、特定の問題を解決するニューラルネットワークは、最終的には、計算能力が大きく異なるさまざまな端末、例えば、各種モデルの携帯電話、タブレットコンピュータ、ノートパソコン、デスクトップなどに配置する必要がある。そのため、様々な推論端末に向けて、サイズの揃ったニューラルネットワークモデルのグループを提供する必要があるが、このようなモデルグループの生成に要する計算能力のコストも莫大なものである。従来、ニューラルネットワークモデルグループの生成スキームとして、大まかに次のようなスキームが挙げられる。(1)マイクロユニットネットワークを構築して、1つずつ訓練する。(2)大量の第3ネットワークを含むハイパーネットワークを定義し、訓練する。二つのスキームのいずれも、計算能力を大量に消費する必要があることが明らかである。そのため、効率的なニューラルネットワークモデル構築方法を提案することは、実際の応用へのニューラルネットワーク探索の配置段階にとって重大な意義を持っている。
本願は、関連する技術問題の1つを少なくともある程度解決することを目的とする。このために、本願は、ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体を提案する。
第1態様において、本願の実施形態により提供されるニューラルネットワークの生成方法は、最適マイクロユニットを取得し、前記最適マイクロユニットに基づいて第1ネットワークを構築するステップと、既定の訓練データセットを用いて前記第1ネットワークを訓練して、第2ネットワークを得るステップと、マイクロユニットの数が前記第1ネットワークの最適マイクロユニットの数より少ない第3ネットワークを構築し、前記第2ネットワークを用いて前記第3ネットワークの各マイクロユニットを訓練するステップと、前記第3ネットワーク内の訓練後の前記マイクロユニットに基づいて、ニューラルネットワークモデルを得るステップと、を含む。
第2態様において、本願の実施形態により提供される機器は、メモリ、プロセッサ及びメモリに記憶されて且つプロセッサ上で実行できるコンピュータプログラムを含み、前記プロセッサにより前記コンピュータプログラムを実行した場合、上記の第1態様の実施形態に記載のニューラルネットワークの生成方法を実現する。
第3態様において、本願の実施形態により提供されるコンピュータ可読記憶媒体にはコンピュータ実行可能な指令が記憶されており、前記コンピュータ実行可能な指令は、上記の第1態様の実施形態に記載のニューラルネットワークの生成方法を実行するように構成されている。
本願の他の特徴及び利点は、後の明細書において説明され、明細書から部分的に明らかになるか、または本願を実施することによって理解されるだろう。本願の目的及び他の利点は、明細書、特許請求の範囲及び図面において特別に指摘される構成によって達成し、得ることができる。添付図面は、本願の技術案の更なる理解を提供するものであり、明細書の一部を構成し、本願の実施形態と共に本願の技術案を解釈するために使用され、本願の技術案に対する制限を構成するものではない。
本願の一実施形態により提供されるシステムアーキテクチャプラットフォームの模式図である。 本願の一実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。 本願の別の実施形態により提供されるニューラルネットワークの生成方法のフローチャートである。
本願の目的、技術案及び利点をより明らかにするために、以下では、添付図面及び実施形態を組み合わせて本願をさらに詳しく説明する。ここで説明する具体的な実施形態は本願を解釈するためだけに使われるものであって、本願を限定するために使われるものではない。
なお、装置の模式図には機能モジュール分割が示され、フローチャートには論理的順序が示されているが、場合によっては、装置内のモジュール分割またはフローチャート内の順序とは異なるように、図示又は説明されたステップを実行してもよい。明細書、特許請求の範囲または上記図面における用語「第1」、「第2」等は類似の対象を区別するためのものであり、必ずしも特定の順序又は前後の順番を記述するためのものではない。
従来のニューラルネットワークアーキテクチャ探索(Neural Architecture Search,NAS)においてアーキテクチャ探索ポリシーについての研究は、マクロ探索とマイクロ探索との2種類に大きく分けることができる。マクロ探索とは、探索アルゴリズムがニューラルネットワークを1つのまとまりと見なし、探索ポリシーでは選択的に特定の一層または複数の層を指定して代替的操作(層のタイプまたはパラメータの変更、新しい層の挿入)を実行する方法である。この方法の欠点は、探索空間が膨大すぎて、複雑度の高い問題について、適切なニューラルネットワークアーキテクチャを探し出すのにどれくらいの時間が必要かを判断するのは非常に困難である。そのため、現在注目度の低い研究である。マイクロ探索は人が設計するニューラルネットワークの優れた事例(例えばResNet、InceptionNetなど)からの経験を参考して、探索空間を一組のマイクロユニットのスタックと見なして、探索ポリシーとして、相対的に限られた探索空間内で最適なネットワークマイクロアーキテクチャを探し出すだけでよい。具体的な応用時には、異なる数のマイクロユニットをスタックし、複雑度の異なる問題に適合することができる。マイクロ探索NASアルゴリズムは、その大きさが合理的な探索空間と柔軟な利用方式から、現在注目度の非常に高い研究となっている。
しかしながら、従来のマイクロ探索NASアルゴリズムでは、実際の応用時には、具体的な配置問題が存在する。すなわち、特定の問題を解決するニューラルネットワークは、最終的には、計算能力が大きく異なるさまざまな端末(例えば、各種モデルの携帯電話、タブレットコンピュータ、ノートパソコン、デスクトップなど)に配置する必要がある。そのため、NASアルゴリズムの場合、様々な推論端末に向けて、サイズの揃ったニューラルネットワークモデルのグループを提供する必要があるが、このようなモデルグループの生成に要する計算能力のコストも莫大なものであり、大量な計算能力を大量に消費する必要がある。
上記の状況に基づいて、本願の実施形態はニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体を提供し、最適マイクロユニットを取得し、該最適マイクロユニットを用いて第1ネットワークを構築することで、第1ネットワークが十分に強力な性能を有するようになり、実際の応用需要を満たすことができる。既定の訓練データセットを用いて第1ネットワークを訓練して、第2ネットワークを得て、マイクロユニットの数が第2ネットワークのマイクロユニットの数より少ない第3ネットワークを構築し、第2ネットワークを用いてすべての第3ネットワークの各マイクロユニットを訓練して、訓練を経た第3ネットワークのマイクロユニットに基づいて構築すると、ニューラルネットワークモデルを得ることができる。こうして、すべての第3ネットワークのマイクロユニット機能が第2ネットワークの機能に対応し、従来のマイクロユニットを一つずつ訓練する方法に比べて、訓練数を減らすことができ、計算能力の需要を効果的に下げることができるため、ニューラルネットワークモデルの生成コストを下げることができるとともに、すべての第3ネットワークのマイクロユニットは並行して訓練することができるため、ニューラルネットワークモデルの構築効率を効果的に高めることができる。
以下では、図面に関連して、本願の技術案を明確且つ完全に説明する。以下で説明される実施形態は本願のすべての実施形態ではなく、本願の一部の実施形態に過ぎないことは明らかである。
図1に示すように、図1は本願の一実施形態により提供される、ニューラルネットワークの生成方法を実行するためのシステムアーキテクチャプラットフォーム100の模式図である。
図1に示す実施形態において、該システムアーキテクチャプラットフォーム100はメモリ120とプロセッサ110とを含み、メモリ120とプロセッサ110は、バスまたはその他の方法で接続されてもよく、図1にはバスで接続されている例が示されている。
メモリ120は、非一時的なコンピュータ可読記憶媒体として、非一時的なソフトウェアプログラムと、非一時的なコンピュータ実行可能なプログラムとを記憶するために使用することができる。さらに、メモリ120は、高速ランダムアクセスメモリを含むことができ、また非一時的なメモリ、例えば少なくとも1つの磁気ディスクメモリ装置、フラッシュメモリ装置、または他の非一時的なソリッドステートメモリ装置を含むことができる。いくつかの実施形態において、メモリ120は、プロセッサに対して遠隔地に配置されたメモリを含んでもよく、これらの遠隔メモリ120は、ネットワークを介して該システムアーキテクチャプラットフォーム100に接続することができる。上記のネットワークの実例は、インターネット、社内イントラネット、ローカルエリアネットワーク、移動通信ネットワーク、及びこれらの組み合わせを含むが、これらに限定されない。
本願の実施形態に記載されたシステムアーキテクチャプラットフォーム100および応用シナリオは、本願の実施形態により提供される技術案に対する限定を構成するものではなく、本願の実施形態の技術案をより明確に説明するためのものである。システムアーキテクチャプラットフォーム100が進化し、新たな応用シナリオが現れたときに、本願の実施形態により提供される技術案が類似の技術課題に対しても同様に適用できることは、当業者にとって明らかである。
図1に示すシステムアーキテクチャプラットフォーム100は本願の実施形態に対する限定を構成せず、図示より多い或いは少ない部品を含んでもよく、或いは一部の部品を組み合わせたり、異なる部品配置としたりしてもよいことは、当業者であれば理解できるであろう。
図1に示すシステムアーキテクチャプラットフォーム100において、プロセッサ110は、メモリ120に記憶されているデータ処理プログラムを呼び出して、ニューラルネットワークの生成方法を実行することができる。
上述したシステムアーキテクチャプラットフォーム100に基づいて、本願のニューラルネットワークの生成方法の各実施形態を以下に提案する。
図2を参照し、図2は本願の一実施形態により提供される、ニューラルネットワークの生成方法のフローチャートであり、該ニューラルネットワークの生成方法はステップS100、ステップS200、ステップS300及びステップS400を含むが、これらに限定されない。
ステップS100において、最適マイクロユニットを取得し、最適マイクロユニットに基づいて第1ネットワークを構築する。
一実施形態において、ニューラルネットワークアーキテクチャは大量のマイクロユニットから構成され、ニューラルネットワーク探索は一般的にまず探索空間を定義する。このような探索空間はニューラルネットワークアーキテクチャを定義する基本的な構築モジュールを含む。探索空間が大きいほど、探索アルゴリズムが実行すべき反復回数が多くなり、使用されるグラフィックスプロセッサ(Graphics Processing Unit、GPU)の計算能力も高く求められることが理解できる。最適化されたアルゴリズムを利用して最適なマイクロユニットネットワーク構造を自動的に探索することが可能になり、例えば、初期のアルゴリズムは進化的探索であり、良い検証指標が達成されるように、適応度に基づいて絶えず訓練され、突然変異する。また、強化学習に基づく探索アルゴリズムは、知的エージェントにネットワークアーキテクチャの最適構成を発見させ、このような知的エージェントは通常、再帰型ニューラルネットワークにより実現され、より高い報酬を得られるニューラルアーキテクチャを探し出すことを目標とする。本実施形態において、マイクロ探索NASアルゴリズムを用いて、探索空間から最適マイクロユニットを探索する。
一実施形態において、得られた最適マイクロユニットに基づいて第1ネットワークを構築し、該第1ネットワークは、最適マイクロユニットを利用して構成される高性能を持つユニットネットワークであると認識してもよく、該ユニットネットワークのサイズは、第1ネットワークが実際の応用処理を満足できる十分に強い性能を有するように、実際の需要に応じてサイズをカスタマイズすることができる。例えば、最適マイクロユニットは、スタック方式で構築されて第1ネットワークを形成し、セルネットワークの迅速な構築を容易にする。スタックされる最適マイクロユニットの数が多いほど、第1ネットワークのサイズが大きくなり、性能も強くなることが理解されるであろう。逆に、スタックされる最適マイクロユニットの数が少ないほど、第1ネットワークのサイズが小さくなる。こうして、実際の応用時の需要に応じて第1ネットワークを構築することで、複雑度の異なる問題に適合することができる。
なお、ステップS100を実行する前に、ユーザは、実際の状況に応じてマイクロユニットネットワーク構造の探索空間を構築し、該探索空間を初期化してから、該探索空間に基づいて最適マイクロユニットを取得し、すなわち、限られた探索空間内で最適マイクロユニットを探し出すことができる。探索空間の合理的なサイズは、計算能力の要求を低くすることおよび処理効率を向上させることに有利である。
ステップS200において、既定の訓練データセットを用いて第1ネットワークを訓練して、第2ネットワークを得る。
一実施形態において、既定の訓練データセットを用いて第1ネットワークを訓練し、訓練データセットは、マイクロユニットを訓練するためのデータ集合と理解してもよい。ステップS100において、最適マイクロユニットを用いて構築された第1ネットワークは、パラメータが定義されていないネットワークモデルであり、第1ネットワークに相応の演算能力を持たせるために、対応する訓練データを用いて、該ネットワークモデルのパラメータに対応して訓練することで、訓練を経た第1ネットワークである第2ネットワークを得る。
深層学習を例として、訓練データセットを用いて深層学習モデルを訓練し、学習モデルが特定の性能指標を満たすようにし、訓練データが増えるにつれて、深層学習モデルの正解率が向上する。これによりわかるように、十分な訓練データリソースさえあれば、モデルを訓練する際のスケールアップによる正解率向上が期待できる。
既定の訓練データセットは、異なるモデル対象に応じて異なるタイプの訓練データセットを選択すること、および異なるモデルの性能要件に応じて異なる訓練データ量を選択することとして理解してもよい。例えば、訓練の対象が画像認識モデルである場合、既定の訓練データセットとして大量の画像を選択することができる。また例えば、訓練の対象が音声認識モデルである場合、既定の訓練データセットとして大量の音声データを選択することができる。
ステップS300において、マイクロユニットの数が第1ネットワークの最適マイクロユニットの数より少ない第3ネットワークを構築し、第2ネットワークを用いて第3ネットワークの各マイクロユニットを訓練する。
一実施形態において、第3ネットワークは、パラメータが定義されていないネットワークモデルであり、構築される第3ネットワークのマイクロユニット数は、第1ネットワークの最適マイクロユニットの数より少ない。当然のことながら、マイクロユニット数の異なる複数の第3ネットワークを構築することが可能で、得られる第3ネットワークのマイクロユニットの数は、第1ネットワーク内の最適マイクロユニットの数より少ない。コンピュータによる演算を容易にするために、第3ネットワークのマイクロユニット数と第1ネットワークの最適マイクロユニット数との関係を倍数、累乗関係等に設定することができる。例えば、第1ネットワークの最適マイクロユニット数を20、40、120個などとしてもよく、第3ネットワークのマイクロユニット数を2、4、10個などとしてもよく、マイクロユニット数がそれぞれ2、4、10個などである第3ネットワークを構築することができる。
第3ネットワークの構築が完了した後、第2ネットワークを用いてすべての第3ネットワークを訓練し、具体的には、第2ネットワークにより、第3ネットワーク内の各マイクロユニットをそれぞれ訓練する。また、各第3ネットワークのマイクロユニット数は、いずれも第2ネットワークのマイクロユニット数より少なく、マイクロユニットの数の多いネットワークモデルに比べて、マイクロユニット数の少ないネットワークモデルを訓練する方が、訓練スピードがもっと速い。また、第3ネットワークのマイクロユニットは並行して訓練することが可能で、すなわち同時に複数のマイクロユニットを訓練することが可能であるため、訓練効率がもっと高く、計算能力の要求を大幅に下げることができる。訓練を経た第3ネットワークは、第2ネットワークと同じ機能を有するようになる。例えば、第2ネットワークのマイクロユニット数が32個であり、第3ネットワークのマイクロユニット数が4個である場合、該第3ネットワークの4個のマイクロユニットは、それぞれ訓練された後、第2ネットワークの32個のマイクロユニットと同じ性能を有することができる。
実施形態において、第2ネットワークを教師ネットワークとして定義し、第3ネットワークを学生ネットワークとして定義してもよく、教師ネットワークによりすべての学生ネットワークのマイクロユニットを訓練することができるとともに、すべての学生ネットワークのマイクロユニットは並行して訓練することができるため、訓練時間を削減し、訓練効率を向上させることができる。
ステップS400において、第3ネットワーク内の訓練後のマイクロユニットに基づいて、ニューラルネットワークモデルを得る。
一実施形態において、上記のステップS300に従って、すべての第3ネットワークの各マイクロユニットを訓練する。訓練後、異なる第3ネットワークのマイクロユニットを並べて異なるニューラルネットワークモデルを得る。例えば、第3ネットワークのマイクロユニットは数が4個で、すべて訓練済みであり、該第3ネットワークの4個の訓練済みのマイクロユニットを並べてマイクロユニット数が4の1つのニューラルネットワークモデルを得る。異なる第3ネットワークの訓練済みマイクロユニットを組み合わせて1つのニューラルネットワークモジュールを得ることもできる。例えば、一つの第3ネットワーク内の訓練済みの2つのマイクロユニットと、もう一つの第3ネットワーク内の訓練済みの1つのマイクロユニットとを組み合わせて、マイクロユニット数が3個のニューラルネットワークモデルを得る。このように、ステップS400が完了すると、複数のニューラルネットワークモデルが得られるため、実際の応用時に適切なニューラルネットワークモデルを選択して異なる端末に配置して、計算能力の消費を効果的に削減することができる。
本実施形態は、上述したステップS100、ステップS200、ステップS300及びステップS400のニューラルネットワークの生成方法により、実際の応用需要に応じて計算能力の異なる端末に適したニューラルネットワークモデルを得るため、従来のニューラルネットワーク訓練方法に比べて、訓練回数を効果的に削減し、計算能力の要求を低減することで、ニューラルネットワークモデルの生成コストを下げることができる。
一実施形態において、ステップS100において、最適マイクロユニットに基づいて第1ネットワークを構築する流れは、以下のステップを含むことができるが、これらに限定されない。
ステップS110において、事前定義のサイズに従って、最適マイクロユニットをN回スタックして第1ネットワークを生成し、ここで、Nは2の整数乗である。
ここで、事前定義のサイズは、構築される第1ネットワークの、実際の応用需要に応じて設定されるマイクロユニット数として捉えてもよく、最適マイクロユニットはスタック方式で組み合わせられ、最適マイクロユニットのスタックされる数が多いほど、第1ネットワークのサイズが大きくなり、性能が高くなる。実施形態において、最適マイクロユニットをN回スタックすることで、第1ネットワークを生成する。Nは適合性が十分に強いネットワークを構成するために必要なマイクロユニット数であり、Nは32、64、128など、2の整数乗に設定される。例えば、画像認識のタスクを処理する必要があり、実際の推計によると32個のマイクロユニットを持つネットワークモデルを構築して初めてマッチングできるとすると、第1ネットワークの最適マイクロユニット数Nは32個、あるいは32個より大きい数としてもよく、例えばNの取る値を64個とすることで、十分に強い性能を有するネットワークモデルを得ることが可能で、複雑度の異なる問題に適合することができる。
一実施形態において、具体的には、トポロジの原理に従って最適マイクロユニットをスタックしてもよい。トポロジ構造の構築原理は、物体の形状や大きさを考慮することなく、物体間の位置関係のみを考慮することである。トポロジでは、最適マイクロユニットをその大きさ、形状に関係のない点として捉えることができる。該トポロジは、ネットワークマクロトポロジまたはシーケンシャルトポロジとすることが可能で、トポロジに応じて最適マイクロユニット数を設定し、すべての最適マイクロユニットを接続して第1ネットワークを構成する。
一実施形態において、ステップS100における最適マイクロユニットを取得する流れは、以下のステップを含むが、これらに限定されるものではない。
ステップS120において、NASアルゴリズムに従って、既定の探索空間を用いて最適マイクロユニットのネットワーク構造を得る。
実施形態において、NASアルゴリズムには、特定の問題のために最適なニューラルネットワークアーキテクチャを自動的に見つけるという特徴がある。NASアルゴリズムを用いれば、最適マイクロユニットを迅速に得ることができる。NASアルゴリズムは、探索空間と呼ばれる候補ニューラルネットワーク構造の集合を与え、探索ポリシーを用いて該探索空間から最適なネットワーク構造を探し出すものであり、ここではNASアルゴリズムの具体的な原理については説明を省略する。
図3を参照し、一実施形態において、ステップS300における第3ネットワークを構築する流れは、以下のステップを含むことができるが、これらに限定されない。
ステップS310において、マイクロユニットの数がN/MでN/M>1を満たす第3ネットワークを構築し、ここで、Mは2の整数乗である。
ステップS320において、すべての第3ネットワークを初期化する。
ここで、第3ネットワークを学生ネットワークとして定義し、第3ネットワークのマイクロユニット数を、第1ネットワークの最適マイクロユニット数Nに応じて決定し、Nの取る値は2の整数乗であり、第3ネットワークのマイクロユニット数はN/MでN/M>1を満たし、Mは2の整数乗である。なお、N、Mの取る値の範囲はいずれも2の整数乗であり、N/M>1はNの取る値がMより大きいことを示し、N/M>1の条件を満たすことを前提に、マイクロユニット数の異なる複数の第3ネットワークを構築することが可能で、すなわち、マイクロユニット数がN/2、N/4、N/8...2の学生ネットワークを構築することができる。例えば、第1ネットワークの最適マイクロユニットの数Nが32の場合、Mの値を2、4、8、16とすることができるため、マイクロユニット数が32/2=16、32/4=8、32/8=4、32/16=2を含む合計4つの学生ネットワークを構築する必要があることが分かる。そして、すべての学生ネットワークを初期化し、各学生ネットワークのモデルのパラメータにデフォルト値を与えることで、マイクロユニット数の異なる学生ネットワークを構築して得ることができる。
なお、学生ネットワークのマイクロユニット数nと第1ネットワークの最適マイクロユニット数Nとが対数関係にあり、すなわち、n=logNであるため、教師ネットワークを用いてすべての学生ネットワークのマイクロユニットを訓練する場合、訓練数はN個のネットワーク構造からlogN個のネットワーク構造に減少し、訓練に必要な時間を効果的に下げることができ、訓練スピードは更に速くなる。また、第3ネットワークのマイクロユニットは並行して訓練することが可能で、すなわち同時に複数のマイクロユニットを訓練することが可能であるため、従来のマイクロユニットネットワークを1つずつ訓練するモードに比べて、訓練効率がより高く、計算能力の要求を大幅に下げることができる。
一実施形態において、ステップS400における第3ネットワーク内の訓練後のマイクロユニットに基づいて、ニューラルネットワークモデルを得るステップは、以下のステップを含むことができるが、これらに限定されない。
ステップS410において、訓練済みのマイクロユニットを結合させて、マイクロユニット数の異なるニューラルネットワークモデルを得て、ニューラルネットワークモデルの数の範囲は2~N個である。
教師ネットワークを用いて学生ネットワークの各マイクロユニットを訓練し、訓練済みのマイクロユニットを並べて組み合わせるが、具体的には、並べて組み合わせる方式は訓練されるマイクロユニットの数に応じて決定される。例えば、学生ネットワークのマイクロユニット数が4個で、すべて訓練済みであり、該学生ネットワークの4個の訓練済みのマイクロユニットを並べてマイクロユニット数が4の1つのニューラルネットワークモデルを得る。また例えば、一つの学生ネットワーク内の訓練済みの2つのマイクロユニットと、もう一つの学生ネットワーク内の訓練済みの1つのマイクロユニットとを組み合わせて、マイクロユニット数が3のニューラルネットワークモデルを得る。すべての学生ネットワークのマイクロユニットを組み合わせることにより、すべてのサイズを有するニューラルネットワークモデルセットを得ることができる。該すべてのサイズを有するニューラルネットワークモデルセットは、マイクロユニット数の異なるすべてのニューラルネットワークの集合として捉えることができる。
訓練を経たすべての学生ネットワークのマイクロユニットの機能は教師ネットワークのある局所写像に対応しているので、組み合わせにより得られるネットワークは、いずれも直接端末に配置するまたはわずかな微調整をしてから端末に配置することができる。
なお、最適なマイクロユニットがN回スタックされて構成された第1ネットワークを例に、第1ネットワークを訓練した後に、マイクロユニット数Nの教師ネットワークを得るとともに、マイクロユニット数N/2、N/4、N/8...2の学生ネットワークを構築することができる。教師ネットワークを用いてすべての学生ネットワークを訓練し、訓練済みのマイクロユニットを組み合わせて、2~N個のニューラルネットワークモデルを得る。たとえば、Nが32の場合、マイクロユニット数がそれぞれ2、4、8、16の学生ネットワークを構築し、4つの学生ネットワークを得る。教師ネットワークは32個のマイクロユニットを有し、教師ネットワークにより、2つのマイクロユニットを有する学生ネットワークを訓練し、2つのマイクロユニットを有するニューラルネットワークモデルを得るが、該2つのマイクロユニットを有するニューラルネットワークモデルの機能はすべて教師ネットワークに対応する。教師ネットワークにより学生ネットワークを訓練することにより、教師ネットワークのマイクロユニットの機能が学生ネットワークのマイクロユニットにマッピングされることが分かる。また、教師ネットワークにより、4つのマイクロユニットを有する学生ネットワークを訓練し、4つのマイクロユニットを有するニューラルネットワークモデルを得る。このように、学生ネットワークのマイクロユニットを組み合わせることで、異なるニューラルネットワークモデルを得ることができる。
一実施形態において、第2ネットワークを用いて第3ネットワークの各マイクロユニットを訓練するステップは、以下のステップを含むことができるが、これらに限定されない。
ステップS330において、第2ネットワークを訓練データセットと組み合わせて用いて、第2ネットワークの局所入出力の方式により第3ネットワークの各マイクロユニットを訓練する。
訓練時、訓練データセットに合わせて教師ネットワークを用いて、各学生ネットワークの各マイクロユニットをそれぞれ訓練し、該訓練データセットは教師ネットワークを訓練するための訓練データである。具体的には、教師ネットワークの局所入出力の訓練方式により、各学生ネットワークの各マイクロユニットを訓練する。
Figure 2023531538000002
Figure 2023531538000003
Figure 2023531538000004
Figure 2023531538000005
Figure 2023531538000006
一実施形態において、ステップS410において、訓練済みのマイクロユニットを組み合わせて、2~N個のニューラルネットワークモデルを得る。すなわち、訓練済みのマイクロユニットを並べて組み合わせることにより、すべてのサイズを有するニューラルネットワークモデルセットを得ることができる。例えば、上述したステップS330の例において、次のようなすべてのサイズを有するニューラルネットワークモデルを得ることができる。
Figure 2023531538000007
ここで、マイクロユニット数が5、6、7の組み合わせ方は以上に示したモデルに限らず、ここでは繰り返し列挙しない。
図4を参照し、一実施形態において、ニューラルネットワークの生成方法の流れは、以下のステップをさらに含むが、これに限定されない。
ステップS500において、各ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択する。
実施形態のステップS100、ステップS200、ステップS300およびステップS400が完了すると、すべてのサイズを有するニューラルネットワークモデルが得られる。ニューラルネットワークは、最終的には、計算能力が大きく異なるさまざまな端末に配置する必要があるため、ニューラルネットワークモデルの性能要件や配置対象端末への推論時間遅延要求などの制約条件に基づいて、すべての組み合せネットワークの中から適切なニューラルネットワークモデルを選択し、そして適切なニューラルネットワークモデルをターゲットニューラルネットワークとして、端末に配置する。
具体的には、各ニューラルネットワークモデルをテストまたは評価する方式により、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして絞り込む。ここで、改良されたニューラルネットワークモデルを得るために、テスト方法は、テストデータセットを用いてすべてのニューラルネットワークモデルをテストすることができる。評価方法としては、ニューラルネットワークモデルの1秒あたりの浮動小数点演算回数(FLOPs)をオフラインで評価してもよく、例えばFLOPsが400M以下のニューラルネットワークモデルをターゲットニューラルネットワークとして選択する。
図5を参照し、一実施形態において、各ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択するステップは、以下のステップを含む。
ステップS510において、既定のテストデータセットを用いて各ニューラルネットワークモデルをテストし、各ニューラルネットワークモデルのテスト正解率を取得する。
ステップS520において、各ニューラルネットワークモデルを用いて同じタスクをそれぞれ実行し、各ニューラルネットワークモデルの時間遅延を取得する。
ステップS530において、ターゲットニューラルネットワークモデルの時間遅延が既定値より低く、且つテスト正解率が最適値であれば、ターゲットニューラルネットワークモデルをターゲットニューラルネットワークとして決定する。
ここで、ステップS510において、既定のテストデータセットは、ニューラルネットワークモデルをテストするためのデータ集合であると理解してもよく、異なる端末性能要件に応じて、相応のテストデータが選択される。各ニューラルネットワークモデルをテストすることで、各ニューラルネットワークモデルのテスト正解率を得ることが可能である。テスト正解率が高いほど、性能指標が高いため、テスト正解率の高いニューラルネットワークモデルが優先的に選択されることが分かる。
ステップS520は、ターゲット端末上で実行され、各ニューラルネットワークモデルを用いて同じタスクをそれぞれ実行し、各ニューラルネットワークモデルの時間遅延を取得する。このステップは、端末上での各ニューラルネットワークモデルの時間遅延指標をテストするために用いられるが、一般的には、送信時間遅延と伝播時間遅延が主に考慮される指標であり、より高い時間遅延は、より大きいデータ処理の時間間隔とより低いタスク実行効率を示すため、タスク実行時の時間遅延の低いニューラルネットワークモデルを優先的に選択する。
このように、時間遅延とテスト正解率との2つの指標に基づいて各ニューラルネットワークモデルをテストし、テストされたニューラルネットワークモデルの時間遅延が既定値より低く、且つテスト正解率が最適値であれば、該ニューラルネットワークモデルをターゲットニューラルネットワークとして決定し、実施形態において、時間遅延の制限条件を500ms以下であるように設定してもよいが、400ms以下または他の既定値としてもよい。テストセットの正解率は95%以上達するようにすることが可能で、実施形態においては96.3%に達するように選択される。
上述した各実施形態におけるニューラルネットワークの生成方法の具体的なステップの流れをより明確に説明するために、以下に3つの実施形態を用いて説明する。
実施形態1:
図6に示すように、NASアルゴリズムの探索空間がマイクロユニット空間であり、マイクロユニットが単入力単出力構造であり、マクロユニットトポロジがシーケンシャル構造であるように定義し、複数のマイクロユニットにより構成されたネットワークモデルは、画像分類問題を解決するために利用され、マルチチャンネル画像データを入力として、画像内容の実際の分類を出力する。ニューラルネットワークの生成方法は以下のようなステップを含む。
ステップS610において、マイクロユニットネットワーク構造の探索空間を初期化し、マイクロ探索NASアルゴリズムを適用して、最適マイクロユニットを取得する。
Figure 2023531538000008
Figure 2023531538000009
ステップS640において、学生ネットワークを構築し、ユニット数4と2の学生ネットワークの各マイクロユニットを、訓練データセットに合わせて教師ネットワークを用いてそれぞれ訓練する。
ステップS650において、すべての学生ネットワークのマイクロユニットを訓練した後、並べて組み合わせることで、すべてのサイズを有するニューラルネットワークモデルセットを得る。
教師ネットワークにより学生ネットワークを訓練する具体的なステップの流れは、実施形態のステップS330の流れを参照し、ここでは説明を省略する。該実施形態において、最適マイクロユニットは単入力単出力構造である。
実施形態2:
図7に示すように、NASアルゴリズムの探索空間がマイクロユニット空間であり、マイクロユニットが二重入力単出力構造であるように定義し、複数のマイクロユニットにより構成されたネットワークモデルは、画像分類問題を解決するために利用され、マルチチャンネル画像データを入力として、画像内容の実際の分類を出力する。ニューラルネットワークの生成方法は以下のようなステップを含む。
ステップS710において、マイクロユニットネットワーク構造の探索空間を初期化し、マイクロ探索NASアルゴリズムを適用して、最適マイクロユニットを取得する。
Figure 2023531538000010
Figure 2023531538000011
ステップS740において、学生ネットワークを構築し、ユニット数4と2の学生ネットワークの各マイクロユニットを、訓練データセットに合わせて教師ネットワークを用いてそれぞれ訓練する。
ステップS750において、すべての学生ネットワークのマイクロユニットを訓練した後、並べて組み合わせることで、すべてのサイズを有するニューラルネットワークモデルセットを得る。
Figure 2023531538000012
Figure 2023531538000013
Figure 2023531538000014
Figure 2023531538000015
ステップS750において、3つのマイクロユニットネットワークを組み合わせる例として、以下の2つの組み合わせ方がある。
Figure 2023531538000016
Figure 2023531538000017
該実施形態において、最適マイクロユニットは二重入力単出力構造である。
実施形態3:
図8に示すように、すべてのサイズを有するニューラルネットワークモデルを取得した後、端末を配置する制限条件は、オンライン推論の時間遅延が500msを超えてはならないことであり、ニューラルネットワークモデルのテスト流れは、以下のステップを含む。
ステップS810において、テストデータセット上でマイクロユニット数の異なるすべてのニューラルネットワークモデルの予測正解率を評価する。
ステップS820において、ターゲット端末にマイクロユニット数の異なるすべてのニューラルネットワークモデルを適用して同じ推論タスクをそれぞれ実行し、端末が推論タスクを実行する際の時間遅延指標を記録する。
ステップS830において、予測正解率と時間遅延指標とに基づいて、予め設定された推論時間遅延制限条件の下で、推論正解率の最も高いモデルを選択して端末に配置する。
該実施形態において、端末では5つ以上のマイクロユニットからなる分類ネットワークを実行し、推論時間遅延はいずれも500msより大きく、制約条件を満たしていないため、4つ以下のマイクロユニットからなるネットワーク上で性能の最も良いニューラルネットワークモデルを選択することができる。たとえば、条件を満たすモデルのうち正解率の最も良いネットワークの場合、テストセットの正解率が96.3%に達することができるため、該端末に配置する際に、該ニューラルネットワークモデルを優先的に選択すべきである。
また、本願の一実施形態はさらに、機器を提供し、該機器は、メモリ、プロセッサ及びメモリに記憶されて且つプロセッサ上で実行できるコンピュータプログラムを含む。プロセッサ及びメモリは、バスまたは他の方法によって接続されてもよい。
メモリは、非一時的なコンピュータ可読記憶媒体として、非一時的なソフトウェアプログラムと、非一時的なコンピュータ実行可能なプログラムとを記憶するために使用することができる。さらに、メモリは、高速ランダムアクセスメモリを含むことができ、また非一時的なメモリ、例えば少なくとも1つの磁気ディスクメモリ装置、フラッシュメモリ装置、または他の非一時的なソリッドステートメモリ装置を含むことができる。いくつかの実施形態において、メモリは、プロセッサに対して遠隔地に配置されたメモリを含んでもよく、これらの遠隔メモリは、ネットワークを介してこのプロセッサに接続することができる。上記のネットワークの実例は、インターネット、社内イントラネット、ローカルエリアネットワーク、移動通信ネットワーク、及びこれらの組み合わせを含むが、これらに限定されない。
なお、本実施形態の端末は、図1に示す実施形態におけるシステムアーキテクチャプラットフォーム100を含むことができ、本実施形態における端末と図1に示す実施形態におけるシステムアーキテクチャプラットフォーム100とは同一の発明構想に属するため、これらの実施形態は同一の実現原理及び技術的効果を有し、ここでは詳しく説明しない。
上述した実施形態のニューラルネットワークの生成方法を実現するために必要な非一時的なソフトウェアプログラムおよび指令はメモリに記憶されており、プロセッサにより実行された場合、上述した実施形態におけるニューラルネットワークの生成方法、例えば、上述した図2における方法ステップS100からS400、図3における方法ステップS310からS320、図4における方法ステップS500、図5における方法ステップS510からS530、図6における方法ステップS610からS650、図7における方法ステップS710からS750、図8における方法ステップS810からS830を、実行する。
以上に説明された装置実施形態は、単に例示的なものであり、分離された部品として説明されたユニットは、物理的に分離されていてもよく、そうでなくてもよく、すなわち、一箇所にあってもよく、または複数のネットワークユニットに分散されていてもよい。本実施形態の態様の目的を達成するために、これらのモジュールの一部または全部を実際の必要に応じて選択することが可能である。
また、本願の一実施形態は、コンピュータ可読記憶媒体をさらに提供し、該コンピュータ可読記憶媒体にはコンピュータ実行可能な指令が記憶されており、該コンピュータ実行可能な指令は、プロセッサまたはコントローラ、例えば、上述した端末実施形態におけるプロセッサによって実行されることで、上述した実施形態におけるニューラルネットワークの生成方法、例えば、上述した図2における方法ステップS100からS400、図3における方法ステップS310からS320、図4における方法ステップS500、図5における方法ステップS510からS530、図6における方法ステップS610からS650、図7における方法ステップS710からS750、図8における方法ステップS810からS830を、上記プロセッサに実行させることができる。
本願の実施形態によれば、最適マイクロユニットを取得し、該最適マイクロユニットを用いて第1ネットワークを構築することで、第1ネットワークが十分に強力な性能を有するようになり、実際の応用需要を満たすことができる。既定の訓練データセットを用いて第1ネットワークを訓練して、第2ネットワークを得る。マイクロユニット数が第1ネットワークの最適マイクロユニット数より少ない第3ネットワークを構築し、第2ネットワークを用いてすべての第3ネットワークの各マイクロユニットを訓練する。訓練を経た第3ネットワークのマイクロユニットに基づいて構築すると、ニューラルネットワークモデルを得ることができる。こうして、すべての第3ネットワークのマイクロユニット機能が第2ネットワークの機能に対応し、従来のマイクロユニットを一つずつ訓練する方法に比べて、訓練数を減らすことができ、計算能力の需要を効果的に下げることができるため、ニューラルネットワークモデルの生成コストを下げることができるとともに、すべての第3ネットワークのマイクロユニットは並行して訓練することができるため、ニューラルネットワークモデルの構築効率を効果的に高めることができる。
当業者であれば、上記で開示された方法のすべてまたはいくつかのステップ、システムは、ソフトウェア、ファームウェア、ハードウェア、及びそれらの適切な組み合わせとして実施できることを理解できるであろう。いくつかの物理的組立体またはすべての物理的組立体は、中央処理装置、デジタルシグナルプロセッサまたはマイクロプロセッサのようなプロセッサによって実行されるソフトウェアとして、あるいはハードウェアとして、あるいは特定用途向け集積回路のような集積回路として実施することができる。そういったソフトウェアは、コンピュータ可読媒体上に分散することができ、コンピュータ可読媒体はコンピュータ記憶媒体(または非一時的な媒体)及び通信媒体(または一時的な媒体)を含むことができる。コンピュータ記憶媒体という用語は、情報(コンピュータ可読指令、データ構造、プログラムモジュール又は他のデータ)を記憶するための任意の方法または技術において実現される、揮発性及び不揮発性、取り外し可能及び取り外し不可能な媒体を含むことは、当業者にとって周知のことである。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)または他の光ディスク記憶装置、磁気カートリッジ、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望の情報を記憶するために使用することができ、コンピュータによってアクセスすることができる任意の他の媒体を含むが、これらに限定されない。さらに、通信媒体は通常、コンピュータ可読指令、データ構造、プログラムモジュール、または搬送波または他の伝送メカニズムのような変調データ信号中の他のデータを含み、任意の情報伝送媒体を含むことができることは、当業者にとって周知のことである。
以上では、本願のいくつかの実施形態について具体的に説明したが、本願は上記実施形態に限定されるものではない。当業者であれば、本願の範囲に反することなく、本願の特許請求の範囲に限定された範囲内に含まれる様々な均等的変形又は置換を行うこともできる。

Claims (10)

  1. 最適マイクロユニットを取得し、前記最適マイクロユニットに基づいて第1ネットワークを構築するステップと、
    既定の訓練データセットを用いて前記第1ネットワークを訓練して、第2ネットワークを得るステップと、
    マイクロユニットの数が前記第1ネットワークの最適マイクロユニットの数より少ない第3ネットワークを構築し、前記第2ネットワークを用いて前記第3ネットワークの各マイクロユニットを訓練するステップと、
    前記第3ネットワーク内の訓練後の前記マイクロユニットに基づいて、ニューラルネットワークモデルを得るステップと、
    を含むニューラルネットワークの生成方法。
  2. 前記最適マイクロユニットに基づいて第1ネットワークを構築する前記ステップは、
    事前定義のサイズに従って、前記最適マイクロユニットをN回スタックして前記第1ネットワークを生成し、ここで、Nは2の整数乗であるステップを含む
    請求項1に記載のニューラルネットワークの生成方法。
  3. 第3ネットワークを構築する前記ステップは、
    マイクロユニットの数はN/MでN/M>1を満たす第3ネットワークを構築し、ここで、Mは2の整数乗であるステップと、
    すべての前記第3ネットワークを初期化するステップと、
    を含む請求項2に記載のニューラルネットワークの生成方法。
  4. 前記第3ネットワーク内の訓練後の前記マイクロユニットに基づいて、ニューラルネットワークモデルを得る前記ステップは、
    訓練済みの前記マイクロユニットを結合させて、マイクロユニット数の異なる前記ニューラルネットワークモデルを得るステップであって、前記ニューラルネットワークモデルの数の範囲は2~N個であるステップを含む
    請求項3に記載のニューラルネットワークの生成方法。
  5. 前記第2ネットワークを用いて前記第3ネットワークの各マイクロユニットを訓練する前記ステップは、
    前記第2ネットワークを前記訓練データセットと組み合わせて用いて、前記第2ネットワークの局所入出力の方式により前記第3ネットワークの各マイクロユニットを訓練するステップを含む
    請求項1から4の何れか一項に記載のニューラルネットワークの生成方法。
  6. 各前記ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択するステップをさらに含む
    請求項1に記載のニューラルネットワークの生成方法。
  7. 各前記ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択する前記ステップは、
    既定のテストデータセットを用いて各前記ニューラルネットワークモデルをテストし、各前記ニューラルネットワークモデルのテスト正解率を取得するステップと、
    各前記ニューラルネットワークモデルを用いて同じタスクをそれぞれ実行し、各前記ニューラルネットワークモデルの時間遅延を取得するステップと、
    ターゲットニューラルネットワークモデルの時間遅延が既定値より低く、且つテスト正解率が最適値であれば、前記ターゲットニューラルネットワークモデルを前記ターゲットニューラルネットワークとして決定するステップと、
    を含む請求項6に記載のニューラルネットワークの生成方法。
  8. 最適マイクロユニットを取得する前記ステップは、
    ニューラルネットワークアーキテクチャ探索NASアルゴリズムに従って、既定の探索空間を用いて前記最適マイクロユニットのネットワーク構造を得るステップを含む
    請求項1に記載のニューラルネットワークの生成方法。
  9. メモリと、プロセッサと、メモリに記憶されて且つプロセッサ上で実行できるコンピュータプログラムとを含む機器であって、
    前記プロセッサにより前記コンピュータプログラムが実行された場合、請求項1から8の何れか一項に記載のニューラルネットワークの生成方法を実現する
    機器。
  10. コンピュータ実行可能な指令を記憶しているコンピュータ可読記憶媒体であって、
    前記コンピュータ実行可能な指令は、請求項1から8の何れか一項に記載のニューラルネットワークの生成方法を実行するように構成された
    コンピュータ可読記憶媒体。
JP2022580186A 2020-06-23 2021-06-22 ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 Active JP7488375B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010581487.2 2020-06-23
CN202010581487.2A CN113837374A (zh) 2020-06-23 2020-06-23 神经网络的生成方法、设备及计算机可读存储介质
PCT/CN2021/101545 WO2021259262A1 (zh) 2020-06-23 2021-06-22 神经网络的生成方法、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2023531538A true JP2023531538A (ja) 2023-07-24
JP7488375B2 JP7488375B2 (ja) 2024-05-21

Family

ID=78964018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022580186A Active JP7488375B2 (ja) 2020-06-23 2021-06-22 ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体

Country Status (4)

Country Link
EP (1) EP4170552A4 (ja)
JP (1) JP7488375B2 (ja)
CN (1) CN113837374A (ja)
WO (1) WO2021259262A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114528975A (zh) * 2022-01-20 2022-05-24 珠高智能科技(深圳)有限公司 深度学习模型训练方法、系统及介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IE87469B1 (en) 2016-10-06 2024-01-03 Google Llc Image processing neural networks with separable convolutional layers
DE202017106532U1 (de) 2016-10-28 2018-02-05 Google Llc Suche nach einer neuronalen Architektur
US20180268292A1 (en) 2017-03-17 2018-09-20 Nec Laboratories America, Inc. Learning efficient object detection models with knowledge distillation
CN117892774A (zh) * 2017-07-21 2024-04-16 谷歌有限责任公司 用于卷积神经网络的神经架构搜索
US10769744B2 (en) 2018-10-31 2020-09-08 Kabushiki Kaisha Toshiba Computer vision system and method
JP2020087288A (ja) 2018-11-30 2020-06-04 アイシン精機株式会社 Dnn軽量化装置
CN110298240B (zh) * 2019-05-21 2022-05-06 北京迈格威科技有限公司 一种汽车用户识别方法、装置、系统及存储介质
CN112561027A (zh) * 2019-09-25 2021-03-26 华为技术有限公司 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN111008693B (zh) * 2019-11-29 2024-01-26 小米汽车科技有限公司 一种基于数据压缩的网络模型构建方法、系统和介质
CN111598216B (zh) * 2020-04-16 2021-07-06 北京百度网讯科技有限公司 学生网络模型的生成方法、装置、设备及存储介质
CN111723914A (zh) * 2020-06-22 2020-09-29 中山大学 一种基于卷积核预测的神经网络架构搜索方法

Also Published As

Publication number Publication date
CN113837374A (zh) 2021-12-24
WO2021259262A1 (zh) 2021-12-30
JP7488375B2 (ja) 2024-05-21
EP4170552A4 (en) 2023-12-20
EP4170552A1 (en) 2023-04-26

Similar Documents

Publication Publication Date Title
CN110908667B (zh) 神经网络联合编译的方法、装置和电子设备
CN107169563B (zh) 应用于二值权重卷积网络的处理系统及方法
JP7366274B2 (ja) ニューラル・ネットワークのための適応的探索方法および装置
US20220335304A1 (en) System and Method for Automated Design Space Determination for Deep Neural Networks
WO2022171066A1 (zh) 基于物联网设备的任务分配方法、网络训练方法及装置
CN110442758B (zh) 一种图对齐方法、装置和存储介质
CN112163601A (zh) 图像分类方法、系统、计算机设备及存储介质
CN113645637B (zh) 超密集网络任务卸载方法、装置、计算机设备和存储介质
CN116627662B (zh) 边缘计算的资源处理方法、装置、存储介质及电子设备
CN116489712B (zh) 一种基于深度强化学习的移动边缘计算任务卸载方法
CN114037882A (zh) 边缘人工智能装置、电子装置及其方法
JP7488375B2 (ja) ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体
Guo et al. Energy-efficient incremental offloading of neural network computations in mobile edge computing
CN117155791B (zh) 基于集群拓扑结构的模型部署方法、系统、设备及介质
CN115221102B (zh) 用于优化片上系统的卷积运算操作的方法和相关产品
CN110490317B (zh) 神经网络运算装置及运算方法
CN112528033A (zh) 知识图谱多跳推理方法、装置、电子设备及存储介质
CN113992520B (zh) 一种虚拟网络资源的部署方法和系统
CN113157344B (zh) 移动边缘计算环境下基于drl的能耗感知任务卸载方法
CN108388943B (zh) 一种适用于神经网络的池化装置及方法
CN111338757A (zh) 能量优化的虚拟机部署方法及系统
CN117707795B (zh) 基于图的模型划分的边端协同推理方法及系统
US20220284293A1 (en) Combining compression, partitioning and quantization of dl models for fitment in hardware processors
US20240144051A1 (en) Hardware-aware generation of machine learning models
Allur On-device AI

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221229

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240509