JP7478145B2 - 機械学習モデルの自動生成 - Google Patents
機械学習モデルの自動生成 Download PDFInfo
- Publication number
- JP7478145B2 JP7478145B2 JP2021525023A JP2021525023A JP7478145B2 JP 7478145 B2 JP7478145 B2 JP 7478145B2 JP 2021525023 A JP2021525023 A JP 2021525023A JP 2021525023 A JP2021525023 A JP 2021525023A JP 7478145 B2 JP7478145 B2 JP 7478145B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- layers
- candidate
- child
- parent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title description 17
- 238000000034 method Methods 0.000 claims description 131
- 238000012549 training Methods 0.000 claims description 101
- 230000008569 process Effects 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 44
- 238000003860 storage Methods 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000012360 testing method Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 6
- 238000003909 pattern recognition Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 description 38
- 230000006870 function Effects 0.000 description 9
- 238000010200 validation analysis Methods 0.000 description 9
- 230000002776 aggregation Effects 0.000 description 7
- 238000004220 aggregation Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000000368 destabilizing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002620 method output Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Description
[0001] 従来から、機械学習モデルは、モデルの構造を定め、モデルを訓練するために自動化された技法を使用する専門家によって手動で構築されてきた。機械学習モデルがより複雑に成長するにつれ、機械学習モデルを生成するプロセスを自動化するための様々な試みが行われてきた。しかし、それらの努力に対する成果は限られたものであった。
[0002] この概要は、以下の詳細な説明の中で更に説明する一連の概念を単純化した形で紹介するために提供する。この概要は、特許請求の範囲に記載の内容の重要な特徴又は本質的な特徴を識別することも、特許請求の範囲に記載の内容の範囲を限定するために使用されることも意図しない。
[0007] 添付図面に関して詳細な説明を記載する。図中、参照番号の一番左の数字はその参照番号が最初に登場する図面を識別する。説明及び図面の異なるインスタンス内で同様の参照番号を使用することは同様の又は同一のアイテムであることを意味し得る。
概要
[0017] 教師あり学習及び/又は教師なし学習を使用して訓練可能な様々な種類の機械学習フレームワークがある。サポートベクトルマシン、決定木、及びニューラルネットワークは教師あり学習に適した機械学習フレームワークのほんの数例であり、モデルはラベル付き訓練データから学習することができる。ニューラルネットワーク等の一部の機械学習フレームワークは、特定の演算を実行するノードの層を使用する。
[0029] 以下の解説は、実行されるニューラルネットワーク等のモデル構造の自動生成を可能にすることができる機能の概要を示す。図1は、本概念と合致する方法100の一例を示す。以下で更に論じるように、方法100は多くの異なる種類の装置上で、例えば1つ又は複数のクラウドサーバによって、ラップトップ、タブレット、若しくはスマートフォン等のクライアント装置によって、又は1つ若しくは複数のサーバ、クライアント装置等の組み合わせによって実装することができる。
[0041] 図2は、親モデル210及び候補層220を示す。以下、親モデルの構造から候補層をどのように導出することができるのかの一例を記載する。以下でより詳細に論じるように、図2は親モデル及び候補層の単一のインスタンスではなく、所与の親モデルから複数の候補層を生成するための手法を表すことに留意されたい。
から計算し、1つ又は複数の入力層から入力を取得し、その出力をxoutに与えるために追加することができる。
[0051] 上記で述べたように、方法100のブロック106は候補層を初期化することも含み得る。概して、候補層の初期化は幾つかの目的を果たすことができる。まず、候補層のパラメータを初期化することは子モデルを初めからではなく初期化から開始して訓練できるようにする。換言すれば、方法100のブロック110において最後の訓練が行われるとき子モデルは既に部分的に訓練されている。第2に、候補層の初期化は候補層に関する情報を提供することができ、そのため以下で更に論じるように他の候補層を省きながら候補層を親モデルに選択的に追加することができる。
[0055] 一部の事例では、方法100のブロック108は、その後の訓練及び評価のために子モデルに含めるためにブロック106で生成した候補層の全てを選択することを含み得る。これが該当する場合、ブロック114で特定の子モデルだけが親モデルとして指定されるので、方法100は従来の技法と比較して依然として著しい利益をもたらすことができる。その結果、各反復内の子モデルは既知の優れた親モデルから導出される。新たな子モデルを成長させるとき、この手法は探索空間のかなりの部分を省くことを可能にする。
として集約候補層演算404を公式xcによって完遂することができる。
を加えることによって強制することができ、λoutはスパース性の水準を管理するためのターゲット層215(xout)に関連するパラメータである。別の代替策は、以下のように線形損失を二乗損失で置換することである:
一部の実装では、
であり、従って先の等式は
と等しいことを思い出されたい。
[0063] 初期化後、所与の子モデルは親モデルから継承した学習済みパラメータ、更にその子モデルに含まれる任意の候補層の初期化パラメータを含み得る。上記で論じたように、方法100のブロック110は子モデルを全体として訓練することを含むことができ、例えば候補層を親モデルの残りの部分と一緒に訓練することができる。これは「ウォームスタート」技法と見なすことができ、子モデルは訓練の開始時に候補層のパラメータを初期化し、親モデルのパラメータを継承しており、そのどちらも所与の子モデルを全体として訓練するとき更に修正され得る。
[0067] 先に述べたように、方法100のブロック114で特定の子モデルを親モデルプールに追加する。親モデルプールにどの子モデルを追加するのかを決定するための1つの手法は、過去に発見されたモデルと比較してその後の反復内で改善を示す子孫をどの子モデルがもたらす可能性が高いのかを予測するために1つ又は複数の基準を使用することを含む。概して、基準は所与の子モデルの損失並びに所与の子モデルを訓練するための計算量等の要因を考慮し得る。損失が高いことはモデルの検証中の精度が低いことを含意し、コストが高いことは訓練データセットに基づく訓練時間が長いことを含意する。親モデルプールに含めるために、相対的に低い損失及び少ない計算量を示す子モデルを優先することができる。
[0082] 図9は、モデル構造を増分的に成長させるための処理フロー900の大まかな概要を示す。この処理フローは、親モデルプールをどのように反復的に成長させることができるのかを示す。この処理フローは、仮想マシン等のワーカープロセスに特定のタスクを割り当てるための手法の一例である。例えばこの処理フローは、ワーカープロセスが利用できるようになるときハイパーバイザ又はオペレーティングシステムが新たなジョブを徐々にスケジューリングする分散システム又はサーバファームに適している場合がある。
[0088] 本明細書の実装は様々な装置上で様々なシナリオ内で実行され得る。図10は、以下で更に論じるように本明細書の実装をその内部で使用することができるシステム1000の一例を示す。
[0094] 上記で述べたように、クライアント装置1010上の構成モジュール1011は、モデル生成モジュール1021に初期構成パラメータを与えることができる。モデル生成モジュール1021は、構成モジュールによって与えられる構成パラメータに従って方法100を実行することができる。図11は、これらの構成パラメータをユーザが定めるためにクライアント装置1010上で提示可能な構成グラフィカルユーザインタフェース(「GUI」)1100の一例を示す。
[00101] 本明細書で論じた技法は制限なしに様々なアプリケーションに使用することができる。それでもなお、以下の内容は一部の具体例を説明目的で示す。
[00109] 図10に関して上記で述べたように、システム1000は、クライアント装置1010、サーバ1020、サーバ1030、及びクライアント装置1040を含む幾つかの装置を含む。同じく述べたように、装置の全ての実装を図示できるわけではなく、上記の及び下記の説明から装置の他の実装が当業者に明らかになる。
[00117] 上記では様々な装置の例を記載した。更なる例を以下に記載する。一例は計算装置上で実行される方法を含み、この方法は反復的モデル成長プロセスの2回以上の反復を実行することを含み得る。反復的モデル成長プロセスは、1つ又は複数の親モデルの親モデルプールから特定の親モデルを選択すること、複数の候補層を生成し、特定の親モデルの学習済みパラメータを再利用しながら複数の候補層を初期化することを含み得る。反復的モデル成長プロセスは、訓練のために子モデルに含めるための特定の候補層を選択することも含むことができ、それぞれの子モデルは特定の親モデル及び特定の候補層の1つ又は複数を含み得る。反復的モデル成長プロセスは、複数の子モデルを訓練して訓練済みの子モデルを得ること、1つ又は複数の基準を使用して訓練済みの子モデルを評価すること、及び評価することに少なくとも基づき、個々の訓練済みの子モデルを新たな親モデルとして指定し、新たな親モデルを親モデルプールに追加することも含み得る。この方法は、2回以上の反復後に少なくとも1つの訓練済みの子モデルを最終モデルとして選択し、その最終モデルを出力することも含み得る。
[00137] 本内容は構造上の特徴及び/又は方法論的な動作に固有の言語で記載してきたが、添付の特許請求の範囲において定める内容は上記の特定の特徴又は動作に必ずしも限定されないことを理解すべきである。むしろ、上記の特定の特徴及び動作は特許請求の範囲を実装する形態の例として開示しており、当業者によって認識される他の特徴及び動作も特許請求の範囲に含まれることを意図する。
Claims (17)
- 計算装置上で実行される方法であって、
反復的モデル成長プロセスの2回以上のモデル成長反復を実行することであって、前記反復的モデル成長プロセスは、
1つ又は複数の親モデルの親モデルプールから、複数の層を有する特定の親モデルを選択すること、
複数の候補層を前記特定の親モデルに挿入し、前記複数の候補層が前記特定の親モデルに接続されている間、訓練中に前記候補層の学習された重みを得るために前記複数の候補層を初期化することであって、前記複数の候補層は、前記特定の親モデルの前記複数の層の重みを維持しながら初期化される、こと、
少なくとも前記複数の候補層の前記学習された重みに基づいて、後続の訓練のために複数の子モデルの各子モデルに含めるための選択された候補層として前記複数の候補層のすべてより少ない層を選択することであって、それぞれの子モデルは前記特定の親モデル及び前記選択された候補層の1つ又は複数を含む、こと、
前記1つ又は複数の選択された候補層を有する前記複数の子モデルを訓練して訓練済みの子モデルを得ること、
前記訓練済みの子モデルを訓練し又は試験する計算コストを求めること、及び
前記訓練済みの子モデルを訓練し又は試験する前記計算コストに少なくとも基づき、個々の訓練済みの子モデルを新たな親モデルとして選択し、前記新たな親モデルを前記親モデルプールに追加すること
を含む、実行すること、並びに
前記2回以上のモデル成長反復後に少なくとも1つの訓練済みの子モデルを最終モデルとして選択し、前記最終モデルを出力すること
を含む、方法。 - 前記計算コストを求めることは、前記訓練済みの子モデルを訓練する訓練コストを求めることと、前記訓練済みの子モデルを試験する試験コストを求めることを含む、請求項1に記載の方法。
- 前記訓練済みの子モデルに関連する損失を求めること、及び
個々の前記訓練済みの子モデルを新しい親モデルとして選択し、少なくとも前記損失に基づいて前記新しい親モデルを前記親モデルプールに追加すること
を更に含む、請求項2に記載の方法。 - 前記計算コストを反映する第1の軸及び前記損失を反映する第2の軸を有するグラフ上に前記訓練済みの子モデルをプロットすること、及び
前記グラフ上の前記新たな親モデルの対応する位置に少なくとも基づいて前記新たな親モデルを選択すること
を更に含む、請求項3に記載の方法。 - 前記グラフ上の下側凸包又はパレートフロンティアの少なくとも1つを求めること、及び
前記下側凸包又は前記パレートフロンティアに対する前記新たな親モデルの近接度に少なくとも基づいて前記新たな親モデルを選択すること
を更に含む、請求項4に記載の方法。 - 前記選択することが、
前記下側凸包又は前記パレートフロンティアの所定の近傍に含まれる前記訓練済みの子モデルのサブセットを識別すること、
前記訓練済みの子モデルの前記サブセットについて個々の確率を求めること、及び
前記個々の確率に少なくとも基づいて前記新たな親モデルを選択すること
を含む、請求項5に記載の方法。 - それぞれの候補層を挿入することが、
前記それぞれの候補層の出力を受信するために前記特定の親モデルからターゲット層を選択すること、
前記それぞれの候補層に入力を与えるために前記特定の親モデルから1つ又は複数の入力層を選択すること、及び
前記それぞれの候補層が前記入力に対して実行すべき特定の演算を選択すること
を含む、請求項1に記載の方法。 - 前記特定の演算を前記選択することが、
演算群を定めること、及び
前記演算群から前記特定の演算をランダムに選択すること
を含む、請求項7に記載の方法。 - 前記特定の親モデルから前記ターゲット層及び少なくとも1つの入力層をランダムに選択すること
を更に含む、請求項7に記載の方法。 - 前記最終モデルがニューラルネットワークである、請求項1に記載の方法。
- ハードウェア処理ユニットと、
前記ハードウェア処理ユニットによって実行されるとき、
反復的モデル成長プロセスを実行することであって、
1つ又は複数の親モデルの親モデルプールから、複数の層を有する特定の親モデルを選択すること、
複数の候補層を前記特定の親モデルに挿入し、前記複数の候補層の学習された重みを得るために前記複数の候補層を初期化することであって、前記初期化は、前記特定の親モデルの前記複数の層の重みを維持しながら訓練によって実行される、こと、
後続の訓練のために子モデルに含める特定の候補層を選択することであって、前記特定の候補層は、前記複数の候補層のすべてより少ない層を含み、少なくとも前記初期化によって得られた前記学習された重みに基づいて、前記複数の候補層から選択される、こと、及び
複数の子モデルを訓練して訓練済みの子モデルを得ることであって、それぞれの子モデルは前記特定の親モデルの複数の前記複数の層を含み、前記複数の候補層から選択された前記特定の候補層のうちの少なくとも1つを含む、こと、
を含む、実行すること、並びに
前記複数の子モデルから選択される最終モデルを出力すること
を前記ハードウェア処理ユニットに行わせるコンピュータ可読命令を記憶する記憶資源と
を含む、システム。 - 前記複数の候補層は前記特定の親モデルへの接続性を共有し、異なる演算を実行する、請求項11に記載のシステム。
- 前記反復的モデル成長プロセスは、個々の子モデルを前記親モデルプールに追加することを含む、請求項11に記載のシステム。
- 個々の候補層は、少なくとも畳み込み演算とプーリング演算を含む異なる演算を実行する、請求項13に記載のシステム。
- 前記コンピュータ可読命令は前記ハードウェア処理ユニットによって実行されるとき、
少なくとも1つの分類、機械翻訳、又はパターン認識タスク用の訓練データを使用して前記最終モデルを訓練すること、及び
前記最終モデルを実行のために提供することであって、前記最終モデルは前記少なくとも1つの分類、機械翻訳、又はパターン認識タスクを実行するように適応されている、こと
を前記ハードウェア処理ユニットに行わせる、請求項11に記載のシステム。 - 前記コンピュータ可読命令は前記ハードウェア処理ユニットによって実行されるとき、
後続の訓練のために前記子モデルに含める前記特定の候補層を選択するために、前記複数の候補層の前記学習された重みに対して特徴選択技法を実行すること
を前記ハードウェア処理ユニットに行わせる、請求項11に記載のシステム。 - 処理装置によって実行されると、
反復的モデル成長プロセスの2回以上のモデル成長反復を実行することであって、前記反復的モデル成長プロセスは、
1つ又は複数の親モデルの親モデルプールから、複数の層を有する特定の親モデルを選択すること、
複数の候補層を前記特定の親モデルに挿入すること、
前記特定の親モデルの前記複数の層の重みを維持しながら、前記複数の候補層の学習された重みを得るために、前記複数の候補層が前記特定の親モデルに接続されている間、訓練によって前記複数の候補層を初期化すること、
少なくとも前記複数の候補層の前記学習された重みに基づいて、後続の訓練のために前記複数の候補層のすべてより少ないサブセットを選択すること、
複数の子モデルを訓練して訓練済みの子モデルを得ることであって、それぞれの子モデルは、前記特定の親モデルの前記複数の層を継承し、前記複数の候補層のすべてより少ない前記選択されたサブセットからの少なくとも1つの候補層を含む、こと、及び
1つ又は複数の基準に少なくとも部分的に基づいて、個々の訓練済みの子モデルを新たな親モデルとして指定し、前記新たな親モデルを前記親モデルプールに追加すること
を含む、実行すること、並びに
前記2回以上の反復後に少なくとも1つの訓練済みの子モデルを最終モデルとして選択し、前記最終モデルを出力すること
を含む動作を前記処理装置に実行させる命令を記憶するコンピュータ可読記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2024067927A JP2024096983A (ja) | 2018-12-07 | 2024-04-19 | 機械学習モデルの自動生成 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/213,470 US11556778B2 (en) | 2018-12-07 | 2018-12-07 | Automated generation of machine learning models |
US16/213,470 | 2018-12-07 | ||
PCT/US2019/059353 WO2020117411A1 (en) | 2018-12-07 | 2019-11-01 | Automated generation of machine learning models |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024067927A Division JP2024096983A (ja) | 2018-12-07 | 2024-04-19 | 機械学習モデルの自動生成 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510782A JP2022510782A (ja) | 2022-01-28 |
JP7478145B2 true JP7478145B2 (ja) | 2024-05-02 |
Family
ID=68655703
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021525023A Active JP7478145B2 (ja) | 2018-12-07 | 2019-11-01 | 機械学習モデルの自動生成 |
JP2024067927A Pending JP2024096983A (ja) | 2018-12-07 | 2024-04-19 | 機械学習モデルの自動生成 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024067927A Pending JP2024096983A (ja) | 2018-12-07 | 2024-04-19 | 機械学習モデルの自動生成 |
Country Status (14)
Country | Link |
---|---|
US (2) | US11556778B2 (ja) |
EP (1) | EP3891662A1 (ja) |
JP (2) | JP7478145B2 (ja) |
KR (1) | KR20210093931A (ja) |
CN (1) | CN113168559A (ja) |
AU (1) | AU2019394750B2 (ja) |
BR (1) | BR112021009042A2 (ja) |
CA (1) | CA3119027A1 (ja) |
IL (1) | IL283463A (ja) |
MX (1) | MX2021006555A (ja) |
PH (1) | PH12021551336A1 (ja) |
SG (1) | SG11202105300TA (ja) |
WO (1) | WO2020117411A1 (ja) |
ZA (1) | ZA202103317B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11797876B1 (en) * | 2019-06-26 | 2023-10-24 | Amazon Technologies, Inc | Unified optimization for convolutional neural network model inference on integrated graphics processing units |
AU2020352594B2 (en) * | 2019-09-25 | 2023-09-21 | Deepmind Technologies Limited | Augmenting attention-based neural networks to selectively attend to past inputs |
CN110826344B (zh) * | 2019-10-24 | 2022-03-01 | 北京小米智能科技有限公司 | 神经网络模型压缩方法、语料翻译方法及其装置 |
US20210125065A1 (en) * | 2019-10-25 | 2021-04-29 | Affectiva, Inc. | Deep learning in situ retraining |
US11688111B2 (en) * | 2020-07-29 | 2023-06-27 | International Business Machines Corporation | Visualization of a model selection process in an automated model selection system |
US11620582B2 (en) | 2020-07-29 | 2023-04-04 | International Business Machines Corporation | Automated machine learning pipeline generation |
US20220058449A1 (en) * | 2020-08-20 | 2022-02-24 | Capital One Services, Llc | Systems and methods for classifying data using hierarchical classification model |
US20220121922A1 (en) * | 2020-10-20 | 2022-04-21 | Deci.Ai Ltd. | System and method for automated optimazation of a neural network model |
CN114936631B (zh) * | 2021-04-26 | 2023-06-09 | 华为技术有限公司 | 一种模型处理方法及装置 |
US20230115321A1 (en) * | 2021-10-12 | 2023-04-13 | Oracle International Corporation | Fine-tuning multi-head network from a single transformer layer of pre-trained language model |
KR102508886B1 (ko) * | 2022-03-07 | 2023-03-13 | 주식회사 에너자이(ENERZAi) | 신경망 모델 경량화 방법, 및 신경망 모델 경량화 장치 |
CN115293276A (zh) * | 2022-08-15 | 2022-11-04 | 国网智能电网研究院有限公司 | 一种电网设备缺陷识别方法、装置、电子设备和存储介质 |
WO2024085342A1 (en) * | 2022-10-21 | 2024-04-25 | Samsung Electronics Co., Ltd. | A device and a method for building a tree-form artificial intelligence model |
CN116502679B (zh) * | 2023-05-15 | 2023-09-05 | 之江实验室 | 一种模型构建方法、装置、存储介质及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018167885A1 (ja) | 2017-03-15 | 2018-09-20 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7502763B2 (en) * | 2005-07-29 | 2009-03-10 | The Florida International University Board Of Trustees | Artificial neural network design and evaluation tool |
US20180365557A1 (en) * | 2016-03-09 | 2018-12-20 | Sony Corporation | Information processing method and information processing apparatus |
US20180018555A1 (en) * | 2016-07-15 | 2018-01-18 | Alexander Sheung Lai Wong | System and method for building artificial neural network architectures |
JP6603182B2 (ja) * | 2016-07-22 | 2019-11-06 | ファナック株式会社 | 機械学習モデル構築装置、数値制御装置、機械学習モデル構築方法、機械学習モデル構築プログラム、及び記録媒体 |
KR102532658B1 (ko) * | 2016-10-28 | 2023-05-15 | 구글 엘엘씨 | 신경 아키텍처 검색 |
US12014257B2 (en) * | 2017-05-19 | 2024-06-18 | Salesforce, Inc. | Domain specific language for generation of recurrent neural network architectures |
US10387777B2 (en) * | 2017-06-28 | 2019-08-20 | Liquid Biosciences, Inc. | Iterative feature selection methods |
US11948351B2 (en) * | 2018-01-17 | 2024-04-02 | Signify Holding B.V. | System and method for object recognition using neural networks |
US10282864B1 (en) * | 2018-09-17 | 2019-05-07 | StradVision, Inc. | Method and device for encoding image and testing method and testing device using the same |
US20200097847A1 (en) * | 2018-09-21 | 2020-03-26 | Gloudera, lnc. | Hyperparameter tuning using visual analytics in a data science platform |
-
2018
- 2018-12-07 US US16/213,470 patent/US11556778B2/en active Active
-
2019
- 2019-11-01 CN CN201980080971.2A patent/CN113168559A/zh active Pending
- 2019-11-01 CA CA3119027A patent/CA3119027A1/en active Pending
- 2019-11-01 AU AU2019394750A patent/AU2019394750B2/en active Active
- 2019-11-01 KR KR1020217017204A patent/KR20210093931A/ko active Search and Examination
- 2019-11-01 MX MX2021006555A patent/MX2021006555A/es unknown
- 2019-11-01 SG SG11202105300TA patent/SG11202105300TA/en unknown
- 2019-11-01 EP EP19809290.0A patent/EP3891662A1/en active Pending
- 2019-11-01 JP JP2021525023A patent/JP7478145B2/ja active Active
- 2019-11-01 WO PCT/US2019/059353 patent/WO2020117411A1/en unknown
- 2019-11-01 BR BR112021009042-8A patent/BR112021009042A2/pt unknown
-
2021
- 2021-05-17 ZA ZA2021/03317A patent/ZA202103317B/en unknown
- 2021-05-26 IL IL283463A patent/IL283463A/en unknown
- 2021-06-07 PH PH12021551336A patent/PH12021551336A1/en unknown
-
2022
- 2022-12-13 US US18/080,407 patent/US20230115700A1/en active Pending
-
2024
- 2024-04-19 JP JP2024067927A patent/JP2024096983A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018167885A1 (ja) | 2017-03-15 | 2018-09-20 | 楽天株式会社 | 情報処理装置、情報処理方法、および情報処理プログラム |
Non-Patent Citations (1)
Title |
---|
PRELLBERG, Jonas ほか,Lamarckian Evolution of Convolutional Neural Networks,arXiv[online],2018年06月21日,[retrieved on 2023.09.28], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1806.08099v1.pdf> |
Also Published As
Publication number | Publication date |
---|---|
ZA202103317B (en) | 2022-08-31 |
KR20210093931A (ko) | 2021-07-28 |
US11556778B2 (en) | 2023-01-17 |
AU2019394750A1 (en) | 2021-06-03 |
CN113168559A (zh) | 2021-07-23 |
US20200184327A1 (en) | 2020-06-11 |
EP3891662A1 (en) | 2021-10-13 |
PH12021551336A1 (en) | 2021-12-06 |
JP2024096983A (ja) | 2024-07-17 |
MX2021006555A (es) | 2021-07-07 |
AU2019394750B2 (en) | 2024-08-22 |
IL283463A (en) | 2021-07-29 |
WO2020117411A1 (en) | 2020-06-11 |
JP2022510782A (ja) | 2022-01-28 |
SG11202105300TA (en) | 2021-06-29 |
CA3119027A1 (en) | 2020-06-11 |
US20230115700A1 (en) | 2023-04-13 |
BR112021009042A2 (pt) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7478145B2 (ja) | 機械学習モデルの自動生成 | |
US10909455B2 (en) | Information processing apparatus using multi-layer neural network and method therefor | |
US11836610B2 (en) | Concurrent training of functional subnetworks of a neural network | |
JP2019164793A (ja) | ディープニューラルネットワークの動的適応 | |
WO2020242767A1 (en) | Using metamodeling for fast and accurate hyperparameter optimization of machine learning and deep learning models | |
US20200151573A1 (en) | Dynamic precision scaling at epoch granularity in neural networks | |
CN113204988B (zh) | 小样本视点估计 | |
WO2018175164A1 (en) | Resource-efficient machine learning | |
CN113011578B (zh) | 使用神经网络选择计算内核变量 | |
WO2019180314A1 (en) | Artificial neural networks | |
CN113496248A (zh) | 训练计算机实施的模型的方法和设备 | |
WO2018196676A1 (en) | Non-convex optimization by gradient-accelerated simulated annealing | |
US20230229570A1 (en) | Graph machine learning for case similarity | |
US20240005157A1 (en) | Methods and systems for unstructured pruning of a neural network | |
US20220121924A1 (en) | Configuring a neural network using smoothing splines | |
WO2022031561A1 (en) | Memory usage prediction for machine learning and deep learning models | |
KR20190105147A (ko) | 반딧불 알고리즘을 이용한 데이터 클러스터링 방법 및 시스템 | |
Wang et al. | A novel parallel learning algorithm for pattern classification | |
US20240144051A1 (en) | Hardware-aware generation of machine learning models | |
Kye et al. | Meta-Learned Confidence for Transductive Few-shot Learning | |
CN115461754A (zh) | 深度过参数化 | |
US20240249182A1 (en) | Generation and deployment of context-specific machine learning models | |
JP7571251B2 (ja) | 最適化ニューラルアーキテクチャ探索のためのシステム及び方法 | |
Bojja | Not all views are equal: active neural radiance fields | |
JP2024137637A (ja) | 最適化ニューラルアーキテクチャ探索のためのシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7478145 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |