JP7344900B2 - 教師付き機械学習問題用のニューラルネットワークアーキテクチャの選択 - Google Patents
教師付き機械学習問題用のニューラルネットワークアーキテクチャの選択 Download PDFInfo
- Publication number
- JP7344900B2 JP7344900B2 JP2020555022A JP2020555022A JP7344900B2 JP 7344900 B2 JP7344900 B2 JP 7344900B2 JP 2020555022 A JP2020555022 A JP 2020555022A JP 2020555022 A JP2020555022 A JP 2020555022A JP 7344900 B2 JP7344900 B2 JP 7344900B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- measure
- machine learning
- candidate neural
- learning problem
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 189
- 238000010801 machine learning Methods 0.000 title claims description 137
- 238000000034 method Methods 0.000 claims description 56
- 238000000926 separation method Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000009826 distribution Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000005070 sampling Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
- Debugging And Monitoring (AREA)
Description
[0001] 複数の異なるタイプのニューラルネットワークアーキテクチャ(例えば、畳み込みニューラルネットワーク、フィードフォワードニューラルネットワークなど)が知られている。所与の機械学習問題を解くためのニューラルネットワークアーキテクチャ(及び所与のアーキテクチャタイプ内のサブアーキテクチャ)を選択することは、困難なことがある。
[0002] 本技術の幾つかの実施形態は、例として、限定ではなく添付の図面の図に示される。
[0008] 本開示は、一般に、機械学習問題を解くためのニューラルネットワークアーキテクチャを選択するように構成された機械(このような専用機械のコンピュータ化された変形形態及びそのような変形形態の改良形態を含む)、並びにそのような専用機械がニューラルネットワークの技術を提供する他の専用機械と比較して改良される技術に関する。具体的には、本開示は、所与の機械学習問題空間において機械学習問題を解くためのニューラルネットワークアーキテクチャを選択するシステム及び方法に取り組む。
概要
[0012] 本開示は、特に、様々な機能性を個々に提供する方法、システム、及びコンピュータプログラム製品を記載する。以下の記載では、説明目的で、本開示の異なる実施形態の様々な局面の十分な理解を提供するために、多数の具体的な詳細を記載する。しかし、これらの具体的な詳細が全てなくても本開示を実施し得ることが、当業者には明白となるだろう。
アルゴリズム1
1. 複数のディープニューラルネットワーク(DNN)アーキテクチャを提案する。DNNアーキテクチャは、事前に定義されたアーキテクチャの空間からサンプリングされ、又は一般的なビルディングブロックを使用して構築され得る。
2. Glorot Normal初期化を使用して、アーキテクチャの重みを初期化する。代替実施形態において、独立正規分布及びラプラス分布が使用され得る。
3. アーキテクチャごとに、メトリック表現性及び勾配変形を計算する。
4. アーキテクチャ性能を予測するために、ベイジアンリカレントニューラルネットワーク(ベイジアンRNN)への入力として、各アーキテクチャのメトリック表現性及び勾配変形を含む。このタスクのために、ガウス過程を使用することもできる。原理上、予測に関する分布を出力するどのような確率的機械学習アルゴリズムも使用することができる。
5. expected improvementサンプリング、upper confidence boundサンプリング、又はトンプソンサンプリングなどの取得関数への入力として、アーキテクチャごとにベイジアンRNNを使用して計算された事後平均及び分散を使用する。
6. 閾値を超える取得関数の1つ又は複数の値を有する1つ又は複数のアーキテクチャをサンプリングする。
7. 閾値を超える取得関数の1つ又は複数の値を有する1つ又は複数のアーキテクチャを訓練し、提供セットに対するそれらの性能を評価する。観察された性能を用いて、動作4で使用されたモデルを更新する。動作1に戻る。
アルゴリズム2
1. 1つのブロック(C)における1組のセットを考える。
2. C内の各セルについて:
・Glorot Normal初期化を使用して、アーキテクチャの重みを初期化する。代替実施形態において、一様分布(iid)の正規分布及びラプラス分布が使用され得る。
・メトリック表現性及び勾配変形を計算する。これは、複数の初期化にわたり行われ、平均及び分散が報告され得る。
・一定数のエポックの間、ニューラルネットワークを訓練する。
・テストセットに関する精度を計算する。
3. C内のセルのブロック数がBである場合、停止し、最高テスト精度を有するセルを返す。
4. セルアーキテクチャ及びランダム統計値を入力として取り込むベイジアンリカレントニューラルネットワーク(BRNN)を訓練し、テストセット精度を予測する。
5. C内の全てのセルを拡大し、新しいブロックを追加することによって取得されたセルを含むセットDを考える。
6. D内のセルに関してメトリック表現性及び勾配変形を計算する。この計算が(例えば、D内の多数のセルにより)高価すぎる場合には、(i)単にセル構造のみを取り込む追加のBRNNを訓練し、テストセット精度を予測することができ、(ii)それを使用して、予測されたテスト精度に基づいてセットDをフィルタリングすることができる。
7. 動作4のBRNNを使用して、次の反復で考えるセルのセットε⊂Dを決定する。この決定は、ベイジアン最適化フレームワーク内で利用と探索との間のトレードオフによって行われる。
8. ε→Cならば、ステップ2に行く。
[0066] 番号付き実施例1、2、3などとして、特定の実施形態をここで説明する。これらの番号付き実施例は、単なる例として提供されるものであり、主題技術を限定するものではない。
[0091] 特定の実施形態は、論理又は幾つかのコンポーネント若しくは機構を含むと本明細書に記載される。コンポーネントは、ソフトウェアコンポーネント(例えば、機械可読媒体で具現化されるコード)又はハードウェアコンポーネントを構成し得る。「ハードウェアコンポーネント」は、特定の動作を行うことが可能な有形ユニットであり、特定の物理的様式で構成又は配置され得る。様々な例示的実施形態では、1つ若しくは複数のコンピュータシステム(例えば、スタンドアロンコンピュータシステム、クライアントコンピュータシステム、若しくはサーバコンピュータシステム)、又はコンピュータシステムの1つ若しくは複数のハードウェアコンポーネント(例えば、プロセッサ若しくはプロセッサ群)が、ソフトウェア(例えば、アプリケーション又はアプリケーション部分)によって、本明細書に記載するような特定の動作を行うために動作するハードウェアコンポーネントとして構成され得る。
[0098] 図1~4に関連して記載されるコンポーネント、方法、アプリケーションなどは、幾つかの実施形態において、機械及び関連付けられたソフトウェアアーキテクチャの文脈で実施される。以下のセクションは、開示の実施形態での使用に適した代表的な1つ又は複数のソフトウェアアーキテクチャ及び1つ又は複数の機械(例えば、ハードウェア)アーキテクチャを説明する。
Claims (20)
- 処理ハードウェア、並びに
機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含む動作を前記処理ハードウェアに行わせる命令を保存するメモリを含む、システムであって、前記少なくとも1つの訓練可能性測度は、勾配変形を表す、システム。 - 処理ハードウェア、並びに
機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含む動作を前記処理ハードウェアに行わせる命令を保存するメモリを含む、システムであって、前記少なくとも1つの訓練可能性測度が、訓練の第1段階の間、前記候補ニューラルネットワークにおける重みの確率的勾配降下を表す、システム。 - 前記少なくとも1つの表現性測度が、前記訓練を受けていない候補ニューラルネットワークによる、前記機械学習問題空間からのサンプルの分離の測度を表す、請求項2に記載のシステム。
- 前記分離の測度が大きさである、請求項3に記載のシステム。
- 前記分離の測度が角度である、請求項3に記載のシステム。
- 前記機械学習問題を解くための前記少なくとも1つの候補ニューラルネットワークを選択することが、
閾値を超える前記少なくとも1つの表現性測度、及び範囲内の前記少なくとも1つの訓練可能性測度を有する前記少なくとも1つの候補ニューラルネットワークを選択することを含み、前記範囲が、範囲最小値及び範囲最大値によって定義される、請求項2に記載のシステム。 - 前記動作が、
前記機械学習問題を解くために前記少なくとも1つの候補ニューラルネットワークを訓練することをさらに含む、請求項2に記載のシステム。 - 前記動作が、
前記機械学習問題を解くために、前記訓練された少なくとも1つの候補ニューラルネットワークを前記機械学習問題空間で実行することと、
前記訓練された少なくとも1つの候補ニューラルネットワークによって生成された前記機械学習問題に対する解を提供することと、
をさらに含む、請求項7に記載のシステム。 - 機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含む動作を1つ又は複数の機械に行わせる命令を保存する、機械可読媒体であって、前記少なくとも1つの訓練可能性測度は、勾配変形を表す、機械可読媒体。 - 機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含む動作を1つ又は複数の機械に行わせる命令を保存する、機械可読媒体であって、前記少なくとも1つの訓練可能性測度が、訓練の第1段階の間、前記候補ニューラルネットワークにおける重みの確率的勾配降下を表す、機械可読媒体。 - 前記少なくとも1つの表現性測度が、前記訓練を受けていない候補ニューラルネットワークによる、前記機械学習問題空間からのサンプルの分離の測度を表す、請求項10に記載の機械可読媒体。
- 前記分離の測度が大きさである、請求項11に記載の機械可読媒体。
- 前記分離の測度が角度である、請求項11に記載の機械可読媒体。
- 前記機械学習問題を解くための前記少なくとも1つの候補ニューラルネットワークを選択することが、
閾値を超える前記少なくとも1つの表現性測度、及び範囲内の前記少なくとも1つの訓練可能性測度を有する前記少なくとも1つの候補ニューラルネットワークを選択することを含み、前記範囲が、範囲最小値及び範囲最大値によって定義される、請求項10に記載の機械可読媒体。
- 処理ハードウェアによって実行される方法であって、
機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含み、前記少なくとも1つの訓練可能性測度は、勾配変形を表す、方法。 - 処理ハードウェアによって実行される方法であって、
機械学習問題と関連付けられた機械学習問題空間、及び前記機械学習問題を解くための複数の訓練を受けていない候補ニューラルネットワークにアクセスすることと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの表現性を捕捉する少なくとも1つの表現性測度を計算することと、
訓練を受けていない候補ニューラルネットワークごとに、前記機械学習問題に対する前記候補ニューラルネットワークの訓練可能性を捕捉する少なくとも1つの訓練可能性測度を計算することと、
前記少なくとも1つの表現性測度及び前記少なくとも1つの訓練可能性測度に基づいて、前記機械学習問題を解くための少なくとも1つの候補ニューラルネットワークを選択することと、
前記選択された少なくとも1つの候補ニューラルネットワークを表す出力を提供することと、
を含み、前記少なくとも1つの訓練可能性測度が、訓練の第1段階の間、前記候補ニューラルネットワークにおける重みの確率的勾配降下を表す、方法。 - 前記少なくとも1つの表現性測度が、前記訓練を受けていない候補ニューラルネットワークによる、前記機械学習問題空間からのサンプルの分離の測度を表す、請求項16に記載の方法。
- 前記分離の測度が大きさである、請求項17に記載の方法。
- 前記分離の測度が角度である、請求項17に記載の方法。
- 前記機械学習問題を解くための前記少なくとも1つの候補ニューラルネットワークを選択することが、
閾値を超える前記少なくとも1つの表現性測度、及び範囲内の前記少なくとも1つの訓練可能性測度を有する前記少なくとも1つの候補ニューラルネットワークを選択することを含み、前記範囲が、範囲最小値及び範囲最大値によって定義される、請求項16に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/976,514 US11995538B2 (en) | 2018-05-10 | 2018-05-10 | Selecting a neural network architecture for a supervised machine learning problem |
US15/976,514 | 2018-05-10 | ||
PCT/US2019/029532 WO2019217113A1 (en) | 2018-05-10 | 2019-04-27 | Selecting a neural network architecture for a supervised machine learning problem |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021523430A JP2021523430A (ja) | 2021-09-02 |
JPWO2019217113A5 JPWO2019217113A5 (ja) | 2022-04-06 |
JP7344900B2 true JP7344900B2 (ja) | 2023-09-14 |
Family
ID=66429706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020555022A Active JP7344900B2 (ja) | 2018-05-10 | 2019-04-27 | 教師付き機械学習問題用のニューラルネットワークアーキテクチャの選択 |
Country Status (7)
Country | Link |
---|---|
US (2) | US11995538B2 (ja) |
EP (1) | EP3791326A1 (ja) |
JP (1) | JP7344900B2 (ja) |
KR (1) | KR20210008480A (ja) |
CN (1) | CN112470171A (ja) |
CA (1) | CA3097036A1 (ja) |
WO (1) | WO2019217113A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019232099A1 (en) * | 2018-05-29 | 2019-12-05 | Google Llc | Neural architecture search for dense image prediction tasks |
US11537846B2 (en) * | 2018-08-21 | 2022-12-27 | Wisconsin Alumni Research Foundation | Neural network architecture with concurrent uncertainty output |
KR102200212B1 (ko) * | 2018-12-07 | 2021-01-08 | 서울대학교 산학협력단 | 불확실성 예측을 위한 샘플링 모델 생성 장치 및 방법, 불확실성 예측 장치 |
US10616257B1 (en) * | 2019-02-19 | 2020-04-07 | Verizon Patent And Licensing Inc. | Method and system for anomaly detection and network deployment based on quantitative assessment |
US11240340B2 (en) * | 2020-05-12 | 2022-02-01 | International Business Machines Corporation | Optimized deployment of analytic models in an edge topology |
CN113807376A (zh) * | 2020-06-15 | 2021-12-17 | 富泰华工业(深圳)有限公司 | 网络模型优化方法、装置、电子设备及存储介质 |
CN112134876A (zh) * | 2020-09-18 | 2020-12-25 | 中移(杭州)信息技术有限公司 | 流量识别系统及方法、服务器 |
KR102535007B1 (ko) * | 2020-11-13 | 2023-05-19 | 숭실대학교 산학협력단 | Snn 모델 파라미터를 기반으로 모델 수행을 위한 뉴로모픽 아키텍처 동적 선택 방법, 이를 수행하기 위한 기록 매체 및 장치 |
US20220164646A1 (en) * | 2020-11-24 | 2022-05-26 | EMC IP Holding Company LLC | Hydratable neural networks for devices |
CN113204916B (zh) * | 2021-04-15 | 2021-11-19 | 特斯联科技集团有限公司 | 基于强化学习的智能决策方法及系统 |
US20220027792A1 (en) * | 2021-10-08 | 2022-01-27 | Intel Corporation | Deep neural network model design enhanced by real-time proxy evaluation feedback |
US20220035878A1 (en) * | 2021-10-19 | 2022-02-03 | Intel Corporation | Framework for optimization of machine learning architectures |
US20220035877A1 (en) * | 2021-10-19 | 2022-02-03 | Intel Corporation | Hardware-aware machine learning model search mechanisms |
CN114037058B (zh) * | 2021-11-05 | 2024-05-17 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备以及存储介质 |
CN114188022A (zh) * | 2021-12-13 | 2022-03-15 | 浙江大学 | 一种基于TextCNN模型的临床儿童咳嗽智能预诊断系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015533437A (ja) | 2012-10-19 | 2015-11-24 | アピシオ,インク. | 識別不能化および再識別を用いた医療情報解析のためのシステムおよび方法 |
US20150339572A1 (en) | 2014-05-23 | 2015-11-26 | DataRobot, Inc. | Systems and techniques for predictive data analytics |
WO2017058489A1 (en) | 2015-09-30 | 2017-04-06 | Apple Inc. | Methods for color and texture control of metallic glasses by the combination of blasting and oxidization |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05314090A (ja) | 1992-05-14 | 1993-11-26 | Hitachi Ltd | ニューラルネットを用いたパターン認識方法およびその装置 |
US9659248B1 (en) * | 2016-01-19 | 2017-05-23 | International Business Machines Corporation | Machine learning and training a computer-implemented neural network to retrieve semantically equivalent questions using hybrid in-memory representations |
-
2018
- 2018-05-10 US US15/976,514 patent/US11995538B2/en active Active
-
2019
- 2019-04-27 JP JP2020555022A patent/JP7344900B2/ja active Active
- 2019-04-27 CN CN201980031270.XA patent/CN112470171A/zh active Pending
- 2019-04-27 KR KR1020207032320A patent/KR20210008480A/ko unknown
- 2019-04-27 EP EP19722485.0A patent/EP3791326A1/en not_active Withdrawn
- 2019-04-27 WO PCT/US2019/029532 patent/WO2019217113A1/en active Application Filing
- 2019-04-27 CA CA3097036A patent/CA3097036A1/en active Pending
-
2024
- 2024-04-23 US US18/643,691 patent/US20240273370A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015533437A (ja) | 2012-10-19 | 2015-11-24 | アピシオ,インク. | 識別不能化および再識別を用いた医療情報解析のためのシステムおよび方法 |
US20150339572A1 (en) | 2014-05-23 | 2015-11-26 | DataRobot, Inc. | Systems and techniques for predictive data analytics |
JP2017520068A (ja) | 2014-05-23 | 2017-07-20 | データロボット, インコーポレイテッド | 予測データ分析のためのシステムおよび技術 |
WO2017058489A1 (en) | 2015-09-30 | 2017-04-06 | Apple Inc. | Methods for color and texture control of metallic glasses by the combination of blasting and oxidization |
Non-Patent Citations (3)
Title |
---|
Andrew Brock et al,SMASH: One-Shot Model Architecture Search through HyperNetworks,[online],2017年08月17日,[検索日 2023年3月28日]、インターネット<https://arxiv.org/abs/1708.05344> |
Philippe Hamel et al,TRANSFER LEARNING IN MIR: SMARING LEARNED LATENT REPRESENTATIONS FOR MUSIC AUDIO CLASSIFICATION AND SIMILARITY, [online],2013年,[検索日 2023年3月28日]、インターネット<https://archives.ismir.net/ismir2013/paper/000076.pdf> |
Thomas Elsken et al,SIMPLE AND EFFICIENT ARCHITECTURE SEARCH FOR CONVOLUTIONAL NEURAL NETWORKS, [online],2017年11月13日,[検索日 2023年3月28日]、インターネット<https://arxiv.org/abs/1711.04528> |
Also Published As
Publication number | Publication date |
---|---|
CN112470171A (zh) | 2021-03-09 |
US11995538B2 (en) | 2024-05-28 |
US20240273370A1 (en) | 2024-08-15 |
WO2019217113A1 (en) | 2019-11-14 |
KR20210008480A (ko) | 2021-01-22 |
JP2021523430A (ja) | 2021-09-02 |
EP3791326A1 (en) | 2021-03-17 |
US20190347548A1 (en) | 2019-11-14 |
CA3097036A1 (en) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7344900B2 (ja) | 教師付き機械学習問題用のニューラルネットワークアーキテクチャの選択 | |
US11361225B2 (en) | Neural network architecture for attention based efficient model adaptation | |
US11392859B2 (en) | Large-scale automated hyperparameter tuning | |
US11880509B2 (en) | Hand pose estimation from stereo cameras | |
CN111406267B (zh) | 使用性能预测神经网络的神经架构搜索 | |
US10853739B2 (en) | Machine learning models for evaluating entities in a high-volume computer network | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
US11481818B2 (en) | Automated valuation model using a siamese network | |
US11138266B2 (en) | Leveraging query executions to improve index recommendations | |
US20190385073A1 (en) | Visual recognition via light weight neural network | |
US20190122141A1 (en) | Fast hyperparameter search for machine-learning program | |
US20210056434A1 (en) | Model tree classifier system | |
US11860842B2 (en) | Search engine optimization by selective indexing | |
CN113869496A (zh) | 一种神经网络的获取方法、数据处理方法以及相关设备 | |
CN110490058B (zh) | 行人检测模型的训练方法、装置、系统和计算机可读介质 | |
CN113065634B (zh) | 一种图像处理方法、神经网络的训练方法以及相关设备 | |
CN113111996A (zh) | 模型生成方法和装置 | |
CN115907041A (zh) | 一种模型训练方法及装置 | |
US20220311782A1 (en) | Malware detection using frequency domain-based image visualization and deep learning | |
US11861295B2 (en) | Encoding a job posting as an embedding using a graph neural network | |
US20220318687A1 (en) | Dynamically scalable machine learning model generation and retraining through containerization | |
US20220318686A1 (en) | Dynamically scalable machine learning model generation and dynamic retraining | |
KR20240121444A (ko) | 잡음제거 오토인코더를 이용한 rssi 핑거프린팅 기반의 사용자 위치 측정 방법 및 이를 지원하는 장치 | |
KR20240121445A (ko) | 마르코프 전이 필드를 이용한 컨벌루션 신경망 모델 기반의 사용자 위치 측정 방법 및 이를 지원하는 장치 | |
WO2024049509A1 (en) | Generating mobile electronic device user-defined operation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230807 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7344900 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |