JP7422946B2 - ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築 - Google Patents
ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築 Download PDFInfo
- Publication number
- JP7422946B2 JP7422946B2 JP2023516860A JP2023516860A JP7422946B2 JP 7422946 B2 JP7422946 B2 JP 7422946B2 JP 2023516860 A JP2023516860 A JP 2023516860A JP 2023516860 A JP2023516860 A JP 2023516860A JP 7422946 B2 JP7422946 B2 JP 7422946B2
- Authority
- JP
- Japan
- Prior art keywords
- dnn
- data
- graph
- reconfigurable
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 12
- 238000010276 construction Methods 0.000 title description 4
- 238000000034 method Methods 0.000 claims description 33
- 238000012549 training Methods 0.000 claims description 31
- 238000013138 pruning Methods 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000010200 validation analysis Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 230000036772 blood pressure Effects 0.000 claims description 3
- 230000002787 reinforcement Effects 0.000 claims description 3
- 230000001133 acceleration Effects 0.000 claims description 2
- 238000000137 annealing Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000002068 genetic effect Effects 0.000 claims description 2
- 238000002347 injection Methods 0.000 claims description 2
- 239000007924 injection Substances 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 239000002245 particle Substances 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000001994 activation Methods 0.000 claims 2
- 230000006399 behavior Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 claims 1
- 231100000430 skin reaction Toxicity 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 17
- 230000008901 benefit Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 244000141353 Prunus domestica Species 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 238000000537 electroencephalography Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 4
- 238000002567 electromyography Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000003750 conditioning effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 241000197200 Gallinago media Species 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 235000009499 Vanilla fragrans Nutrition 0.000 description 1
- 244000263375 Vanilla tahitensis Species 0.000 description 1
- 235000012036 Vanilla tahitensis Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000002566 electrocorticography Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002582 magnetoencephalography Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000926 neurological effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
a.オートベイズは、DNNブロックのハイパーパラメータを探索するのではなく、データに固有の潜在的なグラフィカルモデルを探索する利点、
b.オートベイズは、探索されたベイジアングラフに基づいて、タスク分類器、特徴エンコーダ、デコーダ、ニューサンスインジケータおよび敵対的ネットワークに条件付き審査および敵対的審査を課すために複数のDNNブロックを接続する方法の明確な理由を提供する利点、
c.オートベイズは、ベイズボールアルゴリズムおよび順序付き因数分解を用いて、異なる推論モデルを探索するための系統的自動化フレームワークを提供する利点、
d.このフレームワークは、複数の潜在表現および複数のニューサンス因子に適用するように拡張可能である利点、および
e.オートベイズは、完全教師ありの訓練に加えて、半教師あり学習に適したいくつかの関連グラフィカルモデルを自動的に構築することができる利点を有する。
ベイジアングラフ探索
非依存性は、式(1)の完全連鎖ケースからスラッシュでキャンセルされた因子によって明示的に示される。いくつかの変数が条件付きで独立であり得るため、関連する推論戦略は、仮定されたベイジアングラフに応じて変動する。これによって、推論因子グラフ内のリンクをプルーニングすることができる。図4(a)~4(l)に示すように、データセットに固有の各ベイジアングラフ仮説に基づいて、ベイズボールアルゴリズムによって、妥当な推論グラフモデルを自動的に生成することができる。具体的には、各モデルの条件付き確率p(y,s,z|x)は、以下のように求めることができる。
図3(c)に示すように、データXが被験者SおよびタスクYに直接依存するケースをモデル化することができる。この場合、ベイズボールによる対応する推論モデルを検討することができる。
図3(d)は、別のグラフィカルモデルを示している。この場合、潜在空間が他の全てのランダム変数を橋渡しする。ベイズボールは、以下のモデルを生成する。
そのグラフィカルモデルは、図4(a)および4(b)にそれぞれ示される。
図3(e)は、潜在変数を含む別のグラフィカルモデルを示している。この場合、潜在空間は、Yのみを要約している。ベイズボールは、以下の推論モデルを生成する。
これらの推論モデルは、図4(c)および4(d)に示される。なお、生成モデルEは、ZおよびSの間に最低限の依存性を有しないため、敵対的打ち切り(sensoring)を用いて、潜在空間Z内のニューサンス情報Sを抑制する必要がある。また、Xの生成モデルがZおよびSの両方に依存するため、図1(b)に示すA-CVAE分類器を使用することが妥当である。
潜在変数が被験者情報Sを要約する図3(f)を検討する。ベイズボールは、図4(e)および4(f)に示す推論グラフを提供する。これらの推論グラフは、以下の式にそれぞれ対応する。
同時分布が図3(g)のモデルGに従うと仮定する場合、ベイズボールは、以下の推論モデルを生成する。
そのグラフィカルモデルは、図4(g)および4(h)に示される。なお、図4(h)の推論モデルGsは、図4(b)の推論モデルDsと同じである。図3(g)および図3(d)に示すように、推論グラフGsおよびDsが同じであっても、その生成モデルXが異なる。具体的には、モデルGのVAEデコーダは、変動潜在空間Zと共にSをフィードするため、CVAEを使用することは、モデルGに対して妥当であるが、モデルDに対して妥当ではない。生成モデルのこの差異は、推論グラフのみが同一であるにもかかわらず、推論の性能に異なる影響を与える可能性がある。
図3(h)および3(i)に示される生成モデルHおよびIの両方は、ベイズボールで有用な条件付き非依存性が見つからないため、グラフがそれぞれ図2(a)~2(c)に示される式(2)の完全連結推論戦略を有する。モデルDsおよびGsの関係と同様に、ベイジアングラフHおよびIの推論グラフは、同一であり得るが、その生成モデルXは、図3(h)および3(i)に示すように異なる。
より多くの頂点を有するベイジアングラフを一般化するために、複数の潜在ベクトルをさらに検討する。図3(j)および3(k)に示すように、2つの潜在空間を有するグラフモデルの2つの実施形態に着目する。これらのモデルは、単一の潜在変数ZがSおよびYにそれぞれ関連付けられる2つの部分Z1およびZ2に分離されることを除き、モデルDと同じクラスである。図3(j)のベイジアングラフの場合、ベイズボールは、以下の2つのモデルを含むいくつかの推論戦略を生成する。
図3(k)のZ1およびZ2を連結する別の修正モデルは、図4(k)および4(l)に示された以下の推論モデルを生成する。
モデルJとの主な違いは、この推論グラフがZ1およびZ2を用いてYを推論することである。
本発明のシステムは、ベイズボールアルゴリズムに基づいて、条件付き非依存性を分析することによって、推論因子グラフ内のリンクの自動プルーニングを容易にする。図8に示すように、ベイズボールアルゴリズムは、10個のルールのみを使用して、条件付き非依存性を特定する。特定の有向ベイジアングラフに対して、グラフ分離基準を適用することによって、他のノードに条件付けを与える2つの独立ノードセット間の条件付き非依存性を判断することができる。具体的には、ベイズボールが図8の停止矢印記号に当たることなく進むことができる場合、無指向性経路が起動される。いくつかの他の条件付きノードが陰影付けされているときに2つのノードセット間にアクティブパスが存在していない場合、これらのランダム変数セットは、条件付きで独立している。本発明は、ベイズボールアルゴリズムを用いて、オートベイズアルゴリズムに対する2つの独立ノードの非依存関係を特定するリストを生成する。
図9は、本開示のいくつかの実施形態に従って、図3および4だけではないより包括的なケースに関し、アルゴリズム1の擬似コードに記載されたオートベイズアルゴリズムの一般的な手順を示す。オートベイズは、仮説ベイジアングラフ仮定に基づいて、ベイズボールアルゴリズムを用いて、非冗長推論因子グラフを自動的に構築する。得られた条件付き非依存性およびプルーニングされた因子グラフに応じて、エンコーダ、デコーダ、分類器、ニューサンス推定器および敵対者のDNNブロックを合理的に接続する。全てのDNNブロックは、変分ベイズ推論において、敵対的学習を用いて訓練される。なお、一実施形態として、各DNNブロックのハイパーパラメータは、オートベイズフレームワーク上のオートMLによってさらに最適化されてもよい。
実験評価を含む実施可能な実施例
本発明者らは、以下のように、公的に入手可能な生理データセットおよびベンチマークMNISTに対するオートベイズの性能を実験的に実証する。
各DNNブロックは、信号を層から層に順次に渡すように、訓練可能な変数と相互に接続されたニューロンノードを含む一組の層を指定するハイパーパラメータを用いて構成されている。訓練可能な変数は、確率的勾配降下、適応運動量、適応勾配、適応境界、ネステロフ加速勾配、および二乗平均平方根伝搬などの勾配法を用いて数値的に最適化される。勾配法は、DNNブロックの出力が、平均二乗誤差、交差エントロピー、構造類似度、負の対数尤度、絶対誤差、交差共分散、クラスタリング損失、発散、ヒンジ損失、ヒューバー損失、負のサンプリング、ワッサースタイン距離、およびトリプレット損失などのより小さい損失値を提供するように、訓練データを用いてDNNブロックの訓練可能なパラメータを更新する。複数の損失関数は、訓練スケジュールポリシーに従って、いくつかの正則化係数でさらに重み付けられる。
図6および7の結果は、最良の推論戦略がデータセットに大きく依存することを示唆している。具体的には、1つのデータセットに対する最良のモデルは、異なるデータセットに対して最良に機能しない。例えば、モデルKzは、ストレスデータセットに対して最良であったが、単純モデルBは、ErrPデータセットに対して最良であった。このことは、各標的データセットに対して、異なる推論戦略を適応的に検討すべきであることを示唆する。オートベイズは、このような適応的フレームワークを提供する。さらに、各データセットに対して、最良のモデルと最悪のモデルとの間の大きな性能差が観察された。例えば、モデルDzは、MIデータセットに対して93.1%のタスク精度を達成したが、モデルEsは、MIデータセットに対して25.5%のタスク精度を達成した。このことは、異なるモデルを探索しない場合、1つの特定のモデルが良好な性能を達成できない可能性があることを意味する。また、再構築損失は、グラフモデルを選択するための良好な指標ではない場合がある。一実施形態は、可能なグラフを効率的に探索するために、グラフニューラルネットワークを用いて因子グラフを関連付け、確率伝搬法を適用することによって、完全連鎖グラフからグラフエッジを漸進的にプルーニングする。具体的には、一組の訓練スケジュールは、学習レート、正則化重みおよび因数分解置換の適応制御と、確率伝搬法を用いて訓練データと検証データとの間の相違を測定することによってより低い優先度のリンクをプルーニングするためのポリシーとを含む。
敵対的訓練を用いた変分ベイズ推定
オートベイズは、例えば、図3(e)のモデルEに潜在変数が含まれる場合、自動エンコーダアーキテクチャを自動的に構築することができる。この場合、Zが再構成Xおよび推論Yの限界を定めるための確率的ノードを表すため、VAEが必要とされる。バニラオートエンコーダとは対照的に、VAEは、潜在p(z)の限界分布を仮定することによって変分推論を使用する。変分法において、我々は、通常分散のような事前分布からZを再パラメータ化することによって、限界を定める。また、我々は、ベイジアングラフモデルに応じて、条件付け変数として、Sに対して半教師ありの再パラメータ化(すなわち、Sに対する再構築損失を組み込むこと)を検討することができる。Yおよび/またはSに対する条件付けは、グラフィカルモデル仮定との整合性に依存する。VAEは、CVAEの特例であるため、以下、より一般的なCVAEをさらに詳細に説明する。
ベイジアングラフにおいてXがZと共にSまたはYに直接依存する場合、オートベイズは、CVAEアーキテクチャ、例えば、図3のモデルE/F/G/H/Iを生成する。これらの生成モデルに対して、デコーダDNNは、SまたはYを条件付きパラメータとして供給する必要がある。また、他のベイジアングラフに対して、第1の推論戦略は、CVAEにおいて条件付きエンコーダ、例えば、潜在変数ZがSに依存する図4のモデルDs/Es/Fs/Gs/Js/Ksを必要とする。
半教師あり学習:カテゴリサンプリング
被験者IDまたはセッションIDなどのニューサンス値Sは、半教師あり方法を必要とする典型的な生理データセットに対して、特に新しいユーザとのHMIシステム展開の試験段階に対して、常に利用可能であるとは限らない。いくつかのグラフィカルモデルは、このような半教師あり訓練によく適している。例えば、図3に示すベイジアングラフモデルのうち、モデルC/E/G/Iは、Xを再現するのにニューサンスSを必要とする。Sの真のラベルが利用可能でない場合、デコーダDNNの全ての可能なカテゴリに対してSを限界化する必要がある。他のベイジアングラフであっても、図4の対応する推論因子グラフは、半教師あり設定にとって便利ではない場合がある。具体的には、モデルEz/Fz/Jz/Kzは、エンドノードにおいて推論Sを有するが、他の推論モデルは、推論Sを用いて他のパラメータを推論する。半教師あり設定においてSが欠落しているかまたは未知である場合、中間ノードにおいてSを有する推論グラフは、全ての可能なニューサンスカテゴリをサンプリングする必要があるため、不便である。例えば、図5に示すモデルKzは、Sの限界化を必要としないため、半教師ありデータセットに容易に適用可能である。
Claims (16)
- 人工ニューラルネットワークアーキテクチャの自動構築を行うためのシステムであって、
信号を送受信するように構成された一組のインターフェイスおよびデータリンクを含み、前記信号は、訓練データ、検証データおよび試験データからなるデータセットを含み、前記信号は、センサ測定値の組み合わせを含み、多次元信号X内の一組の乱数因子をさらに含み、前記乱数因子の一部は、識別するタスクラベルYとニューサンス変量Sとに関連付けられ、
一組の再構成可能な深層ニューラルネットワーク(DNN)ブロックを記憶するための一組のメモリバンクを含み、前記再構成可能なDNNブロックは、前記多次元信号Xを複数の潜在変数Zにエンコードすること、前記潜在変数Zをデコードすることによって前記多次元信号Xを再構築すること、前記タスクラベルYを分類すること、前記ニューサンス変量Sを推定すること、前記ニューサンス変量Sを敵対的に推定すること、またはグラフィカルモデルを選択することのいずれかを行うように構成され、前記メモリバンクは、ハイパーパラメータ、訓練可能な変数、中間ニューロン信号、ならびに順方向パス信号および逆方向パス勾配を含む仮演算値をさらに含み、
前記インターフェイスおよび前記メモリバンクに接続され、前記信号および前記データセットを前記再構成可能なDNNブロックに提出するように構成された少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、ベイズボールアルゴリズムを用いてベイジアングラフ探索を実行し、前記DNNブロックを再構成することによって、前記メモリバンク内の前記ハイパーパラメータを修正し、冗長リンクをコンパクトにプルーニングするように構成されている、システム。 - 前記少なくとも1つのプロセッサは、
一組の訓練スケジュールと、前記再構成可能なDNNブロックの一組の内部層と、前記データセットの基礎をなす一組の基準とを指定するように、前記ハイパーパラメータを修正するステップと、
前記一組の基準に従って、複数のノードをグラフエッジにリンクし、前記多次元信号X、前記タスクラベルY、前記ニューサンス変量Sおよび前記潜在変数Zに対して、特定の置換順序でグラフノードを前記乱数因子に関連付けるように構成された完全連鎖有向ベイジアングラフを作成するステップと、
前記データセットの確率挙動を表す仮説ベイジアングラフモデルを指定する前記一組の基準に従って、置換された完全連鎖ベイジアングラフ内のグラフエッジの特定の組み合わせをプルーニングするステップと、
前記ベイズボールアルゴリズムを用いて、プルーニングされたベイジアングラフ内の2つの独立ノード間の条件付き非依存性関係をリストするステップと、
他のノードを推論するために、データ信号Xに関連付けられたノードに由来する別の完全連鎖有向因子グラフを作成するステップと、
ノード接続をコンパクトにするように、非依存性リストに従って、完全連鎖因子グラフ内の冗長リンクをプルーニングするステップと、
生成モデルと推論モデルとが一致するように、仮説グラフモデルに従って、プルーニングされたベイジアングラフとプルーニングされた因子グラフとを合併するステップと、
敵対的再構成可能なDNNブロックを、前記非依存性リスト内の前記ニューサンス変量Sの一部に非依存である一部の潜在ノードZに取り付けるステップと、
合併された因子グラフによって指定されたリンク接続に従って、フィードすべき複数のデータを連結する複数のリンクを、エンコーダ、デコーダ、ニューサンス推定器およびタスク分類器の他の前記再構成可能なDNNブロックに割り当てるステップと、
指定された訓練スケジュールに従って、変分サンプリングおよび勾配法を用いて、エンコード、デコード、推定、分類、敵対的推定およびモデル選択を行うために、接続されたDNNブロックを用いて構築された前記再構成可能なDNNブロックの全てを訓練するステップと、
前記検証データに対する前記再構成可能なDNNブロックの全ての出力に基づいて、モデルセレクタDNNを用いて、グラフモデルを選択するステップと、
指定されたスケジュールに従って、上記の実行を繰り返すステップと、
前記試験データおよびニューサンスロバスト性で転送されるオンザフライの新しい着信データに対して、訓練された再構成可能なDNNブロックを試験するステップとを実行する、請求項1に記載のシステム。 - 前記変分サンプリングは、乱数発生器およびソフトマックス温度に基づいて、ニアワンホットベクトルを生成するためのガンベルソフトマックストリックを用いて、パラメータ化トリックの事前分布としての等尺性正規分布を有する前記潜在変数、および未知のニューサンス変量およびタスクラベルを有するカテゴリ変数を得るために採用される、請求項2に記載のシステム。
- リンク連結は、複数の訓練可能な線形フィルタを含む多次元テンソル投影を用いて、次元不整合リンクの低次元信号を変換するステップをさらに含む、請求項2に記載のシステム。
- 前記モデル選択は、エンコーダ/デコーダDNNブロックのモデルコンセンサス、注目メカニズムおよびサイクル整合性を考慮するモデルセレクタDNNブロックに従って、重み付きアンサンブル和を用いて、仮説グラフィカルモデルの複数の出力を選出するステップをさらに含み、請求項2に記載のシステム。
- 前記再構成可能なDNNブロックは、完全接続層、畳み込み層、グラフ畳み込み層、リカレント層、ルーピー接続、スキップ接続、および調整済み線形変量、双曲線正接、シグモイド、ゲート線形、ソフトマックス、および閾値を含む一組の非線形アクティベーションを含むインセプション層の組み合わせで構成され、ドロップアウト、スワップアウト、ゾーンアウト、ブロックアウト、ドロップコネクト、ノイズ注入、シェイキングおよびバッチ正規化の組み合わせで正則化され、
層パラメータは、前記プロセッサによって調整される複数のハイパーパラメータによって指定されたメモリのサイズを低減するためにさらに量子化される、請求項1に記載のシステム。 - 前記訓練は、前記再構成可能なDNNブロックの出力が目的関数の組み合わせの中でより小さい損失値を提供するように、前記訓練データを用いて前記再構成可能なDNNブロックの前記訓練可能なパラメータを更新し、
前記目的関数は、平均二乗誤差、交差エントロピー、構造類似度、負の対数尤度、絶対誤差、交差共分散、クラスタリング損失、発散、ヒンジ損失、ヒューバー損失、負のサンプリング、ワッサースタイン距離、およびトリプレット損失の組み合わせをさらに含み、
損失関数は、前記指定された訓練スケジュールに従って調整された複数の正則化係数を用いて、重み付けられる、請求項2に記載のシステム。 - 前記勾配法は、確率的勾配降下、適応運動量、適応勾配、適応境界、ネステロフ加速勾配、および二乗平均平方根伝搬の組み合わせを採用して、前記再構成可能なDNNブロックの前記訓練可能なパラメータを最適化する、請求項2に記載のシステム。
- 前記データセットは、センサ測定値の組み合わせを含み、
前記センサ測定値は、
画像、写真、映画、テキスト、文字、音声、音楽、オーディオ、スピーチなどのメディアデータと、
電波、光信号、電気パルス、温度、圧力、加速度、速度、振動、力などの物理データと、
心拍数、血圧、質量、湿度、脳波、筋電図、心電図、筋音図、眼電図、電気皮膚反応、脳磁図、および皮質電図などの生理データとをさらに含む、請求項1に記載のシステム。 - 前記ニューサンス変量は、被験者識別、セッション番号、生体状態、環境状態、センサ状態、位置、向き、サンプリング率、時間および感度などの異なる因子にグループ化される、請求項1に記載のシステム。
- 前記再構成可能なDNNブロックの各々は、一組の人工ニューロンノードを有する一組の層を指定するハイパーパラメータをさらに含み、
隣接する層からの一対の前記ニューロンノードは、複数の訓練可能な変数および活性化関数に相互に接続され、前の層からの信号を次の層に順次に渡す、請求項1に記載のシステム。 - 前記ニューサンス変量Sは、教師あり設定、半教師あり設定、および教師なし設定の組み合わせに従って、複数のドメイン側情報として複数の変量因子S1、S2、SNにさらに分解され、
前記潜在変数は、解きほぐされた特徴ベクトルとして複数の潜在変数因子Z1、Z2、・・・、ZLにさらに分解される、請求項1に記載のシステム。 - 前記ハイパーパラメータを修正することは、強化学習、進化戦略、微分進化、粒子スワーム、遺伝的アルゴリズム、アニーリング、ベイジアン最適化、ハイパーバンド、および多目的ラマッキアン進化の組み合わせを用いて、異なる組み合わせの離散的なハイパーパラメータ値および継続的なハイパーパラメータ値を探索する、請求項2に記載のシステム。
- 前記試験するステップは、前記再構成可能なDNNブロックが新しいニューサンス変量を含む新しいデータセットに適応するように、前記訓練可能な変数の組み合わせを解凍することによって、前記訓練された再構成可能なDNNブロックを改良するためのポスト訓練ステップをさらに含む、請求項2に記載のシステム。
- 前記敵対的再構成可能なDNNブロックは、一組の潜在ベクトルが前記ニューサンス変量の組み合わせに最小限に関係するように、勾配上昇および勾配下降の交互更新を用いて前記訓練可能な変数を学習するように構成され、
前記敵対的再構成可能なDNNブロックはさらに、エンコーダDNNブロックとデコーダDNNブロックとの相違を最小限にするように構成されている、請求項2に記載のシステム。 - 前記一組の訓練スケジュールは、学習レート、正則化重み、因数分解置換および前記訓練データと前記検証データとの間の相違を測定する確率伝搬法を用いてより低い優先度のリンクをプルーニングするためのポリシーの適応制御を含む、請求項2に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/919,211 | 2020-07-02 | ||
US16/919,211 US20220004875A1 (en) | 2020-07-02 | 2020-07-02 | Automated Construction of Neural Network Architecture with Bayesian Graph Exploration |
PCT/JP2021/008847 WO2022004057A1 (en) | 2020-07-02 | 2021-02-26 | Automated construction of neural network architecture with bayesian graph exploration |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023529242A JP2023529242A (ja) | 2023-07-07 |
JP7422946B2 true JP7422946B2 (ja) | 2024-01-26 |
Family
ID=75439388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023516860A Active JP7422946B2 (ja) | 2020-07-02 | 2021-02-26 | ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220004875A1 (ja) |
EP (1) | EP3980942A1 (ja) |
JP (1) | JP7422946B2 (ja) |
CN (1) | CN115769228A (ja) |
WO (1) | WO2022004057A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11651194B2 (en) * | 2019-11-27 | 2023-05-16 | Nvidia Corp. | Layout parasitics and device parameter prediction using graph neural networks |
US11283349B2 (en) | 2020-04-23 | 2022-03-22 | Nvidia Corp. | Techniques to improve current regulator capability to protect the secured circuit from power side channel attack |
US11507704B2 (en) | 2020-04-23 | 2022-11-22 | Nvidia Corp. | Current flattening circuit for protection against power side channel attacks |
US11909482B2 (en) * | 2020-08-18 | 2024-02-20 | Qualcomm Incorporated | Federated learning for client-specific neural network parameter generation for wireless communication |
CN115174824A (zh) * | 2021-03-19 | 2022-10-11 | 阿里巴巴新加坡控股有限公司 | 视频生成方法及装置、宣传类型视频生成方法及装置 |
US20230169176A1 (en) * | 2021-11-28 | 2023-06-01 | International Business Machines Corporation | Graph exploration framework for adversarial example generation |
CN114510966B (zh) * | 2022-01-14 | 2023-04-28 | 电子科技大学 | 一种基于图神经网络的端到端大脑因果网络构建方法 |
CN114091360B (zh) * | 2022-01-21 | 2022-04-22 | 武汉格蓝若智能技术有限公司 | 一种多模型融合的电压互感器误差状态评估方法 |
CN114726419A (zh) * | 2022-04-07 | 2022-07-08 | 重庆邮电大学 | 基于深度学习的共轭梯度大规模mimo检测方法 |
WO2023249068A1 (en) * | 2022-06-24 | 2023-12-28 | Mitsubishi Electric Corporation | Automated variational inference using stochastic models with irregular beliefs |
JP7262654B1 (ja) | 2022-07-11 | 2023-04-21 | アクタピオ,インコーポレイテッド | 情報処理方法、情報処理装置および情報処理プログラム |
CN115429293B (zh) * | 2022-11-04 | 2023-04-07 | 之江实验室 | 一种基于脉冲神经网络的睡眠类型分类方法和装置 |
CN116681644B (zh) * | 2023-02-03 | 2024-01-12 | 红云红河烟草(集团)有限责任公司 | 基于变分贝叶斯推理的烟支外观缺陷检测方法 |
CN117354652B (zh) * | 2023-12-04 | 2024-02-20 | 四川省光为通信有限公司 | 基于变分自编码器的高速多模光模块性能优化方法 |
CN117540106B (zh) * | 2024-01-09 | 2024-04-02 | 湖南工商大学 | 一种多模态数据隐私保护的社交活动推荐方法及设备 |
CN117743611B (zh) * | 2024-02-19 | 2024-04-26 | 长春大学 | 一种数字媒体内容自动分类系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015045091A1 (ja) | 2013-09-27 | 2015-04-02 | 株式会社シーエーシー | ベイジアンネットワークの構造学習におけるスーパーストラクチャ抽出のための方法及びプログラム |
JP2020500377A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび画像収集のための方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200302662A1 (en) * | 2019-03-23 | 2020-09-24 | Uatc, Llc | System and Methods for Generating High Definition Maps Using Machine-Learned Models to Analyze Topology Data Gathered From Sensors |
-
2020
- 2020-07-02 US US16/919,211 patent/US20220004875A1/en active Pending
-
2021
- 2021-02-26 WO PCT/JP2021/008847 patent/WO2022004057A1/en unknown
- 2021-02-26 JP JP2023516860A patent/JP7422946B2/ja active Active
- 2021-02-26 EP EP21717572.8A patent/EP3980942A1/en not_active Withdrawn
- 2021-02-26 CN CN202180045543.3A patent/CN115769228A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015045091A1 (ja) | 2013-09-27 | 2015-04-02 | 株式会社シーエーシー | ベイジアンネットワークの構造学習におけるスーパーストラクチャ抽出のための方法及びプログラム |
JP2020500377A (ja) | 2016-11-23 | 2020-01-09 | ゼネラル・エレクトリック・カンパニイ | ディープラーニング医療システムおよび画像収集のための方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220004875A1 (en) | 2022-01-06 |
WO2022004057A1 (en) | 2022-01-06 |
EP3980942A1 (en) | 2022-04-13 |
CN115769228A (zh) | 2023-03-07 |
JP2023529242A (ja) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7422946B2 (ja) | ベイジアングラフ探索を用いたニューラルネットワークアーキテクチャの自動構築 | |
Kanjo et al. | Deep learning analysis of mobile physiological, environmental and location sensor data for emotion detection | |
Saeed et al. | Federated self-supervised learning of multisensor representations for embedded intelligence | |
Abdelhameed et al. | A deep learning approach for automatic seizure detection in children with epilepsy | |
Lotte et al. | A review of classification algorithms for EEG-based brain–computer interfaces: a 10 year update | |
Lin et al. | GCRNN: Group-constrained convolutional recurrent neural network | |
Hong et al. | Toward personalized activity recognition systems with a semipopulation approach | |
Martinez et al. | Learning deep physiological models of affect | |
Rumelhart et al. | Backpropagation: The basic theory | |
US20230162023A1 (en) | System and Method for Automated Transfer Learning with Domain Disentanglement | |
CN115804602A (zh) | 基于注意力机制的多通道特征融合的脑电情绪信号检测方法、设备和介质 | |
Alshammari et al. | Evaluating machine learning techniques for activity classification in smart home environments | |
WO2023095460A1 (en) | System and method for automated transfer learning with domain disentanglement | |
Zhao et al. | Attention‐based sensor fusion for emotion recognition from human motion by combining convolutional neural network and weighted kernel support vector machine and using inertial measurement unit signals | |
Pandian et al. | Effect of data preprocessing in the detection of epilepsy using machine learning techniques | |
Thiemjarus et al. | Context Aware Sensing | |
El-Adawi et al. | Wireless body area sensor networks based human activity recognition using deep learning | |
Purnamasari et al. | EEG based emotion recognition system induced by video music using a wavelet feature vectors and an artificial neural networks | |
Tazrin | Toward lightweight fusion of AI logic and eeg sensors to enable ultra edge-based EEG analytics on IoT devices | |
US20230419075A1 (en) | Automated Variational Inference using Stochastic Models with Irregular Beliefs | |
Aarthi et al. | Robust Prediction of Alcoholism from EEG Signals Using Auto-Encoder | |
Nia et al. | Synthesizing Affective Neurophysiological Signals Using Generative Models: A Review Paper | |
BIKEN SINGH | Affect Analysis from EEG signal using Convolutional LSTM Network | |
US20240164688A1 (en) | System and apparatus for generating imaging information based on at least a signal | |
Demir et al. | AutoBayes: Automated Inference via Bayesian Graph Exploration for Nuisance-Robust Biosignal Analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7422946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |