JP2022003451A - 最適解獲得プログラム、最適解獲得方法および情報処理装置 - Google Patents

最適解獲得プログラム、最適解獲得方法および情報処理装置 Download PDF

Info

Publication number
JP2022003451A
JP2022003451A JP2020107713A JP2020107713A JP2022003451A JP 2022003451 A JP2022003451 A JP 2022003451A JP 2020107713 A JP2020107713 A JP 2020107713A JP 2020107713 A JP2020107713 A JP 2020107713A JP 2022003451 A JP2022003451 A JP 2022003451A
Authority
JP
Japan
Prior art keywords
training data
objective function
distribution
optimum solution
vae
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020107713A
Other languages
English (en)
Inventor
栄二 大田
Eiji Ota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020107713A priority Critical patent/JP2022003451A/ja
Priority to US17/206,182 priority patent/US20210397973A1/en
Publication of JP2022003451A publication Critical patent/JP2022003451A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

【課題】最適解の獲得にかかる時間を短縮することを課題とする。【解決手段】情報処理装置は、目的関数を含む複数の訓練データを用いて、変分オートエンコーダの学習を実行する。情報処理装置は、学習済みの変分オートエンコーダに複数の訓練データを入力して、学習済みの変分オートエンコーダの潜在空間上における複数の訓練データの分布を特定する。情報処理装置は、複数の訓練データの分布に従って、目的関数の最適解の探索範囲を決定し、決定された探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する。【選択図】図15

Description

本発明は、最適解獲得プログラム、最適解獲得方法および情報処理装置に関する。
従来から、与えられた条件(制約条件)の下で、望ましさの尺度(目的関数)に関して、最も良い解(最適解)を求める最適化問題が知られている。一般的に、変数間に交互作用が存在しない場合、どのような最適化手法を用いても、目的関数に関する最適解を比較的容易に求めることができる。ところが、多くの問題では、変数間の交互作用が定量的には分からないが存在するため、変数の組合せ集合により形成される目的関数の曲面である解空間には複数の山や谷が存在する多峰性である。このようなことから、近年では、探索手法に工夫を凝らし、探索回数を削減して最適解を高速に獲得する数理計画法、シミュレーテッド・アニーリング、遺伝的アルゴリズムなどのメタヒューリスティック、応答曲面法などの技術が利用されている。
特開2019−8499号公報 特開2010−146068号公報
しかしながら、上記技術による高速化の効果は、解空間の複雑さに依存しており、複雑な解空間の場合、局所解の捕捉や探索回数が増加して最適化に膨大な時間を要する。例えば、解空間が多峰性のように最適化が存在するか否かが既知ではない空間の場合には、膨大な時間がかかるものの、そもそも最適解に到達することもできない可能性もある。
一つの側面では、最適解の獲得にかかる時間を短縮することができる最適解獲得プログラム、最適解獲得方法および情報処理装置を提供することを目的とする。
第1の案では、最適解獲得プログラムは、コンピュータに、目的関数を含む複数の訓練データを用いて、変分オートエンコーダの学習を実行する処理を実行させる。最適解獲得プログラムは、コンピュータに、学習済みの変分オートエンコーダに前記複数の訓練データを入力して、前記学習済みの変分オートエンコーダの潜在空間上における前記複数の訓練データの分布を特定する処理を実行させる。最適解獲得プログラムは、コンピュータに、前記複数の訓練データの分布に従って、前記目的関数の最適解の探索範囲を決定し、決定された前記探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する処理を実行させる。
一つの側面では、最適解の獲得にかかる時間を短縮することができる。
図1は、実施例1にかかる情報処理装置を説明する図である。 図2は、参考技術にかかるVAEの機械学習を説明する図である。 図3は、参考技術にかかる最適解の獲得を説明する図である。 図4は、参考技術にかかる最適解の獲得を説明する図である。 図5は、参考技術の問題点を説明する図である。 図6は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図7は、訓練データの生成例を説明する図である。 図8は、目的関数の集合の生成例を説明する図である。 図9は、特性値の集合の生成例を説明する図である。 図10は、変数の集合の画像化例を説明する図である。 図11は、目的関数の集合の画像化例を説明する図である。 図12は、特性値の集合の画像化例を説明する図である。 図13は、VAEの学習を説明する図である。 図14は、訓練データの疎密を説明する図である。 図15は、最適解の獲得を説明する図である。 図16は、全体的な処理の流れを示すフローチャートである。 図17は、訓練データの生成処理の流れを示すフローチャートである。 図18は、最適解の獲得処理の流れを示すフローチャートである。 図19は、目的関数、変数、特性値の集合の算出を説明する図である。 図20は、具体例で使用する回路図を示す図である。 図21は、潜在空間を生成するVAEの構造と損失を説明する図である。 図22は、潜在空間における検証データの分布を説明する図である。 図23は、学習データの復元画像を説明する図である。 図24は、潜在空間における節点波形の復元画像を説明する図である。 図25は、潜在空間におけるパラメータおよび電力効率の復元画像を説明する図である。 図26は、潜在空間におけるLmパラメータの分布を説明する図である。 図27は、潜在空間におけるLrパラメータの分布を説明する図である。 図28は、潜在空間におけるCrパラメータの分布を説明する図である。 図29は、潜在空間における電力効率の分布を説明する図である。 図30は、電力効率分布とランダム抽出を説明する図である。 図31は、電力効率分布のシミュレーション値と推定値を説明する図である。 図32は、推定値とシミュレーション値との誤差を説明する図である。 図33は、推定値とシミュレーション値との電力効率の比較を説明する図である。 図34は、最適解の獲得を説明する図である。 図35は、ハードウェア構成例を説明する図である。
以下に、本願の開示する最適解獲得プログラム、最適解獲得方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[情報処理装置の説明]
図1は、実施例1にかかる情報処理装置10を説明する図である。図1に示す情報処理装置10は、変分オートエンコーダ(VAE:Variational Autoencoder)を用いた学習モデルを学習し、ユーザが所望する尺度(目的関数)に対する最適解を求めるコンピュータ装置の一例である。
VAEは、入力データを潜在空間に次元圧縮することで、入力データの特徴量を学習する。その際、類似度の高いデータを潜在空間の任意点に集中させて配置する特徴がある。この特徴に着目して、VAEの訓練データに、正解情報に対応する目的関数、目的関数に影響を与えるパラメータの一例である変数や特性値を与えてVAEを学習することが考えられている。
図2は、参考技術にかかるVAEの機械学習を説明する図である。図2に示すように、参考技術は、目的関数と変数1〜変数nと特性1〜特性nとを含む訓練データに対して規格化や画像化を行って画像の入力データセットを生成し、入力データセットをVAEのエンコーダに入力して、特徴量の圧縮を実行する。そして、参考技術は、圧縮した特徴量をVAEのデコーダに入力して特徴量から出力データセットを復元し、出力データセットに対して復号化や復元を実行して、目的関数と変数1〜変数nと特性1〜特性nとを取得する。このとき、参考技術では、入力データセットと出力データセットとが一致するように、エンコーダやデコーダに対して機械学習を実行する。つまり、エンコーダやデコーダに利用されるニューラルネットワークの機械学習が実行される。
ここで、参考技術では、目的関数を含む上記訓練データを用いて機械学習された学習済みVAEを用いて、ユーザが所望する目的関数の最適解を推論により獲得することが考えられる。なお、ここでは、一例として、目的関数が最大となる最適解の獲得を例にして説明する。
図3と図4は、参考技術にかかる最適解の獲得を説明する図である。図3に示すように、参考技術では、学習済みVAEのエンコーダに訓練データ(Data−1からData−n)を入力して潜在変数(Z−1からZ−n)を取得する。なお、訓練データData−1から生成された潜在変数をZ−1、訓練データData−2から生成された潜在変数をZ−2、訓練データData−nから生成された潜在変数をZ−nとする。
ここで、参考技術では、学習済みVAEの潜在空間を用いて、類似度の高い目的関数が集中して配置される解空間(目的関数の高い部分、低い部分が集中)を構成する。そして、図4に示すように、参考技術では、解空間において目的関数が最大となる潜在変数を特定し、当該潜在変数を学習済VAEのデコーダに入力して復元する。
このように、参考技術では、学習済VAEのデコーダの入力として潜在空間の任意の点を与え、目的関数の最適値を与える「変数、特性値」を学習済VAEのデコーダを用いて推論により獲得するので、複雑な解空間の場合でも高速に最適解を獲得することができる。
しかし、潜在空間において、任意点に対応するデコーダの推論精度の分布は、非一様、局所的変動、部分領域分布など不明であることから、正確な最適解を獲得できるとは限らない。図5は、参考技術の問題点を説明する図である。図5に示すように、参考技術では、学習済VAEの潜在空間における目的関数の分布から、目的関数が最大となる任意点を抽出する。ところが、学習済VAEの潜在空間におけるデコーダの推論精度の分布を考えた場合、抽出された任意点が推論精度の低い領域に該当することがあり、この場合、任意点に基づき復元された最適解が正確とは限らない。一般的に、デコーダの推論精度の分布は不明であることから、参考技術では、最適解を正確に獲得することが困難となる場合がある。
そこで、実施例1にかかる情報処理装置10は、目的関数を含む複数の訓練データを用いてVAEを学習した後、学習済VAEに複数の訓練データを入力して、学習済VAEの潜在空間上における複数の訓練データの分布を特定する。そして、情報処理装置10は、複数の訓練データの分布に従って、目的関数の最適解の探索範囲を決定し、決定された探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する。
すなわち、情報処理装置10は、学習済VAEの潜在空間(目的関数の分布)へ訓練データに対応する潜在変数を写像する。そして、情報処理装置10は、訓練データの分布が疎な領域においては学習済VAEのデコーダの推論精度が低く、密な領域では推論精度が高いことに着目して、潜在空間の任意点において、近傍領域の訓練データ分布の疎密により、最適解候補の採用可否を判別する。この結果、情報処理装置10は、最適解の獲得にかかる時間を短縮することができるとともに、正確な最適解を獲得することができる。
[機能構成]
図6は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図6に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者の端末から各処理の開始要求を受信し、学習結果や最適解の獲得結果などを管理者の端末に送信する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する処理部であり、例えばメモリやハードディスクなどにより実現される。例えば、記憶部12は、データDB13、訓練データDB14を記憶する。
データDB13は、訓練データの生成元となる学習データを記憶するデータベースである。例えば、データDB13は、各種センサなどによりセンシングされたセンシングデータや管理者により入力された各種データなどを記憶する。
訓練データDB14は、VAEの学習に利用する訓練データを記憶するデータベースである。例えば、訓練データDB14は、後述する訓練データ生成部21によって、データDB13に記憶されるデータから生成された訓練データを記憶する。
制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどにより実現される。この制御部20は、訓練データ生成部21、学習部22、集合生成部23、獲得部24を有する。なお、訓練データ生成部21、学習部22、集合生成部23、獲得部24は、プロセッサが有する電子回路やプロセッサが実行するプロセスなどにより実現される。
訓練データ生成部21は、データDB13に記憶されるデータを用いて、訓練データを生成する処理部である。具体的には、訓練データ生成部21は、データDB13に記憶されるデータから目的関数、変数、特性値を特定し、VAEに入力するために、目的関数、変数、特性値それぞれに対応する画像データを生成して、訓練データとして訓練データDB14に格納する。
図7は、訓練データの生成例を説明する図である。図7に示すように、訓練データ生成部21は、目的関数、変数、特性値などの各変数(Πなど)の変動範囲を設定し、変数の集合を生成する。なお、変数の集合におけるkは訓練データの数を示し、mは変数の数を示し、qは変数データの次元を示す。
続いて、訓練データ生成部21は、変数の集合に対して数値計算や測定などにより、目的関数(Γ)の集合と特性値(Λ)の集合を生成する。なお、目的関数の集合におけるnは目的関数の数を示し、rは目的関数データの次元を示し、特性値の集合におけるoは特性値の数を示し、sは特性値データの次元を示す。
その後、訓練データ生成部21は、変数の集合、目的関数の集合、特定値の集合それぞれを画像化し、画像化変数、画像化目的関数、画像化特性値の集合を生成し、この集合を訓練データとして生成する。なお、tは画像化変数の次元を示し、uは画像化目的関数の次元を示し、vは画像化特性値の次元を示す。
(訓練データ生成の具体例)
ここで、図8から図12を用いて、上述した訓練データの生成の具体例を説明する。ここでは、一例として、回路設計における設計パラメータの最適化を例にして説明する。図8は、目的関数の集合の生成例を説明する図である。図9は、特性値の集合の生成例を説明する図である。図10は、変数の集合の画像化例を説明する図である。図11は、目的関数の集合の画像化例を説明する図である。図12は、特性値の集合の画像化例を説明する図である。
まず、訓練データ生成部21は、変数の集合、目的関数の集合、特性値の集合を生成する。具体的には、図8に示すように、訓練データ生成部21は、変数の集合として、「回路素子パラメータ(インダクタンス、キャパシタンス)の組み合わせ」をn個生成する。そして、訓練データ生成部21は、変数の集合をLTspice(登録商標)などの回路シミュレータなどに入力して、目的関数の集合として「電力効率、電力損失」の組み合わせをn個生成する。
同様に、図9に示すように、訓練データ生成部21は、変数の集合「回路素子パラメータ(インダクタンス、キャパシタンス)の組み合わせ1〜n」を回路シミュレータなどに入力して、特性値の集合として「時系列電圧波形(以下では単に「電圧波形」と記載する場合がある)、時系列電流波形(以下では単に「電流波形」と記載する場合がある)」の組み合わせをn個生成する。
続いて、訓練データ生成部21は、変数の集合、目的関数の集合、特性値の集合それぞれを画像化して、画像化変数、画像化目的関数、画像化特性値を生成する。具体的には、図10に示すように、訓練データ生成部21は、変数の1つであるn個のインダクタンス1〜nそれぞれを、変数の値に応じて画像濃度を設定することで画像化する。なお、もう一つの変数であるキャパシタンスについても同様に画像化される。
また、図11に示すように、訓練データ生成部21は、目的関数の1つであるn個の電力効率1〜nそれぞれを、目的関数の値に応じて画像濃度を設定することで画像化する。なお、もう一つの目的変数である電力損失についても同様に画像化される。
また、図12に示すように、訓練データ生成部21は、特性値の1つであるn個の電圧波形1〜nそれぞれを、それぞれの波形が示されるように画像化する。なお、もう一つの目的変数である電流波形についても同様に画像化される。
図6に戻り、学習部22は、訓練データDB14に記憶される訓練データを用いて、VAEを学習する処理部である。具体的には、学習部22は、訓練データである「画像化変数、画像化目的関数、画像化特性値」をVAEに入力し、VAEを学習する。そして、学習部22は、学習が終了すると、学習結果として学習済みのVAEまたは学習済みVAEを構成する各種パラメータを記憶部12に格納する。なお、学習を終了するタイミングは、所定数以上の訓練データを用いた学習が完了した時点や復元誤差が閾値未満となった時点など、任意に設定することができる。
ここで、学習対象のVAEについて説明する。図13は、VAEの学習を説明する図である。なお、図13の説明では、必要に応じてベクトルXなどを単にXと記載する場合がある。図13に示すように、VAEは、エンコーダとデコーダとを有する。エンコーダは、入力データ(ベクトルX)が入力されると、潜在変数zが従う正規分布のパラメータμ(ベクトル)とΣ(ベクトル)を生成する。すなわち、エンコーダは、入力データ(ベクトルX)の特徴を圧縮してN次元のガウス分布の平均μと分散Σを出力し、その2つをもとにして潜在変数Zをサンプリングで求める。デコーダは、サンプリングされた潜在変数から入力データを復元する。そして、VAEは、入力データと復元データとの差分を用いた誤差逆伝搬により、エンコーダとデコーダそれぞれのニューラルネットワークの重みを調節する。
具体的には、図13の(1)は、n次元標準正規分布N(0,I)からランダムにサンプリングされたn次元ベクトルである。図13の(2)は、2つのベクトルの要素毎の積(アダマール積)であり、ベクトルZは平均μ、分散Σのn次元正規分布N(ベクトルμ,ベクトルΣ)からランダムにサンプリングされたn次元ベクトルと等価である。
また、図13の(3)におけるDKL(P||Q)は、2つの確率分布PとQのカルバック・ライプラー距離(以下、KL距離と記載する場合がある)であり、PとQの差異を図る尺度である。KL距離は、PとQが完全に一致するときのみゼロで、それ以外は正の値となる。正則化損失の最小化により、類似性の高い画像が潜在空間中の近くの点にデコードされるようになる。図13の(4)は、復元損失の近似として、入力Xと出力X´との二乗和誤差や交差エントロピー誤差などが用いられる。後述する回路設計の例では、交差エントロピー誤差を用いる。なお、E[A]はAの期待値を表す。
このように設計されたVAEにおいて、訓練データの集合ζ={X,X,・・・X}に対し、Lossを最小化するようにエンコーダとデコーダのパラメータを学習する。なお、エンコーダとデコーダは、階層的なニューラルネットワーク(NN)から構成される。ここで、Lossを最小化するようにNNの重みとバイアスのパラメータを調整する過程がVAEの学習プロセスである。
図6に戻り、集合生成部23は、学習済VAEを用いて、サンプリング集合を生成する処理部である。具体的には、集合生成部23は、学習済VAEに各訓練データを入力して、学習済VAEの潜在空間上における各訓練データの分布を特定し、各訓練データの分布に従って、目的関数の最適解の探索範囲を決定する。
図14は、訓練データの疎密を説明する図である。図14に示すように、集合生成部23は、学習済みVAEのエンコーダの潜在空間へ、複数の訓練データの入力に応じて学習済みVAEのエンコーダにより生成された複数の訓練データそれぞれに対応する潜在変数を写像する。つまり、集合生成部23は、学習済みVAEの潜在空間上における各訓練データそれぞれの目的関数の分布を、各訓練データに対応する潜在変数を写像することで、潜在空間上における各訓練データの分布を特定する。そして、集合生成部23は、潜在空間上において訓練データの疎密を判定し、密である領域に属する各訓練データをサンプリング集合として生成する。
一例を挙げると、集合生成部23は、潜在空間上のおける各訓練データの分布において、目的関数の値が閾値以上などのように、所定条件を満たす複数の任意の点を選択する。続いて、集合生成部23は、選択した各任意の点について、当該任意の点と中心として一定距離の範囲内(各領域)に存在する訓練データの数を計数する。そして、集合生成部23は、最も訓練データの数が多い領域を探索範囲に決定することもできる。
獲得部24は、学習済みVAEを用いて、目的関数の最適解を獲得する処理部である。例えば、獲得部24は、集合生成部23により生成されたサンプリング集合に対して、学習済みVAEを用いてデコードすることで、サンプリング集合から画像化変数、画像化目的関数、画像化特性値の各集合を復元する。そして、獲得部24は、画像化変数、画像化目的関数、画像化特性値の各集合を数値化し、最適解である目的関数、変数、特性値の組み合わせを獲得する。
図15は、最適解の獲得を説明する図である。図15に示すように、獲得部24は、最も訓練データの数が多い領域(すなわち密の領域)に属する複数の訓練データのうち、目的関数の値が最も大きい訓練データを抽出することもできる。つまり、獲得部24は、訓練データの密度が疎である領域の訓練データを対象外(採用否)とする。そして、獲得部24は、抽出した訓練データの潜在変数(特徴量)を学習済VAEのデコーダに入力して復元することで、最適解である目的関数、変数、特性値の組み合わせを獲得することもできる。なお、獲得部24は、獲得した最適解を記憶部12に格納したり、ディスプレイに表示したり、管理端末に送信したりする。
[処理の流れ]
次に、上述した各処理部で実行される処理の流れを説明する。ここでは、全体的な処理、訓練データの生成、最適解の獲得の各処理について説明する。
(全体的な処理)
図16は、全体的な処理の流れを示すフローチャートである。図16に示すように、処理が開始されると、訓練データ生成部21は、訓練データの生成を実行し(S101)、学習部22は、訓練データによるVAEの学習を実行する(S102)。
続いて、集合生成部23は、学習済みVAEの潜在空間におけるサンプリング集合を生成する(S103)。そして、獲得部24は、学習済みVAEにサンプリング集合を与えて、目的関数、変数、特性値の集合を算出し(S104)、目的関数の最小値(または最大値)を獲得する(S105)。
ここで最適解が獲得できない場合(S106:No)、訓練データ生成部21は、各変数の変動範囲を広げる等の再設定を行って、再学習用の訓練データを生成する(S107)。その後、S102以降が繰り返される。
一方、獲得部24は、最適解が獲得できた場合(S106:Yes)、獲得した目的関数、変数、特性値の集合を出力する(S108)。
(訓練データの生成処理)
図17は、訓練データの生成処理の流れを示すフローチャートである。図17に示すように、訓練データ生成部21は、各変数の変動範囲を設定し(S201)、変数の集合を生成する(S202)。
続いて、訓練データ生成部21は、変数の集合を入力として、数値計算や測定等により、目的関数の集合を生成する(S203)。また、訓練データ生成部21は、変数の集合を入力として、数値計算や測定等により、特性値の集合を生成する(S204)。
そして、訓練データ生成部21は、変数の集合から画像化変数の集合を生成し(S205)、目的関数の集合から画像化目的関数の集合を生成し(S206)、特性値の集合から画像化特性値の集合を生成する(S207)。
(最適解の獲得処理)
図18は、最適解の獲得処理の流れを示すフローチャートである。図18に示すように、集合生成部23は、学習済みVAEに訓練データの集合を与えて潜在変数の平均値の集合を算出する(S301)。例えば、集合生成部23は、訓練データの集合ζ={X,X,・・・X}を学習済みVAEのエンコーダに入力し、潜在変数の平均値の集合Ωを取得する。
続いて、集合生成部23は、潜在変数の平均値の集合より、潜在変数の範囲(最小、最大)を算出する(S302)。そして、集合生成部23は、潜在変数の範囲よりサンプリング集合(仮)を生成する(S303)。例えば、集合生成部23は、ユーザが所望する目的関数に該当する範囲のサンプリング集合(仮)Mを生成する。なお、iiはサンプリング集合(仮)の数であり、jは潜在空間(潜在変数の平均値)の次元である。
その後、集合生成部23は、S303で生成した潜在空間におけるサンプリング集合(仮)Mと、S301で生成した潜在変数の平均値の集合Ωとを用いて、訓練データの部分の疎密指標の集合を算出する(S304)。例えば、集合生成部23は、訓練データ分布の疎密指標の集合Nを生成する。なお、iiは、サンプリング集合(仮)の数であり、cは、訓練データ分布の疎密指標の次元である。
続いて、集合生成部23は、訓練データ分布の粗密指標の集合より、最適解候補の採用可否集合を算出する(S305)。例えば、集合生成部23は、サンプリング集合(仮)の数であるiiを用いて、最適解候補の採用可否集合Kを生成する。
そして、集合生成部23は、サンプリング集合(仮)から最適解候補で採用否となった要素を削除して、サンプリング集合を生成する(S306)。例えば、集合生成部23は、サンプリング集合(仮)から、最適解候補の採用可否集合Kのうち採用否となった要素を削除したサンプリング集合Mを生成する。なお、iは、サンプリング集合の数であり、jは、潜在空間(潜在変数の平均値)の次元である。その後、獲得部24は、サンプリング集合をデコードし(S307)、最適解を獲得する(S308)。
図19は、目的関数、変数、特性値の集合の算出を説明する図である。図19に示すように、獲得部24は、潜在変数におけるサンプリング集合Mを学習済みVAEのデコーダに入力し、復元結果として画像化変数D´(d´〜d´)、画像化目的関数E´(e´〜e´)、画像化特性値F´(f´〜f´)の集合ζ={X´,X´,・・・X´}を取得する。なお、X´には、{D´1〜m,E´1〜n,F´1〜o}が含まれる。そして、獲得部24は、画像化変数D´、画像化目的関数E´、画像化特性値F´の集合それぞれを数値化し、変数π´〜π´の集合Π´、目的関数γ´〜γ´の集合Γ、特性値λ´〜λ´の集合Λを生成する。
[具体例]
次に、上述した最適解の獲得の具体例を説明する。ここでは、LLC電流共振回路の回路設計における設計パラメータの最適化を例にして説明する。
(回路図)
まず、設計対象となる回路図について説明する。図20は、具体例で使用する回路図を示す図である。図20に示すように、ここでは、2つのリアクトルLr,LmとコンデンサCrとを有するLLC電流共振回路を例にして説明する。また、図20に示すように、4つの観測点における節点波形と3つのパラメータ(Cr,Lr,Lm)の画像データを用いて、学習および最適解の獲得を実行する。なお、4つの観測点が現象を示す上記特性値に対応し、3つのパラメータが上記変数に対応し、電力効率が上記目的関数に対応する。
(学習データ)
次に、設計パラメータの最適な組み合わせを獲得するためのVAEの学習に利用する学習データについて説明する。ここでは、回路パラメータの変化に対して敏感な4つの観測点1〜4の波形をマルチチャネルの画像データとして与え、出力電流は電力効率変化の影響が大きい最大値を用いる。なお、潜在空間は出力電流毎に異なると予測する。
また、節点波形、電力効率に敏感で設計変更が比較的容易に可能な回路パラメータ(Cr,Lr,Lm)のパラメータ値をマルチチャネルの画像データ(全ピクセルをパラメータ値、最大値で正規化)として与える。さらに、電力効率をマルチチャネルの画像データ(全ピクセルを電力効率)として与える。なお、各画像サイズは、120×120とする。以上より、チャネル数は、観測点数+パラメータ数+電力効率=4+3+1=8とする。また、学習データの数は961個とする。なお、Lmは設計値を使用し、LrとCrは設計値から−30%から+30%の範囲を2%刻みで変動させる。
このような環境において、具体例では、潜在空間において任意点をランダムに抽出し、推論した回路パラメータ組合せを設計パラメータとして採用し、シミュレーションを実施して、回路部品最適化の良否を確認する。
(VAE)
次に、学習対象であるVAEについて説明する。図21は、潜在空間を生成するVAEの構造と損失を説明する図である。図21に示すように、学習対象のVAEは、4段のCNN(Convolutional Neural Network)と2段のFC(Full−Connected)層を有するエンコーダと、1段のFC層と2段のCNNを有するデコーダとから構成される。学習データの数は、各パラメータのステップの2乗=(31)=961とし、そのうちの10%の96個を検証データ、残りの865個を訓練データとして使用する。また、学習時のバッチサイズを16、学習のエポック数を100とし、最適化アルゴリズムであるオプティマイザとしてNadamを使用する。また、1エポックの訓練時間は3秒である。
このような条件により学習された学習済みのVAEの損失(Loss)を図21の下図に示す。図21の横軸は学習のエポック数であり、縦軸は損失である。図21に示すように、訓練データを用いたときの損失(Training loss)が0.2817、検証データを用いたときの損失(Validation loss)が0.2863であり、VAEは、上記学習条件により十分に学習できていることがわかる。
なお、検証に使用した検証データの分布を図22に示す。図22は、潜在空間における検証データの分布を説明する図である。図22に示すように、潜在空間上の点が潜在空間(0,0)を中心に分布し、偏りがなく均一な分布となっていることから、学習データの変動範囲を表現できており、図21に示した検証結果の信頼性も高いと判断できる。
(復元結果)
次に、図23から図25を用いて、VAEによる復元結果を説明する。図23は、学習データの復元画像を説明する図である。図24は、潜在空間における節点波形の復元画像を説明する図である。図25は、潜在空間におけるパラメータおよび電力効率の復元画像を説明する図である。
図23では、4つの観測点と3つのパラメータと電力効率の8つの学習データに対応する画像(学習画像)と、その学習画像を入力して得られる復元画像とを示している。図23に示すように、観測点波形、パラメータ、電力効率の学習画像と復元画像は一致傾向にあり、VAEが十分に学習できていることがわかる。
図24では、観測点1から4で観測された波形の復元画像を示している。なお、各観測点波形の時間は2周期分、振幅は最小から最大区間で補正している。図24に示すように、各観測点波形の復元画像は、連続的な波形の微小変動である。ただし、学習データの波形変動が小さいため観測点波形の特徴量を学習できているかを完全に把握することは難しい面もある。
図25では、3つのパラメータ(Cr,Lr,Lm)と電力効率の復元画像を示している。なお、各パラメータについては、最大値で規格化し、電力効率については、最小から最大の範囲で規格化している。図23に示すように、各パラメータの復元画像は概ね連続的なパラメータ変動を示しており、VAEでパラメータの特徴量を学習できていると判断することができる。同様に、電力効率の復元画像は概ね連続的なパラメータ変動を示しており、VAEで電力効率の特徴量を学習できていると判断することができる。
(潜在空間の調査・検証)
次に、学習済みVAEに対して、訓練データ(入力データ)を入力して、入力データを復元した復元結果と入力データとを比較することにより、学習済みVAEを検証した結果について説明する。
まず、各パラメータの分布の検証を説明する。図26は、潜在空間におけるLmパラメータの分布を説明する図である。図27は、潜在空間におけるLrパラメータの分布を説明する図である。図28は、潜在空間におけるCrパラメータの分布を説明する図である。図29は、潜在空間における電力効率の分布を説明する図である。なお、各パラメータ値および電力効率は、復元画像全ピクセルの平均値を採用した。図26から図29では、学習データが潜在空間で実際はどこに分類されていたかを示す学習データの分布と、潜在空間からグリッド上でサンプリング(抽出)した点がどのような値を持っているかを示す復元値とを図示する。なお、図26から図29の縦軸は、潜在空間上に形成した解空間の2次元座標であり、横軸は、潜在空間上に形成した解空間の1次元座標である。また、分布の横に示す縦の数値は、解空間次元であり、ここでは2次元の例を図示している。この場合、(0,0)が解空間の中心である。
図26に示すように、VAEに入力したパラメータLmの学習データの分布と、学習済みのVAEによる復元されたパラメータLmの復元値とを比較すると、学習データと復元値の分布傾向は概ね同一傾向(一定値)であり、パラメータLmの分布を学習できていると判断することができる。
また、図27に示すように、VAEに入力したパラメータLrの学習データの分布と、学習済みのVAEによる復元されたパラメータLrの復元値とを比較すると、学習データと復元値の分布傾向は概ね同一傾向(一定値)であり、パラメータLrの分布を学習できていると判断することができる。
図28に示すように、VAEに入力したパラメータCrの学習データの分布と、学習済みのVAEによる復元されたパラメータCrの復元値とを比較すると、学習データと復元値の分布傾向は概ね同一傾向(一定値)であり、パラメータCrの分布を学習できていると判断することができる。
また、図29に示すように、VAEに入力した電力効率の学習データの分布と、学習済みのVAEによる復元された電力効率の復元値とを比較すると、学習データと復元値の分布傾向は概ね同一傾向(一定値)であり、電力効率の分布を学習できていると判断することができる。
(設計パラメータ組合せの獲得)
次に、学習済みVAEに対して、訓練データを入力することにより、潜在空間上でサンプリング集合を生成し、サンプリング集合を復元することで、最適な設計パラメータの組み合わせを獲得する具体例について説明する。
図30は、電力効率分布とランダム抽出を説明する図である。ここでは、図30に示すように、電力効率分布から任意の点をランダムに200点抽出する。そして、抽出した各点を用いて、各パラメータを推定し、設計パラメータを獲得する。
次に、電力効率のシミュレーション値と、電力効率の学習済みVAEによる推定値との比較を説明する。図31は、電力効率分布のシミュレーション値と推定値を説明する図である。なお、潜在空間における電力効率(縦軸)の分布を示す。図31の(1)に示すように、学習データに利用した電力効率の分布は、シミュレーション値と推定値とにおいて同じ傾向を示している。また、図31の(2)に示す電力効率の低い部分では、シミュレーション値と推定値とでは若干異なる傾向にあるが、図31の(3)に示す電力効率の高い部分では、シミュレーション値と推定値とでは同じ傾向にある。
次に、電力効率のシミュレーション値と、電力効率の学習済みVAEによる推定値との誤差を説明する。図32は、推定値とシミュレーション値との誤差を説明する図である。なお、図32では、絶対誤差(縦軸)と相対誤差(縦軸)それぞれの分布を示す。
絶対誤差について、図32の(1)に示すように、学習データ内では概ね絶対誤差±0.0011以下であるが、図32の(2)に示すように、学習データの領域外の一部で誤差が若干大きい。また、誤差の頻度分布は概ね正規分布の傾向を示している。
相対誤差について、図32の(3)に示すように、学習データ内では概ね相対誤差±0.12以下であるが、図32の(4)に示すように、学習データの領域外の一部で誤差が若干大きい。また、誤差の頻度分布は概ね正規分布の傾向を示している。
図33は、推定値とシミュレーション値との電力効率の比較を説明する図である。図33では、図20に示した電源回路(LLC電流共振)の電力効率について、シミュレーション値と学習済みVAEを用いた推定値とを示している。図33に示すように、絶対誤差±0.002の検証データは、学習データの内挿領域の95.5%、全体の62.5%を網羅し、絶対誤差±0.003の検証データは、学習データの内挿領域の100%、全体の82.0%を網羅する。ここでは、絶対誤差±0.003以下に検証データの82%が包含されており(特徴量分布におけるランダムな200点で検証)、設計指標を最大化するパラメータ変数の組み合わせ候補の獲得を行った。
(設計パラメータ組合せの最適化)
次に、図34を用いて、図33で取得した設計パラメータ組合せについて、最大電力効率となるパラメータ組み合わせの獲得について説明する。図34は、最適解の獲得を説明する図である。
図34に示す最適解の獲得では、学習データ内の電力効率分布から10,000点をランダムに抽出し、学習済みVAEのエンコーダにより生成される潜在空間上において最大電力効率となる最適点を獲得する。そして、学習済みVAEのデコーダを用いて最適点より各パラメータを推定し、設計パラメータの最適値を獲得した。
図34に示すように、設計パラメータLm、Lr、Crそれぞれの最適解と設計値(設計値上で得られる最適解)との誤差は許容できる範囲内で収まっている。また、電力効率の推論値とシミュレーション値とのそれぞれについて、最適解と設計値との誤差も許容できる範囲内で収まっている。つまり、実施例1で説明した学習済みVAEを用いて獲得した最適値は、設計パラメータ範囲(学習データ内)における最適な設計パラメータ組合せと同一傾向である。
[効果]
上述したように、実施例1にかかる情報処理装置10は、潜在空間の任意点において、近傍領域の訓練データ分布の疎密により、最適解候補の採用可否を判別し、密な場合は採用し、疎な場合は不採用とする。この結果、情報処理装置10は、潜在空間からデコーダの推論精度の高い任意点を抽出することが可能となり、正確な最適解を獲得できる。
また、情報処理装置10は、潜在空間において、任意点に対応するデコーダの推論精度の分布が不明な場合も正確な最適解の獲得が可能となる。情報処理装置10は、潜在空間において、デコーダの推論精度が低い任意点を最適解の候補から除外することが可能となる。情報処理装置10は、潜在空間の任意点に対応するデコーダの推論精度の実験、数値計算等による検証が不要となる。
また、情報処理装置10は、学習済みVAEを再学習する場合でも、各変数の変動範囲を容易に正確に再設定することができ、再学習の精度を向上させることができる。例えば、1度目の学習時のLmパラメータの分布が図24の場合、図24の分布を参照して、2度目の学習データの分布を広げたり、別の分布となるような学習データを生成したりすることができる。
また、情報処理装置10は、学習済みVAEの潜在空間を用いて、訓練データの分布を表現して出力することもできる。このため、学習済みVAEにより最適解を獲得できずに、学習済みVAEを再学習する場合でも、密度が低い訓練データを除去するなどの対応を行うことができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[データや数値等]
上記実施例で用いたデータ例、数値例、閾値、表示例等は、あくまで一例であり、任意に変更することができる。また、訓練データには、正解情報である目的関数が含まれていてればよく、目的関数に影響を与える変数等を任意に選択することができる。上記実施例では、目的関数等を画像化する例を説明したが、これに限定されるものではなく、グラフなど画像の特徴量を表現できる他の情報を採用することができる。
また、具体例では、回路設計におけるパラメータの最適解を例にして説明したが、あくまで一例であり、他の分野にも適用することができる。また、上記実施例では、変分オートエンコーダを用いた例を説明したが、これに限定されるものではなく、潜在空間上で類似度の高い目的関数を集約させることができる他の機械学習を用いることもできる。
[疎密の判定]
潜在空間上における訓練データの疎密の判定は、様々な手法を採用することができる。例えば、クラスタリング手法を用いて、潜在空間上の潜在変数をクラスタに分類し、属する潜在変数の数が最も多いクラスタを選択する。そして、選択したクラスタ内の潜在変数のうち、目的関数の値が最大である訓練データの潜在変数を抽出して、デコーダに入力することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図35は、ハードウェア構成例を説明する図である。図35に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図35に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図6に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図6に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図6等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、訓練データ生成部21、学習部22、集合生成部23、獲得部24等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、訓練データ生成部21、学習部22、集合生成部23、獲得部24等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで最適解の獲得方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 情報処理装置
11 通信部
12 記憶部
13 データDB
14 訓練データDB
20 制御部
21 訓練データ生成部
22 学習部
23 集合生成部
24 獲得部

Claims (7)

  1. コンピュータに、
    目的関数を含む複数の訓練データを用いて、変分オートエンコーダの学習を実行し、
    学習済みの変分オートエンコーダに前記複数の訓練データを入力して、前記学習済みの変分オートエンコーダの潜在空間上における前記複数の訓練データの分布を特定し、
    前記複数の訓練データの分布に従って、前記目的関数の最適解の探索範囲を決定し、
    決定された前記探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する
    処理を実行させることを特徴とする最適解獲得プログラム。
  2. 前記特定する処理は、前記学習済みの変分オートエンコーダの潜在空間へ、前記複数の訓練データの入力に応じて前記学習済みの変分オートエンコーダのエンコーダにより生成された前記複数の訓練データそれぞれに対応する潜在変数を写像することで、前記潜在空間上における前記複数の訓練データの分布を特定することを特徴とする請求項1に記載の最適解獲得プログラム。
  3. 前記決定する処理は、前記潜在空間上における前記複数の訓練データの分布の疎密を判定し、密度が閾値以上である領域を前記最適解の探索範囲と決定することを特徴とする請求項1または2に記載の最適解獲得プログラム。
  4. 前記獲得する処理は、前記密度が閾値以上である領域に属する訓練データから生成された潜在変数のサンプリング集合を生成し、前記サンプリング集合を、前記学習済みの変分オートエンコーダのデコーダに入力して、前記所望の目的関数の最適解を獲得することを特徴とする請求項3に記載の最適解獲得プログラム。
  5. 前記獲得する処理は、前記密度が閾値以上である領域に属する訓練データのうち1つの訓練データを選択し、選択した訓練データから生成された潜在変数を前記学習済みの変分オートエンコーダのデコーダに入力して得られた復元結果に基づき、前記所望の目的関数の最適解を獲得することを特徴とする請求項3に記載の最適解獲得プログラム。
  6. コンピュータが、
    目的関数を含む複数の訓練データを用いて、変分オートエンコーダの学習を実行し、
    学習済みの変分オートエンコーダに前記複数の訓練データを入力して、前記学習済みの変分オートエンコーダの潜在空間上における前記複数の訓練データの分布を特定し、
    前記複数の訓練データの分布に従って、前記目的関数の最適解の探索範囲を決定し、
    決定された前記探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する
    処理を実行することを特徴とする最適解獲得方法。
  7. 目的関数を含む複数の訓練データを用いて、変分オートエンコーダの学習を実行する学習部と、
    学習済みの変分オートエンコーダに前記複数の訓練データを入力して、前記学習済みの変分オートエンコーダの潜在空間上における前記複数の訓練データの分布を特定する特定部と、
    前記複数の訓練データの分布に従って、前記目的関数の最適解の探索範囲を決定する決定部と、
    決定された前記探索範囲に含まれる訓練データを用いて、所望する目的関数の最適解を獲得する獲得部と
    を有することを特徴とする情報処理装置。
JP2020107713A 2020-06-23 2020-06-23 最適解獲得プログラム、最適解獲得方法および情報処理装置 Pending JP2022003451A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020107713A JP2022003451A (ja) 2020-06-23 2020-06-23 最適解獲得プログラム、最適解獲得方法および情報処理装置
US17/206,182 US20210397973A1 (en) 2020-06-23 2021-03-19 Storage medium, optimum solution acquisition method, and optimum solution acquisition apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020107713A JP2022003451A (ja) 2020-06-23 2020-06-23 最適解獲得プログラム、最適解獲得方法および情報処理装置

Publications (1)

Publication Number Publication Date
JP2022003451A true JP2022003451A (ja) 2022-01-11

Family

ID=79022366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020107713A Pending JP2022003451A (ja) 2020-06-23 2020-06-23 最適解獲得プログラム、最適解獲得方法および情報処理装置

Country Status (2)

Country Link
US (1) US20210397973A1 (ja)
JP (1) JP2022003451A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038624A1 (ja) * 2022-08-19 2024-02-22 国立研究開発法人産業技術総合研究所 電流波形分析装置及び電流波形分析方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201718756D0 (en) * 2017-11-13 2017-12-27 Cambridge Bio-Augmentation Systems Ltd Neural interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024038624A1 (ja) * 2022-08-19 2024-02-22 国立研究開発法人産業技術総合研究所 電流波形分析装置及び電流波形分析方法

Also Published As

Publication number Publication date
US20210397973A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
JP6599294B2 (ja) 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、および学習プログラム
US20210326728A1 (en) Anomaly detection apparatus, anomaly detection method, and program
Zandkarimi et al. A generic framework for trace clustering in process mining
JPWO2018207334A1 (ja) 画像認識装置、画像認識方法および画像認識プログラム
US20200035225A1 (en) Data collecting method and system
KR101977231B1 (ko) 커뮤니티 검출 방법 및 커뮤니티 검출 프레임워크 장치
JP2022003451A (ja) 最適解獲得プログラム、最適解獲得方法および情報処理装置
JP7086878B2 (ja) 学習装置、学習方法、プログラムおよび認識装置
KR20220017497A (ko) 이미지 특징 추출 및 네트워크의 훈련 방법, 장치 및 기기
JP2019144623A (ja) モデル学習装置、モデル学習方法、プログラム
CN114565807A (zh) 训练目标图像检索模型的方法和装置
CN114842343A (zh) 一种基于ViT的航空图像识别方法
Asai et al. Towards stable symbol grounding with zero-suppressed state autoencoder
US11881052B2 (en) Face search method and apparatus
JP6793925B2 (ja) 検証装置、方法、及びプログラム
CN114004364A (zh) 采样优化方法、装置、电子设备及存储介质
CN111610026B (zh) 一种基于深度聚类的旋转机械故障诊断方法
JP7392366B2 (ja) 最適解獲得プログラム、最適解獲得方法および情報処理装置
CN110083732B (zh) 图片检索方法、装置及计算机存储介质
CN116561319A (zh) 文本的聚类方法、文本的聚类装置和文本聚类系统
Morell et al. 3d maps representation using gng
CN111708745B (zh) 一种跨媒体数据共享表示方法及用户行为分析方法、系统
Biswas et al. Large scale image clustering with active pairwise constraints
Wu et al. Robust graph fusion and recognition framework for fingerprint and finger‐vein
Liu et al. A novel incipient fault diagnosis method for analogue circuits based on an MLDLCN

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240502