JP7131356B2 - 最適化装置、最適化プログラムおよび最適化方法 - Google Patents

最適化装置、最適化プログラムおよび最適化方法 Download PDF

Info

Publication number
JP7131356B2
JP7131356B2 JP2018231731A JP2018231731A JP7131356B2 JP 7131356 B2 JP7131356 B2 JP 7131356B2 JP 2018231731 A JP2018231731 A JP 2018231731A JP 2018231731 A JP2018231731 A JP 2018231731A JP 7131356 B2 JP7131356 B2 JP 7131356B2
Authority
JP
Japan
Prior art keywords
data
multiple regression
unit
model
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018231731A
Other languages
English (en)
Other versions
JP2020095397A (ja
Inventor
拓也 大輪
英俊 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018231731A priority Critical patent/JP7131356B2/ja
Priority to US16/690,335 priority patent/US11556849B2/en
Priority to EP19211445.2A priority patent/EP3667571A1/en
Priority to CN201911226680.8A priority patent/CN111310930B/zh
Publication of JP2020095397A publication Critical patent/JP2020095397A/ja
Application granted granted Critical
Publication of JP7131356B2 publication Critical patent/JP7131356B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Complex Calculations (AREA)
  • Machine Translation (AREA)

Description

本発明の実施形態は、最適化装置、最適化プログラムおよび最適化方法に関する。
従来、学習データより学習モデル(以下、単に「モデル」ともよぶ)を作る教習あり学習において、重回帰(y=Xβ+ξ)で真のモデル(β)を推定する際に、データの性質から、学習データにスパース性が要求されることがしばしばある。
なお、重回帰の式におけるyは、学習データに含まれる目的変数であり、例えば学習用の画像データにおける画像の意味(“2”が描かれている画像における“2”)である。Xは、学習データに含まれる説明変数であり、例えば学習用の画像データにおける画像(ピクセル)である。βは、学習モデルである。ξは、学習データに含まれるノイズである。
図11は、重回帰においてスパース性が要求されることを説明する説明図である。図11に示すように、ケースC1では、ノイズが除去され、y=“2”に対応する画素以外が“0”となっていることから、重回帰においてモデル(β)が見れば良い場所はy=“2”に対応するxのピクセルに限定される。このため、y=“2”とする精度の高いモデルが得られることとなる。これに対し、ケースC2では、重回帰においてノイズ(ξ)でモデル(β)が目移りすることから、精度の低いモデルとなる。
このスパース性の要求を満たすため、学習データに対して、データがスパースなところ(例えば値の殆どが定数(≒0))を抽出するスパース推定を行い、ノイズなどの除去を行っている。このようなスパース推定を行う学習では、予測誤差に正規化項を加えた次の式(1)に示すような最適化問題を解くこととなる。
Figure 0007131356000001
しかしながら、式(1)はNP困難なため、現実的な時間で解を得ることが困難であることから、Grid SearchまたはL1正則化でスパース推定を行う手法が知られている。
Grid Searchは、βの0成分をしらみつぶしで探索し、探索候補のリストを事前に作成する。そして、作成したリスト内の探索候補(L)に限定した通常の回帰(minβ∈L||y-Xβ|| )を実行する。
また、L1正則化は、次の式(2)に示すように、正規化項をL1ノルムに緩和して最適化問題を解く手法である。
Figure 0007131356000002
特表2016-531343号公報 特開2016-123853号公報 特開2005-222422号公報
Tibshirani, R. (1996), "Regression Shrinkage and Selection via the Lasso," Journal of the Royal Statistical Society, Ser. B, 58, 267-288.
しかしながら、上記の従来技術では、スパース推定を精度よく高速に行うことが困難であるという問題がある。例えば、Grid Searchでは、ある程度の精度を保証するために探索候補を増やそうとすると探索候補数が指数的に増えるため、計算時間が多大なものとなる。また、L1正則化では、L1ノルムに緩和するため近似解となり、例えばデータの偏りによって精度が悪くなる場合がある。
1つの側面では、スパース推定を精度よく高速に行うことを可能とする最適化装置、最適化プログラムおよび最適化方法を提供することを目的とする。
1つの案では、最適化装置は、分割部と、正則化処理部と、誤差比算出部と、出力部とを有する。分割部は、目的変数と説明変数とを含む学習データを複数の分割データに分割する。正則化処理部は、分割された各分割データにおいて、学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出する。誤差比算出部は、分割された各分割データのテストデータにおいて、学習データの誤差比の算出に用いるための第2のデータに対し、第2のデータに対する重回帰を行なった結果である第1の重回帰と、第2のデータから第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比を求める。そして、誤差比算出部は、誤差比が所定値以上であるモデルを候補モデルとして抽出する。出力部は、抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する。
本発明の一実施態様によれば、スパース推定を精度よく高速に行うことができる。
図1は、実施形態にかかる最適化装置の機能的構成を例示するブロック図である。 図2は、実施形態にかかる最適化装置の動作例を示すフローチャートである。 図3は、学習データの分割を説明する説明図である。 図4は、動作主体とデータの流れを説明する説明図である。 図5は、Trainデータに対するアニーリングを説明する説明図である。 図6は、j∈Rを除去した重回帰を説明する説明図である。 図7は、動作主体とデータの流れを説明する説明図である。 図8は、要素の0化を説明する説明図である。 図9は、動作主体とデータの流れを説明する説明図である。 図10は、最適化プログラムを実行するコンピュータの構成の一例を示す図である。 図11は、重回帰においてスパース性が要求されることを説明する説明図である。
以下、図面を参照して、実施形態にかかる最適化装置、最適化方法および最適化プログラムを説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する最適化装置、最適化方法および最適化プログラムは、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
[最適化装置の機能構成]
図1は、実施形態にかかる最適化装置の機能的構成を例示するブロック図である。図1に示す最適化装置1は、目的変数と、説明変数とを含む学習データの入力を受け付ける。そして、最適化装置1は、受け付けた学習データに対して、式(1)に関する最適化問題を解いてデータがスパースなところ(例えば値の殆どが定数(≒0))を抽出するスパース推定に関する演算処理を行う。
具体的には、最適化装置1は、入力された目的変数と説明変数とを含む学習データを同数のK個に分割(以後、K分割と呼ぶ)する。次いで、最適化装置1は、K分割された各分割データにおいて、学習データの構造抽出に用いるためのTrain(訓練)データに対してL0正則化の正則化処理を実行し、ゼロとなる要素を抽出する。具体的には、最適化装置1は、Trainデータに基づいて式(1)をイジング形式で表したデータのアニーリングによりL0正則化の正則化処理を行い、ゼロとなる要素を抽出する。このように、最適化装置1は、イジング形式で表したデータのアニーリングにより、ダイレクトなL0正則化を現実的な速度で最適化することができる。
次いで、最適化装置1は、分割された各分割データにおける、検証用のTest(テスト)データに対する重回帰の結果と、Testデータから0となる要素を除いたデータに対する重回帰の結果とを求める。そして、最適化装置1は、求めた2つの重回帰の結果の誤差比が所定値(p)以上であるモデルを候補モデルとして抽出する。最適化装置1は、上記の処理をK分割したデータ分繰り返し行って抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する。
このように、最適化装置1は、L1ノルムに緩和することなく、L0正則化の正則化処理によりデータの偏りを回避したスパース性を抽出でき、スパース推定を精度よく行うことができる。このようなスパース推定に関する機能構成について、例えば、最適化装置1を次のように構成する。
例えば、最適化装置1は、サーバコンピュータなどのコンピュータである。最適化装置1は、1台のコンピュータとして実装してもよく、また、複数台のコンピュータによるコンピュータシステムとして実装してもよい。すなわち、以下に説明する最適化装置1の構成は、複数台のコンピュータによる情報処理システムで処理を分散して実行してもよい。なお、本実施形態では、最適化装置1を1台のコンピュータとした場合を例として説明する。
図1に示すように、最適化装置1は、ビット数計算部11、データ分割部12、イジングモデルアニーリング部13、スパース構造反映部14、重回帰部15、モデル候補判定部16、スパース構造判定部17および出力部18を有する。
入力部10は、演算に関する学習データやパラメータなどのデータの入力を受け付ける処理部である。入力部10は、入力された学習データを学習データテーブル21に格納し、パラメータをパラメータテーブル20に格納する。
学習データは、例えば学習用の画像データにおける画像の意味などの目的変数(y)と、学習用の画像データにおける画像(ピクセル)などの説明変数(X)とを含む、モデル生成用の教師データである。パラメータは、演算時に用いる各種パラメータである。
例えば、パラメータテーブル20に格納されるパラメータには、イジング形式で表す際に、2進展開による整数近似で用いる数列数(l)、モデルの整数近似用の数列(a,…,a)がある。数列数(l)は、例えば1以上の整数であり、ユーザが設定した値の他、ビット数計算部11が計算した値であってもよい(詳細は後述する)。また、数列(a,…,a)は、例えばユーザが設定した実数値などである。
また、パラメータには、正則化項の係数(λ,λ)、学習データの分割数(K)、学習データにおけるTrainデータ/Testデータの比率(q:Train側の割合)がある。正則化項の係数(λ,λ)は、例えばユーザが設定した0以上の実数値などである。学習データの分割数(K)は、例えばユーザが設定した1以上の整数値である。なお、分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たすように分割する場合は、分割数(K)の他に、処理を繰り返す回数itrmax(1以上の整数)を含めてもよい(詳細は後述する)。Trainデータ/Testデータの比率(q:Train側の割合)は、例えばユーザが設定した0~1の実数値であり、q=0.8などがよく用いられる値である。
また、パラメータには、モデル候補を決定する際に用いる閾値(p)、最終モデルを決定する際に用いる閾値(N)がある。閾値(p)は、例えばユーザが設定した0~1の実数値である。閾値(N)は、例えばユーザが設定した1以上の整数値である。
ビット数計算部11は、イジングモデルアニーリング部13におけるデータのビット数を計算する処理部であり、学習データ(X)の列数(n)および整数近似の数列数(l)に対して、n(l+2)とするビット数を計算する。ここで、ビット数計算部11は、イジングモデルアニーリング部13の上限ビット数をNとして、n(l+2)≦Nを満たす最大の整数であるlを計算する。そして、ビット数計算部11は、得られたlの値を2進展開による整数近似で用いる数列数(l)としてパラメータテーブル20に格納する。これにより、最適化装置1は、アニーリングの上限ビット数(N)により近づけるような数列数(l)での整数近似を行うことができる。
データ分割部12は、パラメータテーブル20における学習データの分割数(K)をもとに、学習データテーブル21に格納された学習データを同数のK個にK分割する処理部である。すなわち、データ分割部12は、分割部の一例である。
具体的には、データ分割部12は、学習データの列をランダムに並び替えて、同数のK個に分けることで分割データを得る。次いで、データ分割部12は、K分割により得られた分割データを分割データテーブル22に格納する。
また、データ分割部12は、上記のK分割において、学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たすように分割してもよい。
具体的には、データ分割部12は、K分割を実施した際に、各分割でデータに含まれる係数の上限および係数の下限が所定の条件を満たすか否かをチェックする。一例として、データ分割部12は、学習データ(X)に含まれるxについて、maxa,b,c,d(i) ab(i) cd-mina,b,c,d(i) ab(i) cdがイジングモデルアニーリング部13における上限ビット数整数値の範囲内(例えば16bit整数値)に収まるか否かをチェックする。満たさない場合、データ分割部12は、再度ランダムにK分割を実行し、条件を満たすまで(パラメータテーブル20のitrmaxに設定された繰り返し回数を上限として)繰り返し行う。これにより、データ分割部12は、イジングモデルアニーリング部13における上限ビット数による整数値の範囲内に係数の上限および下限が収まるように、データを分割できる。
イジングモデルアニーリング部13は、分割データテーブル22に格納された各分割データにおいて、Trainデータに対してL0正則化の正則化処理を実行し、ゼロとなる要素を抽出する処理を行う処理部である。すなわち、イジングモデルアニーリング部13は、正則化処理部の一例である。
具体的には、イジングモデルアニーリング部13は、分割データテーブル22に格納された各分割データを読み出し、パラメータテーブル20におけるTrainデータ/Testデータの比率(q)をもとに区分けしてTrainデータを取り出す。次いで、イジングモデルアニーリング部13は、Trainデータに基づいて、式(1)のβを整数近似によるイジング形式で表したデータのアニーリングによりL0正則化の正則化処理を行い、ゼロとなる要素(β=0)を抽出する。次いで、イジングモデルアニーリング部13は、抽出したゼロとなる要素(β=0)をスパース候補記録テーブル23に格納する。
具体的には、イジングモデルアニーリング部13は、式(1)をイジング形式で表すためのイジングbitとしてσ(j)i,τ∈{0,1}を用意する。ここで、σ(j)iは、モデル(β)表現用のイジングbitである。また、τは、L0正則化項の表現用のイジングbitである。
次いで、イジングモデルアニーリング部13は、βをf(σ(j) ,…,σ(j) )で2進展開による整数近似を行う。具体的には、イジングモデルアニーリング部13は、式(3)に示すように、パラメータテーブル20の数列(a,…,a)を用いてモデル(β)を表現する。
Figure 0007131356000003
なお、数列の具体例としては、次のようなBinary、Unary、Sequential、Fibonacciがある。
Binary:a=2
Unary:a≡1
Sequential:a=i
Fibonacci:a=ai-1+ai-2
また、イジングモデルアニーリング部13は、“τ=0”⇔“β=0”を表現するために、Σ(1-τ)σ(j) を追加する。以上により、イジングモデルアニーリング部13は、次の式(4)のように、イジング形式で式(1)を表現する。
Figure 0007131356000004
次いで、イジングモデルアニーリング部13は、Trainデータに基づいて式(4)のようにイジング形式で表現したデータについて、アニーリング処理(例えばデジタルアニーリング(DA))を実行して最適化する。次いで、イジングモデルアニーリング部13は、最適化によってL0正則化した結果から、ゼロとなる要素(β=0)を抽出する。次いで、イジングモデルアニーリング部13は、ゼロとなる要素(β=0)のjをスパース候補記録テーブル23に記録する。
スパース構造反映部14は、学習データテーブル21に格納された学習データについて、スパース候補記録テーブル23に記録されたゼロとなる要素やスパース構造判定部17における判定結果をもとに、スパース構造を反映する処理を行う処理部である。具体的には、スパース構造反映部14は、ゼロとなる要素(モデルβ)をβ=0とする。
重回帰部15は、分割データテーブル22に格納された分割データについて重回帰(minβ||y-Xβ|| )を行い、モデル(β)を推定する処理を行う処理部である。重回帰部15は、重回帰の結果(モデル(β))を重回帰結果記録テーブル24に格納する。
例えば、重回帰部15は、分割データテーブル22に格納された各分割データにおける、検証用のTestデータに対する重回帰を行い、この重回帰の結果(β)を重回帰結果記録テーブル24に格納する。また、重回帰部15は、スパース候補記録テーブル23に記録されたゼロとなる要素(β=0)をもとにスパース構造反映部14によりTestデータから0となる要素が除去されたデータ(j∈Rを除去)に対する重回帰を行い、この重回帰の結果(β)を重回帰結果記録テーブル24に格納する。
モデル候補判定部16は、重回帰結果記録テーブル24に格納された2つの重回帰の結果(β、β)の誤差比をもとに、βを候補モデルとするか否かの判定を行う処理部である。具体的には、モデル候補判定部16は、分割された各分割データにおける、検証用のTestデータに対する重回帰の結果(β)と、Testデータから0となる要素を除いたデータに対する重回帰の結果(β)との誤差比について、次の式(5)が成り立つか否かを求める。そして、誤差比がパラメータテーブル20における閾値(p)以上である場合(式(5)が成り立つ場合)、モデル候補判定部16は、βを候補モデルとし、候補モデルテーブル25に格納する。すなわち、モデル候補判定部16は、誤差比算出部の一例である。
Figure 0007131356000005
スパース構造判定部17は、候補モデルテーブル25に格納された各候補モデル(β)をもとに、最終的なスパース構造を判定する処理を行う処理部である。具体的には、スパース構造判定部17は、β =0となったβがパラメータテーブル20における閾値(N)個以上ある要素を最終的なスパース構造と判定する。
スパース構造反映部14では、スパース構造判定部17の判定結果を受けて、最終的にスパース構造と判定された要素をゼロに置換したモデルを出力する。すなわち、スパース構造反映部14は、出力部の一例である。
重回帰部15では、スパース構造反映部14により最終的にスパース構造と判定された要素をゼロに置換し、β=0となったjを除いた重回帰で最終的なモデル(β)の具体的な値を求める。
出力部18は、重回帰部15による重回帰で求められた最終的なモデル(β)の具体的な値を処理結果として出力する処理部である。
[処理の流れ]
次に、最適化装置1が実行する最適化方法における処理の流れについて説明する。図2は、実施形態にかかる最適化装置1の動作例を示すフローチャートである。
図2に示すように、処理が開始されると、データ分割部12は、目的変数(y)と、説明変数(X)とを含む学習データをK分割する(S1)。
図3は、学習データの分割を説明する説明図である。図3に示すように、データ分割部12は、学習データにおける目的変数(y)と、説明変数(X)とについて、列をランダムに並び替えて同数のK個にK分割する。これにより、データ分割部12は、(y(1),X(1)),…,(y(K),X(K))の分割データを得る。
図4は、動作主体とデータの流れを説明する説明図である。より具体的には、図4は、図2におけるS1~S4に関連する動作主体とデータの流れを太字で示している。図4に示すように、データ分割部12は、S1において、得られた分割データ(y(1),X(1)),…,(y(K),X(K))を分割データテーブル22に格納する。
次いで、最適化装置1は、各分割データ(y(i),X(i))について、S2~S7のループ処理(For i=1,…K、i<-i+1)を実行する。
ループ処理が開始されると、イジングモデルアニーリング部13は、分割データ(y(i),X(i))における、q割のTrainデータ((y(i),X(i)Train)に対し、L0正則化を適用したアニーリング(DA:デジタルアニーリング)を実行する。
図5は、Trainデータに対するアニーリングを説明する説明図である。図5に示すように、分割データ(y(i),X(i))について、パラメータテーブル20におけるTrainデータ/Testデータの比率(q)をもとに、Trainデータと、Testデータとに区分する。そして、イジングモデルアニーリング部13は、Trainデータに対し、デジタルアニーリングを実施してゼロとなる要素(β=0)を抽出する。
次いで、イジングモデルアニーリング部13は、アニーリングで求められたβの0化要素をスパース候補記録テーブル23に記録する(S4)。具体的には、図4に示すように、イジングモデルアニーリング部13は、“β=0”となったjをスパース候補記録テーブル23に記録する。
次いで、重回帰部15は、分割データのTestデータ((y(i),X(i)Test)に対し、0化したβと、全要素のβそれぞれで重回帰を行う(S5)。
具体的には、重回帰部15は、S5において、Testデータ((y(i),X(i)Test)に対し、通常の重回帰(minβ||y-Xβ|| )を行い、モデル(β)を得る。
また、重回帰部15は、Testデータ((y(i),X(i)Test)において一部除去(j∈Rを除去)した重回帰(minβ ||y-Xβ|| )を行い、モデル(β)を得る。
図6は、j∈Rを除去した重回帰を説明する説明図である。図6に示すように、j∈Rを除去した重回帰では、Testデータ((y(i),X(i)Test)において、イジングモデルアニーリング部13により抽出されたゼロとなる要素(j)を除いて重回帰を行う。
図7は、動作主体とデータの流れを説明する説明図である。より具体的には、図7は、図2におけるS5~S6に関連する動作主体とデータの流れを太字で示している。
図7に示すように、重回帰部15は、S5において、Testデータ((y(i),X(i)Test)における通常の重回帰でモデル(β)を得る。また、重回帰部15は、Testデータ((y(i),X(i)Test)における一部除去(j∈Rを除去)した重回帰でモデル(β)を得る。次いで、重回帰部15は、得られたモデル(β、β)を重回帰結果記録テーブル24に格納する。
次いで、モデル候補判定部16は、重回帰結果記録テーブル24に格納された2つの重回帰の結果(β、β)の誤差比をもとに、誤差比が閾値以上のβをモデル候補として候補モデルテーブル25に保持する(S6)。
最適化装置1では、上記のS2~S7のループ処理を、各分割データに対して実施した後に、ループ処理を終了する。これにより、候補モデルテーブル25には、各分割データについて、モデル候補判定部16による判定の結果、モデル候補として残ったβが格納される。
ループ処理に次いで、スパース構造判定部17は、候補モデルテーブル25に格納され、モデル候補に残ったβに対し、0化された要素がパラメータテーブル20における閾値(N)回以上の要素を最終的なスパース構造と判定する。スパース構造反映部14では、スパース構造判定部17の判定結果をもとに、最終的なスパース構造とするモデル、すなわちスパース構造と判定された要素を0化したモデルを出力する(S8)。
図8は、要素の0化を説明する説明図である。図8に示すように、β(1)~β(K)において、βでは、0となったβがn以上である。このようなβについては、最終的にスパース構造と判定し、β=0とする。
次いで、重回帰部15は、スパース構造反映部14により最終的にスパース構造と判定された要素を0化し、β=0となったjの要素を除いた重回帰で最終的なモデル(β)の具体的な値を求める。次いで、出力部18は、重回帰部15による重回帰で求められた最終的なモデル(β)の値を処理結果として出力する(S9)。
図9は、動作主体とデータの流れを説明する説明図である。より具体的には、図9は、図2におけるS8~S9に関連する動作主体とデータの流れを太字で示している。図9に示すように、重回帰部15は、学習データテーブル21の学習データ(y,X)について、スパース構造と判定された要素を0化(一部除去)した重回帰で最終的なモデル(β)の具体的な値を求める。次いで、出力部18では、重回帰部15により得られたβの値を出力する。
[効果]
以上のように、最適化装置1は、データ分割部12と、イジングモデルアニーリング部13と、モデル候補判定部16と、スパース構造反映部14とを有する。データ分割部12は、入力部10より入力された、目的変数と説明変数とを含む学習データを複数の分割データに分割する。イジングモデルアニーリング部13は、分割された各分割データにおいて、学習データの構造抽出に用いるためのTrainデータ(第1のデータ)に対してL0正則化の正則化処理を実行し、ゼロとなる要素(第1の要素)を抽出する。具体的には、イジングモデルアニーリング部13は、Trainデータに基づいてβを整数近似によるイジング形式で表したデータのアニーリングによりL0正則化の正則化処理を行い、β=0となる要素を抽出する。
モデル候補判定部16は、分割された各分割データにおいて、Testデータ(第2のデータ)に対する重回帰の結果と、Testデータからβ=0となる要素を除いたデータに対する重回帰の結果との誤差比が所定値(p)以上であるモデル(β)を候補モデルとして抽出する。スパース構造反映部14は、抽出された各候補モデル(β)について、ゼロが所定回数(N回)以上の要素をゼロに置換したモデルを出力する。
このように、最適化装置1は、L1ノルムに緩和することなく、L0正則化の正則化処理によりデータの偏りを回避したスパース性を抽出でき、スパース推定を精度よく行うことができる。また、最適化装置1は、Trainデータに基づいてイジング形式で表したデータのアニーリングにより、ダイレクトなL0正則化を現実的な速度で最適化することができる。
また、最適化装置1のビット数計算部11は、イジング形式で表す際の2進展開に用いる数列数をlとし、アニーリングの上限ビット数をNbとし、学習データの列数をnとした場合に、n(l+2)≦Nbを満たす最大の整数であるlを2進展開に用いる数列数とする。lは大きいほど2進展開における整数近似の近似精度が良くなる。したがって、最適化装置1は、アニーリングの上限ビット数(Nb)により近づけるようなlでの整数近似を行うことで、より高精度なアニーリングを行うことが可能となる。
また、データ分割部12は、学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たす分割データにK分割する。学習データの分割後のデータ(x)について、イジングモデルアニーリング部13におけるアニーリングでL0正則化する際に、係数の上限/下限は、maxa,b,c,d(i) ab(i) cd/mina,b,c,d(i) ab(i) cdで与えられる。そして、これら係数は、イジングモデルアニーリング部13における上限ビット数(Nb:例えば16bit)整数値に収まることを要する。よって、データ分割部12は、係数の上限および係数の下限が所定の条件、具体的にはmaxa,b,c,d(i) ab(i) cd-mina,b,c,d(i) ab(i) cdが16bit整数値の範囲内に収まるように分割することで、イジングモデルアニーリング部13における上限ビット数による整数値の範囲内でアニーリングを行うことができる。
[その他]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的状態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。例えば、入力部10、ビット数計算部11、データ分割部12、イジングモデルアニーリング部13、スパース構造反映部14、重回帰部15、モデル候補判定部16、スパース構造判定部17および出力部18の各処理部が適宜統合されてもよい。また、各処理部の処理が適宜複数の処理部の処理に分離されてもよい。さらに、各処理部にて行なわれる各処理機能は、その全部又は任意の一部が、CPU(Central Processing Unit)及び該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[最適化プログラム]
また、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することもできる。そこで、以下では、最適化プログラムを実行するコンピュータシステムの一例を説明する。図10は、最適化プログラムを実行するコンピュータの構成の一例を示す図である。
図10に示すように、コンピュータ400は、CPU410、HDD(Hard Disk Drive)420、RAM(Random Access Memory)440を有する。これら400~440の各部は、バス500を介して接続される。
HDD420には入力部10、ビット数計算部11、データ分割部12、イジングモデルアニーリング部13、スパース構造反映部14、重回帰部15、モデル候補判定部16、スパース構造判定部17および出力部18と同様の機能を発揮する最適化プログラム420Aが予め記憶される。なお、最適化プログラム420Aについては、適宜分離してもよい。
また、HDD420は、各種情報を記憶する。例えば、HDD420は、OSや各種プログラム、パラメータテーブル20、学習データテーブル21、分割データテーブル22、スパース候補記録テーブル23、重回帰結果記録テーブル24および候補モデルテーブル25に関する各種情報を記憶する。
そして、CPU410が、最適化プログラム420AをHDD420から読み出して実行することで、上記の実施形態の各処理部を実行するプロセスを動作させる。すなわち、このプロセスは、入力部10、ビット数計算部11、データ分割部12、イジングモデルアニーリング部13、スパース構造反映部14、重回帰部15、モデル候補判定部16、スパース構造判定部17および出力部18と同様の動作を実行する。
なお、上記した最適化プログラム420Aについては、例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に記憶させてもよい。そして、コンピュータ400がこれらから最適化プログラム420Aを読み出して実行するようにしてもよい。
さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ400に接続される「他のコンピュータ(又はサーバ)」などに最適化プログラム420Aを記憶させておく。そして、コンピュータ400がこれらから最適化プログラム420Aを読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)目的変数と説明変数とを含む学習データを複数の分割データに分割する分割部と、
分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出する正則化処理部と、
分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出する誤差比算出部と、
抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する出力部と、
を有することを特徴とする最適化装置。
(付記2)前記正則化処理部は、前記第1のデータに基づいてイジング形式で表したデータのアニーリングにより前記正則化処理を行う、
ことを特徴とする付記1に記載の最適化装置。
(付記3)前記イジング形式で表す際の2進展開に用いる数列数をlとし、前記アニーリングの上限ビット数をNbとし、前記学習データの列数をnとした場合に、n(l+2)≦Nbを満たす最大の整数であるlを前記2進展開に用いる数列数とする計算部をさらに有する、
ことを特徴とする付記2に記載の最適化装置。
(付記4)前記分割部は、前記学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たす前記分割データに分割する、
ことを特徴とする付記1乃至3のいずれか一に記載の最適化装置。
(付記5)目的変数と説明変数とを含む学習データを複数の分割データに分割し、
分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出し、
分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出し、
抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する、
処理をコンピュータが実行することを特徴とする最適化方法。
(付記6)前記第1の要素を抽出する処理は、前記第1のデータに基づいてイジング形式で表したデータのアニーリングにより前記正則化処理を行う、
ことを特徴とする付記5に記載の最適化方法。
(付記7)前記イジング形式で表す際の2進展開に用いる数列数をlとし、前記アニーリングの上限ビット数をNbとし、前記学習データの列数をnとした場合に、n(l+2)≦Nbを満たす最大の整数であるlを前記2進展開に用いる数列数とする処理をさらにコンピュータが実行する、
ことを特徴とする付記6に記載の最適化方法。
(付記8)前記分割する処理は、前記学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たす前記分割データに分割する、
ことを特徴とする付記5乃至7のいずれか一に記載の最適化方法。
(付記9)目的変数と説明変数とを含む学習データを複数の分割データに分割し、
分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出し、
分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出し、
抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する、
処理をコンピュータに実行させることを特徴とする最適化プログラム。
(付記10)前記第1の要素を抽出する処理は、前記第1のデータに基づいてイジング形式で表したデータのアニーリングにより前記正則化処理を行う、
ことを特徴とする付記9に記載の最適化プログラム。
(付記11)前記イジング形式で表す際の2進展開に用いる数列数をlとし、前記アニーリングの上限ビット数をNbとし、前記学習データの列数をnとした場合に、n(l+2)≦Nbを満たす最大の整数であるlを前記2進展開に用いる数列数とする処理をさらにコンピュータに実行させる、
ことを特徴とする付記10に記載の最適化プログラム。
(付記12)前記分割する処理は、前記学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たす前記分割データに分割する、
ことを特徴とする付記9乃至11のいずれか一に記載の最適化プログラム。
1…最適化装置
10…入力部
11…ビット数計算部
12…データ分割部
13…イジングモデルアニーリング部
14…スパース構造反映部
15…重回帰部
16…モデル候補判定部
17…スパース構造判定部
18…出力部
20…パラメータテーブル
21…学習データテーブル
22…分割データテーブル
23…スパース候補記録テーブル
24…重回帰結果記録テーブル
25…候補モデルテーブル
400…コンピュータ
410…CPU
420…HDD
420A…最適化プログラム
440…RAM
500…バス
C1、C2…ケース

Claims (6)

  1. 目的変数と説明変数とを含む学習データを複数の分割データに分割する分割部と、
    分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出する正則化処理部と、
    分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出する誤差比算出部と、
    抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する出力部と、
    を有することを特徴とする最適化装置。
  2. 前記正則化処理部は、前記第1のデータに基づいてイジング形式で表したデータのアニーリングにより前記正則化処理を行う、
    ことを特徴とする請求項1に記載の最適化装置。
  3. 前記イジング形式で表す際の2進展開に用いる数列数をlとし、前記アニーリングの上限ビット数をNbとし、前記学習データの列数をnとした場合に、n(l+2)≦Nbを満たす最大の整数であるlを前記2進展開に用いる数列数とする計算部をさらに有する、
    ことを特徴とする請求項2に記載の最適化装置。
  4. 前記分割部は、前記学習データの分割後のデータに含まれる係数の上限および係数の下限が所定の条件を満たす前記分割データに分割する、
    ことを特徴とする請求項1乃至3のいずれか一項に記載の最適化装置。
  5. 目的変数と説明変数とを含む学習データを複数の分割データに分割し、
    分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出し、
    分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出し、
    抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する、
    処理をコンピュータが実行することを特徴とする最適化方法。
  6. 目的変数と説明変数とを含む学習データを複数の分割データに分割し、
    分割された各分割データにおいて、前記学習データの構造抽出に用いるための第1のデータに対して正則化処理を実行し、ゼロとなる第1の要素を抽出し、
    分割された各分割データのテストデータにおいて、前記学習データの誤差比の算出に用いるための第2のデータに対し、前記第2のデータに対する重回帰を行なった結果である第1の重回帰と、前記第2のデータから前記第1の要素を除いた第3のデータに対する重回帰を行なった結果である第2の重回帰との誤差比が所定値以上であるモデルを候補モデルとして抽出し、
    抽出された各候補モデルについて、ゼロが所定回数以上の要素をゼロに置換したモデルを出力する、
    処理をコンピュータに実行させることを特徴とする最適化プログラム。
JP2018231731A 2018-12-11 2018-12-11 最適化装置、最適化プログラムおよび最適化方法 Active JP7131356B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018231731A JP7131356B2 (ja) 2018-12-11 2018-12-11 最適化装置、最適化プログラムおよび最適化方法
US16/690,335 US11556849B2 (en) 2018-12-11 2019-11-21 Optimization apparatus, non-transitory computer-readable storage medium for storing optimization program, and optimization method
EP19211445.2A EP3667571A1 (en) 2018-12-11 2019-11-26 Optimization apparatus, optimization program, and optimization method
CN201911226680.8A CN111310930B (zh) 2018-12-11 2019-12-04 优化装置、优化方法和非暂态计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231731A JP7131356B2 (ja) 2018-12-11 2018-12-11 最適化装置、最適化プログラムおよび最適化方法

Publications (2)

Publication Number Publication Date
JP2020095397A JP2020095397A (ja) 2020-06-18
JP7131356B2 true JP7131356B2 (ja) 2022-09-06

Family

ID=68696305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231731A Active JP7131356B2 (ja) 2018-12-11 2018-12-11 最適化装置、最適化プログラムおよび最適化方法

Country Status (4)

Country Link
US (1) US11556849B2 (ja)
EP (1) EP3667571A1 (ja)
JP (1) JP7131356B2 (ja)
CN (1) CN111310930B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724203B (zh) * 2020-06-15 2024-02-27 中山世达模型制造有限公司 基于多重回归模型的产品加工价格预估方法及系统
JP2023010414A (ja) 2021-07-09 2023-01-20 富士通株式会社 モデル生成プログラム、モデル生成方法、および情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014160456A (ja) 2013-02-20 2014-09-04 Nec Corp 疎変数最適化装置、疎変数最適化方法および疎変数最適化プログラム
US20170061328A1 (en) 2015-09-02 2017-03-02 Qualcomm Incorporated Enforced sparsity for classification

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005222422A (ja) 2004-02-06 2005-08-18 Ishihara Sangyo Kaisha Ltd データ解析方法及びそのシステム
CN101893884B (zh) * 2010-06-30 2012-07-04 浙江大学 密炼机的橡胶混炼过程中质量指标数据的软测量方法
CN108256651B (zh) 2013-06-28 2022-09-06 D-波系统公司 用于对数据进行量子处理的方法
US9846214B2 (en) 2014-12-29 2017-12-19 Toshiba Medical Systems Corporation Magnetic resonance image reconstruction for undersampled data acquisitions
US9760834B2 (en) * 2015-09-30 2017-09-12 Hampton Creek, Inc. Discovery systems for identifying entities that have a target property
JP6564412B2 (ja) * 2017-03-21 2019-08-21 ファナック株式会社 機械学習装置及び熱変位補正装置
CN108108820A (zh) * 2017-12-20 2018-06-01 第四范式(北京)技术有限公司 用于选择机器学习样本的特征的方法及系统
CN108764568B (zh) * 2018-05-28 2020-10-23 哈尔滨工业大学 一种基于lstm网络的数据预测模型调优方法及装置
CN113168891A (zh) * 2018-09-14 2021-07-23 西北大学 用于材料系统的设计优化和/或性能预测的数据驱动的表示和聚类离散化方法及系统及其应用

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014160456A (ja) 2013-02-20 2014-09-04 Nec Corp 疎変数最適化装置、疎変数最適化方法および疎変数最適化プログラム
US20170061328A1 (en) 2015-09-02 2017-03-02 Qualcomm Incorporated Enforced sparsity for classification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NEVEN, Hartmut et al.,"Training a Binary Classifier with the Quantum Adiabatic Algorithm",arXiv [online],2008年11月,[2022年07月21日検索],インターネット<URL:https://arxiv.org/abs/0811.0416v1>,0811.0416v1

Also Published As

Publication number Publication date
US11556849B2 (en) 2023-01-17
EP3667571A1 (en) 2020-06-17
US20200184375A1 (en) 2020-06-11
JP2020095397A (ja) 2020-06-18
CN111310930B (zh) 2023-07-21
CN111310930A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
JP6231944B2 (ja) 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP7131356B2 (ja) 最適化装置、最適化プログラムおよび最適化方法
US20200160201A1 (en) Clinical case search and generation system and method based on a probabilistic encoder-generator framework
US20180246856A1 (en) Analysis method and analysis device
JP7119820B2 (ja) 予測プログラム、予測方法および学習装置
KR20210034462A (ko) 픽셀 별 주석을 생성하는 생성적 적대 신경망(gan)을 학습시키는 방법
US20220188513A1 (en) Synonym determination method, computer-readable recording medium having synonym determination program recorded therein, and synonym determination device
Zohrizadeh et al. Image segmentation using sparse subset selection
JP7274434B2 (ja) 流用設計支援システム及び流用設計支援方法
JP7259935B2 (ja) 情報処理システム、情報処理方法およびプログラム
Zhu et al. A hybrid model for nonlinear regression with missing data using quasilinear kernel
US20230273771A1 (en) Secret decision tree test apparatus, secret decision tree test system, secret decision tree test method, and program
US20210342642A1 (en) Machine learning training dataset optimization
CN112561569B (zh) 基于双模型的到店预测方法、系统、电子设备及存储介质
CN114358011A (zh) 命名实体提取方法与装置以及电子设备
Mahzarnia et al. Multivariate functional group sparse regression: functional predictor selection
JP7292235B2 (ja) 分析支援装置及び分析支援方法
JP5276503B2 (ja) データ解析装置、データ解析プログラムおよびその記録媒体
US20230325304A1 (en) Secret decision tree test apparatus, secret decision tree test system, secret decision tree test method, and program
JP6532829B2 (ja) 撹乱データ再構築誤差推定装置、撹乱データ再構築誤差推定方法、プログラム
US20230376790A1 (en) Secret decision tree learning apparatus, secret decision tree learning system, secret decision tree learning method, and program
WO2022239245A1 (ja) 学習方法、推論方法、学習装置、推論装置、及びプログラム
JPWO2019171537A1 (ja) 意味推定システム、方法およびプログラム
CN112115609B (zh) 功耗仿真评估方法及装置
JP2019153056A (ja) 情報処理装置、及び情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7131356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150