JP7045150B2 - 連続最適化問題の大域的探索装置及びプログラム - Google Patents

連続最適化問題の大域的探索装置及びプログラム Download PDF

Info

Publication number
JP7045150B2
JP7045150B2 JP2017155490A JP2017155490A JP7045150B2 JP 7045150 B2 JP7045150 B2 JP 7045150B2 JP 2017155490 A JP2017155490 A JP 2017155490A JP 2017155490 A JP2017155490 A JP 2017155490A JP 7045150 B2 JP7045150 B2 JP 7045150B2
Authority
JP
Japan
Prior art keywords
evaluation function
gradient
equation
partial
moving average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017155490A
Other languages
English (en)
Other versions
JP2018156619A (ja
Inventor
俊太郎 岡田
雅能 寺部
真之 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Denso Corp
Original Assignee
Tohoku University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Denso Corp filed Critical Tohoku University NUC
Publication of JP2018156619A publication Critical patent/JP2018156619A/ja
Application granted granted Critical
Publication of JP7045150B2 publication Critical patent/JP7045150B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、連続最適化問題の大域的探索装置及びプログラムに関する。
例えば、多次元の探索空間において変数、すなわちパラメータの最適値を求める手法が提案されている(例えば、特許文献1参照)。特許文献1記載の技術によれば、探索空間内に最適値算出対象のパラメータを要素とする複数の個体を生成し、これらの個体の評価値を算出し、個体の中から評価値の悪い個体を選択している。そして、この選択された個体を評価値の良い個体に所定の割合(α)で近づけている。また、評価値の悪い個体を最良の評価値の個体から一定のユークリッド距離内にある任意の領域に移動させている。そして、より良い評価値の個体を選択し最良の評価値の個体を随時更新し、複数の個体の評価値を収束させ、終了判定条件を満たしたと判定した時点で最良の評価値を有する個体に含まれるパラメータをパラメータの最適値として出力している。
特開2007-233676号公報
例えば多数の極値を備える評価関数を適用した場合、特許文献1に記載の技術を用いて変数の最適値を探索すると、多数の極値を網羅的に探索するためには所定の割合αを小さく設定して収束過程における探索処理を細かく設定しなければならない。すると、収束しきるまでに長時間を要してしまい、解の精度と処理速度とを両立することが困難となる。
本発明の目的は、解の精度と処理速度を共に向上できるようにした連続最適化問題の大域的探索装置及びプログラムを提供することにある。
請求項1に記載した発明は、複数の要求、制約により変数を用いて生成される全体評価関数の最適解を探索するための連続最適化問題の大域的探索装置である。この請求項1記載の発明によれば、次のように作用する。設定部は、多数の要求、制約の中から一部の要求、制約により生成される部分評価関数に分け、部分評価関数に沿って1または複数の個体の変数を設定する。そして、最適解探索部は、設定された部分評価関数の最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて探索空間の中で全体評価関数の最適解を探索する。
請求項1記載の発明によれば、一度に全ての要求、制約を扱うことなく、少数の要求、制約による部分評価関数の最適解を探索しながら又は探索した後、全ての要求、制約による全体評価関数の最適解を探索できるようになり、高速且つ高精度に探索可能になる。
第1実施形態を示す連続最適化問題の大域的探索装置の電気的構成図 連続最適化問題の大域的探索装置を機能的に示すブロック図 処理の流れを概略的に示すフローチャート(その1) 探索処理のイメージ図 取得データとそのモデル例 部分評価関数のイメージ図 グループ分けされた部分評価関数にそれぞれ1つの個体を設定するときの設定例 部分評価関数の極小値に収束させたときの個体の位置を示す図 引力相互作用を説明する説明図 処理の流れを概略的に示すフローチャート(その2) 補助関数法の詳細イメージを概略的に示す図 第3実施形態について初期分布を示す図(その1) 初期分布を示す図(その2) 初期分布を示す図(その3) 初期分布を示す図(その4) 初期分布を示す図(その5) 第4実施形態について更新初期における更新イメージを示す説明図 変数が極小値近辺に遷移した後の更新イメージを示す説明図 深層学習ネットワークの構成例 検証条件パラメータ 第4実施形態を適用したときのLossfunctionの検証結果 比較例を適用したときのLossfunctionの検証結果 第4実施形態を適用したときのAccuracyの検証結果 比較例を適用したときのAccuracyの検証結果
以下、本発明の連続最適化問題の大域的探索装置及びプログラムの幾つかの実施形態について図面を参照して説明する。以下の実施形態中では、各実施形態間で同一機能または類似機能を備えた部分に同一符号を付して説明を行い、同一又は類似機能を備えた構成及びその作用、連携動作説明等を必要に応じて省略する。
(第1実施形態)
図1Aから図10は第1実施形態の説明図を示している。最適化装置1は、CPU2と、ROM、RAM等のメモリ3と、入出力インタフェース4とをバス接続して構成されたマイクロコンピュータ(以下マイコン)5、又は汎用コンピュータなどを用いて連続最適化問題の大域的探索装置として構成される。以下、マイコン5が最適化処理を実行することとして説明を行う。マイコン5が、メモリ3に記憶された最適化プログラムを実行し、各種手順を実行することで最適化処理を実行する。メモリ3は非遷移的実体的記録媒体として用いられる。
ここで最適化処理とは、1以上のM(≧1)次元を備えたユークリッド空間からなる探索空間Sを想定し、この探索空間Sの中で、複数の要求や制約によって生成された全体評価関数Hoptの最小値、または、全体評価関数Hoptが最適値となる条件を満たす変数xi、すなわち最適解を求める処理を示す。
以下では、全体評価関数Hoptの最小値を最適値として求めるための形態を示すが、最大値を最適値として求める処理に適用しても良い。
全体評価関数Hoptは、複数の要求や制約によって生成され、1以上のM個の変数(パラメータ)に基づいて導出される数式による関数を示すものであり、例えば任意の多項式、有理関数、無理関数、指数関数、対数関数やその加減乗除等による組み合わせなどを挙げることができる。図1Bに示すように、最適化装置1は、マイコン5により実現される機能として、設定部6、及び、最適解探索部7などの各種機能を備えるものである。
図2に最適化処理の概略的な流れをフローチャートで示し、図3に探索処理のイメージ図を示している。マイコン5は、全体評価関数Hoptを形成する複数の要求、制約について、図2のS1において全体の要求、制約を複数のグループに分ける。(図3のS10:設定部6の機能)。
そして、マイコン5は、図2のS2においてこの分類された要求、制約により部分評価関数H(x)を設定する(図3のS11:設定部6の機能)。図5には部分評価関数H(x)のイメージを模式的に示している。部分評価関数H(x)は前述のS10にて選択される要求、制約に応じて設定されるもので、実効的な評価関数Heffは下記の(1)式のように示される。
Figure 0007045150000001
この(1)式の実効的な評価関数Heff({x})は、個々の部分評価関数H(x)と関数f(x-xi+1)の和の積算値を示すものであり、関数f(x-xi+1)は例えば(2)式に示すような引力係数λ,ρ/2を用いた関数である。ここで、λは1次引力係数、ρ/2は2次引力係数を示している。ここで、ρは予め定められた正の定数である。
Figure 0007045150000002
マイコン5は、図2のS3において1または複数の個体Kを部分評価関数H(x)に沿って設定する(設定部6の機能)。図6には、グループ分けされた4つの部分評価関数H(x)にそれぞれ1つの個体Kを設定するときの設定例を示している。すなわち、4つの個体K1~K4の設定例を示している。
次にマイコン5は、図2のS4において、複数の個体Kが収束するようにこの複数の個体Kの間の引力を制御しながら、実効的な評価関数Heffを極小化する(図3のS12、S13:最適解探索部7の機能)。探索初期において引力を弱く設定することで、探索初期には部分評価関数H(x)がそれぞれ極小化され、探索後半においては引力により個体Kを収束させる。また、探索初期において引力を強く設定すれば、部分評価関数H(x)の極小化と個体Kの収束が並行して実行されることになる。図7は、探索初期の引力を弱く設定し、部分評価関数H(x)の極小値に収束させたときの個体K1~K4の位置を示している。以上のように、マイコン5は、図2のS4において部分的な最適解を探索しつつ当該探索される部分的な解を備える個体Kの間に引力を作用させて実効的な評価関数Heffを最小化することで全体評価関数Hoptの最適解を探索する(図3のS13:最適解探索部7の機能)。
例えば、図4に示されるように、機械学習においては、取得した膨大なデータに沿うモデル(例えばy=ax+b)を、例えば最小二乗法によるフィッティングモデルを用いて取得データに対して最適なパラメータa,bを決定することがある。これらの取得データは、それぞれがパラメータa,bに対する一つの要求、制約となる。本実施形態では、多数の全体のデータを複数グループに分け、各グループに対するフィッティングモデルを部分評価関数H(x)とし、この部分評価関数H(x)の最適解を探索しながら個体Kの間に引力を作用させて一つに収束させることで、全データを表現するモデルとして最も適切なパラメータa,bを導出する。
この内容を実現するため、実効的な評価関数Heffを(1)、(2)式のように設定し、下記の(3-1)式、(3-2)式の条件を満たすように、一次引力係数λを更新する。ここで二次引力係数ρは所定の値に設定される。
Figure 0007045150000003
この(3)式において、g(x)は所定の関数であり、dg(x)/dx≧0、x・g(x)≧0を満たすことから、g(x)は単純増加関数であり、変数xと関数g(x)とは同一符号とすることが望ましい。また、例えば下記の(4)式を満たすように設定することが望ましい。ここで、次数nは2m-1(但しmは自然数)を満たす奇数である。
Figure 0007045150000004
この図2のS4における(1)~(3-1)、(3-2)式を満たす更新処理においては、部分評価関数H(x)の最適解を導出しつつ、個体Kの間の引力を増加させながら実効的な評価関数Heffの極小化を繰り返すことで、全体評価関数Hoptの最適解を探索する。なお、探索初期の引力を弱くすれば、部分評価関数H(x)の最適解探索と収束による全体評価関数Hoptの最適解探索処理は分離される。図7及び図8は、部分評価関数H(x)の最適解を探索した後、個体Kの収束により全体評価関数Hoptの最適解を探索するイメージを示している。
次に、最適化処理の手順の一例について、さらに具体的な数式展開を用いて説明する。まずマイコン5は、図9のS21において部分評価関数Hに沿って個体Kを設定する。以下、断らない限り、複数の個体K1、K2のうち一部又は全ての個体を個体Kと略して説明を行うと共に、特別な個体Kについては符号Kの後に添え字を付して説明を行う。
次に、マイコン5は、図9のS22において実効的な評価関数Heffを極小化するように個体Kの変数xを変化させて更新する。実効的な評価関数Heffは、M個の変数xを有するN個の部分評価関数Hに分解して探索する場合、下記の(5)式のように数式設定する。
Figure 0007045150000005
ここで変数xは下記の(6-1)式のように設定され、変数λは(6-2)式のように設定される。
Figure 0007045150000006
(5)式の右辺第1項は、複数の個体Kによる部分評価関数Hの評価値H(x)を加算した評価加算値、すなわち、部分評価関数Hに複数の個体Kの変数xを代入した評価値H(x)を加算した加算値を示しており、(1)式の右辺第2項及び第3項は、複数の個体Kの間の引力相互作用項を示し、λ^Tは一次引力係数、ρ/2は二次引力係数を示している。
ここで、ρは予め定められた正の定数である。これらの第2項及び第3項の引力相互作用項は、複数の個体Kの間の変数xの差が大きいほど大きくなり、逆に複数の個体Kの間の変数xの差が小さいときには小さくなるように変化する。
次に(5)式中の(6-1)式で定義される変数xを更新するため、部分評価関数H(x)について補助関数法を用いて極値化する。補助関数法は、(1)式の第1項の部分評価関数Hを極小化するときに用いられる一方法であり、部分評価関数Hを当該部分評価関数Hに近似した2次関数ffに置換し、この置換した2次関数ffに基づいて極値化する方法を示している。
以下、補助関数法について詳細説明する。補助関数法の詳細イメージを図10に示している。図10に示すように、部分評価関数H(x)の変数xに現在の解候補x^*を代入し、この評価値H(x^*)を通過すると共に、その微分値が部分評価関数H(x)の偏微分値∂H(x^*)/∂xと等しく、且つ、その解候補x^*を含む探索空間S内の全ての変数xにおける評価値H(x)よりも大きな値を得る条件を満たすリプシッツ定数Lを用いた2次関数ffを導入して置換する。この2次関数ffを数式化すると(7)式の右辺のように示すことができる。
Figure 0007045150000007
この(7)式において、Li,pはリプシッツ定数を示し、x^*はxの現在の解候補を示している。このとき2次関数ffの極小値を次回の値の解候補として繰り返し更新し、所定の更新回数以上の回数だけ繰り返し極小値を更新するようにしている。
Figure 0007045150000008
(8)式の右辺をi番目の個体Kのp番目の変数xi,pで微分し、この微分値が0となる条件を満たす変数xi,pの極小点を算出する。この(8)式においては、更新前の値をxi,p^*とし、更新後の値をxi,pとしている。すると(9)式の方程式のように展開できる。
Figure 0007045150000009
この方程式を一般化すると、p番目の変数xの更新式は(10)式の方程式のように展開できる。
Figure 0007045150000010
そしてマイコン5は、図9のS12において(11)式に示すp番目の変数行列~xを算出する。
Figure 0007045150000011
ここで、更新後のp番目の変数行列~xを(12-1)式、リプシッツ定数行列Lを(12-2)式、二次引力係数行列ρを(12-3)式、係数行列Gを(12-4)式、としている。
Figure 0007045150000012
また、更新前のp番目の変数行列x^*を(13-1)式、部分評価関数H(x^*)の偏微分行列∇(x^*)を(13-2)式、一次引力係数行列λ^*を(13-3)式、係数行列Wを(13-4)式、としている。
Figure 0007045150000013
そしてマイコン5は、図9のS23において(14)式のように一次引力係数行列~λを更新する。
Figure 0007045150000014
この(14)式において、λ^*は更新前の一次引力係数行列を示し、変数~xは、S22で算出された変数を示す。次にマイコン5は、図9のS24において終了条件を満たしたか否かを判定する。この終了条件は、例えば実効的な評価関数Heffの実効評価値が所定の閾値以下となったか否か、又は、繰り返し処理回数が所定の上限回数を超えたか否かを判定することを条件としている。
実効的な評価関数Heffの実効評価値の閾値は、複数の個体Kが実効的な評価関数Heffの極値の位置に概ね収束することが想定される値に予め設定することが望ましい。このため、複数の個体Kが概ね一点に収束していなければ、S22に戻して処理を繰り返すことになる。図7に示したように、複数の個体Kがそれぞれの谷の極小値に移動しつつ、図8に示すように各谷の間の経路M1~M4に基づく引力相互作用を生じさせることができる。
<本実施形態の概念的なまとめ>
以上、説明したように本実施形態によれば、複数の要求、制約により生成される全体評価関数Hoptについて、全体評価関数Hoptを一部の要求、制約から作成した部分評価関数H(x)に分け、1または複数の個体Kを部分評価関数H(x)に沿って設定し、設定された部分評価関数H(x)の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体Kの間に引力を作用させて全体評価関数Hoptの最適解を探索している。これにより、単純化された部分的な部分評価関数H(x)の最適化処理に基づいて、全体の複雑な全体評価関数Hoptの最適解を探索できるようになり、全体評価関数Hoptの最適解を高速に取得できる。
実効的な評価関数Heffを(1)式としたときに、引力相互作用の項を(2)式として(3-1)式、(3-2)式を満たすように個体Kの間に引力を作用させるようにしているため、複数の個体Kを一点に収束させることができる。なお、このとき(3)式のg(x)を(4)式として探索することが望ましい。
(第2実施形態)
第2実施形態では、引力相互作用項となるf(x-xi+1)を(15)式のように変更した形態を説明する。
Figure 0007045150000015
(15)式のf(x-xi+1)は(2)式でλ=0としたものであり、二次引力係数ρ/2を所定値から徐々に増加させることで、個体Kを一点に収束させることができる。
そこで本実施形態では、図2及び(15)式の二次引力係数ρ/2を所定値から徐々に増加させる処理を適用することで、各部分評価関数H(x)に設定された個体Kを徐々に収束させ、全体評価関数Hoptの最適解を探索する。
本実施形態によれば、実効的な評価関数Heffを(1)式として定義したときに、引力相互作用の項を(15)式とし、(15)式中の二次引力係数ρを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させて最適解を導出している。このような場合においても、同様の作用効果を奏する。
(第3実施形態)
図11から図15は第3実施形態の追加説明図を示している。第3実施形態では、個体Kの変数xの初期分布の設定方法を説明する。前述実施形態に示したように、各個体KはM次元の変数xを備えているが、このM次元の変数xの初期分布を如何なる形態とするかに応じて、実効的な評価関数Heffの谷の通過数、すなわち極値の通過数、及び、収束方法も変化する。
実効的な評価関数Heffの実効評価値が、どのような値で極値、最小値となるか予め把握することはできないため、マイコン5は、予め探索空間Sを満たすように個体Kを初期設定することが望ましい。個体Kの数を多くすれば精度が高くなるが処理時間も大きくなる。このため、限られた数の個体Kを用いて処理を行うことが望ましく、この限られた個体Kの変数xの初期分布が最適値の探索処理に重要な要素を占めることになる。このためには、例えば図11から図15に示すように、個体Kの変数xの初期分布を設定することが望ましい。
図11から図15は、それぞれの個体KがM=2次元の変数xを備えている場合の初期分布の例を示している。M=2次元の探索空間Sを想定したときに、例えば図11に示すように、探索空間S内に複数の個体Kの変数xをランダムに設定すると良い。この場合、個体Kが一点に収束する過程において広範囲の極値を探索できるようになる。
この中でも図12の個体Ka、Kbに示すように、少なくとも1つ以上の個体Ka、Kbの変数xを探索空間Sの上限値又は下限値とすると良い。また、その他の個体Kの変数xをランダムに設定すると良い。このように設定することで、さらに広範囲の極値を探索できる。特に、探索空間Sの中で全ての変数xについて上限値又は下限値となるように個体Kamの変数xを設定することがさらに望ましい。
ある収束過程において広範囲の極値を探索できるようにするため、探索空間Sの全てを極力網羅するように個体Kを広範囲に分布させることが望ましいが、変数xの探索を開始する前に例えば探索空間Sの内部に推定解が与えられる場合もある。
例えば、ある変数xが時間的に連続して変化することを考慮する。例えばマイコン5がこのような変数x(t)の解をある所定の時間毎に導出するときに、次回のタイミングにおける変数x(t+1)の解を得るために、図14に示すように今回の変数x(t)の解を推定解xizとして与えることで、次回のタイミングにおける変数x(t+1)の解の導出処理を素早く、しかも正確に行うことができる場合もある。
このような場合、図13に示すように、初期分布として探索空間S内に限定された限定探索範囲Saを設け、この限定探索範囲Saとして推定解xizを含むように初期分布を設定することが望ましい。特にこの場合、例えば推定解xizから所定範囲(例えばxi,1-α1<変数xi,1<xi,1+β1、xi,2-α2<変数xi,2<xi,2+β2;但し、α1、α2、β1、β2>0)を満たすように限定探索範囲Saを絞ることが望ましい。これにより、さらに少ない評価回数で変数xの最適解への到達確率を高めることができる。
さらに図14に示すように、初期分布として推定解xizを含む空間に近いほど個体Kを密に分布させると共に推定解から遠ざかるほど個体Kの密度を減少させるように設定するようにしても良い。これにより、より少ない個体Kの数で変数xの最適解への到達確率を高めることができる。
さらに図15に示すように、初期分布として推定解xizを含む空間に近い所定範囲Sb内に個体Kを密に分布させると共にその他の個体Kを所定範囲Sbの外にランダムに分布させ、その他の個体Kのうち、少なくとも1つの個体Ka、Kb、Kamの変数xを探索範囲Sの変数xの上限値又は下限値に設定するようにしても良い。これにより、変数xの推定解xizの付近を重点的に探索しながら広範囲を探索することができ、推定解xiz又はその周辺に解が存在していなかった場合においても、変数xの最適解への到達確率の低下を防ぐことができる。
(第4実施形態)
図16から図23は第4実施形態の追加説明図を示している。第4実施形態では極小化の方法について別の形態を説明する。
第4実施形態では、前述した(1)式の実効的な評価関数Heffについて、部分評価関数Hの更新幅Δx(第2更新幅相当)、引力相互作用項f(x-xi+1)の更新幅Δx(第1更新幅相当)を別々に算出し、これらの更新幅Δx、Δxを加算した合計更新幅Δxを導出する。
このときまず、マイコン5は、ある時刻tにおける部分評価関数Hの勾配g(t)を(16)式のように定義し、部分評価関数Hの勾配gの指数移動平均値mを(17-1)式のように定義して導出し、さらに部分評価関数Hの勾配gの二乗の指数移動平均値vを(17-2)式のように定義して導出する。これらの式中において、β1c、β2cは定数であり、深層学習における勾配算出処理として適切な値に設定される。
Figure 0007045150000016
Figure 0007045150000017
そして、マイコン5は更新幅Δxを(18-1)式及び(18-2)式のように導出する。なお(18-1)式中のεはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。
Figure 0007045150000018
このようにして更新幅Δxを導出できる。
またマイコン5は、このような処理を引力相互作用項f(x-xi+1)の更新幅Δxについても同様に行う。すなわちマイコン5は、ある時刻tにおける引力相互作用項f(x-xi+1)の勾配g(t)を(19)式のように定義して算出し、引力相互作用項f(x-xi+1)の勾配gの指数移動平均値mを(20-1)式のように定義して導出し、さらに引力相互作用項f(x-xi+1)の勾配gの二乗の指数移動平均値vを(20-2)式のように定義して導出する。これらの式中において、β1q、β2qは定数であり深層学習における勾配算出処理に適切な値に設定される。
Figure 0007045150000019
Figure 0007045150000020
そしてマイコン5は更新幅Δxを(21-1)式及び(21-2)式のように導出する。なお(21-1)式中のεはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。
Figure 0007045150000021
このようにして更新幅Δxを導出できる。そしてマイコン5は更新幅Δx、Δxを加算することで合計更新幅Δxを(22)式のように導出する。
Figure 0007045150000022
このようにして合計更新幅Δxを導出でき、実効的な評価関数Heffの変数xの更新幅Δxとして用いることで最適化変数xの更新幅Δxを適応的に変更できるようになる。最適化変数xの更新イメージを図16及び図17に示している。
図16は更新初期における更新イメージを示している。例えば、引力相互作用項f(x-xi+1)の変数が、当該評価関数の極小値を満たす最適化変数から離間していると、この関数を極小化する最適化変数に向けて、図16に示すように徐々に更新されることになる。このとき勾配g(t)が緩やかに変化するため、(23-1)式に示すように、時刻tと時刻t+1とのタイミングを比較しても勾配gはあまり変化しない。このため(23-2)式に示すように、勾配gの指数移動平均値~mと勾配gの二乗の指数移動平均値~vの平方根とを比較しても概ね同じ値となり、更新幅Δxは(23-3)式に示すように-ηで概ね一定となる。
Figure 0007045150000023
他方、図17は変数が極小値近辺に遷移した後の更新イメージを示している。変数が極小値近辺に遷移すると、勾配g(t)は極小値を挟んで振動するように移動することから、(24-1)式に示すように、時刻tと時刻t+1とのタイミングを比較すると勾配gは絶対値が概ね同一で正負が逆転するように変化する。すると(24-2)式に示すように、勾配gの指数移動平均値~mは概ね0に近づき、勾配gの指数移動平均値~mを勾配の二乗の指数移動平均値~vの平方根と比較しても二乗の指数移動平均値~vの平方根の方が大幅に大きな値となる。したがって、更新幅Δxは(24-3)式に示すように-ηよりも大幅に小さな値となる。
Figure 0007045150000024
このようにしてマイコン5は、引力相互作用項f(x-xi+1)の勾配gの指数移動平均値~mと引力相互作用項f(x-xi+1)の勾配gの二乗の指数移動平均値~v の平方根とが近くなるにしたがって更新幅Δxを大きくすると共に、指数移動平均値~mが勾配gの二乗の指数移動平均値~v の平方根よりも小さくなるにつれて更新幅Δxを小さくするように導出している。すなわち、更新幅Δxを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で極小値に効率的に到達させることができるようになる。
ここでは引力相互作用項f(x-xi+1)についての説明を行ったが、部分評価関数Hにおいても同様に適用できるため、その詳細説明を省略する。部分評価関数Hの処理について概念的にまとめると、マイコン5は、部分評価関数Hの勾配gの指数移動平均値~mと部分評価関数Hの勾配gの二乗の指数移動平均値~v の平方根とが近くなるにしたがって更新幅Δxを大きくすると共に、指数移動平均値~mが勾配の二乗の指数移動平均値~v の平方根よりも小さくなるにつれて更新幅Δxを小さくするように導出することになる。この例の場合も同様に、更新幅Δxを大きい幅から小さい幅に自動的に変化させることができ、少ない更新回数で極小値に効率的に到達させることができるようになる。
<具体例の検証条件>
発明者は、以上のように説明した方法について具体例を用いて検証している。以下では、この検証条件について説明する。発明者らは、「0」~「9」の一桁の手書き数字を深層学習を用いて識別する問題を挙げて検証している。
この検証条件としては、図18に示すように、入力層を8×8ピクセル分の64入力用意し、出力層を「0」~「9」の10出力用意し、中間層を5層用意したニューラルネットワークを用いている。各中間層のノード数は、1層目を30ノードとし、2層目から5層目を各20ノード用意し、ネットワークはこれらの入力層、中間層、出力層の各ノードを全て結合して構成した形態を用いた。
また、各ノードの結合の重みを決定するための学習データを1000個用意して学習試行している。ここで、部分評価関数Hを定義するための学習データの分割数を10とした。すなわち(16)式及び(19)式中のNを10とし、当該N個の部分評価関数Hについて学習データ各100個(以下、必要に応じて「部分データ」と称する)を用いて評価した。また引力相互作用項f(x-xi+1)については(15)式を適用し、この(15)式の二次引力係数ρを固定値0.1として検証した。また、その他の(16)~(22)式に用いられる各定数η,β1c,β2c,β1q,β2q,ε,εを図19に示す値を用いて評価した。
さらに発明者は、前述の(1)式右辺第2項の引力相互作用項f(x-xi+1)を省いた一般的な評価関数を用いた例を比較例とし、前述と同様に深層学習により手書き数字を識別するように検証している。この比較例は、一般にAdam(Adaptive moment estimation)と称される深層学習における勾配法を適用した例に類似する方法である。この比較例においても、本実施形態の処理方法との比較検証を行うため、同じ学習データを1000個用意すると共に学習データをN=10分割し、それぞれ学習データ各100個の部分データを用いて評価した。すなわち(16)式~(18)式と同様の処理を行うことで評価しており、このとき前述同様の定数η,β1c,β2c,εの値を用いている。
<検証結果>
以下、前述の検証結果について説明する。
図20は本実施形態の引力相互作用項f(x-xi+1)を用いて得られたLossfunctionの検証結果、図21は引力相互作用項f(x-xi+1)を用いない場合の比較例のLossfunctionの検証結果を示している。
図20及び図21のLossfunction特性は探索ステップ数を横軸として示しており、図18に示すニューラルネットワークを用意した学習データに適合させて各ノードの重みを決定した後の学習誤差を示している。探索ステップ数が少ないとN=10個の分割データのそれぞれの部分評価関数Hに対する適合度に応じたLossfunctionを求めることになるため、その絶対値も部分データ毎に大きくばらつくが、探索ステップ数が多くなると引力相互作用項fの作用が進み、より適切に識別可能になることが確認されている。
この検証結果によれば、本実施形態及び比較例の何れの方法を用いても探索ステップ数を増せば増すほどLossfunctionを減少させることができることがわかるが、比較例ではLossfunctionの最小値が0.039となるのに対し、本実施形態では最小値を0.021にでき、Lossfunctionの最小値をより少なくできることが把握できる。
<未知のテストデータに対する検証結果>
以下、未知のテストデータに対する検証結果について説明する。
図22は本実施形態のAccuracyの検証結果、図23は比較例のAccuracyの検証結果を示している。図22及び図23のAccuracyは前述の学習データとは異なる未知のテストデータを用いた正答率を示すものであり、新たなデータに対するクラスラベルや関数値を正確に予測できるかどうかを示す汎化性能に関する指標を示すもので、前述同様に探索ステップ数を横軸として示している。比較例では正答率、すなわち識別精度を73.65%となるのに対し、本実施形態では正答率、識別精度を91.71%とすることができ、本実施形態を採用することで比較例よりも高い識別性能を示すことが把握できた。
<本実施形態の概念的なまとめ>
以上説明したように、本実施形態によれば、引力相互作用項f(x-xi+1)と部分評価関数Hの勾配g、gに応じて、それぞれ個体Kの変数xの更新幅Δx、Δxを導出するときに、引力相互作用項f(x-xi+1)と部分評価関数Hの勾配g、gの指数移動平均値~m、~mと引力相互作用項f(x-xi+1)と部分評価関数Hの勾配g、gの二乗の指数移動平均値~v、~vがそれぞれ近くなるにしたがってそれぞれ更新幅Δx、Δxを大きくしている。また、勾配の指数移動平均値~m、~mが勾配の二乗の指数移動平均値~v、~vよりも小さくなるにつれて更新幅Δx、Δxを小さくするように導出している。このため、更新幅Δx、Δxを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で効率的に極小値に個体Kを到達させることができる。
<第4実施形態の変形例>
なお、第4実施形態に示した処理を用いると、引力相互作用項f(x-xi+1)の影響力は、前述した勾配gの変化に応じて適応的に変更される。このため(15)式の二次引力係数ρを固定値(例えば0.1)としても問題なく収束する。すなわち、例えば第2実施形態では二次引力係数ρを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させるようにしたが、第4実施形態では増加させる処理をする必要がなくなる。また第2実施形態に説明したように、二次引力係数ρを増加させるように処理しても良い。
また、第4実施形態の方法を採用すると、変数xを更新するときには、勾配g、gに応じた情報を用いることになるため、引力相互作用項f(x-xi+1)は(15)式のように二次関数に限定するものではなく、下記(25)式の引力相互作用項f(x-xi+1)に示すように、四次以上の偶数次関数を用いても良い。
Figure 0007045150000025
このような(25)式に示される引力相互作用項f(x-xi+1)を用いたとしても変数xの更新処理が複雑な処理に変化することはなく極力迅速に最適解を探索できる。
(他の実施形態)
本発明は、上記した実施形態に限定されるものではなく、以下のように変形又は拡張することができる。
個体Kは各部分評価関数H(x)の間で同数の変数xを備えることが望ましい。前述実施形態では、個体Kの変数xを解出力する形態を説明しているが、変数xに対応した評価値、すなわち、解出力すべき変数xを実効的な評価関数Heffに代入した評価値を解出力するようにしても良い。第3実施形態では、二次引力係数ρ/2を初期値=0から徐々に大きくする形態を示したが、初期値は0に限られない。
また、特許請求の範囲に記載した括弧内の符号は、本発明の一つの態様として前述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。前述実施形態の一部を、課題を解決できる限りにおいて省略した態様も実施形態と見做すことが可能である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において、考え得るあらゆる態様も実施形態と見做すことが可能である。
また本発明は、前述した実施形態に準拠して記述したが、本発明は当該実施形態や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。
図面中、1は最適化装置(連続最適化問題の大域的探索装置)、6は設定部、7は最適解探索部、8は導出部、Kは個体、Sは探索空間、xは変数、g/2は引力係数、Hoptは全体評価関数、Heffは実効評価値、xizは推定解、g、gは勾配、~m、~mは勾配の指数移動平均値、~v、~vは勾配の二乗の指数移動平均値、Δx、Δxは更新幅、を示す。

Claims (26)

  1. 複数の要求、制約により変数(x)を用いて生成される全体評価関数について、一部の要求、制約により生成した部分評価関数(H(x))に分け、1または複数の個体の変数を前記部分評価関数に沿って設定する設定部(6)と、
    前記設定された部分評価関数の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて探索空間の中で前記全体評価関数の最適解を探索する最適解探索部(7)と、
    を備える連続最適化問題の大域的探索装置。
  2. 前記最適解探索部は、
    前記部分評価関数と引力相互作用項(f(x-xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
    前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅(Δx)を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するように構成され、
    前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値の平方根とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値の平方根よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項1記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000026
  3. 前記引力相互作用項の勾配を(19)式とし、前記引力相互作用項の勾配の移動平均値を(20-1)式とし、前記引力相互作用項の勾配の二乗の移動平均値を(20-2)式としたときに、前記第1更新幅を(21-1)式、(21-2)式のように導出する請求項2記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000027
    Figure 0007045150000028
    Figure 0007045150000029
  4. 前記最適解探索部は、
    前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値の平方根とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値の平方根よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項2または3記載の連続最適化問題の大域的探索装置。
  5. 前記部分評価関数の勾配を(16)式とし、前記部分評価関数の勾配の移動平均値を(17-1)式とし、前記部分評価関数の勾配の二乗の移動平均値を(17-2)式としたときに、前記第2更新幅を(18-1)式、(18-2)式のように導出する請求項4記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000030
    Figure 0007045150000031
    Figure 0007045150000032
  6. 前記最適解探索部は、前記実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(25)式とし、前記(25)式中のρを所定値とするか又は初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項2から5の何れか一項に記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000033
  7. 前記最適解探索部は、前記部分評価関数と引力相互作用項(f(x-xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、引力相互作用の項を(2)式として(3-1)式、及び(3-2)式を満たすように一次引力係数(λ )を更新し、個体の間に引力を作用させる請求項1記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000034
    Figure 0007045150000035
    Figure 0007045150000036
  8. 前記(3-1)式、及び(3-2)式のg(x)を(4)式として探索する請求項7記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000037
  9. 前記最適解探索部は、前記部分評価関数と引力相互作用項(f(x -x i+1 ))により構成される実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(15)式とし、前記(15)式中のρを初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項1記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000038
    Figure 0007045150000039
  10. 前記最適解探索部が前記部分評価関数と引力相互作用項(f(x -x i+1 ))により構成される実効的な評価関数を(1)式として定義したときに、前記実効的な評価関数を極小化するときには、
    前記部分評価関数(H)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む前記探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項1、7から9の何れか一項に記載の連続最適化問題の大域的探索装置。
    Figure 0007045150000040
  11. 前記設定部は、初期分布として前記探索空間に前記複数の個体の変数をランダムに分布させるように設定する請求項1から10の何れか一項に記載の連続最適化問題の大域的探索装置。
  12. 前記変数の探索を開始する前に予め変数の推定解(xiz)が与えられている場合には、
    前記設定部は、初期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項1から10の何れか一項に記載の連続最適化問題の大域的探索装置。
  13. 前記個体は前記部分評価関数の間で同数の変数(x)を備える請求項1から12のいずれか一項に記載の連続最適化問題の大域的探索装置。
  14. 大域的探索装置に
    複数の要求、制約により変数(x)を用いて生成される全体評価関数について、一部の要求、制約により生成した部分評価関数(H(x))に分け、1または複数の個体の変数を前記部分評価関数に沿って設定する手順と、
    前記設定された部分評価関数により部分的な最適解を探索する手順と、
    前記部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて探索空間の中で前記全体評価関数の最適解を探索する手順と、
    を実行させるプログラム。
  15. 前記全体評価関数の最適解を探索する手順では、
    前記部分評価関数と引力相互作用項(f(x-xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
    前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅(Δx)を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するものであり、
    前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値の平方根とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値の平方根よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項14記載のプログラム。
    Figure 0007045150000041
  16. 前記全体評価関数の最適解を探索する手順では、
    前記引力相互作用項の勾配を(19)式とし、前記引力相互作用項の勾配の移動平均値を(20-1)式とし、前記引力相互作用項の勾配の二乗の移動平均値を(20-2)式としたときに、前記第1更新幅を(21-1)式、(21-2)式のように導出する請求項15記載のプログラム。
    Figure 0007045150000042
    Figure 0007045150000043
    Figure 0007045150000044
  17. 前記全体評価関数の最適解を探索する手順では、
    前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するように構成され、
    前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値の平方根とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値の平方根よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項15または16記載のプログラム。
  18. 前記部分評価関数の勾配を(16)式とし、前記部分評価関数の勾配の移動平均値を(17-1)式とし、前記部分評価関数の勾配の二乗の移動平均値を(17-2)式としたときに、前記第2更新幅を(18-1)式、(18-2)式のように導出する請求項17記載のプログラム。
    Figure 0007045150000045
    Figure 0007045150000046
    Figure 0007045150000047
  19. 前記実効的な評価関数を(1)式として定義したときに、前記引力相互作用項を(25)式とし、前記(25)式中のρを所定値とするか又は初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項15から18の何れか一項に記載のプログラム。
    Figure 0007045150000048
  20. 前記全体評価関数の最適解を探索する手順では、
    前記部分評価関数と引力相互作用項(f(x-xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、引力相互作用の項を(2)式として(3-1)式、及び(3-2)式を満たすように一次引力係数(λ )を更新し、前記個体の間に引力を作用させる請求項14記載のプログラム。
    Figure 0007045150000049
    Figure 0007045150000050
    Figure 0007045150000051
  21. 前記全体評価関数の最適解を探索する手順では、
    前記(3-1)式、及び(3-2)式のg(x)を(4)式として探索する請求項20記載のプログラム。
    Figure 0007045150000052
  22. 前記全体評価関数の最適解を探索する手順では、
    前記部分評価関数と引力相互作用項(f(x -x i+1 ))により構成される実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(15)式とし、前記(15)式中のρを初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項14記載のプログラム。
    Figure 0007045150000053
  23. 前記部分評価関数と引力相互作用項(f(x -x i+1 ))により構成される実効的な評価関数を(1)式として定義したときに、前記実効的な評価関数を極小化する手順では、
    前記部分評価関数(H)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む前記探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項14,20から22の何れか一項に記載のプログラム。
    Figure 0007045150000054
  24. 前記複数の個体の変数を設定する手順では、
    期分布として前記探索空間に前記複数の個体の変数をランダムに分布させるように設定する請求項14から23の何れか一項に記載のプログラム。
  25. 前記変数の探索を開始する前に予め変数の推定解(xiz)が与えられている場合、
    前記複数の個体の変数を設定する手順では、
    期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項14から23の何れか一項に記載のプログラム。
  26. 前記個体は前記部分評価関数の間で同数の変数(x)を備える請求項14から25のいずれか一項に記載のプログラム。
JP2017155490A 2017-03-16 2017-08-10 連続最適化問題の大域的探索装置及びプログラム Active JP7045150B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017051554 2017-03-16
JP2017051554 2017-03-16

Publications (2)

Publication Number Publication Date
JP2018156619A JP2018156619A (ja) 2018-10-04
JP7045150B2 true JP7045150B2 (ja) 2022-03-31

Family

ID=63718152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017155490A Active JP7045150B2 (ja) 2017-03-16 2017-08-10 連続最適化問題の大域的探索装置及びプログラム

Country Status (1)

Country Link
JP (1) JP7045150B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220222542A1 (en) * 2019-05-23 2022-07-14 Nippon Telegraph And Telephone Corporation Parameter estimation device, parameter estimation method, and parameter estimation program
AU2019461061B2 (en) * 2019-08-14 2023-03-30 Nippon Telegraph And Telephone Corporation Secure gradient descent computation method, secure deep learning method, secure gradient descent computation system, secure deep learning system, secure computation apparatus, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ADACHI, S. H. et al.,Application of Auantumu Annealing to Training of Deep Neural Networks,arXiv.org [online],arXiv:1510.06356,2015年10月21日,Retrieved from the Internet: <URL: https://arxiv.org/abs/1510.06356> [Retrieved on 2021-08-27]
CHAUDHARI, P., et al.,Entropy-SGD: Biasing Gradient Descent Into Wide Valleys,arXiv.org [online],arXiv:1611.01838v4,2017年01月14日,Retrived from the Internet: <URL: https://arxiv.org/abs/1611.01838v4> [Retrieved on 2021-08-27]
石亀 篤司,Particle Swarm Optimization――群れでの探索――,計測と制御,2008年06月01日,Vol. 47, No. 6,pp. 459-465

Also Published As

Publication number Publication date
JP2018156619A (ja) 2018-10-04

Similar Documents

Publication Publication Date Title
CN110969250B (zh) 一种神经网络训练方法及装置
McLeod et al. Optimization, fast and slow: optimally switching between local and Bayesian optimization
CN110889015B (zh) 面向图数据的独立解耦卷积神经网络表征方法
Billups et al. Derivative-free optimization of expensive functions with computational error using weighted regression
CN111063398A (zh) 一种基于图贝叶斯优化的分子发现方法
JP2007200302A (ja) 収束基準を利用する多目的最適化のためのモデルベースおよび遺伝ベースの子孫生成の組み合わせ
JP7045150B2 (ja) 連続最適化問題の大域的探索装置及びプログラム
WO2022166125A1 (en) Recommendation system with adaptive weighted baysian personalized ranking loss
CN111695011B (zh) 一种基于张量表示的动态超图结构学习分类方法及系统
CN112580728A (zh) 一种基于强化学习的动态链路预测模型鲁棒性增强方法
CN109074348A (zh) 用于对输入数据集进行迭代聚类的设备和迭代方法
CN113590748B (zh) 基于迭代网络组合的情感分类持续学习方法及存储介质
Furukawa SOM of SOMs: Self-organizing map which maps a group of self-organizing maps
CN118038032A (zh) 基于超点嵌入和聚类的点云语义分割模型及其训练方法
WO2021059527A1 (ja) 学習装置、学習方法、及び、記録媒体
CN116974249A (zh) 柔性作业车间调度方法和柔性作业车间调度装置
Harde et al. Design and implementation of ACO feature selection algorithm for data stream mining
Zhao et al. An effective model selection criterion for mixtures of Gaussian processes
Ann et al. Parameter estimation of Lorenz attractor: A combined deep neural network and K-means clustering approach
CN115529350A (zh) 参数优化方法、装置、电子设备和可读存储介质
KR20190064948A (ko) 준지도 학습에서의 꼭지점 중요도를 고려한 레이블 추론 방법 및 시스템
JP6842325B2 (ja) 連続最適化問題の大域的探索装置及びプログラム
CN111881990A (zh) 一种用于数字图像识别的构建型神经网络参数融合优化方法
Acar et al. Reliability estimation using guided tail modeling with adaptive sampling
CN115039108A (zh) 学习数据密度函数

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220318

R150 Certificate of patent or registration of utility model

Ref document number: 7045150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150