JP2018156619A - Global search device and program for consecutive optimization problem - Google Patents

Global search device and program for consecutive optimization problem Download PDF

Info

Publication number
JP2018156619A
JP2018156619A JP2017155490A JP2017155490A JP2018156619A JP 2018156619 A JP2018156619 A JP 2018156619A JP 2017155490 A JP2017155490 A JP 2017155490A JP 2017155490 A JP2017155490 A JP 2017155490A JP 2018156619 A JP2018156619 A JP 2018156619A
Authority
JP
Japan
Prior art keywords
evaluation function
gradient
equation
partial
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017155490A
Other languages
Japanese (ja)
Other versions
JP7045150B2 (en
Inventor
俊太郎 岡田
Shuntaro Okada
俊太郎 岡田
雅能 寺部
Masano Terabe
雅能 寺部
真之 大関
Masayuki Ozeki
真之 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Denso Corp
Original Assignee
Tohoku University NUC
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Denso Corp filed Critical Tohoku University NUC
Publication of JP2018156619A publication Critical patent/JP2018156619A/en
Application granted granted Critical
Publication of JP7045150B2 publication Critical patent/JP7045150B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a global search device and a program for a consecutive optimization problem capable of improving both of accuracy of a solution and a processing speed.SOLUTION: A global search device for a consecutive optimization problem comprises: a setting unit: and an optimum solution search unit. The setting unit creates a partial evaluation function based on a part of requests and constraints from multiple requests and constraints, and sets one or more individuals along the partial evaluation function. The optimum solution search unit applies, while searching an optimum solution of the set partial evaluation function or after searching the partial optimum solution, attraction force between individuals having the searched partial solution to search an optimum solution of a total evaluation function.SELECTED DRAWING: Figure 2

Description

本発明は、連続最適化問題の大域的探索装置及びプログラムに関する。   The present invention relates to a global search apparatus and program for continuous optimization problems.

例えば、多次元の探索空間において変数、すなわちパラメータの最適値を求める手法が提案されている(例えば、特許文献1参照)。特許文献1記載の技術によれば、探索空間内に最適値算出対象のパラメータを要素とする複数の個体を生成し、これらの個体の評価値を算出し、個体の中から評価値の悪い個体を選択している。そして、この選択された個体を評価値の良い個体に所定の割合(α)で近づけている。また、評価値の悪い個体を最良の評価値の個体から一定のユークリッド距離内にある任意の領域に移動させている。そして、より良い評価値の個体を選択し最良の評価値の個体を随時更新し、複数の個体の評価値を収束させ、終了判定条件を満たしたと判定した時点で最良の評価値を有する個体に含まれるパラメータをパラメータの最適値として出力している。   For example, a method for obtaining an optimum value of a variable, that is, a parameter in a multidimensional search space has been proposed (see, for example, Patent Document 1). According to the technique described in Patent Document 1, a plurality of individuals whose elements are the parameters for which the optimum value is calculated are generated in the search space, the evaluation values of these individuals are calculated, and the individuals with bad evaluation values are selected from the individuals. Is selected. Then, the selected individual is brought close to an individual having a good evaluation value at a predetermined ratio (α). In addition, an individual with a bad evaluation value is moved to an arbitrary region within a certain Euclidean distance from the individual with the best evaluation value. Then, select an individual with a better evaluation value, update the individual with the best evaluation value as needed, converge the evaluation values of multiple individuals, and select the individual with the best evaluation value when it is determined that the termination determination condition is satisfied. The included parameters are output as the optimum parameter values.

特開2007−233676号公報JP 2007-233676 A

例えば多数の極値を備える評価関数を適用した場合、特許文献1に記載の技術を用いて変数の最適値を探索すると、多数の極値を網羅的に探索するためには所定の割合αを小さく設定して収束過程における探索処理を細かく設定しなければならない。すると、収束しきるまでに長時間を要してしまい、解の精度と処理速度とを両立することが困難となる。
本発明の目的は、解の精度と処理速度を共に向上できるようにした連続最適化問題の大域的探索装置及びプログラムを提供することにある。
For example, when an evaluation function having a large number of extreme values is applied, when the optimum value of a variable is searched using the technique described in Patent Document 1, a predetermined ratio α is used to search for a large number of extreme values comprehensively. The search processing in the convergence process must be set finely by setting it small. Then, it takes a long time to complete the convergence, and it becomes difficult to achieve both solution accuracy and processing speed.
It is an object of the present invention to provide a global search apparatus and program for continuous optimization problems that can improve both the accuracy and processing speed of solutions.

請求項1に記載した発明は、複数の要求、制約により生成される全体評価関数の最適解を探索するための連続最適化問題の大域的探索装置である。この請求項1記載の発明によれば、次のように作用する。設定部は、多数の要求、制約の中から一部の要求、制約により生成される部分評価関数に分け、部分評価関数に沿って1または複数の個体を設定する。そして、最適解探索部は、設定された部分評価関数の最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて全体評価関数の最適解を探索する。   The invention described in claim 1 is a global search device for a continuous optimization problem for searching for an optimal solution of an overall evaluation function generated by a plurality of requirements and constraints. According to the first aspect of the present invention, the operation is as follows. The setting unit divides into a partial evaluation function generated by some requests and constraints from among a large number of requests and constraints, and sets one or a plurality of individuals along the partial evaluation function. Then, the optimal solution search unit searches for the optimal solution of the set partial evaluation function or, after searching for the partial optimal solution, draws an attractive force between individuals having the partial solution to be searched. Search for the optimal solution of the overall evaluation function.

請求項1記載の発明によれば、一度に全ての要求、制約を扱うことなく、少数の要求、制約による部分評価関数の最適解を探索しながら又は探索した後、全ての要求、制約による全体評価関数の最適解を探索できるようになり、高速且つ高精度に探索可能になる。   According to the first aspect of the present invention, the entire solution based on all the requests and constraints is searched while searching for the optimal solution of the partial evaluation function based on a small number of requests and constraints without handling all the requests and constraints at once. The optimum solution of the evaluation function can be searched, and the search can be performed with high speed and high accuracy.

第1実施形態を示す連続最適化問題の大域的探索装置の電気的構成図Electrical configuration diagram of global search device for continuous optimization problem showing first embodiment 連続最適化問題の大域的探索装置を機能的に示すブロック図Functional block diagram of a global search device for continuous optimization problems 処理の流れを概略的に示すフローチャート(その1)Flow chart schematically showing the flow of processing (part 1) 探索処理のイメージ図Image of search process 取得データとそのモデル例Acquired data and model examples 部分評価関数のイメージ図Image of partial evaluation function グループ分けされた部分評価関数にそれぞれ1つの個体を設定するときの設定例Setting example when one individual is set for each grouped partial evaluation function 部分評価関数の極小値に収束させたときの個体の位置を示す図Diagram showing the position of the individual when converged to the minimum value of the partial evaluation function 引力相互作用を説明する説明図Explanatory drawing explaining attractive interaction 処理の流れを概略的に示すフローチャート(その2)Flow chart (2) schematically showing the flow of processing 補助関数法の詳細イメージを概略的に示す図Diagram showing a detailed image of the auxiliary function method 第3実施形態について初期分布を示す図(その1)The figure which shows initial stage distribution about 3rd Embodiment (the 1) 初期分布を示す図(その2)Figure showing the initial distribution (2) 初期分布を示す図(その3)Figure showing the initial distribution (part 3) 初期分布を示す図(その4)Figure showing the initial distribution (Part 4) 初期分布を示す図(その5)Diagram showing initial distribution (Part 5) 第4実施形態について更新初期における更新イメージを示す説明図Explanatory drawing which shows the update image in the update initial stage about 4th Embodiment 変数が極小値近辺に遷移した後の更新イメージを示す説明図Explanatory drawing showing the update image after the variable has transitioned to the vicinity of the minimum value 深層学習ネットワークの構成例Deep learning network configuration example 検証条件パラメータValidation condition parameters 第4実施形態を適用したときのLossfunctionの検証結果Lossfunction verification results when applying the fourth embodiment 比較例を適用したときのLossfunctionの検証結果Lossfunction verification results when a comparative example is applied 第4実施形態を適用したときのAccuracyの検証結果Accuracy verification results when applying the fourth embodiment 比較例を適用したときのAccuracyの検証結果Accuracy verification results when a comparative example is applied

以下、本発明の連続最適化問題の大域的探索装置及びプログラムの幾つかの実施形態について図面を参照して説明する。以下の実施形態中では、各実施形態間で同一機能または類似機能を備えた部分に同一符号を付して説明を行い、同一又は類似機能を備えた構成及びその作用、連携動作説明等を必要に応じて省略する。   Hereinafter, several embodiments of a global search apparatus and program for a continuous optimization problem of the present invention will be described with reference to the drawings. In the following embodiments, parts having the same function or similar functions are denoted by the same reference numerals in each embodiment, and a configuration having the same or similar functions, its operation, explanation of cooperative operation, etc. are necessary. Omitted according to.

(第1実施形態)
図1Aから図10は第1実施形態の説明図を示している。最適化装置1は、CPU2と、ROM、RAM等のメモリ3と、入出力インタフェース4とをバス接続して構成されたマイクロコンピュータ(以下マイコン)5、又は汎用コンピュータなどを用いて連続最適化問題の大域的探索装置として構成される。以下、マイコン5が最適化処理を実行することとして説明を行う。マイコン5が、メモリ3に記憶された最適化プログラムを実行し、各種手順を実行することで最適化処理を実行する。メモリ3は非遷移的実体的記録媒体として用いられる。
(First embodiment)
FIG. 1A to FIG. 10 are explanatory diagrams of the first embodiment. The optimization device 1 is a continuous optimization problem using a microcomputer (hereinafter referred to as a microcomputer) 5 configured by connecting a CPU 2, a memory 3 such as a ROM and a RAM, and an input / output interface 4 or a general-purpose computer. It is configured as a global search device. Hereinafter, description will be made assuming that the microcomputer 5 executes the optimization process. The microcomputer 5 executes an optimization program stored in the memory 3 and executes various procedures to execute an optimization process. The memory 3 is used as a non-transitional tangible recording medium.

ここで最適化処理とは、1以上のM(≧1)次元を備えたユークリッド空間からなる探索空間Sを想定し、この探索空間Sの中で、複数の要求や制約によって生成された全体評価関数Hoptの最小値、または、全体評価関数Hoptが最適値となる条件を満たす変数xi、すなわち最適解を求める処理を示す。
以下では、全体評価関数Hoptの最小値を最適値として求めるための形態を示すが、最大値を最適値として求める処理に適用しても良い。
Here, the optimization process assumes a search space S composed of Euclidean space having one or more M (≧ 1) dimensions, and an overall evaluation generated by a plurality of requests and constraints in the search space S. A process of obtaining a variable x i that satisfies the minimum value of the function Hopt or the overall evaluation function Hopt as an optimal value, that is, an optimal solution is shown.
In the following, a form for obtaining the minimum value of the overall evaluation function Hopt as the optimum value is shown, but it may be applied to processing for obtaining the maximum value as the optimum value.

全体評価関数Hoptは、複数の要求や制約によって生成され、1以上のM個の変数(パラメータ)に基づいて導出される数式による関数を示すものであり、例えば任意の多項式、有理関数、無理関数、指数関数、対数関数やその加減乗除等による組み合わせなどを挙げることができる。図1Bに示すように、最適化装置1は、マイコン5により実現される機能として、設定部6、及び、最適解探索部7などの各種機能を備えるものである。   The overall evaluation function Hopt is a function that is generated by a plurality of requests or constraints and is derived based on one or more M variables (parameters). For example, an arbitrary polynomial, rational function, or irrational function , An exponential function, a logarithmic function, and a combination of addition, subtraction, multiplication and division. As shown in FIG. 1B, the optimization apparatus 1 includes various functions such as a setting unit 6 and an optimal solution search unit 7 as functions realized by the microcomputer 5.

図2に最適化処理の概略的な流れをフローチャートで示し、図3に探索処理のイメージ図を示している。マイコン5は、全体評価関数Hoptを形成する複数の要求、制約について、図2のS1において全体の要求、制約を複数のグループに分ける。(図3のS10:設定部6の機能)。 FIG. 2 is a flowchart showing a schematic flow of the optimization process, and FIG. 3 is an image diagram of the search process. The microcomputer 5 divides the overall requests and constraints into a plurality of groups in S1 of FIG. 2 for the multiple requests and constraints that form the overall evaluation function H opt . (S10 in FIG. 3: function of the setting unit 6).

そして、マイコン5は、図2のS2においてこの分類された要求、制約により部分評価関数H(x)を設定する(図3のS11:設定部6の機能)。図5には部分評価関数H(x)のイメージを模式的に示している。部分評価関数H(x)は前述のS10にて選択される要求、制約に応じて設定されるもので、実効的な評価関数Heffは下記の(1)式のように示される。

Figure 2018156619
Then, the microcomputer 5 sets the partial evaluation function H i (x i ) according to the classified requirements and constraints in S2 of FIG. 2 (S11 of FIG. 3: function of the setting unit 6). FIG. 5 schematically shows an image of the partial evaluation function H i (x i ). The partial evaluation function H i (x i ) is set according to the requirements and constraints selected in S10 described above, and the effective evaluation function H eff is expressed as in the following equation (1).
Figure 2018156619

この(1)式の実効的な評価関数Heff({x})は、個々の部分評価関数H(x)と関数f(x−xi+1)の和の積算値を示すものであり、関数f(x−xi+1)は例えば(2)式に示すような引力係数λ,ρ/2を用いた関数である。ここで、λは1次引力係数、ρ/2は2次引力係数を示している。ここで、ρは予め定められた正の定数である。

Figure 2018156619
The effective evaluation function H eff ({x i }) of the equation ( 1 ) indicates an integrated value of the sum of the individual partial evaluation functions H i (x i ) and the function f (x i −x i + 1 ). And the function f (x i −x i + 1 ) is a function using attractive coefficients λ i and ρ i / 2 as shown in, for example, the equation (2). Here, λ i represents a primary attractive coefficient, and ρ i / 2 represents a secondary attractive coefficient. Here, ρ i is a predetermined positive constant.
Figure 2018156619

マイコン5は、図2のS3において1または複数の個体Kを部分評価関数H(x)に沿って設定する(設定部6の機能)。図6には、グループ分けされた4つの部分評価関数H(x)にそれぞれ1つの個体Kを設定するときの設定例を示している。すなわち、4つの個体K1〜K4の設定例を示している。 The microcomputer 5 sets one or a plurality of individuals K along the partial evaluation function H i (x i ) in S3 of FIG. 2 (function of the setting unit 6). FIG. 6 shows a setting example when one individual K is set for each of the four divided partial evaluation functions H i (x i ). That is, a setting example of four individuals K1 to K4 is shown.

次にマイコン5は、図2のS4において、複数の個体Kが収束するようにこの複数の個体Kの間の引力を制御しながら、実効的な評価関数Heffを極小化する(図3のS12、S13:最適解探索部7の機能)。探索初期において引力を弱く設定することで、探索初期には部分評価関数H(x)がそれぞれ極小化され、探索後半においては引力により個体Kを収束させる。また、探索初期において引力を強く設定すれば、部分評価関数H(x)の極小化と個体Kの収束が並行して実行されることになる。図7は、探索初期の引力を弱く設定し、部分評価関数H(x)の極小値に収束させたときの個体K1〜K4の位置を示している。以上のように、マイコン5は、図2のS4において部分的な最適解を探索しつつ当該探索される部分的な解を備える個体Kの間に引力を作用させて実効的な評価関数Heffを最小化することで全体評価関数Hoptの最適解を探索する(図3のS13:最適解探索部7の機能)。 Next, in S4 of FIG. 2, the microcomputer 5 minimizes the effective evaluation function H eff while controlling the attractive force between the plurality of individuals K so that the plurality of individuals K converge (see FIG. 3). S12, S13: Function of optimum solution search unit 7). By setting the attractive force weakly in the initial stage of the search, the partial evaluation function H i (x i ) is minimized in the initial stage of the search, and the individual K is converged by the attractive force in the second half of the search. Further, if the attractive force is set strongly at the initial stage of the search, the minimization of the partial evaluation function H i (x i ) and the convergence of the individual K are executed in parallel. FIG. 7 shows the positions of the individuals K1 to K4 when the attractive force at the initial stage of the search is set weak and converged to the minimum value of the partial evaluation function H i (x i ). As described above, the microcomputer 5 searches for a partial optimum solution in S4 of FIG. 2 and applies an attractive force to the individual K having the partial solution to be searched for, thereby obtaining an effective evaluation function H eff. Is searched for the optimal solution of the overall evaluation function H opt (S13 in FIG. 3: function of the optimal solution search unit 7).

例えば、図4に示されるように、機械学習においては、取得した膨大なデータに沿うモデル(例えばy=ax+b)を、例えば最小二乗法によるフィッティングモデルを用いて取得データに対して最適なパラメータa,bを決定することがある。これらの取得データは、それぞれがパラメータa,bに対する一つの要求、制約となる。本実施形態では、多数の全体のデータを複数グループに分け、各グループに対するフィッティングモデルを部分評価関数H(x)とし、この部分評価関数H(x)の最適解を探索しながら個体Kの間に引力を作用させて一つに収束させることで、全データを表現するモデルとして最も適切なパラメータa,bを導出する。 For example, as shown in FIG. 4, in machine learning, a model (for example, y = ax + b) along a large amount of acquired data is converted into an optimum parameter a for the acquired data using, for example, a fitting model based on the least square method. , B may be determined. Each of these acquired data becomes one requirement and restriction for the parameters a and b. In this embodiment, divided into a number of entire data into a plurality of groups, a fitting model for each group as a partial evaluation function H i (x), the individual K while searching the optimal solution of the partial evaluation function H i (x) The parameters a and b most suitable as a model for expressing all data are derived by applying an attractive force between the two to converge to one.

この内容を実現するため、実効的な評価関数Heffを(1)、(2)式のように設定し、下記の(3−1)式、(3−2)式の条件を満たすように、一次引力係数λを更新する。ここで二次引力係数ρは所定の値に設定される。

Figure 2018156619
In order to realize this content, an effective evaluation function H eff is set as in the expressions (1) and (2) so that the conditions of the following expressions (3-1) and (3-2) are satisfied. The primary attractive coefficient λ is updated. Here, the secondary attractive force coefficient ρ i is set to a predetermined value.
Figure 2018156619

この(3)式において、g(x)は所定の関数であり、dg(x)/dx≧0、x・g(x)≧0を満たすことから、g(x)は単純増加関数であり、変数xと関数g(x)とは同一符号とすることが望ましい。また、例えば下記の(4)式を満たすように設定することが望ましい。ここで、次数nは2m−1(但しmは自然数)を満たす奇数である。

Figure 2018156619
In this equation (3), g (x) is a predetermined function and satisfies dg (x) / dx ≧ 0 and x · g (x) ≧ 0, and therefore g (x) is a simple increasing function. It is desirable that the variable x and the function g (x) have the same sign. For example, it is desirable to set so as to satisfy the following expression (4). Here, the order n is an odd number satisfying 2m−1 (where m is a natural number).
Figure 2018156619

この図2のS4における(1)〜(3−1)、(3−2)式を満たす更新処理においては、部分評価関数H(x)の最適解を導出しつつ、個体Kの間の引力を増加させながら実効的な評価関数Heffの極小化を繰り返すことで、全体評価関数Hoptの最適解を探索する。なお、探索初期の引力を弱くすれば、部分評価関数H(x)の最適解探索と収束による全体評価関数Hoptの最適解探索処理は分離される。図7及び図8は、部分評価関数H(x)の最適解を探索した後、個体Kの収束により全体評価関数Hoptの最適解を探索するイメージを示している。 In the update process that satisfies the expressions (1) to (3-1) and (3-2) in S4 of FIG. 2, while deriving the optimal solution of the partial evaluation function H i (x i ), By repeating the minimization of the effective evaluation function H eff while increasing the attractive force, the optimum solution of the overall evaluation function H opt is searched. If the attractive force at the initial stage of the search is weakened, the optimal solution search for the partial evaluation function H i (x i ) and the optimal solution search process for the overall evaluation function H opt by convergence are separated. FIGS. 7 and 8 show an image of searching for an optimal solution of the overall evaluation function H opt by convergence of the individual K after searching for an optimal solution of the partial evaluation function H i (x i ).

次に、最適化処理の手順の一例について、さらに具体的な数式展開を用いて説明する。まずマイコン5は、図9のS21において部分評価関数Hに沿って個体Kを設定する。以下、断らない限り、複数の個体K1、K2のうち一部又は全ての個体を個体Kと略して説明を行うと共に、特別な個体Kについては符号Kの後に添え字を付して説明を行う。 Next, an example of the optimization processing procedure will be described using more specific mathematical expression expansion. First microcomputer 5 sets the individual K along portions evaluation function H i in S21 in FIG. Hereinafter, unless otherwise noted, some or all of the plurality of individuals K1 and K2 will be abbreviated as individuals K, and special individuals K will be described with a suffix after the symbol K. .

次に、マイコン5は、図9のS22において実効的な評価関数Heffを極小化するように個体Kの変数xを変化させて更新する。実効的な評価関数Heffは、M個の変数xを有するN個の部分評価関数Hに分解して探索する場合、下記の(5)式のように数式設定する。

Figure 2018156619
ここで変数xは下記の(6−1)式のように設定され、変数λは(6−2)式のように設定される。
Figure 2018156619
Next, the microcomputer 5 changes and updates the variable x i of the individual K so as to minimize the effective evaluation function H eff in S22 of FIG. When the effective evaluation function H eff is decomposed into N partial evaluation functions H i having M variables x i and searched, the mathematical expression is set as shown in the following equation (5).
Figure 2018156619
Here, the variable x i is set as in the following equation (6-1), and the variable λ i is set as in the equation (6-2).
Figure 2018156619

(5)式の右辺第1項は、複数の個体Kによる部分評価関数Hの評価値H(x)を加算した評価加算値、すなわち、部分評価関数Hに複数の個体Kの変数xを代入した評価値H(x)を加算した加算値を示しており、(1)式の右辺第2項及び第3項は、複数の個体Kの間の引力相互作用項を示し、λ^Tは一次引力係数、ρ/2は二次引力係数を示している。 (5) the first term of the right side of expression evaluation value H i (x i) evaluation sum value obtained by adding the partial evaluation function H i of a plurality of individual K, i.e., partial evaluation of the plurality of functions H i of the individual K An addition value obtained by adding an evaluation value H i (x i ) into which a variable x i is substituted is shown. The second term and the third term on the right side of the equation (1) are attractive interaction terms between a plurality of individuals K. Λ i ^ T is the primary attractive coefficient, and ρ i / 2 is the secondary attractive coefficient.

ここで、ρは予め定められた正の定数である。これらの第2項及び第3項の引力相互作用項は、複数の個体Kの間の変数xの差が大きいほど大きくなり、逆に複数の個体Kの間の変数xの差が小さいときには小さくなるように変化する。 Here, ρ i is a predetermined positive constant. Attractive interaction terms of these second and third terms, the difference between the variable x i between the plurality of individual K increases as large, small differences in the variable x i between the plurality of individual K conversely Sometimes it changes to be smaller.

次に(5)式中の(6−1)式で定義される変数xを更新するため、部分評価関数H(x)について補助関数法を用いて極値化する。補助関数法は、(1)式の第1項の部分評価関数Hを極小化するときに用いられる一方法であり、部分評価関数Hを当該部分評価関数Hに近似した2次関数ffに置換し、この置換した2次関数ffに基づいて極値化する方法を示している。 Next, in order to update the variable x i defined by the equation (6-1) in the equation (5), the partial evaluation function H i (x i ) is converted to an extreme value using the auxiliary function method. Auxiliary function method, (1) is one method used when minimizing the partial evaluation function H i of the first term of equation quadratic function that approximates the partial evaluation function H i to the partial evaluation function H i A method of converting to ff and converting to an extremum based on the replaced quadratic function ff is shown.

以下、補助関数法について詳細説明する。補助関数法の詳細イメージを図10に示している。図10に示すように、部分評価関数H(x)の変数xに現在の解候補x^*を代入し、この評価値H(x^*)を通過すると共に、その微分値が部分評価関数H(x)の偏微分値∂H(x^*)/∂xと等しく、且つ、その解候補x^*を含む探索空間S内の全ての変数xにおける評価値H(x)よりも大きな値を得る条件を満たすリプシッツ定数Lを用いた2次関数ffを導入して置換する。この2次関数ffを数式化すると(7)式の右辺のように示すことができる。

Figure 2018156619
Hereinafter, the auxiliary function method will be described in detail. A detailed image of the auxiliary function method is shown in FIG. As shown in FIG. 10, the current solution candidate x i ^ * is assigned to the variable x of the partial evaluation function H i (x), and the evaluation value H i (x ^ *) is passed. Evaluation values for all variables x i in the search space S in the search space S that are equal to the partial differential value ∂H i (x ^ *) / ∂x of the partial evaluation function H i (x) and include the solution candidates x i ^ * A quadratic function ff using a Lipschitz constant L that satisfies a condition for obtaining a value larger than H i (x i ) is introduced and replaced. This quadratic function ff can be expressed as a right side of the equation (7) when it is mathematically expressed.
Figure 2018156619

この(7)式において、Li,pはリプシッツ定数を示し、x^*はxの現在の解候補を示している。このとき2次関数ffの極小値を次回の値の解候補として繰り返し更新し、所定の更新回数以上の回数だけ繰り返し極小値を更新するようにしている。

Figure 2018156619
In this equation (7), L i, p represents a Lipschitz constant, and x ^ * represents the current solution candidate for x. At this time, the minimum value of the quadratic function ff is repeatedly updated as a solution candidate for the next value, and the minimum value is repeatedly updated a number of times equal to or greater than a predetermined number of updates.
Figure 2018156619

(8)式の右辺をi番目の個体Kのp番目の変数xi,pで微分し、この微分値が0となる条件を満たす変数xi,pの極小点を算出する。この(8)式においては、更新前の値をxi,p^*とし、更新後の値をxi,pとしている。すると(9)式の方程式のように展開できる。

Figure 2018156619
この方程式を一般化すると、p番目の変数xの更新式は(10)式の方程式のように展開できる。
Figure 2018156619
そしてマイコン5は、図9のS12において(11)式に示すp番目の変数行列~xを算出する。
Figure 2018156619
The right side of the equation (8) is differentiated by the p-th variable x i, p of the i-th individual K, and the minimum point of the variable x i, p satisfying the condition that this differential value is zero is calculated. In this equation (8), the value before update is x i, p ^ *, and the value after update is x i, p . Then, it can be developed as the equation (9).
Figure 2018156619
If this equation is generalized, the update equation for the p-th variable x i can be expanded as shown in equation (10).
Figure 2018156619
Then, the microcomputer 5 calculates the p-th variable matrix ~ x p shown in the equation (11) in S12 of FIG.
Figure 2018156619

ここで、更新後のp番目の変数行列~xを(12−1)式、リプシッツ定数行列Lを(12−2)式、二次引力係数行列ρを(12−3)式、係数行列Gを(12−4)式、としている。

Figure 2018156619
Here, the updated p-th variable matrix ~ x p is the expression (12-1), the Lipschitz constant matrix L p is the expression (12-2), the secondary attractive coefficient matrix ρ is the expression (12-3), the coefficient The matrix G is expressed as (12-4).
Figure 2018156619

また、更新前のp番目の変数行列x^*を(13−1)式、部分評価関数H(x^*)の偏微分行列∇(x^*)を(13−2)式、一次引力係数行列λ^*を(13−3)式、係数行列Wを(13−4)式、としている。

Figure 2018156619
そしてマイコン5は、図9のS23において(14)式のように一次引力係数行列~λを更新する。
Figure 2018156619
Further, the p-th variable matrix x p ^ * before the update is expressed by equation (13-1), and the partial differential matrix p p H i (x i ^ *) of the partial evaluation function H i (x i ^ *) is expressed by (13 -2), the primary attractive coefficient matrix λ p ^ * is the expression (13-3), and the coefficient matrix W is the expression (13-4).
Figure 2018156619
Then, the microcomputer 5 updates the primary attractive coefficient matrix ~ λ i as shown in equation (14) in S23 of FIG.
Figure 2018156619

この(14)式において、λ^*は更新前の一次引力係数行列を示し、変数~xは、S22で算出された変数を示す。次にマイコン5は、図9のS24において終了条件を満たしたか否かを判定する。この終了条件は、例えば実効的な評価関数Heffの実効評価値が所定の閾値以下となったか否か、又は、繰り返し処理回数が所定の上限回数を超えたか否かを判定することを条件としている。 In this equation (14), lambda i ^ * denotes the update before the primary attraction coefficient matrix, variable ~ x i, indicating the variables calculated in S22. Next, the microcomputer 5 determines whether or not the end condition is satisfied in S24 of FIG. This termination condition is based on the condition that, for example, it is determined whether or not the effective evaluation value of the effective evaluation function H eff is equal to or less than a predetermined threshold, or whether or not the number of repetition processing exceeds a predetermined upper limit number. Yes.

実効的な評価関数Heffの実効評価値の閾値は、複数の個体Kが実効的な評価関数Heffの極値の位置に概ね収束することが想定される値に予め設定することが望ましい。このため、複数の個体Kが概ね一点に収束していなければ、S22に戻して処理を繰り返すことになる。図7に示したように、複数の個体Kがそれぞれの谷の極小値に移動しつつ、図8に示すように各谷の間の経路M1〜M4に基づく引力相互作用を生じさせることができる。 Threshold of the effective evaluation value of the effective evaluation function H eff, it is desirable to pre-set to a value in which a plurality of individual K is able to substantially converge on the position of the extreme value of the effective evaluation function H eff is assumed. For this reason, if a plurality of individuals K has not converged to one point, the process returns to S22 and the process is repeated. As shown in FIG. 7, an attractive interaction based on the paths M <b> 1 to M <b> 4 between the valleys can be generated as shown in FIG. 8, while the plurality of individuals K move to the minimum value of each valley. .

<本実施形態の概念的なまとめ>
以上、説明したように本実施形態によれば、複数の要求、制約により生成される全体評価関数Hoptについて、全体評価関数Hoptを一部の要求、制約から作成した部分評価関数H(x)に分け、1または複数の個体Kを部分評価関数H(x)に沿って設定し、設定された部分評価関数H(x)の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体Kの間に引力を作用させて全体評価関数Hoptの最適解を探索している。これにより、単純化された部分的な部分評価関数H(x)の最適化処理に基づいて、全体の複雑な全体評価関数Hoptの最適解を探索できるようになり、全体評価関数Hoptの最適解を高速に取得できる。
<Conceptual summary of this embodiment>
As described above, according to the present embodiment as described, a plurality of requests, the total evaluation function H opt generated by restriction of some overall evaluation function H opt request, partial evaluation were prepared from the constraint function H i ( divided into x i), set along one or more individuals K to the partial evaluation function H i (x i), while searching the partial optimal solution set partial evaluation function H i (x i) Alternatively, after searching for a partial optimal solution, an attractive force is applied to the individual K having the partial solution to be searched to search for an optimal solution of the overall evaluation function H opt . As a result, the optimum solution of the entire complex overall evaluation function H opt can be searched based on the simplified optimization process of the partial partial evaluation function H i (x i ). The optimal solution of opt can be acquired at high speed.

実効的な評価関数Heffを(1)式としたときに、引力相互作用の項を(2)式として(3−1)式、(3−2)式を満たすように個体Kの間に引力を作用させるようにしているため、複数の個体Kを一点に収束させることができる。なお、このとき(3)式のg(x)を(4)式として探索することが望ましい。 When the effective evaluation function H eff is expressed by the equation (1), the term of the attractive interaction is expressed by the equation (2) and the equation (3-1) and the equation (3-2) are satisfied between the individual K so that Since the attractive force is applied, a plurality of individuals K can be converged to one point. At this time, it is desirable to search for g (x) in equation (3) as equation (4).

(第2実施形態)
第2実施形態では、引力相互作用項となるf(x−xi+1)を(15)式のように変更した形態を説明する。

Figure 2018156619
(Second Embodiment)
In the second embodiment, a mode in which f (x i -x i + 1 ) serving as an attractive interaction term is changed as in equation (15) will be described.
Figure 2018156619

(15)式のf(x−xi+1)は(2)式でλ=0としたものであり、二次引力係数ρ/2を所定値から徐々に増加させることで、個体Kを一点に収束させることができる。 F (x i −x i + 1 ) in the equation (15) is obtained by setting λ i = 0 in the equation (2). By gradually increasing the secondary attractive coefficient ρ i / 2 from a predetermined value, the individual K Can be converged to one point.

そこで本実施形態では、図2及び(15)式の二次引力係数ρ/2を所定値から徐々に増加させる処理を適用することで、各部分評価関数H(x)に設定された個体Kを徐々に収束させ、全体評価関数Hoptの最適解を探索する。 Therefore, in the present embodiment, by applying the process of gradually increasing the secondary attractive coefficient ρ i / 2 in the equations (2) and (15) from a predetermined value, each partial evaluation function H i (x i ) is set. The individual K is gradually converged to search for the optimum solution of the overall evaluation function H opt .

本実施形態によれば、実効的な評価関数Heffを(1)式として定義したときに、引力相互作用の項を(15)式とし、(15)式中の二次引力係数ρを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させて最適解を導出している。このような場合においても、同様の作用効果を奏する。 According to the present embodiment, when the effective evaluation function H eff is defined as the equation (1), the term of the attractive interaction is the equation (15), and the secondary attractive force coefficient ρ i in the equation (15) is By increasing the value from the initial value, an attractive force is applied between the individuals K to converge to the optimal value and the optimal solution is derived. Even in such a case, the same effects can be obtained.

(第3実施形態)
図11から図15は第3実施形態の追加説明図を示している。第3実施形態では、個体Kの変数xの初期分布の設定方法を説明する。前述実施形態に示したように、各個体KはM次元の変数xを備えているが、このM次元の変数xの初期分布を如何なる形態とするかに応じて、実効的な評価関数Heffの谷の通過数、すなわち極値の通過数、及び、収束方法も変化する。
(Third embodiment)
11 to 15 show additional explanatory diagrams of the third embodiment. In the third embodiment, illustrating a method of setting the initial distribution of the variables x i of the individual K. As shown in the previous embodiment, each individual K has an M-dimensional variable x i , but an effective evaluation function depends on the form of the initial distribution of the M-dimensional variable x i. The number of passes through the valley of H eff , that is, the number of passes of extreme values, and the convergence method also change.

実効的な評価関数Heffの実効評価値が、どのような値で極値、最小値となるか予め把握することはできないため、マイコン5は、予め探索空間Sを満たすように個体Kを初期設定することが望ましい。個体Kの数を多くすれば精度が高くなるが処理時間も大きくなる。このため、限られた数の個体Kを用いて処理を行うことが望ましく、この限られた個体Kの変数xの初期分布が最適値の探索処理に重要な要素を占めることになる。このためには、例えば図11から図15に示すように、個体Kの変数xの初期分布を設定することが望ましい。 Since the effective evaluation value of the effective evaluation function H eff cannot be grasped in advance as to what value is the extreme value or the minimum value, the microcomputer 5 initially sets the individual K so as to fill the search space S. It is desirable to set. Increasing the number of individuals K increases accuracy but increases processing time. For this reason, it is desirable to perform processing using a limited number of individuals K, and the initial distribution of the variable x i of the limited number of individuals K occupies an important element in the optimum value search processing. For this purpose, for example, from FIG. 11, as shown in FIG. 15, it is desirable to set the initial distribution of the variables x i of the individual K.

図11から図15は、それぞれの個体KがM=2次元の変数xを備えている場合の初期分布の例を示している。M=2次元の探索空間Sを想定したときに、例えば図11に示すように、探索空間S内に複数の個体Kの変数xをランダムに設定すると良い。この場合、個体Kが一点に収束する過程において広範囲の極値を探索できるようになる。 Figures 11-15, each individual K indicates an example of an initial distribution when and a M = 2 dimensional variables x i. When an M = 2-dimensional search space S is assumed, for example, as shown in FIG. 11, variables x i of a plurality of individuals K may be set in the search space S at random. In this case, a wide range of extreme values can be searched in the process in which the individual K converges to one point.

この中でも図12の個体Ka、Kbに示すように、少なくとも1つ以上の個体Ka、Kbの変数xを探索空間Sの上限値又は下限値とすると良い。また、その他の個体Kの変数xをランダムに設定すると良い。このように設定することで、さらに広範囲の極値を探索できる。特に、探索空間Sの中で全ての変数xについて上限値又は下限値となるように個体Kamの変数xを設定することがさらに望ましい。 Individuals Ka of 12 Among these, as shown in Kb, may be an upper limit value or lower limit value of at least one or more individuals Ka, the Kb of the variable x i search space S. In addition, the variable x i of other individual K may be set to random. By setting in this way, a wider range of extreme values can be searched. In particular, it is more desirable to set the variable x i of the individual Kam so that all the variables x i in the search space S become the upper limit value or the lower limit value.

ある収束過程において広範囲の極値を探索できるようにするため、探索空間Sの全てを極力網羅するように個体Kを広範囲に分布させることが望ましいが、変数xの探索を開始する前に例えば探索空間Sの内部に推定解が与えられる場合もある。 In order to be able to search a wide range of extreme values in a certain convergence process, it is desirable to distribute the individuals K over a wide range so as to cover all of the search space S as much as possible, but before starting the search for the variable x i , for example, An estimated solution may be given inside the search space S.

例えば、ある変数xが時間的に連続して変化することを考慮する。例えばマイコン5がこのような変数x(t)の解をある所定の時間毎に導出するときに、次回のタイミングにおける変数x(t+1)の解を得るために、図14に示すように今回の変数x(t)の解を推定解xizとして与えることで、次回のタイミングにおける変数x(t+1)の解の導出処理を素早く、しかも正確に行うことができる場合もある。 For example, consider that a variable x i changes continuously in time. For example, when the microcomputer 5 derives the solution of the variable x i (t) at every predetermined time, in order to obtain the solution of the variable x i (t + 1) at the next timing, as shown in FIG. By giving the solution of the current variable x i (t) as the estimated solution xiz, the derivation processing of the solution of the variable x i (t + 1) at the next timing may be performed quickly and accurately.

このような場合、図13に示すように、初期分布として探索空間S内に限定された限定探索範囲Saを設け、この限定探索範囲Saとして推定解xizを含むように初期分布を設定することが望ましい。特にこの場合、例えば推定解xizから所定範囲(例えばxi,1−α1<変数xi,1<xi,1+β1、xi,2−α2<変数xi,2<xi,2+β2;但し、α1、α2、β1、β2>0)を満たすように限定探索範囲Saを絞ることが望ましい。これにより、さらに少ない評価回数で変数xの最適解への到達確率を高めることができる。 In such a case, as shown in FIG. 13, a limited search range Sa limited in the search space S is provided as an initial distribution, and the initial distribution is set so as to include the estimated solution xiz as the limited search range Sa. desirable. Particularly in this case, for example, a predetermined range from the estimated solution xiz (for example, xi , 1− α1 <variable xi , 1 <xi , 1 + β1, xi , 2− α2 <variable xi , 2 <xi , 2 + β2). However, it is desirable to narrow the limited search range Sa so as to satisfy α1, α2, β1, β2> 0). As a result, the probability of reaching the optimal solution of the variable x i can be increased with a smaller number of evaluations.

さらに図14に示すように、初期分布として推定解xizを含む空間に近いほど個体Kを密に分布させると共に推定解から遠ざかるほど個体Kの密度を減少させるように設定するようにしても良い。これにより、より少ない個体Kの数で変数xの最適解への到達確率を高めることができる。 Furthermore, as shown in FIG. 14, the initial distribution may be set such that the closer to the space including the estimated solution xiz, the denser the individuals K are distributed, and the further away from the estimated solution, the density of the individuals K is decreased. As a result, the probability of reaching the optimal solution of the variable x i can be increased with a smaller number of individuals K.

さらに図15に示すように、初期分布として推定解xizを含む空間に近い所定範囲Sb内に個体Kを密に分布させると共にその他の個体Kを所定範囲Sbの外にランダムに分布させ、その他の個体Kのうち、少なくとも1つの個体Ka、Kb、Kamの変数xを探索範囲Sの変数xの上限値又は下限値に設定するようにしても良い。これにより、変数xの推定解xizの付近を重点的に探索しながら広範囲を探索することができ、推定解xiz又はその周辺に解が存在していなかった場合においても、変数xの最適解への到達確率の低下を防ぐことができる。 Further, as shown in FIG. 15, the individuals K are densely distributed within a predetermined range Sb close to the space including the estimated solution xiz as an initial distribution, and other individuals K are randomly distributed outside the predetermined range Sb. among individual K, at least one individual Ka, Kb, may be set to the upper limit value or lower limit value of the variable x i of the variable x i a search range S of Kam. Thus, while intensively searching the vicinity of the estimated solution xiz variables x i can explore a wide range, in a case where the estimated solution xiz or solutions in its periphery did not exist, the optimal variables x i A decrease in the probability of reaching the solution can be prevented.

(第4実施形態)
図16から図23は第4実施形態の追加説明図を示している。第4実施形態では極小化の方法について別の形態を説明する。
(Fourth embodiment)
16 to 23 show additional explanatory views of the fourth embodiment. 4th Embodiment demonstrates another form about the method of minimization.

第4実施形態では、前述した(1)式の実効的な評価関数Heffについて、部分評価関数Hの更新幅Δx(第2更新幅相当)、引力相互作用項f(x−xi+1)の更新幅Δx(第1更新幅相当)を別々に算出し、これらの更新幅Δx、Δxを加算した合計更新幅Δxを導出する。 In the fourth embodiment, with respect to the effective evaluation function H eff of the above-described equation (1), the update width Δx c (corresponding to the second update width) of the partial evaluation function H i and the attractive interaction term f (x i −x The update width Δx q (corresponding to the first update width) of i + 1 ) is calculated separately, and a total update width Δx obtained by adding these update widths Δx c and Δx q is derived.

このときまず、マイコン5は、ある時刻tにおける部分評価関数Hの勾配g(t)を(16)式のように定義し、部分評価関数Hの勾配gの指数移動平均値mを(17−1)式のように定義して導出し、さらに部分評価関数Hの勾配gの二乗の指数移動平均値vを(17−2)式のように定義して導出する。これらの式中において、β1c、β2cは定数であり、深層学習における勾配算出処理として適切な値に設定される。

Figure 2018156619
Figure 2018156619
At this time, first, the microcomputer 5 defines the gradient g c (t) of the partial evaluation function H i at a certain time t as the equation (16), and the exponential moving average value m of the gradient g c of the partial evaluation function H i c is defined and derived as in the equation (17-1), and the exponential moving average value v c of the square of the gradient g c of the partial evaluation function H i is defined and derived as in the equation (17-2). To do. In these equations, β 1c and β 2c are constants, and are set to appropriate values as gradient calculation processing in deep learning.
Figure 2018156619
Figure 2018156619

そして、マイコン5は更新幅Δxを(18−1)式及び(18−2)式のように導出する。なお(18−1)式中のεはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。

Figure 2018156619
このようにして更新幅Δxを導出できる。 Then, the microcomputer 5 derives the update width Δx c as shown in equations (18-1) and (18-2). Note that ε c in the equation (18-1) is a constant for avoiding division by zero, and is set much smaller than other constants.
Figure 2018156619
In this way, the update width Δx c can be derived.

またマイコン5は、このような処理を引力相互作用項f(x−xi+1)の更新幅Δxについても同様に行う。すなわちマイコン5は、ある時刻tにおける引力相互作用項f(x−xi+1)の勾配g(t)を(19)式のように定義して算出し、引力相互作用項f(x−xi+1)の勾配gの指数移動平均値mを(20−1)式のように定義して導出し、さらに引力相互作用項f(x−xi+1)の勾配gの二乗の指数移動平均値vを(20−2)式のように定義して導出する。これらの式中において、β1q、β2qは定数であり深層学習における勾配算出処理に適切な値に設定される。

Figure 2018156619
Figure 2018156619
Further, the microcomputer 5 similarly performs such processing for the update width Δx q of the attractive interaction term f (x i -x i + 1 ). That is, the microcomputer 5 defines the gradient g q (t) of the attractive interaction term f (x i −x i + 1 ) at a certain time t as defined by the equation (19), and calculates the attractive interaction term f (x i -X i + 1 ) The exponential moving average value m q of the gradient g q is derived as defined by the equation (20-1), and the square of the gradient g q of the attractive interaction term f (x i -x i + 1 ) define derived as an exponential moving average value v q (20-2) expression. In these equations, β 1q and β 2q are constants and are set to appropriate values for the gradient calculation processing in deep learning.
Figure 2018156619
Figure 2018156619

そしてマイコン5は更新幅Δxを(21−1)式及び(21−2)式のように導出する。なお(21−1)式中のεはゼロ除算を避けるための定数であり、他の定数に比べて大幅に小さく設定される。

Figure 2018156619
このようにして更新幅Δxを導出できる。そしてマイコン5は更新幅Δx、Δxを加算することで合計更新幅Δxを(22)式のように導出する。
Figure 2018156619
Then, the microcomputer 5 derives the update width Δx q as shown in equations (21-1) and (21-2). Note that ε q in the equation (21-1) is a constant for avoiding division by zero, and is set to be significantly smaller than other constants.
Figure 2018156619
In this way, the update width Δx q can be derived. The microcomputer 5 adds the update widths Δx c and Δx q to derive the total update width Δx as shown in equation (22).
Figure 2018156619

このようにして合計更新幅Δxを導出でき、実効的な評価関数Heffの変数xの更新幅Δxとして用いることで最適化変数xの更新幅Δxを適応的に変更できるようになる。最適化変数xの更新イメージを図16及び図17に示している。 Thus can derive the total update width Δx in, it becomes possible to adaptively change the update width Δx that the optimization variables x i used as an update width Δx of the variable x i of the effective evaluation function H eff. Are shown in FIGS. 16 and 17 the update image of the optimization variables x i.

図16は更新初期における更新イメージを示している。例えば、引力相互作用項f(x−xi+1)の変数が、当該評価関数の極小値を満たす最適化変数から離間していると、この関数を極小化する最適化変数に向けて、図16に示すように徐々に更新されることになる。このとき勾配g(t)が緩やかに変化するため、(23−1)式に示すように、時刻tと時刻t+1とのタイミングを比較しても勾配gはあまり変化しない。このため(23−2)式に示すように、勾配gの指数移動平均値~mと勾配gの二乗の指数移動平均値~vの平方根とを比較しても概ね同じ値となり、更新幅Δxは(23−3)式に示すように−ηで概ね一定となる。

Figure 2018156619
FIG. 16 shows an update image at the initial update stage. For example, if the variable of the attractive interaction term f (x i −x i + 1 ) is separated from the optimization variable that satisfies the minimum value of the evaluation function, the variable is reduced toward the optimization variable that minimizes the function. As shown by 16, it is gradually updated. At this time, since the gradient g q (t) changes gently, the gradient g q does not change much even if the timings of the time t and the time t + 1 are compared as shown in the equation (23-1). As shown in this order (23-2) below, becomes substantially the same value as compared to the square root of the gradient g exponential moving average of q ~ m q and slope g exponential moving average of the square of the q ~ v q The update width Δx q is substantially constant at −η as shown in the equation (23-3).
Figure 2018156619

他方、図17は変数が極小値近辺に遷移した後の更新イメージを示している。変数が極小値近辺に遷移すると、勾配g(t)は極小値を挟んで振動するように移動することから、(24−1)式に示すように、時刻tと時刻t+1とのタイミングを比較すると勾配gは絶対値が概ね同一で正負が逆転するように変化する。すると(24−2)式に示すように、勾配gの指数移動平均値~mは概ね0に近づき、勾配gの指数移動平均値~mを勾配の二乗の指数移動平均値~vの平方根と比較しても二乗の指数移動平均値~vの平方根の方が大幅に大きな値となる。したがって、更新幅Δxは(24−3)式に示すように−ηよりも大幅に小さな値となる。

Figure 2018156619
On the other hand, FIG. 17 shows an update image after the variable transitions to the vicinity of the minimum value. When the variable transitions to the vicinity of the local minimum value, the gradient g q (t) moves so as to oscillate with the local minimum value interposed therebetween. Therefore, as shown in the equation (24-1), the timing between the time t and the time t + 1 is changed. compared the gradient g q is the absolute value of approximately positive and negative in the same changes as reversed. Then (24-2) as shown in equation exponential moving average of the gradient g q ~ m q is generally closer to 0, exponential moving average of the square of the gradient exponential moving average ~ m q gradient g q ~ Even when compared with the square root of v q, the square exponential moving average value to the square root of v q are significantly larger. Therefore, the update width Δx q is a value significantly smaller than −η as shown in the equation (24-3).
Figure 2018156619

このようにしてマイコン5は、引力相互作用項f(x−xi+1)の勾配gの指数移動平均値~mと引力相互作用項f(x−xi+1)の勾配gの二乗の指数移動平均値~vとが近くなるにしたがって更新幅Δxを大きくすると共に、指数移動平均値~mが勾配gの二乗の指数移動平均値~vよりも小さくなるにつれて更新幅Δxを小さくするように導出している。すなわち、更新幅Δxを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で極小値に効率的に到達させることができるようになる。 The microcomputer 5 in this way, the gradient g q gravitational interaction term f (x i -x i + 1 ) exponential moving average of the gradient g q of ~ m q and attractive interaction term f (x i -x i + 1 ) The update width Δx q is increased as the square exponential moving average value ~ v q becomes closer, and the exponent moving average value ~ m q becomes smaller than the square exponential moving average value ~ v q of the gradient g q The update width Δx q is derived to be small. That is, it is possible to automatically change to a smaller width from a large width update width [Delta] x q, it is possible to efficiently reach a local minimum as small as possible number of updates.

ここでは引力相互作用項f(x−xi+1)についての説明を行ったが、部分評価関数Hにおいても同様に適用できるため、その詳細説明を省略する。部分評価関数Hの処理について概念的にまとめると、マイコン5は、部分評価関数Hの勾配gの指数移動平均値~mと部分評価関数Hの勾配gの二乗の指数移動平均値~vとが近くなるにしたがって更新幅Δxを大きくすると共に、指数移動平均値~mが勾配の二乗の指数移動平均値~vよりも小さくなるにつれて更新幅Δxを小さくするように導出することになる。この例の場合も同様に、更新幅Δxを大きい幅から小さい幅に自動的に変化させることができ、少ない更新回数で極小値に効率的に到達させることができるようになる。 Here, the attractive interaction term f (x i -x i + 1 ) has been described. However, since it can be similarly applied to the partial evaluation function H i , the detailed description thereof is omitted. Conceptually summarized processed partial evaluation function H i, the microcomputer 5, the square index gradient g c partial evaluation function H exponential moving average value of the gradient g c of i ~ m c and partial evaluation function H i moved while increasing the update width [Delta] x c according to the average value ~ v c is closer, reducing the update width [Delta] x c as exponential moving average ~ m c is smaller than the exponential moving average ~ v c of the square of the gradient Will be derived. Similarly in this case, automatically can be changed to a smaller width from a large width update width [Delta] x c, it is possible to efficiently reach a minimum value with a small number of updates.

<具体例の検証条件>
発明者は、以上のように説明した方法について具体例を用いて検証している。以下では、この検証条件について説明する。発明者らは、「0」〜「9」の一桁の手書き数字を深層学習を用いて識別する問題を挙げて検証している。
<Verification conditions for specific examples>
The inventor has verified the method described above using a specific example. Below, this verification condition is demonstrated. The inventors have verified the problem by identifying single-digit handwritten numerals “0” to “9” using deep learning.

この検証条件としては、図18に示すように、入力層を8×8ピクセル分の64入力用意し、出力層を「0」〜「9」の10出力用意し、中間層を5層用意したニューラルネットワークを用いている。各中間層のノード数は、1層目を30ノードとし、2層目から5層目を各20ノード用意し、ネットワークはこれらの入力層、中間層、出力層の各ノードを全て結合して構成した形態を用いた。   As the verification conditions, as shown in FIG. 18, 64 inputs corresponding to 8 × 8 pixels are prepared, 10 outputs “0” to “9” are prepared, and 5 intermediate layers are prepared. A neural network is used. The number of nodes in each intermediate layer is 30 nodes in the first layer, 20 nodes each in the second to fifth layers are prepared, and the network combines all the nodes in the input layer, intermediate layer, and output layer. The configured form was used.

また、各ノードの結合の重みを決定するための学習データを1000個用意して学習試行している。ここで、部分評価関数Hを定義するための学習データの分割数を10とした。すなわち(16)式及び(19)式中のNを10とし、当該N個の部分評価関数Hについて学習データ各100個(以下、必要に応じて「部分データ」と称する)を用いて評価した。また引力相互作用項f(x−xi+1)については(15)式を適用し、この(15)式の二次引力係数ρを固定値0.1として検証した。また、その他の(16)〜(22)式に用いられる各定数η,β1c,β2c,β1q,β2q,ε,εを図19に示す値を用いて評価した。 In addition, 1000 pieces of learning data for determining the connection weight of each node are prepared and learning is attempted. Here, the number of divisions of the learning data for defining the partial evaluation function H i is 10. That is, N in the equations (16) and (19) is set to 10, and the N partial evaluation functions Hi are evaluated using 100 pieces of learning data (hereinafter referred to as “partial data” as necessary). did. Further, the equation (15) was applied to the attractive interaction term f (x i -x i + 1 ), and the secondary attractive coefficient ρ i of the equation (15) was verified as a fixed value 0.1. Moreover, each constant (eta), (beta) 1c , (beta) 2c , (beta) 1q , (beta) 2q , (epsilon) c , (epsilon) q used for the other (16)-(22) Formula was evaluated using the value shown in FIG.

さらに発明者は、前述の(1)式右辺第2項の引力相互作用項f(x−xi+1)を省いた一般的な評価関数を用いた例を比較例とし、前述と同様に深層学習により手書き数字を識別するように検証している。この比較例は、一般にAdam(Adaptive moment estimation)と称される深層学習における勾配法を適用した例に類似する方法である。この比較例においても、本実施形態の処理方法との比較検証を行うため、同じ学習データを1000個用意すると共に学習データをN=10分割し、それぞれ学習データ各100個の部分データを用いて評価した。すなわち(16)式〜(18)式と同様の処理を行うことで評価しており、このとき前述同様の定数η,β1c,β2c,εの値を用いている。 Further, the inventor made a comparative example using a general evaluation function in which the attractive interaction term f (x i -x i + 1 ) in the second term on the right-hand side of the equation ( 1 ) was omitted. It is verified to identify handwritten numbers by learning. This comparative example is a method similar to an example in which a gradient method in deep learning generally called Adam (Adaptive moment estimation) is applied. Also in this comparative example, in order to perform comparison verification with the processing method of the present embodiment, 1000 pieces of the same learning data are prepared and the learning data is divided into N = 10, and each of the 100 pieces of learning data is used. evaluated. That is, evaluation is performed by performing the same processing as in the equations (16) to (18), and at this time, the values of the constants η, β 1c , β 2c , and ε c similar to those described above are used.

<検証結果>
以下、前述の検証結果について説明する。
図20は本実施形態の引力相互作用項f(x−xi+1)を用いて得られたLossfunctionの検証結果、図21は引力相互作用項f(x−xi+1)を用いない場合の比較例のLossfunctionの検証結果を示している。
<Verification results>
Hereinafter, the verification result will be described.
FIG. 20 shows the verification result of Lossfunction obtained using the attractive interaction term f (x i −x i + 1 ) of this embodiment, and FIG. 21 shows the case where the attractive interaction term f (x i −x i + 1 ) is not used. The verification result of Lossfunction of a comparative example is shown.

図20及び図21のLossfunction特性は探索ステップ数を横軸として示しており、図18に示すニューラルネットワークを用意した学習データに適合させて各ノードの重みを決定した後の学習誤差を示している。探索ステップ数が少ないとN=10個の分割データのそれぞれの部分評価関数Hに対する適合度に応じたLossfunctionを求めることになるため、その絶対値も部分データ毎に大きくばらつくが、探索ステップ数が多くなると引力相互作用項fの作用が進み、より適切に識別可能になることが確認されている。 The Lossfunction characteristics of FIGS. 20 and 21 show the number of search steps on the horizontal axis, and show the learning error after determining the weight of each node by adapting the neural network shown in FIG. 18 to the learning data. . To become to seek Lossfunction corresponding to adaptability the search step number is small for each partial evaluation function H i of N = 10 pieces of divided data, its the absolute value is also large variation for each partial data, search step number It has been confirmed that the action of the attractive interaction term f advances as the value increases, and can be identified more appropriately.

この検証結果によれば、本実施形態及び比較例の何れの方法を用いても探索ステップ数を増せば増すほどLossfunctionを減少させることができることがわかるが、比較例ではLossfunctionの最小値が0.039となるのに対し、本実施形態では最小値を0.021にでき、Lossfunctionの最小値をより少なくできることが把握できる。   According to this verification result, it can be seen that the loss function can be decreased as the number of search steps is increased by using any of the methods of the present embodiment and the comparative example, but in the comparative example, the minimum value of the loss function is 0. On the other hand, in this embodiment, the minimum value can be set to 0.021, and it can be understood that the minimum value of the loss function can be further reduced.

<未知のテストデータに対する検証結果>
以下、未知のテストデータに対する検証結果について説明する。
図22は本実施形態のAccuracyの検証結果、図23は比較例のAccuracyの検証結果を示している。図22及び図23のAccuracyは前述の学習データとは異なる未知のテストデータを用いた正答率を示すものであり、新たなデータに対するクラスラベルや関数値を正確に予測できるかどうかを示す汎化性能に関する指標を示すもので、前述同様に探索ステップ数を横軸として示している。比較例では正答率、すなわち識別精度を73.65%となるのに対し、本実施形態では正答率、識別精度を91.71%とすることができ、本実施形態を採用することで比較例よりも高い識別性能を示すことが把握できた。
<Verification results for unknown test data>
Hereinafter, verification results for unknown test data will be described.
FIG. 22 shows the accuracy verification result of this embodiment, and FIG. 23 shows the accuracy verification result of the comparative example. Accuracy in FIGS. 22 and 23 indicates a correct answer rate using unknown test data different from the above-described learning data, and generalization indicating whether class labels and function values for new data can be accurately predicted. An index related to performance is shown, and the number of search steps is shown on the horizontal axis in the same manner as described above. In the comparative example, the correct answer rate, that is, the identification accuracy is 73.65%, whereas in this embodiment, the correct answer rate and the identification accuracy can be 91.71%. By adopting this embodiment, the comparative example It can be understood that it shows higher discrimination performance.

<本実施形態の概念的なまとめ>
以上説明したように、本実施形態によれば、引力相互作用項f(x−xi+1)と部分評価関数Hの勾配g、gに応じて、それぞれ個体Kの変数xの更新幅Δx、Δxを導出するときに、引力相互作用項f(x−xi+1)と部分評価関数Hの勾配g、gの指数移動平均値~m、~mと引力相互作用項f(x−xi+1)と部分評価関数Hの勾配g、gの二乗の指数移動平均値~v、~vがそれぞれ近くなるにしたがってそれぞれ更新幅Δx、Δxを大きくしている。また、勾配の指数移動平均値~m、~mが勾配の二乗の指数移動平均値~v、~vよりも小さくなるにつれて更新幅Δx、Δxを小さくするように導出している。このため、更新幅Δx、Δxを大きい幅から小さい幅に自動的に変化させることができ、極力少ない更新回数で効率的に極小値に個体Kを到達させることができる。
<Conceptual summary of this embodiment>
As described above, according to this embodiment, attractive interaction term f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, according to g c, the variable x i of each individual K update width [Delta] x q, when deriving the [Delta] x c, attractive interaction term f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, exponential moving average of g c ~ m q, ~ m c Gravity interaction terms f (x i -x i + 1 ) and partial evaluation function H i of the gradient g q, exponential moving average of the square of g c ~ v q, ~ v c each update width in accordance with the close respectively Δx q and Δx c are increased. Furthermore, exponential moving average ~ m q gradient, ~ m c is exponential moving average of the square of the gradient ~ v q, update width [Delta] x q as smaller than ~ v c, derived so as to reduce the [Delta] x c ing. For this reason, the update widths Δx q and Δx c can be automatically changed from a large width to a small width, and the individual K can efficiently reach the minimum value with as few updates as possible.

<第4実施形態の変形例>
なお、第4実施形態に示した処理を用いると、引力相互作用項f(x−xi+1)の影響力は、前述した勾配gの変化に応じて適応的に変更される。このため(15)式の二次引力係数ρを固定値(例えば0.1)としても問題なく収束する。すなわち、例えば第2実施形態では二次引力係数ρを初期値から大きくすることで個体Kの間に引力を作用させて最適値に収束させるようにしたが、第4実施形態では増加させる処理をする必要がなくなる。また第2実施形態に説明したように、二次引力係数ρを増加させるように処理しても良い。
<Modification of Fourth Embodiment>
If the process shown in the fourth embodiment is used, the influence of the attractive interaction term f (x i -x i + 1 ) is adaptively changed according to the change in the gradient g q described above. For this reason, even if the secondary attractive coefficient ρ i in the equation (15) is set to a fixed value (for example, 0.1), the convergence is achieved without any problem. That is, for example, in the second embodiment, the secondary attractive force coefficient ρ i is increased from the initial value to cause the attractive force to act on the individual K so as to converge to the optimum value. There is no need to do. Further, as described in the second embodiment, the secondary attraction coefficient ρ i may be increased.

また、第4実施形態の方法を採用すると、変数xを更新するときには、勾配g、gに応じた情報を用いることになるため、引力相互作用項f(x−xi+1)は(15)式のように二次関数に限定するものではなく、下記(25)式の引力相互作用項f(x−xi+1)に示すように、四次以上の偶数次関数を用いても良い。

Figure 2018156619
このような(25)式に示される引力相互作用項f(x−xi+1)を用いたとしても変数xの更新処理が複雑な処理に変化することはなく極力迅速に最適解を探索できる。 Further, when the method of the fourth embodiment is adopted, when the variable x i is updated, information according to the gradients g q and g c is used, so that the attractive interaction term f (x i −x i + 1 ) is It is not limited to a quadratic function as in equation (15), but using an even-order function of the fourth or higher order as shown in the attractive interaction term f (x i -x i + 1 ) in equation (25) below. Also good.
Figure 2018156619
Even if the gravitational interaction term f (x i -x i + 1 ) shown in the equation (25) is used, the update process of the variable x i does not change to a complicated process, and the optimum solution is searched as quickly as possible. it can.

(他の実施形態)
本発明は、上記した実施形態に限定されるものではなく、以下のように変形又は拡張することができる。
個体Kは各部分評価関数H(x)の間で同数の変数xを備えることが望ましい。前述実施形態では、個体Kの変数xを解出力する形態を説明しているが、変数xに対応した評価値、すなわち、解出力すべき変数xを実効的な評価関数Heffに代入した評価値を解出力するようにしても良い。第3実施形態では、二次引力係数ρ/2を初期値=0から徐々に大きくする形態を示したが、初期値は0に限られない。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and can be modified or expanded as follows.
It is desirable that the individual K has the same number of variables x i among the partial evaluation functions H i (x i ). In the above embodiment has been described a form of solution output variables x i of the individual K, evaluation value corresponding to the variable x i, i.e., the variable x i to be construed output to the effective evaluation function H eff The assigned evaluation value may be output as a solution. In the third embodiment, the secondary attractive force coefficient ρ i / 2 is gradually increased from the initial value = 0, but the initial value is not limited to zero.

また、特許請求の範囲に記載した括弧内の符号は、本発明の一つの態様として前述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。前述実施形態の一部を、課題を解決できる限りにおいて省略した態様も実施形態と見做すことが可能である。また、特許請求の範囲に記載した文言によって特定される発明の本質を逸脱しない限度において、考え得るあらゆる態様も実施形態と見做すことが可能である。   Further, the reference numerals in parentheses described in the claims indicate the correspondence with the specific means described in the embodiment described above as one aspect of the present invention, and the technical scope of the present invention is It is not limited. An aspect in which a part of the above-described embodiment is omitted as long as the problem can be solved can be regarded as the embodiment. In addition, any conceivable aspect can be regarded as an embodiment as long as it does not depart from the essence of the invention specified by the words described in the claims.

また本発明は、前述した実施形態に準拠して記述したが、本発明は当該実施形態や構造に限定されるものではないと理解される。本発明は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範畴や思想範囲に入るものである。   Moreover, although this invention was described based on embodiment mentioned above, it understands that this invention is not limited to the said embodiment and structure. The present invention includes various modifications and modifications within an equivalent range. In addition, various combinations and forms, as well as other combinations and forms including one element, more or less, are within the scope and spirit of the present disclosure.

図面中、1は最適化装置(連続最適化問題の大域的探索装置)、6は設定部、7は最適解探索部、8は導出部、Kは個体、Sは探索空間、xは変数、g/2は引力係数、Hoptは全体評価関数、Heffは実効評価値、xizは推定解、g、gは勾配、~m、~mは勾配の指数移動平均値、~v、~vは勾配の二乗の指数移動平均値、Δx、Δxは更新幅、を示す。 In the drawings, 1 is an optimization device (global search device for continuous optimization problems), 6 is a setting unit, 7 is an optimal solution search unit, 8 is a derivation unit, K is an individual, S is a search space, and x i is a variable. , g / 2 is attraction coefficient, whole Hopt evaluation function, Heff is an effective evaluation value, Xiz estimated solution, g q, g c is the slope, ~ m q, ~ m c is exponential moving average value of the gradient, ~ v q and ˜v c represent exponential moving average values of the squares of gradients, and Δx q and Δx c represent update widths.

Claims (26)

複数の要求、制約により生成される全体評価関数について、一部の要求、制約により生成した部分評価関数(H(x))に分け、1または複数の個体を前記部分評価関数に沿って設定する設定部(6)と、
前記設定された部分評価関数の部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて前記全体評価関数の最適解を探索する最適解探索部(7)と、
を備える連続最適化問題の大域的探索装置。
The overall evaluation function generated by a plurality of requests and constraints is divided into a partial evaluation function ( Hi (x)) generated by some requests and constraints, and one or a plurality of individuals are set along the partial evaluation function. A setting unit (6) to perform,
While searching for a partial optimal solution of the set partial evaluation function or after searching for a partial optimal solution, an attractive force is applied between individuals having the partial solution to be searched for. An optimal solution search unit (7) for searching for an optimal solution of the overall evaluation function;
A global search device for continuous optimization problems.
前記最適解探索部は、
前記部分評価関数と引力相互作用項(f(x−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅(Δx)を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するように構成され、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項1記載の連続最適化問題の大域的探索装置。
Figure 2018156619
The optimal solution search unit includes:
When an effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed as (1),
A first update width (Δx q ) of the variable of the individual is derived according to the gradient of the attractive interaction term, and a second update width (Δx c ) of the variable of the individual is determined according to the gradient of the partial evaluation function. Deriving and calculating and deriving a total update width (Δx) obtained by adding the second update width (Δx c ) to the first update width (Δx q ),
When deriving the first update width (Δx q ) of the individual variable according to the gradient of the attractive interaction term, the moving average value of the gradient of the attractive interaction term and the square of the gradient of the attractive interaction term The first update width is increased as the moving average value of the gradient becomes closer, and the first update width is decreased as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient. The global search device for continuous optimization problems according to claim 1.
Figure 2018156619
前記引力相互作用項の勾配を(19)式とし、前記引力相互作用項の勾配の移動平均値を(20−1)式とし、前記引力相互作用項の勾配の二乗の移動平均値を(20−2)式としたときに、前記第1更新幅を(21−1)式、(21−2)式のように導出する請求項2記載の連続最適化問題の大域的探索装置。
Figure 2018156619
Figure 2018156619
Figure 2018156619
The gradient of the attractive interaction term is represented by Equation (19), the moving average value of the gradient of the attractive interaction term is represented by Equation (20-1), and the moving average value of the square of the gradient of the attractive interaction term is represented by (20). The global search device for a continuous optimization problem according to claim 2, wherein the first update width is derived as in formulas (21-1) and (21-2) when formula (-2) is used.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記最適解探索部は、
前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項2または3記載の連続最適化問題の大域的探索装置。
The optimal solution search unit includes:
When deriving the second update width, the second update width is increased as the moving average value of the gradient of the partial evaluation function and the moving average value of the square of the gradient of the partial evaluation function become closer, and 4. The global search device for a continuous optimization problem according to claim 2, wherein the second update width is derived so as to decrease as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient.
前記部分評価関数の勾配を(16)式とし、前記部分評価関数の勾配の移動平均値を(17−1)式とし、前記部分評価関数の勾配の二乗の移動平均値を(17−2)式としたときに、前記第2更新幅を(18−1)式、(18−2)式のように導出する請求項4記載の連続最適化問題の大域的探索装置。
Figure 2018156619
Figure 2018156619
Figure 2018156619
The gradient of the partial evaluation function is set as equation (16), the moving average value of the gradient of the partial evaluation function is set as equation (17-1), and the moving average value of the square of the gradient of the partial evaluation function is set as (17-2). 5. The global search device for continuous optimization problems according to claim 4, wherein the second update width is derived as shown in equations (18-1) and (18-2) when the equations are used.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記最適解探索部は、前記実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(25)式とし、前記(25)式中のρを所定値とするか又は初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項2から5の何れか一項に記載の連続最適化問題の大域的探索装置。
Figure 2018156619
The optimal solution search unit defines an attractive interaction term as an equation (25) when the effective evaluation function is defined as an equation (1), and sets ρ i in the equation (25) as a predetermined value. The global search device for continuous optimization problems according to any one of claims 2 to 5, wherein an attractive force is applied between individuals by being increased from an initial value so as to converge to an optimal value.
Figure 2018156619
前記最適解探索部は、前記部分評価関数と引力相互作用項(f(x−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、引力相互作用の項を(2)式として(3)式を満たすように個体の間に引力を作用させる請求項1記載の連続最適化問題の大域的探索装置。
Figure 2018156619
Figure 2018156619
Figure 2018156619
The optimal solution search unit has an attractive force when an effective evaluation function (H eff ) composed of the partial evaluation function and an attractive interaction term (f (x i −x i + 1 )) is expressed by equation (1). 2. The global search device for continuous optimization problems according to claim 1, wherein an attractive force is applied between individuals so that the interaction term is expressed by equation (2) and equation (3) is satisfied.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記(3)式のg(x)を(4)式として探索する請求項7記載の連続最適化問題の大域的探索装置。
Figure 2018156619
The global search device for a continuous optimization problem according to claim 7, wherein g (x) in the equation (3) is searched as an equation (4).
Figure 2018156619
前記最適解探索部は、前記実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(15)式とし、前記(15)式中のρを初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項1記載の連続最適化問題の大域的探索装置。
Figure 2018156619
The optimum solution search unit defines the attractive interaction term as equation (15) when the effective evaluation function is defined as equation (1), and increases ρ i in the equation (15) from the initial value. The global search device of the continuous optimization problem according to claim 1, wherein an attractive force acts between individuals to converge to an optimum value.
Figure 2018156619
前記最適解探索部が前記実効的な評価関数を極小化するときには、
前記部分評価関数(H)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項1、7から9の何れか一項に記載の連続最適化問題の大域的探索装置。
When the optimal solution search unit minimizes the effective evaluation function,
After obtaining a solution candidate for the partial evaluation function (H i ), the differential value when the solution candidate is substituted is equal to the differential value of the partial evaluation function, and all of the search spaces including the solution candidate 8. An auxiliary function method is used in which a quadratic function that satisfies a condition that obtains a value larger than the evaluation value in the variable is replaced with an extrinsic function method that repeatedly updates the extreme value of the quadratic function as a solution candidate for the next value. The global search apparatus of the continuous optimization problem as described in any one of 1-9.
前記設定部は、初期分布として前記探索空間に前記複数の個体の変数をランダムに分布させるように設定する請求項1から10の何れか一項に記載の連続最適化問題の大域的探索装置。   The global search device for a continuous optimization problem according to any one of claims 1 to 10, wherein the setting unit sets an initial distribution so that variables of the plurality of individuals are randomly distributed in the search space. 前記変数の探索を開始する前に予め変数の推定解(xiz)が与えられている場合には、
前記設定部は、初期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項1から10の何れか一項に記載の連続最適化問題の大域的探索装置。
If a variable estimation solution (xiz) is given in advance before the search for the variable is started,
The said setting part is the limited search range (Sa) limited to the inside of the said search space as an initial distribution, The variable of the said individual is set to the limited search range containing the said estimated solution. A global search apparatus for continuous optimization problems according to one item.
前記個体は前記部分評価関数の間で同数の変数(x)を備える請求項1から12のいずれか一項に記載の連続最適化問題の大域的探索装置。 The individual global search device of a continuous optimization problem claimed in any one of 12 with the same number of variables (x i) between the partial cost function. 大域的探索装置(1)に、
複数の要求、制約により生成される全体評価関数について、一部の要求、制約により生成した部分評価関数(H(x))に分け、1または複数の個体を前記部分評価関数に沿って設定する手順と、
前記設定された部分評価関数により部分的な最適解を探索する手順と、
前記部分的な最適解を探索しながら、または、部分的な最適解を探索した後、当該探索される部分的な解を備える個体の間に引力を作用させて前記全体評価関数の最適解を探索する手順と、
を実行させるプログラム。
In global search device (1),
The overall evaluation function generated by a plurality of requests and constraints is divided into partial evaluation functions (H i (x i )) generated by a part of the requests and constraints, and one or more individuals are arranged along the partial evaluation function. Steps to set,
A procedure for searching for a partial optimal solution by the set partial evaluation function;
While searching for the partial optimal solution, or after searching for the partial optimal solution, an attractive force is applied between the individuals having the partial solution to be searched for to determine the optimal solution of the overall evaluation function. Steps to explore,
A program that executes
前記全体評価関数の最適解を探索する手順では、
前記部分評価関数と引力相互作用項(f(x−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出し、前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅(Δx)を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するものであり、
前記引力相互作用項の勾配に応じて前記個体の変数の第1更新幅(Δx)を導出するときに、前記引力相互作用項の勾配の移動平均値と前記引力相互作用項の勾配の二乗の移動平均値とが近くなるにしたがって前記第1更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第1更新幅を小さくするように導出する請求項14記載のプログラム。
Figure 2018156619
In the procedure for searching for the optimal solution of the overall evaluation function,
When an effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed as (1),
A first update width (Δx q ) of the variable of the individual is derived according to the gradient of the attractive interaction term, and a second update width (Δx c ) of the variable of the individual is determined according to the gradient of the partial evaluation function. And calculating and deriving a total update width (Δx) obtained by adding the second update width (Δx c ) to the first update width (Δx q ),
When deriving the first update width (Δx q ) of the individual variable according to the gradient of the attractive interaction term, the moving average value of the gradient of the attractive interaction term and the square of the gradient of the attractive interaction term The first update width is increased as the moving average value of the gradient becomes closer, and the first update width is decreased as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient. The program according to claim 14.
Figure 2018156619
前記全体評価関数の最適解を探索する手順では、
前記引力相互作用項の勾配を(19)式とし、前記引力相互作用項の勾配の移動平均値を(20−1)式とし、前記引力相互作用項の勾配の二乗の移動平均値を(20−2)式としたときに、前記第1更新幅を(21−1)式、(21−2)式のように導出する請求項15記載のプログラム。
Figure 2018156619
Figure 2018156619
Figure 2018156619
In the procedure for searching for the optimal solution of the overall evaluation function,
The gradient of the attractive interaction term is represented by Equation (19), the moving average value of the gradient of the attractive interaction term is represented by Equation (20-1), and the moving average value of the square of the gradient of the attractive interaction term is represented by (20). The program according to claim 15, wherein the first update width is derived as in the formulas (21-1) and (21-2) when the formula (-2) is used.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記全体評価関数の最適解を探索する手順では、
前記部分評価関数の勾配に応じて前記個体の変数の第2更新幅(Δx)を導出し、当該第2更新幅を前記第1更新幅(Δx)に加算した合計更新幅(Δx)を算出して導出するように構成され、
前記第2更新幅を導出するときに、前記部分評価関数の勾配の移動平均値と前記部分評価関数の勾配の二乗の移動平均値とが近くなるにしたがって前記第2更新幅を大きくすると共に前記勾配の移動平均値が前記勾配の二乗の移動平均値よりも小さくなるにつれて前記第2更新幅を小さくするように導出する請求項15または16記載のプログラム。
In the procedure for searching for the optimal solution of the overall evaluation function,
A total update width (Δx) obtained by deriving a second update width (Δx c ) of the variable of the individual according to the gradient of the partial evaluation function and adding the second update width to the first update width (Δx q ). Is configured to calculate and derive
When deriving the second update width, the second update width is increased as the moving average value of the gradient of the partial evaluation function and the moving average value of the square of the gradient of the partial evaluation function become closer, and The program according to claim 15 or 16, wherein the second update width is derived so as to decrease as the moving average value of the gradient becomes smaller than the moving average value of the square of the gradient.
前記部分評価関数の勾配を(16)式とし、前記部分評価関数の勾配の移動平均値を(17−1)式とし、前記部分評価関数の勾配の二乗の移動平均値を(17−2)式としたときに、前記第2更新幅を(18−1)式、(18−2)式のように導出する請求項17記載のプログラム。
Figure 2018156619
Figure 2018156619
Figure 2018156619
The gradient of the partial evaluation function is set as equation (16), the moving average value of the gradient of the partial evaluation function is set as equation (17-1), and the moving average value of the square of the gradient of the partial evaluation function is set as (17-2). 18. The program according to claim 17, wherein the second update width is derived as in the formulas (18-1) and (18-2) when the formulas are used.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記実効的な評価関数を(1)式として定義したときに、前記引力相互作用項を(25)式とし、前記(25)式中のρを所定値とするか又は初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項15から18の何れか一項に記載のプログラム。
Figure 2018156619
When the effective evaluation function is defined as the equation (1), the attractive interaction term is the equation (25), and ρ i in the equation (25) is set to a predetermined value or increased from the initial value. The program according to any one of claims 15 to 18, wherein an attractive force is applied between individuals to converge to an optimum value.
Figure 2018156619
前記全体評価関数の最適解を探索する手順では、
前記部分評価関数と引力相互作用項(f(x−xi+1))により構成される実効的な評価関数(Heff)を(1)式としたときに、引力相互作用の項を(2)式として(3)式を満たすように前記個体の間に引力を作用させる請求項14記載のプログラム。
Figure 2018156619
Figure 2018156619
Figure 2018156619
In the procedure for searching for the optimal solution of the overall evaluation function,
When the effective evaluation function (H eff ) composed of the partial evaluation function and the attractive interaction term (f (x i −x i + 1 )) is expressed by equation (1), the attractive interaction term is expressed as (2 The program according to claim 14, wherein an attractive force is applied between the individuals so as to satisfy the expression (3) as an expression.
Figure 2018156619
Figure 2018156619
Figure 2018156619
前記全体評価関数の最適解を探索する手順では、
前記(3)式のg(x)を(4)式として探索する請求項20記載のプログラム。
Figure 2018156619
In the procedure for searching for the optimal solution of the overall evaluation function,
The program according to claim 20, wherein g (x) in the equation (3) is searched as an equation (4).
Figure 2018156619
前記全体評価関数の最適解を探索する手順では、
前記実効的な評価関数を(1)式として定義したときに、引力相互作用の項を(15)式とし、前記(15)式中のρを初期値から大きくすることで個体の間に引力を作用させて最適値に収束させる請求項14記載のプログラム。
Figure 2018156619
In the procedure for searching for the optimal solution of the overall evaluation function,
When the effective evaluation function is defined as equation (1), the term of attractive interaction is defined as equation (15), and ρ i in the equation (15) is increased from the initial value, so The program according to claim 14, wherein an attractive force is applied to converge to an optimum value.
Figure 2018156619
前記実効的な評価関数を極小化する手順では、
前記部分評価関数(H)の解候補を求めた後、当該解候補を代入したときの微分値が当該部分評価関数の微分値と等しく、且つ、前記解候補を含む探索空間の内の全ての変数における評価値よりも大きな値を得る条件を満たす2次関数に置換し、当該2次関数の極値を次回の値の解候補として繰り返して更新する補助関数法を用いる請求項14,20から22の何れか一項に記載のプログラム。
In the procedure for minimizing the effective evaluation function,
After obtaining a solution candidate for the partial evaluation function (H i ), the differential value when the solution candidate is substituted is equal to the differential value of the partial evaluation function, and all of the search spaces including the solution candidate 21. An auxiliary function method is used in which a quadratic function satisfying a condition for obtaining a value larger than an evaluation value in the variable is used, and an extreme value of the quadratic function is repeatedly updated as a solution candidate for the next value. The program according to any one of 1 to 22.
前記複数の個体の変数を設定する手順では、
前記初期分布として前記探索空間に前記複数の個体の変数をランダムに分布させるように設定する請求項14から23の何れか一項に記載のプログラム。
In the procedure for setting the variables of the plurality of individuals,
The program according to any one of claims 14 to 23, wherein the initial distribution is set so that the variables of the plurality of individuals are randomly distributed in the search space.
前記変数の探索を開始する前に予め変数の推定解(xiz)が与えられている場合、
前記複数の個体の変数を設定する手順では、
前記初期分布として前記探索空間の内部に限定された限定探索範囲(Sa)であって当該推定解を含む限定探索範囲に前記個体の変数を設定する請求項14から23の何れか一項に記載のプログラム。
If an estimated variable solution (xiz) is given in advance before starting the search for the variable,
In the procedure for setting the variables of the plurality of individuals,
24. The variable of the individual is set in a limited search range (Sa) limited to the inside of the search space as the initial distribution and including the estimated solution. Program.
前記個体は前記部分評価関数の間で同数の変数(x)を備える請求項14から25のいずれか一項に記載のプログラム。 It said individual program according to any one of claims 14 to 25 comprising the same number of variables (x i) between the partial cost function.
JP2017155490A 2017-03-16 2017-08-10 Global search device and program for continuous optimization problems Active JP7045150B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017051554 2017-03-16
JP2017051554 2017-03-16

Publications (2)

Publication Number Publication Date
JP2018156619A true JP2018156619A (en) 2018-10-04
JP7045150B2 JP7045150B2 (en) 2022-03-31

Family

ID=63718152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017155490A Active JP7045150B2 (en) 2017-03-16 2017-08-10 Global search device and program for continuous optimization problems

Country Status (1)

Country Link
JP (1) JP7045150B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235104A1 (en) * 2019-05-23 2020-11-26 日本電信電話株式会社 Parameter estimating device, parameter estimating method, and parameter estimating program
WO2021029034A1 (en) * 2019-08-14 2021-02-18 日本電信電話株式会社 Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret calculation device, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ADACHI, S. H. ET AL.: "Application of Auantumu Annealing to Training of Deep Neural Networks", ARXIV.ORG [ONLINE], vol. arXiv:1510.06356, JPN6021035004, 21 October 2015 (2015-10-21), ISSN: 0004588389 *
CHAUDHARI, P., ET AL.: "Entropy-SGD: Biasing Gradient Descent Into Wide Valleys", ARXIV.ORG [ONLINE], vol. arXiv:1611.01838v4, JPN6021035002, 14 January 2017 (2017-01-14), ISSN: 0004588388 *
石亀 篤司: "Particle Swarm Optimization——群れでの探索——", 計測と制御, vol. 47, no. 6, JPN6021035006, 1 June 2008 (2008-06-01), pages 459 - 465, ISSN: 0004588390 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020235104A1 (en) * 2019-05-23 2020-11-26 日本電信電話株式会社 Parameter estimating device, parameter estimating method, and parameter estimating program
JPWO2020235104A1 (en) * 2019-05-23 2020-11-26
JP7310884B2 (en) 2019-05-23 2023-07-19 日本電信電話株式会社 Parameter estimation device, parameter estimation method, and parameter estimation program
WO2021029034A1 (en) * 2019-08-14 2021-02-18 日本電信電話株式会社 Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret calculation device, and program
JPWO2021029034A1 (en) * 2019-08-14 2021-02-18
AU2019461061B2 (en) * 2019-08-14 2023-03-30 Nippon Telegraph And Telephone Corporation Secure gradient descent computation method, secure deep learning method, secure gradient descent computation system, secure deep learning system, secure computation apparatus, and program
JP7279796B2 (en) 2019-08-14 2023-05-23 日本電信電話株式会社 Secret gradient descent calculation method, secret deep learning method, secret gradient descent calculation system, secret deep learning system, secret computing device, and program

Also Published As

Publication number Publication date
JP7045150B2 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
CN110245269B (en) Method and device for acquiring dynamic embedded vector of node in relational network graph
JP2019160319A (en) Method and device for optimizing and applying multi-layer neural network model, and storage medium
McLeod et al. Optimization, fast and slow: optimally switching between local and Bayesian optimization
Billups et al. Derivative-free optimization of expensive functions with computational error using weighted regression
JP7091209B2 (en) Information processing method and information processing system
JP2021504836A5 (en)
CN113420421B (en) QoS prediction method based on time sequence regularized tensor decomposition in mobile edge calculation
CN109800853B (en) Matrix decomposition method and device fusing convolutional neural network and explicit feedback and electronic equipment
CN111652664A (en) Apparatus and method for training mixed element learning network
KR20190141581A (en) Method and apparatus for learning artificial neural network for data prediction
JP2018156619A (en) Global search device and program for consecutive optimization problem
CN114072809A (en) Small and fast video processing network via neural architectural search
CN116432543A (en) Method for predicting remaining life of power semiconductor module, terminal device and storage medium
CA3119351C (en) Extending finite rank deep kernel learning to forecasting over long time horizons
JP7150651B2 (en) Neural network model reducer
WO2022252694A1 (en) Neural network optimization method and apparatus
WO2022166125A1 (en) Recommendation system with adaptive weighted baysian personalized ranking loss
JP6993250B2 (en) Content feature extractor, method, and program
Gergel et al. Efficient methods of multicriterial optimization based on the intensive use of search information
JP7107797B2 (en) Information processing method and information processing system
CN110097183B (en) Information processing method and information processing system
CN110858311B (en) Deep nonnegative matrix factorization-based link prediction method and system
KR20220111897A (en) Power prediction device with mode decomposition and neural network
CN114897188B (en) Large-scale data processing method
KR102574489B1 (en) Method and apparatus for structured pruning with linear transform parameters in for deep neural networks

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220318

R150 Certificate of patent or registration of utility model

Ref document number: 7045150

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150