JP7376405B2 - Optimization processing device, optimization processing method, and optimization processing program - Google Patents
Optimization processing device, optimization processing method, and optimization processing program Download PDFInfo
- Publication number
- JP7376405B2 JP7376405B2 JP2020056611A JP2020056611A JP7376405B2 JP 7376405 B2 JP7376405 B2 JP 7376405B2 JP 2020056611 A JP2020056611 A JP 2020056611A JP 2020056611 A JP2020056611 A JP 2020056611A JP 7376405 B2 JP7376405 B2 JP 7376405B2
- Authority
- JP
- Japan
- Prior art keywords
- learning data
- optimization processing
- evaluation value
- solution
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005457 optimization Methods 0.000 title claims description 76
- 238000012545 processing Methods 0.000 title claims description 63
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000009826 distribution Methods 0.000 claims description 50
- 238000011156 evaluation Methods 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 25
- 238000003860 storage Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、組合せ最適化の問題に対して最適解を探索する最適化処理装置、最適化処理方法及び最適化処理プログラムに関する。 The present invention relates to an optimization processing device, an optimization processing method, and an optimization processing program that search for an optimal solution to a combinatorial optimization problem.
従来、生産計画や配送計画などの組合せ最適化の問題に対し、数理最適化の手法が適用されている。例えば特開2017-120561号公報(特許文献1)には、「搬送物置場における搬送物の受け入れから払い出しまでの物流計画を立案する物流計画立案装置であって、前記搬送物置場における置場、前記搬送物置場において搬送物を取り扱う搬送機器、搬送物、及び物流計画立案の方針をモデル化して得られる、数式モデルである物流モデルを構築する物流モデル構築手段と、前記物流モデル構築手段で構築した物流モデルに基づいて、数理最適化手法により物流計画を立案する物流計画立案手段と、前記物流計画立案手段で立案した物流計画を出力する出力手段とを備えたことを特徴とする」という記載がある。 Conventionally, mathematical optimization techniques have been applied to combinatorial optimization problems such as production planning and delivery planning. For example, Japanese Patent Application Laid-open No. 2017-120561 (Patent Document 1) describes a “logistics planning device for formulating a logistics plan from receiving to delivery of goods in a storage area, A logistics model construction means for constructing a logistics model that is a mathematical model obtained by modeling transport equipment that handles transported goods in a transported goods storage area, transported goods, and logistics planning policy, and a logistics model constructed by the logistics model construction means. The present invention is characterized by comprising: a logistics planning means for drawing up a logistics plan using a mathematical optimization method based on a logistics model; and an output means for outputting the logistics plan drawn up by the logistics planning means. be.
上記特許文献1に代表される従来技術では、モデリングを人手で行うことでコストが増大するという問題がある。また、対象とする問題を最適化する上での制約を業務知識として、あるいは暗黙知として保有していることが前提となる。そのため、実績にない未知の問題に適用することができない。
The conventional technology represented by
そこで、本発明では、組合せ最適化の問題に対して最適解を探索するにあたり、モデルを自律的に構築し、未知の問題に適用可能な技術を適用することを目的とする。 Therefore, in searching for an optimal solution to a combinatorial optimization problem, the present invention aims to autonomously construct a model and apply techniques applicable to unknown problems.
上記目的を達成するために、代表的な本発明の最適化処理装置、最適化処理方法及び最適化処理プログラムの一つは、学習データから組合せの評価値を予測する予測モデルを生成し、予測モデルを用いて最適解の探索を行う場合に学習データの分布に基づいて探索範囲を制限する。 In order to achieve the above object, one of the typical optimization processing devices, optimization processing methods, and optimization processing programs of the present invention generates a prediction model that predicts the evaluation value of a combination from learning data, and When searching for an optimal solution using a model, the search range is limited based on the distribution of learning data.
本発明によれば、組合せ最適化の問題に対して最適解を探索するにあたり、モデルを自律的に構築し、未知の問題に適用することができる。
上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。
According to the present invention, when searching for an optimal solution to a combinatorial optimization problem, a model can be autonomously constructed and applied to an unknown problem.
Problems, configurations, and effects other than those described above will be made clear by the following description of the embodiments.
以下、実施例を図面を用いて説明する。 Examples will be described below with reference to the drawings.
図1は、実施例に係る最適化処理装置による処理の概念図である。本実施例に係る最適化処理装置は、まず、学習データから予測モデルを生成する。学習データは、過去の問題と解のセットである。具体例については後述するが、例えば、複数の工程における作業の順序が問題であれば、実際に行われた作業の順序(組合せ)が解となる。予測モデルの生成には、例えば深層学習を用いる。予測モデルは、解の候補となる組合せから予測評価値を求める関数である。予測評価値は、組合せを相対的に評価する指標であり、組合せを比較してより適切な解を探索するために用いられる。 FIG. 1 is a conceptual diagram of processing by an optimization processing device according to an embodiment. The optimization processing device according to this embodiment first generates a prediction model from learning data. The learning data is a set of past problems and solutions. A specific example will be described later, but for example, if the problem is the order of operations in a plurality of steps, the solution will be the order (combination) of operations actually performed. For example, deep learning is used to generate the predictive model. A prediction model is a function that calculates a predicted evaluation value from combinations of solution candidates. The predicted evaluation value is an index for relatively evaluating combinations, and is used to compare combinations and search for a more appropriate solution.
最適化処理装置は、問題が与えられたならば、生成した予測モデルを用いて最適化処理を行い、最適解を出力する。具体的には、与えられた問題の解の候補としての組合せについて予測評価値を求め、より予測評価値の高い組合せを探索することで最適解を求める。 When given a problem, the optimization processing device performs optimization processing using the generated prediction model and outputs an optimal solution. Specifically, predicted evaluation values are obtained for combinations as candidate solutions to a given problem, and an optimal solution is obtained by searching for a combination with a higher predicted evaluation value.
ここで、本実施例に係る最適化処理装置は、学習データの分布に基づいて最適解の探索範囲を制限する。学習データから生成された予測モデルは、学習データの分布内では高い精度を期待できるが、学習データの分布から外れると精度が低下するためである。 Here, the optimization processing device according to this embodiment limits the search range for the optimal solution based on the distribution of learning data. This is because a predictive model generated from learning data can be expected to have high accuracy within the distribution of the learning data, but its accuracy decreases when it deviates from the distribution of the learning data.
図2は、予測モデルと学習データの分布についての説明図である。図2では、z軸を予測評価値として予測モデルを表示している。したがって、最適化処理では、zの値が最大となる組合せ(図2ではxとyの組合せ)を最適解として探索することになる。 FIG. 2 is an explanatory diagram of the prediction model and the distribution of learning data. In FIG. 2, the prediction model is displayed with the z-axis as the prediction evaluation value. Therefore, in the optimization process, the combination that maximizes the value of z (the combination of x and y in FIG. 2) is searched as the optimal solution.
この探索は、学習データの分布範囲とその近傍に限定して行う。図2では、予測モデルの曲面上において、学習データの分布範囲に対応する範囲を白線で囲むことで示している。最適化処理は、この白線で囲まれた範囲とその近傍で、zの値を比較して最大値を探索する処理と言える。 This search is limited to the distribution range of learning data and its vicinity. In FIG. 2, on the curved surface of the prediction model, a range corresponding to the distribution range of the learning data is indicated by surrounding it with a white line. The optimization process can be said to be a process of searching for the maximum value by comparing the values of z in the range surrounded by this white line and its vicinity.
ここで、探索範囲に学習データの分布範囲の近傍を含める理由について説明する。具体的には、探索範囲は、学習データの分布範囲よりも大きく、学習データの分布範囲を包含する。本来、十分な数と分布を有する学習データが入手可能であれば、広範囲で精度の高い予測モデルを生成することができる。しかし、解となりえる組合せが膨大であれば、十分な数と分布を有する学習データの入手は現実的ではなくなる。換言するならば、解空間が広大であれば、学習データは疎で偏りのある群とならざるを得ない。 Here, the reason for including the vicinity of the distribution range of learning data in the search range will be explained. Specifically, the search range is larger than the distribution range of the learning data and includes the distribution range of the learning data. Essentially, if training data with a sufficient number and distribution is available, it is possible to generate highly accurate predictive models over a wide range. However, if the number of possible solution combinations is enormous, it becomes impractical to obtain training data with a sufficient number and distribution. In other words, if the solution space is vast, the training data must be a sparse and biased group.
学習データの分布範囲の中で探索を行うことは、すでに説明したように、精度の高い予測評価値を得るために有効である。一方で、探索範囲を学習データの分布範囲よりも大きくすることは、学習データの分布範囲を逸脱した最適解が得られる可能性があることを示す。学習データの分布範囲を逸脱した最適解に従って作業を実施し、その作業実績を新たな学習データとして利用すれば、学習データの分布範囲を拡大することができる。すなわち、探索範囲を学習データの分布範囲よりも大きくすることで、学習データの分布範囲を拡大して予測モデルを成熟させることができるのである。 As already explained, searching within the distribution range of the learning data is effective for obtaining highly accurate predicted evaluation values. On the other hand, making the search range larger than the distribution range of the learning data indicates that there is a possibility of obtaining an optimal solution that deviates from the distribution range of the learning data. By performing work according to an optimal solution that deviates from the distribution range of learning data and using the work results as new learning data, it is possible to expand the distribution range of learning data. That is, by making the search range larger than the distribution range of learning data, it is possible to expand the distribution range of learning data and mature the prediction model.
図3は、組合せ最適化問題の具体例についての説明図である。図3では、倉庫内において複数工程を対象とする作業順序の最適化問題を示している。具体的には注文された商品を倉庫から取り出して、商品ラベルを付け、仕分けし、梱包し、出荷する作業を対象としている。 FIG. 3 is an explanatory diagram of a specific example of a combinatorial optimization problem. FIG. 3 shows a work order optimization problem that targets multiple processes in a warehouse. Specifically, it targets the work of taking ordered products out of the warehouse, labeling them, sorting them, packaging them, and shipping them.
例えば、注文の数であるオーダー数が1日に1000であり、作業員の数が500であり、8時間の稼働時間を1時間ごとに時間帯として分割するならば、作業順序の組合せ数は、「1000!×500!×8!」となる。このように作業順序の組合せは膨大であり、さらに、工程ごとに最適な作業順序の条件が異なる。具体的には、商品ラベル付けであればラベルの種類が同じ商品を連続して作業すること、自動搬送棚による仕分けであれば同時に注文されやすい商品を連続すること、梱包では梱包方法が同じオーダーを連続すること、出荷では出荷先が近いオーダーを連続することが条件となる。 For example, if the number of orders (the number of orders) is 1000 per day, the number of workers is 500, and the 8-hour working time is divided into hourly time periods, the number of combinations of work orders is , becomes "1000!×500!×8!". As described above, there are a huge number of combinations of work orders, and the optimal work order conditions differ for each process. Specifically, in the case of product labeling, products with the same type of label should be processed in succession, in the case of sorting using automatic transport shelves, products that are likely to be ordered at the same time should be processed in succession, and in the case of packaging, orders with the same packaging method should be processed The conditions for shipping are that orders with close shipping destinations must be consecutive.
このような作業の最適化を新たに検討するとすれば、過去の情報、業務知識、暗黙知を用いてモデリングを人手で行うのは困難である。また、過去の情報を蓄積したとしても、組合せが膨大であるために同じ作業があることは期待できない。 If we were to newly consider optimizing such tasks, it would be difficult to perform modeling manually using past information, business knowledge, and tacit knowledge. Furthermore, even if past information is accumulated, it cannot be expected that the same tasks will be performed because there are a huge number of combinations.
本実施例に係る最適化処理装置は、このような問題に対し、学習データを用いた機械学習で予測モデルを自律的に生成することができる。学習データとしては、例えば過去に行わった作業の順序(組合せ)を用いる。学習データは、解空間に対して疎で偏りがあるが、学習データの分布範囲に基づいて探索範囲を制限することで、妥当な解を得ることができる。また、学習データの分布範囲の近傍を探索範囲に含めるとともに、解に基づく新たな作業の実績を学習データに追加することで、学習データの分布範囲を広げることができる。 The optimization processing device according to the present embodiment can autonomously generate a predictive model for such a problem by machine learning using learning data. As the learning data, for example, the order (combination) of tasks performed in the past is used. Although the learning data is sparse and biased in the solution space, a valid solution can be obtained by limiting the search range based on the distribution range of the learning data. Further, by including the vicinity of the distribution range of the learning data in the search range and adding new work results based on the solution to the learning data, the distribution range of the learning data can be expanded.
図4は、最適化処理装置の構成図である。図4に示すように最適化処理装置10は、CPU(Central Processing Unit)11、メモリ12、表示部13、入力部14及び記憶部15を有する。CPU11は、補助記憶装置(例えば記憶部15)から読み出したプログラムを主記憶装置であるメモリ12上に展開して実行することで、各種機能部として動作する。図4では、予測モデル生成部21、距離算定部22、評価値予測部23及び探索部24として動作するプログラムがメモリ12に展開された状態を示している。
FIG. 4 is a configuration diagram of the optimization processing device. As shown in FIG. 4, the
表示部13は、液晶パネルディスプレイなどの出力デバイスであり、入力部14はキーボードやタッチパネルなどの入力デバイスである。記憶部15は、ハードディスクドライブなどである。記憶部15は、各種データやプログラムを記憶するが、本実施例に特に重要なデータとして学習データ31及び予測モデルデータ32を記憶する。学習データ31は、すでに説明したように、予測モデルの生成に用いるデータである。予測モデルデータ32は、予測モデルを特定するデータである。
The
予測モデル生成部21は、学習データ31を用いて深層学習を行い、予測モデルを生成する処理部である。予測モデル生成部21は、生成した予測モデルを特定する予測モデルデータ32を記憶部15に格納する。
The predictive
距離算定部22は、学習データ31の分布から解候補のデータまでの距離を算定する処理部である。
評価値予測部23は、予測モデルデータ32を読み出し、予測モデルデータ32によって特定される予測モデルを用いて解候補のデータの予測評価値を算定する処理部である。
探索部24は、予測評価値を用いて最適解の探索を行う処理部である。探索部24は、最適解の探索を行う場合に、学習データ31の分布に基づいて探索範囲を制限する。
The
The evaluation
The
ここで、予測モデルの学習について説明する。学習データ31から予測モデルを学習するにあたり、学習データ31が相対的に少ないため、実指標の正確な予測は困難である。例えば、図3に示した例では、「作業員1人が1時間で処理できる商品数」を実指標として予測しても誤差が大きくなる。
Here, learning of the predictive model will be explained. When learning a prediction model from the learning
そこで、最適化処理装置10は、実指標を直接予測するのではなく、実指標の相対的な大小関係を求める。すなわち、最適化処理装置10は、回帰問題からランキング問題に変換することで、誤差を低減している。予測評価値は、より実指標が良好となる組合せを見つけるための指標であり、実指標に対応する。なお、本実施例では予測評価値は大きいほど良好な値であるものとする。この予測評価値をV(x)とすると、
次に、距離の算定について説明する。まず、学習データ31の特徴が多次元ガウス分布に従うと仮定し、学習データ31の分布パラメータを推定すると、特定データの特徴と学習データ31の特徴分布とのマハラノビス距離は、
最適化処理装置10は、x=(πθ(t|c),c)として、次の損失関数を用いて最適解を求める。
図5は、最適化処理装置10の処理手順を示すフローチャートである。最適化処理装置10の予測モデル生成部21は、まず、学習データ31を記憶部15に格納する(ステップS101)。予測モデル生成部21は、学習データ31から予測モデルを生成し、生成した予測モデルを特定する予測モデルデータ32を記憶部15に格納する(ステップS102)。
FIG. 5 is a flowchart showing the processing procedure of the
予測モデルの生成後、所定のタイミングで、評価値予測部23は、評価対象データを決定する(ステップS103)。評価対象データは、解候補としての1つの組合せに対応する。評価値予測部23は、予測モデルデータ32を読み出し、予測モデルデータ32によって特定される予測モデルを用いて評価対象データの予測評価値を算定する(ステップS104)。
After generating the prediction model, the evaluation
距離算定部22は、評価対象データと学習データ31の分布からマハラノビス距離を算定する(ステップS105)。
The
探索部24は、予測評価値と距離に基づいて、損失関数による損失の評価を行う(ステップS106)。ステップS106の後、探索部24は、探索を終了するか否かを判定する(ステップS107)。探索を終了するのは、最適解が特定できた場合や、探索ステップ(ステップS103~S107)を所定回数繰り返した場合などである。探索を終了しない場合には(ステップS107;No)、ステップS103に移行し、次の評価対象データを決定する。探索を終了するならば(ステップS107)、ステップS108に移行し、最適解を出力して、処理を終了する。
The
図6は、最適化処理装置10の処理手順の説明図である。図6では、学習データから予測モデルが生成され、最適化処理に用いられている。最適化処理では、予測モデルを用いて解候補のデータの予測評価値を求める処理と、最適化アルゴリズムを用いて予測評価値及び距離から解候補のデータを求める処理とを繰り返し、最適解を求めている。
FIG. 6 is an explanatory diagram of the processing procedure of the
図7は、学習結果表示画面の具体例である。図7では、x軸を実指標(作業員1人が1時間で処理できる商品数)、y軸を予測評価値としてグラフ表示を行っている。また、作業の順番を実指標及び予測評価値とともに表示することも可能である。具体的には、
「作業順番: B C A・・・G
実指標: 55.8
予測評価値:933.1」
「作業順番: D A E・・・H
実指標: 55.1
予測評価値:905.6」
を表示した状態を示している。
かかる表示により、最適化処理装置10は、最も予測評価値の高い組合せや最も予測評価値の低い組合せなどをユーザに認識させることができる。
FIG. 7 is a specific example of a learning result display screen. In FIG. 7, a graph is displayed with the x-axis as an actual index (the number of products that one worker can process in one hour) and the y-axis as a predicted evaluation value. It is also possible to display the order of work together with the actual index and predicted evaluation value. in particular,
"Work order: BCA...G
Actual indicator: 55.8
Predicted evaluation value: 933.1”
"Work order: DAE...H
Actual indicator: 55.1
Predicted evaluation value: 905.6”
is displayed.
With this display, the
図8は、最適解探索画面の具体例である。図8では、損失関数と距離が最適化ステップの繰り返しによってどのように変化するかを示している。図8に示すように、損失関数の値は最適化ステップ数に応じて減少している。これは、予測評価値の向上を意味する。同様に、距離も最適化ステップ数に応じて減少し、高信頼区間に近づいている。 FIG. 8 is a specific example of the optimal solution search screen. FIG. 8 shows how the loss function and distance change with repeated optimization steps. As shown in FIG. 8, the value of the loss function decreases according to the number of optimization steps. This means an improvement in the predicted evaluation value. Similarly, the distance also decreases with the number of optimization steps and approaches the high confidence interval.
次に、最適化処理装置の変形例について説明する。図9は、最適化処理装置の変形例についての説明図である。図9では、予測モデル生成装置50と最適化処理装置60とが接続されている。予測モデル生成装置50は、学習データから予測モデルを生成する処理を行う。
Next, a modification of the optimization processing device will be described. FIG. 9 is an explanatory diagram of a modification of the optimization processing device. In FIG. 9, a predictive
最適化処理装置60は、予測モデル生成装置50が生成した予測モデルを記憶する。また、最適化処理装置60は、学習データの分布を示す分布データを学習データに関する情報として記憶する。
The
最適化処理装置60は、問題が与えられたならば、予測モデルと分布データを参照し、分布データからの距離により制限された範囲内で最適化処理を行い、最適解を出力する。この最適解に基づいて作業が行われたならば、最適化処理の結果と作業結果を対応付けて作業実績に蓄積する。蓄積した作業実績を追加の学習データとして予測モデル生成装置50に提供すれば、予測モデル生成装置50は、改めて学習を行うことで精度の向上した予測モデルを生成し、最適化処理装置60に提供できる。
When given a problem, the
上述してきたように、本実施例に係る最適化処理装置は、組合せ最適化の問題に対して最適解を探索する処理を行う処理部として機能するCPU11及びメモリ12と、学習データに関する情報を記憶する記憶部15とを備え、学習データから組合せの評価値を予測する予測モデルを生成し、予測モデルを用いて最適解の探索を行う場合に学習データの分布に基づいて探索範囲を制限する。このため、モデルを自律的に構築し、未知の問題に適用することができる。
As described above, the optimization processing device according to the present embodiment includes a
ここで、探索範囲は、学習データの分布範囲よりも大きく、学習データの分布範囲を包含することが好ましい。このように設定することで、学習データの分布範囲を拡大して予測モデルを成熟させることができる。 Here, it is preferable that the search range is larger than the distribution range of the learning data and includes the distribution range of the learning data. By setting in this way, it is possible to expand the distribution range of learning data and mature the prediction model.
具体的には、最適化処理装置は、学習データの分布から解候補のデータまでの距離を求め、該距離が距離閾値以下となる範囲を探索範囲とすることで、探索範囲を簡易に定めることができる。また、評価値及び距離に基づく損失関数を用いて最適解を探索することができる。 Specifically, the optimization processing device calculates the distance from the distribution of the learning data to the solution candidate data, and sets the range where the distance is less than or equal to the distance threshold as the search range, thereby easily determining the search range. Can be done. Furthermore, an optimal solution can be searched using a loss function based on evaluation values and distances.
また、最適化処理装置は、ランキング学習を用いて予測モデルを生成することで、実指標を直接予測することで生じる誤差の影響を抑制することができる。
また、最適化処理装置は、最適解に基づいて行われた作業の実績を追加の学習データとして用いることで、予測モデルの精度を向上することができる。
Further, by generating a prediction model using ranking learning, the optimization processing device can suppress the influence of errors caused by directly predicting the actual index.
Further, the optimization processing device can improve the accuracy of the prediction model by using the track record of work performed based on the optimal solution as additional learning data.
変形例として、学習データの追加に伴って探索範囲を小さくし、学習データの分布に近づける(損失関数におけるαを小さくする)構成としてもよい。すなわち、初期は探索範囲と学習データの分布との差分を大きくすることで、学習データの分布の拡大を優先し、学習データの分布範囲が十分に大きくなった後は探索範囲を学習データの分布に近づけることで予測モデルを安定させることができる。 As a modification, a configuration may be adopted in which the search range is made smaller as learning data is added to approximate the distribution of the learning data (α in the loss function is made smaller). In other words, initially, priority is given to expanding the distribution of learning data by increasing the difference between the search range and the distribution of learning data, and after the distribution range of learning data becomes large enough, the search range is changed to the distribution of learning data. The prediction model can be stabilized by bringing it closer to .
なお、本発明は上述の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。 Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described. Furthermore, it is possible not only to delete such a configuration but also to replace or add a configuration.
例えば、上述の実施例では、コンピュータが最適化処理プログラムを実行することで最適化処理装置10として動作する場合を例示して説明を行ったが、各種機能部をハードウェアで構成した最適化処理装置として実施することも可能である。
For example, in the above-mentioned embodiment, the case where the computer operates as the
10,60:最適化処理装置、11:CPU、12:メモリ、13:表示部、14:入力部、15:記憶部、21:予測モデル生成部、22:距離算定部、23:評価値予測部、24:探索部、31:学習データ、32:予測モデルデータ、50:予測モデル生成装置
10, 60: Optimization processing device, 11: CPU, 12: Memory, 13: Display section, 14: Input section, 15: Storage section, 21: Prediction model generation section, 22: Distance calculation section, 23: Evaluation value prediction Section, 24: Search section, 31: Learning data, 32: Prediction model data, 50: Prediction model generation device
Claims (6)
過去の問題と解のセットである学習データに関する情報を記憶する記憶部と
を備え、
前記処理部は、
前記学習データを用いた機械学習により、解の候補となる組合せの評価値を予測する予測モデルを生成し、
与えられた問題の解の候補としての組合せについて前記予測モデルを用いて前記評価値を求め、より評価値の高い組合せを探索することで最適解を求める場合に、前記学習データの分布に基づいて探索範囲を制限するものであり、
前記学習データの分布から解候補のデータまでの距離を求め、該距離が距離閾値以下となる範囲を前記探索範囲とする
ことを特徴とする最適化処理装置。 a processing unit that performs processing to search for an optimal solution to a combinatorial optimization problem;
a storage unit that stores information regarding learning data that is a set of past problems and solutions ;
The processing unit includes:
Generate a prediction model that predicts evaluation values of combinations that are candidate solutions by machine learning using the learning data,
When determining the evaluation value for a combination as a candidate solution to a given problem using the prediction model and searching for a combination with a higher evaluation value to find the optimal solution, based on the distribution of the learning data. It limits the search range,
Find the distance from the distribution of the learning data to the solution candidate data, and set the range where the distance is less than or equal to the distance threshold as the search range.
An optimization processing device characterized by:
最適化処理装置が、
過去の問題と解のセットである学習データを用いた機械学習により、解の候補となる組合せの評価値を予測する予測モデルを生成する予測モデル生成ステップと、
与えられた問題の解の候補としての組合せについて前記予測モデルを用いて前記評価値を求め、より評価値の高い組合せを探索することで最適解を求める探索ステップと
を含み、
前記探索ステップは、前記学習データの分布から解候補のデータまでの距離が距離閾値以下となる範囲を探索範囲とする
ことを特徴とする最適化処理方法。 An optimization processing method for searching for an optimal solution to a combinatorial optimization problem,
The optimization processing device
A predictive model generation step of generating a predictive model that predicts the evaluation value of a combination of solution candidates by machine learning using learning data that is a set of past problems and solutions ;
a search step of determining the evaluation value using the prediction model for a combination as a candidate solution to a given problem , and searching for an optimal solution by searching for a combination with a higher evaluation value;
In the search step, the search range is a range in which the distance from the distribution of the learning data to the solution candidate data is less than or equal to a distance threshold.
An optimization processing method characterized by:
過去の問題と解のセットである学習データを用いた機械学習により、解の候補となる組合せの評価値を予測する予測モデルを生成する予測モデル生成手順と、
与えられた問題の解の候補としての組合せについて前記予測モデルを用いて前記評価値を求め、より評価値の高い組合せを探索することで最適解を求める探索手順と
をコンピュータに実行させ、
前記探索手順は、前記学習データの分布から解候補のデータまでの距離が距離閾値以下となる範囲を探索範囲とする
ことを特徴とする最適化処理プログラム。
An optimization processing program that searches for an optimal solution to a combinatorial optimization problem,
A predictive model generation procedure that generates a predictive model that predicts the evaluation value of a combination of solution candidates by machine learning using learning data that is a set of past problems and solutions ;
causing a computer to execute a search procedure for determining the evaluation value using the prediction model for a combination as a candidate solution to a given problem , and searching for a combination with a higher evaluation value to find an optimal solution ;
In the search procedure, the search range is a range in which the distance from the distribution of the learning data to the solution candidate data is less than or equal to a distance threshold.
An optimization processing program characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056611A JP7376405B2 (en) | 2020-03-26 | 2020-03-26 | Optimization processing device, optimization processing method, and optimization processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056611A JP7376405B2 (en) | 2020-03-26 | 2020-03-26 | Optimization processing device, optimization processing method, and optimization processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157456A JP2021157456A (en) | 2021-10-07 |
JP7376405B2 true JP7376405B2 (en) | 2023-11-08 |
Family
ID=77918449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056611A Active JP7376405B2 (en) | 2020-03-26 | 2020-03-26 | Optimization processing device, optimization processing method, and optimization processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7376405B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005563A (en) | 2016-07-01 | 2018-01-11 | 日本電気株式会社 | Processing device, processing method and program |
JP2019159864A (en) | 2018-03-14 | 2019-09-19 | 株式会社日立ハイテクノロジーズ | Search device, search method and plasma processing apparatus |
-
2020
- 2020-03-26 JP JP2020056611A patent/JP7376405B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018005563A (en) | 2016-07-01 | 2018-01-11 | 日本電気株式会社 | Processing device, processing method and program |
JP2019159864A (en) | 2018-03-14 | 2019-09-19 | 株式会社日立ハイテクノロジーズ | Search device, search method and plasma processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2021157456A (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Big data analytics for forecasting cycle time in semiconductor wafer fabrication system | |
US20180225391A1 (en) | System and method for automatic data modelling | |
US8078291B2 (en) | Methods and systems for the design and implementation of optimal multivariable model predictive controllers for fast-sampling constrained dynamic systems | |
JP2019207685A (en) | Method, device and system for estimating causal relation between observation variables | |
Cao et al. | Querying similar process models based on the Hungarian algorithm | |
US20200167660A1 (en) | Automated heuristic deep learning-based modelling | |
Busert et al. | Information quality focused value stream mapping for the coordination and control of production processes | |
JP2017146888A (en) | Design support device and method and program | |
US20070233532A1 (en) | Business process analysis apparatus | |
Kosanoglu et al. | A deep reinforcement learning assisted simulated annealing algorithm for a maintenance planning problem | |
JP2020187417A (en) | Physical property prediction device and physical property prediction method | |
CN115485639A (en) | Predictive wafer scheduling for multi-chamber semiconductor devices | |
Gholizadeh et al. | Robust optimization of uncertainty-based preventive maintenance model for scheduling series–parallel production systems (real case: disposable appliances production) | |
US20240192672A1 (en) | System and method of monitoring an industrial environment | |
US7890439B2 (en) | Tuning of problem solvers | |
Garouani et al. | Towards meta-learning based data analytics to better assist the domain experts in industry 4.0 | |
JP7376405B2 (en) | Optimization processing device, optimization processing method, and optimization processing program | |
Grishma et al. | Software root cause prediction using clustering techniques: A review | |
Khayyati et al. | A machine learning approach for implementing data-driven production control policies | |
Gregor et al. | SIMULATION META-MODEL OF ASSEMBLY LINE WITH CONWIP CONTROL. | |
Kim et al. | Efficient method for mining high utility occupancy patterns based on indexed list structure | |
Beskorovainyi et al. | Mathematical models for determining the pareto front for building technological processes options under the conditions of interval presentation of local criteria | |
US20190236473A1 (en) | Autonomous Hybrid Analytics Modeling Platform | |
JP4419814B2 (en) | Service quality evaluation support equipment | |
Sękowski et al. | Knowledge based model for scheduling in failure modes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220421 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7376405 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |