JP2002288625A - Multipurpose optimization method, program and planning device - Google Patents

Multipurpose optimization method, program and planning device

Info

Publication number
JP2002288625A
JP2002288625A JP2001093999A JP2001093999A JP2002288625A JP 2002288625 A JP2002288625 A JP 2002288625A JP 2001093999 A JP2001093999 A JP 2001093999A JP 2001093999 A JP2001093999 A JP 2001093999A JP 2002288625 A JP2002288625 A JP 2002288625A
Authority
JP
Japan
Prior art keywords
neural network
objective optimization
input data
result
plan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001093999A
Other languages
Japanese (ja)
Inventor
Hiroko Takahashi
博子 高橋
Masaharu Tanaka
雅晴 田中
Masanobu Mizoguchi
正信 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2001093999A priority Critical patent/JP2002288625A/en
Publication of JP2002288625A publication Critical patent/JP2002288625A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multipurpose optimization method, especially under an non-linear choice function. SOLUTION: This multipurpose optimization method is furnished with (a) a step for providing a neutral network 20, (b) a step for giving a plural number of input data x1 , x2 concerning a multipurpose optimizing problem to the neutral network, (c) a step with which the neutral network learns as a result of (b) and (d) a step for providing the neutral network to approximate the choice functions in the multipurpose optimization problem, as a result of (c).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、多目的最適化方
法、プログラムおよびプラン立案装置に関し、特に、多
目的最適化における非線形な選好関数を近似することの
できる多目的最適化方法、プログラムおよびプラン立案
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multi-objective optimization method, a program, and a plan making device, and more particularly, to a multi-objective optimization method, a program, and a plan making device capable of approximating a nonlinear preference function in the multi-objective optimization. .

【0002】[0002]

【従来の技術】複数の目的が存在する多目的最適化にお
いては、ある一つの目的のみを最適化すれば、他の目的
は望ましくない状態になる場合が多い。そこで、目的間
のバランスをとって最適化しなければならない。このと
き何らかの理由によりバランスをとって選んだ解を選好
解(Preference解)と呼ぶ。このバランスを
とる場合に目的間のなんらかの比較基準が必要となる
が、異なる基準で求めた価値間の比較は多くの場合困難
である。
2. Description of the Related Art In a multi-objective optimization in which a plurality of objectives exist, if only one objective is optimized, the other objectives often become undesired. Therefore, it is necessary to optimize while balancing the objectives. At this time, the solution selected for some reason is called a preferred solution. To achieve this balance some sort of comparison between objectives is required, but comparisons between values determined by different criteria are often difficult.

【0003】選好解を具体的に数値解析するためには、
現状では単一目的問題の最適化手法に依らなくてはなら
ないので、多目的問題を形式的に単一目的問題に変形し
て取り扱っている。
In order to numerically analyze the preferred solution,
At present, multi-objective problems are formally transformed into single-objective problems because they have to rely on optimization methods for single-objective problems.

【0004】下記の選好解解析法は多目的を如何なる形
の単一目的に変換するかという点に主な違いがある。 (1)重みパラメータ法;線形効用関数法 (2)ε制約法 (3)辞書式配列法Lexicographic (4)目標計画法 (5)目標到達法Goal attainment m
ethod (6)効用関数法 (7)代理価値法(Surrogate−Worth
Trade−off method)
[0004] The following preference analysis method has a major difference in how to convert a multi-purpose into a single purpose. (1) weight parameter method; linear utility function method (2) ε constraint method (3) lexicographic array method Lexicographic (4) goal programming method (5) goal reaching method Goal attainment m
method (6) Utility function method (7) Surrogate-Worth method
Trade-off method)

【0005】従来、多目的最適化においては、主に各目
的関数の線形重み和をとって重みを調整する方法や、各
目的関数を統合(単一目的化)する選好関数を導入する
方法がよく用いられる。
Conventionally, in the multi-objective optimization, a method of adjusting the weights mainly by taking a linear weighted sum of the objective functions and a method of introducing a preference function for integrating (single-objective) the objective functions are often used. Used.

【0006】選好関数としては、例えばファジイ目標を
用いた手法が提案されている(坂和ほか、”改良型遺伝
的アルゴリズムによるファジイ多目的組合せ最適化”,
日本ファジイ学会誌,vol.6,no.1,pp.1
77−186,1994)。
As a preference function, for example, a method using a fuzzy target has been proposed (Sakakazu et al., "Fuzzy Multi-Objective Combination Optimization by Improved Genetic Algorithm",
Journal of the Japanese Fuzzy Association, vol. 6, no. 1, pp. 1
77-186, 1994).

【0007】[0007]

【発明が解決しようとする課題】しかし、従来の手法で
は、選好関数を線形と仮定しているため、非線形な選好
を表現することができなかった。
However, in the conventional method, since the preference function is assumed to be linear, a nonlinear preference cannot be expressed.

【0008】非線形な選好関数の下での多目的最適化方
法が望まれている。多目的最適化問題自体が変わったと
きでも柔軟に対応可能な非線形な選好関数の下での多目
的最適化方法が望まれている。非線形な選好関数の下で
の多目的最適化の選好解として各種のプランが得られる
プラン立案装置が望まれている。
There is a need for a multi-objective optimization method under a nonlinear preference function. There is a need for a multi-objective optimization method under a nonlinear preference function that can flexibly cope with a change in the multi-objective optimization problem itself. There is a need for a plan formulation device that can obtain various plans as a preference solution for multi-objective optimization under a nonlinear preference function.

【0009】本発明の目的は、選好関数の下での多目的
最適化方法を提供することである。本発明の他の目的
は、特に非線形な選好関数の下での多目的最適化方法を
提供することである。本発明の更に他の目的は、多目的
最適化問題自体が変わったときでも柔軟に対応可能な非
線形な選好関数の下での多目的最適化方法を提供するこ
とである。本発明の更に他の目的は、非線形な選好関数
の下での多目的最適化の選好解として各種のプランが得
られるプラン立案装置を提供することである。
It is an object of the present invention to provide a multi-objective optimization method under a preference function. Another object of the invention is to provide a multi-objective optimization method, especially under a non-linear preference function. Still another object of the present invention is to provide a multi-objective optimization method under a nonlinear preference function that can flexibly cope with a change in the multi-objective optimization problem itself. Still another object of the present invention is to provide a plan drafting apparatus capable of obtaining various plans as preference solutions of multi-objective optimization under a nonlinear preference function.

【0010】[0010]

【課題を解決するための手段】その課題を解決するため
の手段が、下記のように表現される。その表現中の請求
項対応の技術的事項には、括弧()つき、番号、記号等
が添記されている。その番号、記号等は、請求項対応の
技術的事項と実施の複数・形態のうちの少なくとも一つ
の形態の技術的事項との一致・対応関係を明白にしてい
るが、その請求項対応の技術的事項が実施の形態の技術
的事項に限定されることを示されるためのものではな
い。
Means for solving the problem are described as follows. The technical matters corresponding to the claims in the expression are appended with parentheses (), numbers, symbols, and the like. The numbers, symbols, etc. clarify the correspondence / correspondence between the technical matter corresponding to the claim and the technical matter of at least one of the plural forms of implementation. It is not intended to show that technical matters are limited to the technical matters of the embodiments.

【0011】本発明の多目的最適化方法は、(a) ニ
ューラルネットワーク(20)を提供するステップと、
(b) 前記ニューラルネットワーク(20)に、多目
的最適化問題に関する複数の入力データ(x1、x2)
を与えるステップと、(c)前記(b)の結果として前
記ニューラルネットワーク(20)が学習するステップ
と、(d) 前記(c)の結果として、前記多目的最適
化問題における選好関数を近似した前記ニューラルネッ
トワーク(20)を得るステップとを備えている。
The multi-objective optimization method of the present invention comprises: (a) providing a neural network (20);
(B) A plurality of input data (x1, x2) relating to a multi-objective optimization problem are added to the neural network (20).
(C) learning by the neural network (20) as a result of (b); and (d) as a result of (c), approximating a preference function in the multi-objective optimization problem. Obtaining a neural network (20).

【0012】本発明の多目的最適化方法において、前記
(b)において、前記ニューラルネットワーク(20)
に与えられる前記複数の入力データ(x1、x2)のそ
れぞれは、前記多目的最適化問題における各目的評価値
である。
In the multi-objective optimization method according to the present invention, in the above (b), the neural network (20)
Are the respective objective evaluation values in the multi-objective optimization problem.

【0013】本発明の多目的最適化方法において、前記
(b)において、前記ニューラルネットワーク(20)
に与えられる前記複数の入力データ(x1、x2)のそ
れぞれは、前記多目的最適化問題におけるパレート解集
合から選択されたパレート解である。
In the multi-objective optimization method according to the present invention, in the above (b), the neural network (20)
Are each a Pareto solution selected from a Pareto solution set in the multi-objective optimization problem.

【0014】本発明の多目的最適化方法において、前記
パレート解は、前記パレート解集合についてのパレート
解解析を行った結果に基づいて、選択される。
In the multi-objective optimization method according to the present invention, the Pareto solution is selected based on a result of performing a Pareto solution analysis on the Pareto solution set.

【0015】本発明の多目的最適化方法において、前記
(c)の前記学習は、教師付き学習であり、前記(b)
は、前記複数の入力データ(x1、x2)に対応する教
師データ(z)を前記ニューラルネットワーク(20)
に与えるステップを含む。
In the multi-objective optimization method according to the present invention, the learning in (c) is supervised learning, and the learning in (b) is performed.
Converts teacher data (z) corresponding to the plurality of input data (x1, x2) into the neural network (20).
The step of providing

【0016】本発明の多目的最適化方法において、前記
教師データ(z)は、前記複数の入力データ(x1、x
2)に対する、前記多目的最適化問題の意思決定者によ
る選好解である。
In the multi-objective optimization method according to the present invention, the teacher data (z) includes the plurality of input data (x1, x
The preferred solution to 2) by the decision maker for the multi-objective optimization problem.

【0017】本発明の多目的最適化方法において、前記
(c)は、前記多目的最適化問題の選好規準が変化した
ときに、再び行われる。
In the multi-objective optimization method according to the present invention, the step (c) is performed again when the preference criterion of the multi-objective optimization problem changes.

【0018】本発明の多目的最適化方法において、前記
(c)は、前記多目的最適化問題が変化したときに、再
び行われる。
In the multi-objective optimization method according to the present invention, the step (c) is performed again when the multi-objective optimization problem changes.

【0019】本発明の多目的最適化方法は、(a) ニ
ューラルネットワーク(10)を提供するステップと、
(b) 前記ニューラルネットワーク(10)に、多目
的最適化問題に関する複数の入力データ(x1、x2)
を与えるステップと、(c)前記(b)の結果として前
記ニューラルネットワーク(10)が学習するステップ
と、(d) 前記(c)の結果として、前記多目的最適
化問題における選好関数を近似した前記ニューラルネッ
トワーク(10)を得るステップとを備え、前記複数の
入力データ(x1、x2、y1、y2)は、第1の入力
データ(x1、x2)と第2の入力データ(y1、y
2)とを含み、前記第1の入力データ(x1、x2)
は、前記多目的最適化問題の評価指標であり、前記第2
の入力データ(y1、y2)は、前記第1の入力データ
(x1、x2)の前記評価指標としての重み付けを調整
するためのデータである。
The multi-objective optimization method of the present invention comprises: (a) providing a neural network (10);
(B) A plurality of input data (x1, x2) relating to a multi-objective optimization problem are added to the neural network (10).
(C) learning by the neural network (10) as a result of (b); and (d) as a result of (c), approximating a preference function in the multi-objective optimization problem. Obtaining a neural network (10), wherein the plurality of input data (x1, x2, y1, y2) are a first input data (x1, x2) and a second input data (y1, y2).
2) and the first input data (x1, x2)
Is an evaluation index of the multi-objective optimization problem, and the second
Are input data (y1, y2) for adjusting the weight of the first input data (x1, x2) as the evaluation index.

【0020】本発明の多目的最適化方法は、(a) ニ
ューラルネットワーク(10)を提供するステップと、
(b) 前記ニューラルネットワーク(10)に、多目
的最適化問題に関する複数の入力データ(x1、x2)
を与えるステップと、(c)前記(b)の結果として前
記ニューラルネットワーク(10)が学習するステップ
と、(d) 前記(c)の結果として、前記多目的最適
化問題における選好関数を近似した前記ニューラルネッ
トワーク(10)を得るステップと、(e)前記多目的
最適問題に関する適応度をそれぞれが有する個体の群を
提供するステップと、(f) 前記個体群の中から前記
適応度が高い前記個体ほど選択確率が高くなるように自
然選択する操作を複数世代行う遺伝的アルゴリズムを用
いた解探索を行うステップと、(g) 前記(f)にお
ける前記複数世代のうちの単一の世代の前記操作が行わ
れたときの結果を、前記(d)の結果として得られた前
記ニューラルネットワーク(10)に入力するステップ
と、(h) 前記(g)の結果、前記ニューラルネット
ワーク(10)から出力される評価(14)が高い前記
個体を、前記適応度が高い個体として、前記(f)を実
行するステップとを備えている。
The multi-objective optimization method of the present invention comprises: (a) providing a neural network (10);
(B) A plurality of input data (x1, x2) relating to a multi-objective optimization problem are added to the neural network (10).
(C) learning by the neural network (10) as a result of (b); and (d) as a result of (c), approximating a preference function in the multi-objective optimization problem. Obtaining a neural network (10); (e) providing a group of individuals each having fitness for the multi-objective optimization problem; and (f) the individual having the higher fitness from the individual population. (G) performing a solution search using a genetic algorithm that performs a plurality of generations of a natural selection operation so that the selection probability is high; and (g) performing the operation of a single generation of the plurality of generations in the (f). Inputting the result of the execution to the neural network (10) obtained as a result of the above (d); As a result, the step (f) is performed by regarding the individual having a high evaluation (14) output from the neural network (10) as the individual having the high fitness.

【0021】本発明の多目的最適化方法は、(i) 複
数のサンプルデータを提供するステップと、(j) ニ
ューラルネットワーク(20)を提供するステップと、
(k) 前記ニューラルネットワーク(20)に、前記
複数のサンプルデータから選択された多目的最適化問題
に関する複数の入力データ(x1、x2)と、前記複数
の入力データ(x1、x2)に対応する教師データ
(z)を与えるステップと、(l) 前記(k)の結果
として前記ニューラルネットワーク(20)が教師付き
学習を行うステップと、(m) 前記(l)の結果とし
ての前記ニューラルネットワーク(20)から出力され
る値と、前記複数のサンプルデータの評価値との誤差を
求めるステップと、(n) 前記(k)から(m)を複
数回実行するステップと、(o) 前記(n)の結果、
前記誤差が小さいときに使用された前記複数の入力デー
タ(x1、x2)と、前記複数の入力データ(x1、x
2)に対応する前記教師データ(z)とを用いて、前記
ニューラルネットワーク(20)に学習させるステップ
と、(p) 前記(o)の結果として、前記多目的最適
化問題における選好関数を近似した前記ニューラルネッ
トワーク(20)を得るステップとを備えている。
The multi-objective optimization method of the present invention includes: (i) providing a plurality of sample data; (j) providing a neural network (20);
(K) In the neural network (20), a plurality of input data (x1, x2) relating to a multi-objective optimization problem selected from the plurality of sample data, and a teacher corresponding to the plurality of input data (x1, x2) Providing data (z); (l) the neural network (20) performing supervised learning as a result of (k); and (m) the neural network (20) as a result of (l). ) And an error between the value output from the plurality of sample data and an evaluation value of the plurality of sample data; (n) a step of executing the above (k) to (m) a plurality of times; As a result,
The plurality of input data (x1, x2) used when the error is small, and the plurality of input data (x1, x2)
(2) using the teacher data (z) corresponding to (2) to train the neural network (20); and (p) approximating a preference function in the multi-objective optimization problem as a result of (o). Obtaining said neural network (20).

【0022】本発明の多目的最適化方法において、前記
(n)を行う際には、遺伝的アルゴリズムを用いた解探
索を行う。
In the multi-objective optimization method of the present invention, when the above (n) is performed, a solution search using a genetic algorithm is performed.

【0023】本発明の多目的最適化方法において、前記
選好関数を近似した前記ニューラルネットワーク(1
0)は、非線形の前記選好関数を近似している。
In the multi-objective optimization method according to the present invention, said neural network (1) approximating said preference function
0) approximates the nonlinear preference function.

【0024】本発明の多目的最適化方法において、前記
ニューラルネットワークは、RBFネットワーク(1
0)である。
In the multi-objective optimization method according to the present invention, the neural network is an RBF network (1
0).

【0025】本発明のプログラムは、本発明の多目的最
適化方法の各ステップをコンピュータに実行させるため
のプログラムである。
The program of the present invention is a program for causing a computer to execute each step of the multi-objective optimization method of the present invention.

【0026】本発明のプラン立案装置は、多目的最適化
問題で定義されるプランを立案するプラン立案装置であ
って、ニューラルネットワーク(20)を備え、前記ニ
ューラルネットワーク(20)には、前記プランの前記
多目的最適化問題に関する複数の入力データ(x1、x
2)が与えられ、その結果として前記ニューラルネット
ワーク(20)が学習し、前記学習したニューラルネッ
トワーク(20)により前記多目的最適化問題における
選好関数を近似し、前記近似された選好関数に基づい
て、前記プランを出力する。
The plan drafting apparatus of the present invention is a plan drafting apparatus for drafting a plan defined by a multi-objective optimization problem, comprising a neural network (20), wherein the neural network (20) includes A plurality of input data (x1, x
2) is given, and as a result, the neural network (20) learns, and the learned neural network (20) approximates the preference function in the multi-objective optimization problem, and based on the approximated preference function, Output the plan.

【0027】本発明のプラン立案装置において、前記プ
ランには、旅行プラン、設備配備プラン、設備割り当て
プラン、物流プラン、デザインプランのいずれかが含ま
れる。
In the plan drafting apparatus of the present invention, the plan includes any one of a travel plan, a facility deployment plan, a facility allocation plan, a physical distribution plan, and a design plan.

【0028】[0028]

【発明の実施の形態】添付図面を参照して、本発明のプ
ラン立案装置の一実施形態について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a plan drafting apparatus according to the present invention will be described with reference to the accompanying drawings.

【0029】本実施形態は、非線形な選好関数の下での
多目的最適化の選好解として各種のプランが得られるプ
ラン立案装置である。ここで、各種プランには、旅行プ
ラン、設備配置プラン、設備割り当てプラン、物流プラ
ン、デザイン(意匠)プラン、検索方法のプランなどが
含まれる。
The present embodiment is a plan drafting apparatus capable of obtaining various plans as preference solutions for multi-objective optimization under a nonlinear preference function. Here, the various plans include a travel plan, a facility arrangement plan, a facility allocation plan, a distribution plan, a design (design) plan, a search method plan, and the like.

【0030】まず、多目的最適化における選好解につい
て説明する。
First, the preferred solution in the multi-objective optimization will be described.

【0031】パレート解集合の中で、更に何らかの観点
(選好規準)を導入してその観点から最適と見なした特
定の解を選好解(Preference解)という。結
論から言えば、選好解は、多目的を単一目的に統合化し
た場合の最適解である。
In the Pareto solution set, a particular solution that is introduced as a certain viewpoint (preference criterion) and is regarded as optimal from that viewpoint is referred to as a preference solution (Preference Solution). In conclusion, the preferred solution is the optimal solution when multiple objectives are integrated into a single objective.

【0032】しかし、現実の多目的問題の状況では、解
析に先だって多目的を単一目的に統合化させる程の先見
的かつ合理的価値規準を意思決定者は持ち合わせていな
いことが多い。それ故にパレート解解析を行う訳で、そ
の解析を踏まえて多目的の価値間に何らかの選好規準を
導入し比較判断することになる。
However, in the actual situation of a multipurpose problem, the decision maker often does not have a foreseeable and rational value criterion enough to integrate the multipurpose into a single purpose prior to analysis. Therefore, pareto solution analysis is performed, and based on the analysis, some preference criterion is introduced between multipurpose values to make a comparison judgment.

【0033】一般的な選好規準というものは未だないに
等しいし、直面する計画問題の意味内容によってその都
度熟慮して決められるべきものである。すなわち、選好
解を求めるためには、価値分析などの考え方やその成果
およびパレート解析の途中結果などをとり入れて適切な
選好規準を意思決定者自身で定めなくてはならない。
The general preference criterion is yet to be determined and should be carefully determined each time according to the semantics of the planning problem encountered. In other words, in order to obtain a preference solution, the decision maker must determine an appropriate preference criterion by taking in consideration such as value analysis and the results thereof and the results of the Pareto analysis.

【0034】多目的最適化における選好規準は、数式で
表せるものではない。また、プログラミングにおいて複
数のIF文を用いて選好規準を表そうとすると、膨大な
数のIF文が必要となってしまう。
The preference criterion in the multi-objective optimization cannot be expressed by a mathematical expression. Also, when trying to express a preference criterion using a plurality of IF statements in programming, an enormous number of IF statements are required.

【0035】意思決定者の好みは、ある分布ないし確率
をもっている。このことに着目すると、その分布を表現
するには、ニューラルネットワークが適している。ニュ
ーラルネットワークにおいて、複数のサンプルデータか
ら意思決定者の好みに適合するものを対話的に選択して
もらうと、その選択の結果に基づいて、意思決定者の好
みの特徴を抽出することができる。その特徴が反映され
るように、ニューラルネットワークの結合係数を調整す
れば、その意思決定者の好みが反映された選好解が出力
される。このことから、多目的最適化における非線形な
選好関数の実現にニューラルネットワークは適している
といえる。
The preference of a decision maker has a certain distribution or probability. Focusing on this, a neural network is suitable for expressing the distribution. In the neural network, when a user who interactively selects one that matches the preference of the decision maker from a plurality of sample data, the characteristic of the preference of the decision maker can be extracted based on the result of the selection. If the coupling coefficient of the neural network is adjusted so as to reflect the feature, a preference solution reflecting the preference of the decision maker is output. From this, it can be said that the neural network is suitable for realizing the nonlinear preference function in the multi-objective optimization.

【0036】複数のサンプルデータから意思決定者の好
みに合うものの選択を何回も繰り返し、その選択結果を
繰り返しニューラルネットワークに学習させることで、
意思決定者の好みを反映した出力(非線形な選好関数の
近似)が得られるニューラルネットワークが構築され
る。
By repeatedly selecting, from the plurality of sample data, ones that meet the preference of the decision maker, and repeatedly making the neural network learn the selection result,
A neural network is constructed in which an output (an approximation of a non-linear preference function) reflecting the decision maker's preference is obtained.

【0037】ニューラルネットワークの機能的特徴を示
すと次のようになる。階層型のニューラルネットワーク
を例にとると、ニューラルネットワークは、神経細胞を
モデル化したユニットと呼ばれる単純な演算素子を、シ
ナプスに相当する重み付きリンクで相互に接続した回路
網である。各ユニットは、入力データあるいは他のユニ
ットからの入力に重みを掛け合わせて足し合わせる積和
演算を行い、その統計入力を非線形関数で変換して出力
する。そのようにして出力された結果は最初はでたらめ
であるが、望ましい出力(教師信号と呼ばれる)との誤
差を小さくするようにユニット間の荷重結合度(結合係
数)を調整していく。そのようなプロセスを学習と呼
び、入力と教師のデータペアを順次ニューラルネットワ
ークに与え、学習(荷重調整)を繰り返すうちに正しい
出力を出すようになる。
The functional characteristics of the neural network are as follows. Taking a hierarchical neural network as an example, a neural network is a circuit network in which simple arithmetic elements called units modeling nerve cells are interconnected by weighted links corresponding to synapses. Each unit performs a product-sum operation in which input data or an input from another unit is multiplied by a weight and added, and the statistical input is converted by a non-linear function and output. The result output in this way is initially random, but the weight coupling (coupling coefficient) between the units is adjusted so as to reduce the error from the desired output (called a teacher signal). Such a process is called learning, and a data pair of an input and a teacher is sequentially given to a neural network, and a correct output is output as learning (load adjustment) is repeated.

【0038】そのようなニューラルネットワークの機能
的な特徴としては、 ・学習機能に基づく高度な適応性。 ・あいまい/不完全な情報も許容できる情報表現性。 ・高い並列性やそれに基づくリアルタイム処理性。 ・情報を分散表現することによるロバスト性。 などが挙げられる。
The functional features of such a neural network include: a high degree of adaptability based on a learning function.・ Information expression that can tolerate vague / incomplete information. -High parallelism and real-time processing based on it. -Robustness by expressing information in a distributed manner. And the like.

【0039】ニューラルネットワークは、多数の情報か
らの総合判断やあいまいなパターン情報の高速・柔軟な
処理など、いわば、人間的な情報処理が得意である。人
間的な情報処理といったが、より正確に言うと右脳的な
処理ということである。すなわち、左脳は情報を分析的
に順序立てて処理することが得意で、右脳は情報を同時
に全体として処理することが得意といわれる。ノイマン
型コンピュータは記号操作や論理的処理が得意で逐次処
理を行うから左脳的であり、ニューラルネットワークは
パターン処理が得意で総合判断を行うから右脳的と考え
ることができる。
The neural network excels at human-like information processing, such as comprehensive judgment from a large amount of information and high-speed and flexible processing of ambiguous pattern information. Human information processing, more precisely, is right-brain-like processing. That is, it is said that the left brain is good at processing information in an analytical order, and the right brain is good at processing information simultaneously as a whole. A Neumann computer is good at symbol manipulation and logical processing and performs sequential processing, so it is left-brain-like. A neural network is good at pattern processing and makes comprehensive judgments, so it can be considered right-brain-like.

【0040】次に、ニューラルネットワークの関数近似
能力に関する基本定理について説明する。ここでは、フ
ィードフォワード型ニューラルネットワークの関数近似
能力について説明する。
Next, the basic theorem regarding the function approximation ability of the neural network will be described. Here, the function approximation capability of the feedforward neural network will be described.

【0041】入力層、中間層、出力層の3層から成るフ
ィードフォワード型ニューラルネットワークにより、ど
んな関数でも高い精度で近似できる。ただし、近似精度
を高めるには、中間層の素子数を増やさなければならな
い。
Any function can be approximated with high accuracy by a feedforward neural network composed of three layers, an input layer, a hidden layer, and an output layer. However, to increase the approximation accuracy, the number of elements in the intermediate layer must be increased.

【0042】一般に、回路理論、信号理論の多くは、線
形の回路、線形の信号処理システムを対象としている。
線形のシステムは、線形代数の理論によって解析でき、
システムの振る舞いを定量的、理論的に把握できる。こ
のこと(解析可能性)が線形システムの長所であるが、
逆説的にいうと、理論的に解析できるのは、線形システ
ムの振る舞いが単純なためであり、単純なシステムでで
きることには自ずと限界がある。線形性の枠を出て、よ
り巧妙なことを行おうとすると、理論的解析の難しい非
線形システムを使用せざるを得ないのが実情である。そ
の場合、場当たり的、経験的工夫に頼って手法を構築す
ることが多い。
In general, most of circuit theory and signal theory are directed to linear circuits and linear signal processing systems.
Linear systems can be analyzed by linear algebra theory,
The system behavior can be grasped quantitatively and theoretically. This (analysability) is an advantage of linear systems,
Paradoxically, what can be theoretically analyzed is that the behavior of a linear system is simple, and there is naturally a limit to what can be done with a simple system. If you try to get out of the linearity and do something more sophisticated, you have to use nonlinear systems that are difficult to analyze theoretically. In that case, the method is often constructed by relying on ad hoc and empirical devices.

【0043】ニューラルネットワークでは、限定された
形で非線形性を導入することにより、線形システムの利
点である解析可能性を保持しながら、計算能力が強化さ
れている。3層のネットワークで任意の関数を近似でき
るのも、非線形性のおかげである。仮に、ニューラルネ
ットワークの構成素子が線形であるとすると、関数近似
能力は著しく制限される。例えば、構成素子で使用され
ていた非線形関数sigmoid(z)が線形関数f
(z)=azに置き換えられ、素子が次式に従って動作
する場合、素子数、層数をどんなに増やしても、任意の
関数を近似する能力は得られない。
In a neural network, computational power is enhanced by introducing nonlinearities in a limited manner, while retaining the analyticity that is an advantage of linear systems. The ability to approximate an arbitrary function in a three-layer network is also due to the non-linearity. If the components of the neural network are linear, the function approximation capability is severely limited. For example, the non-linear function sigmoid (z) used in the component is changed to a linear function f
When (z) = az is replaced and the element operates according to the following equation, the ability to approximate an arbitrary function cannot be obtained regardless of the number of elements or the number of layers.

【数1】 (Equation 1)

【数2】 (Equation 2)

【数3】 ただし、sは、ニューロンの細胞内電位であり、x
は、他の素子または外部からニューロンに与えられる
入力信号であり、wは重み(結合係数)であり、yは
ニューロンからの出力であり、θはしきい値である。
(Equation 3) Where s is the intracellular potential of the neuron and x
n is an input signal given to the neuron from another element or the outside, w n is a weight (coupling coefficient), y is an output from the neuron, and θ is a threshold value.

【0044】ニューラルネットワークでは、上式の中
で、1変数関数f(z)の形態のみを変更し、非線形性
を導入している。例えば、アナログモデルでは、fをシ
グモイド関数としている。また離散モデルではステップ
状関数にしている。いずれの関数も非線形の関数であ
る。このように全体の動作の中のほんの一部に非線形性
を導入することで、ニューラルネットワークは、任意の
関数を近似する能力を獲得している。
In the neural network, in the above equation, only the form of the one-variable function f (z) is changed to introduce nonlinearity. For example, in the analog model, f is a sigmoid function. In the discrete model, a step function is used. Both functions are non-linear functions. By introducing nonlinearity in only a part of the whole operation, the neural network has gained the ability to approximate an arbitrary function.

【0045】M個の入力変数に対して1つの出力を与え
る多変数関数をf(x、x、…x)と書く。任意
に与えた多変数関数に対して、それを近似的に実現する
3層フィードフォワード型ニューラルネットワークが存
在する。図2に示すように、M個の入力変数x
、…xのそれぞれは、ニューラルネットワークに
おけるθ、θ…θのM個の非線形素子に入力され
る。そのM個の非線形素子の後段は、線形素子である。
A multivariable function that provides one output for M input variables is written as f (x 1 , x 2 ,..., X M ). There is a three-layer feedforward neural network that approximately realizes an arbitrary given multivariable function. As shown in FIG. 2, M input variables x 1 ,
x 2, ... each of x M, theta 1 in the neural network is input to the M non-linear elements θ 2 ... θ M. The subsequent stage of the M nonlinear elements is a linear element.

【0046】ニューラルネットワークの学習は、入力に
応じて適切な応答をするような結合係数の組を得ること
である。ニューラルネットワークの学習には、教師つき
学習(supervised learning)と、
教師なし学習(unsupervised learn
ing)の2つがある。
Learning of a neural network is to obtain a set of coupling coefficients that gives an appropriate response according to an input. Neural network learning includes supervised learning,
Unsupervised learn
ing).

【0047】教師つき学習とは、ニューラルネットワー
クの入力側に次々とデータを与えると同時に、それぞれ
の入力データに対し出力すべき値(いわばお手本)を与
え、ニューラルネットワークからの出力が入力に応じた
適切な値となるよう結合係数を調整することである。こ
のお手本データは通常「教師データ」と呼ばれる。
In the supervised learning, data is successively given to the input side of the neural network, and at the same time, a value to be output (ie, a model) is given to each input data, and the output from the neural network corresponds to the input. That is, the coupling coefficient is adjusted to have an appropriate value. This model data is usually called “teacher data”.

【0048】階層型ニューラルネットワークの教師つき
学習には、誤差逆伝搬法(error back pr
opagation method:BP法)という、
汎用性の高い学習法がある。
For supervised learning of a hierarchical neural network, an error back pr
Opposition method (BP method)
There is a highly versatile learning method.

【0049】教師なし学習は、ニューラルネットワーク
の入力側に次々とデータを与え、事例データに対し選択
的に応答するネットワークを形成させるものであり、お
手本は与えない。この機能は自己組織化とも呼ばれる。
In the unsupervised learning, data is successively given to the input side of the neural network to form a network that selectively responds to the case data, and no example is given. This function is also called self-organization.

【0050】誤差逆伝搬法は、多数のお手本つきデータ
の組を用意し、「ニューラルネットワークにある入力デ
ータを与えたとき、ニューラルネットワークの出力値と
教師データとの二乗誤差が小さくなるよう、最急降下法
により結合係数を修正する」ことを何度も繰り返し、最
適な結合係数の組を決定する方法である。
The error backpropagation method prepares a large number of sets of modeled data, and sets a maximum value such that, when given input data to the neural network, the square error between the output value of the neural network and the teacher data is reduced. "Correcting Coupling Coefficient by Descent Method" is repeated many times to determine an optimal set of coupling coefficients.

【0051】BP法の一般的学習手順は次のとおりであ
る。
The general learning procedure of the BP method is as follows.

【0052】初期化: (ステップ0)すべての結合係数に初期値を与える(普
通は乱数を用いてランダムに設定する)。
Initialization: (Step 0) Initial values are given to all the coupling coefficients (normally, they are randomly set using random numbers).

【0053】繰り返し: (ステップ1)データを一つ取り出しニューラルネット
ワークに入力し、ニューラルネットワークからの出力を
求める。 (ステップ2)その出力値と教師データを比較し誤差を
求める。 (ステップ3)その誤差が小さくなるよう、結合係数の
値を修正する(修正は出力層に近い側から順次、入力層
に向かって行い、また修正量は、最急降下法により求め
る)。(すべてのデータに対しステップ1〜3を繰り返
す) (ステップ4)終了判定;すべてのデータにわたる誤差
の総和があらかじめ設定した値以下になった時点で反復
を終了する。あるいは、繰り返し回数があらかじめ設定
した値に達したら反復を打ち切る。(終了判定を満たさ
ない場合は、ステップ1に戻りステップ1〜3を行う)
Repetition: (Step 1) One piece of data is taken out and inputted to the neural network, and the output from the neural network is obtained. (Step 2) The output value is compared with the teacher data to determine an error. (Step 3) Correct the value of the coupling coefficient so as to reduce the error (correction is performed sequentially from the side closer to the output layer toward the input layer, and the correction amount is obtained by the steepest descent method). (Steps 1 to 3 are repeated for all data) (Step 4) End determination: When the sum of errors over all data becomes equal to or less than a preset value, the iteration is terminated. Alternatively, if the number of repetitions reaches a preset value, the repetition is terminated. (If the end determination is not satisfied, return to step 1 and perform steps 1 to 3)

【0054】上記アルゴリズムを実行するためには、入
力層に入った値から、出力値がどう決まるか、そして入
力値の変動や結合係数の変化が出力値にどういう変動を
もたらすかを知る必要がある。これらが分かると、結合
係数をどれだけ変化させたら、出力値と教師データとの
ずれ分を埋め合わせられるかが分かり、修正すべき量を
決められる。
In order to execute the above algorithm, it is necessary to know how the output value is determined from the value entered in the input layer, and how the change in the input value or the coupling coefficient causes the output value to change. is there. When these are known, it is known how much the coupling coefficient should be changed to compensate for the difference between the output value and the teacher data, and the amount to be corrected can be determined.

【0055】次に、図1を参照して、多目的最適化の選
好解を示す非線形な選好関数を近似するためにニューラ
ルネットワークを用いたケースについて説明する。
Next, a case where a neural network is used to approximate a nonlinear preference function indicating a preference solution of the multi-objective optimization will be described with reference to FIG.

【0056】図1は、本実施形態のニューラルネットワ
ークの構成を示している。本実施形態では、多目的(3
目的)最適化における非線形の選好関数を近似する。3
つの目的の数に合わせて入力層は3ニューロン、中間層
3ニューロン、出力層1ニューロンからなる3層ニュー
ラルネットワークである。入力層、出力層のニューロン
数は、与えられた問題からほぼ必然的に決まる。中間層
のニューロン数がいくつ必要かは一般にはよく吟味しな
ければ決まらない。
FIG. 1 shows the configuration of the neural network of the present embodiment. In the present embodiment, the multi-purpose (3
(Purpose) Approximate a nonlinear preference function in optimization. 3
The input layer is a three-layer neural network consisting of three neurons, three hidden neurons and one output layer neuron according to the number of objectives. The number of neurons in the input and output layers is almost inevitably determined from a given problem. How many neurons in the hidden layer are needed generally cannot be determined without careful consideration.

【0057】まず、図1のニューラルネットワークにお
いて、結合係数の初期値を与える。入力層の3つのニュ
ーロンには、それぞれ、x1、x2、x3が入力され
る。また、ニューラルネットワークから出力されるZの
値を教師データとして与える。
First, in the neural network of FIG. 1, initial values of coupling coefficients are given. X1, x2, and x3 are input to the three neurons in the input layer, respectively. Also, the value of Z output from the neural network is given as teacher data.

【0058】x1は、第1の目的関数での評価値(目的
評価値)である。x2は、第2の目的関数での評価値で
ある。x3は、第3の目的関数での評価値である。
X1 is an evaluation value (object evaluation value) in the first objective function. x2 is an evaluation value in the second objective function. x3 is an evaluation value in the third objective function.

【0059】あるいは、x1、x2、x3のそれぞれ
は、3目的最適化におけるパレート解集合の中から選択
された、パレート解であることができる。この場合、パ
レート解集合の中からパレート解x1、x2、x3を選
択する際には、パレート解集合についてのパレート解解
析を行った結果に基づいて、x1、x2、x3を選択す
ることができる。
Alternatively, each of x1, x2, and x3 can be a Pareto solution selected from a Pareto solution set in the three-objective optimization. In this case, when selecting Pareto solutions x1, x2, and x3 from the Pareto solution set, x1, x2, and x3 can be selected based on the result of performing Pareto solution analysis on the Pareto solution set. .

【0060】ここでは、ニューラルネットワークに入力
されるx1、x2、x3を、サンプルデータとして意思
決定者に示す。これらx1、x2、x3に対する意思決
定者の好みを反映させたZの値を教師データとして与え
る。教師データZを与えることで、ニューラルネットワ
ークの各結合係数の値を調整し、ニューラルネットワー
クから実際に出力されるZの値と、意思決定者の好みを
反映させた教師データZの値との誤差を減らす。
Here, x1, x2, and x3 input to the neural network are shown to the decision maker as sample data. The value of Z reflecting the preference of the decision maker for these x1, x2, and x3 is given as teacher data. By giving the teacher data Z, the value of each coupling coefficient of the neural network is adjusted, and the error between the value of Z actually output from the neural network and the value of the teacher data Z reflecting the preference of the decision maker is given. Reduce.

【0061】上記のように、「サンプルデータx1、x
2、x3を入力したときの意思決定者の好みを反映させ
たZを教師データとして与える」という作業を、他のサ
ンプルデータと教師データとの複数の組合せ(x1a、
x2a、x3a、za),(x1b、x2b、x3b、
zb),(x1c、x2c、x3c、zc),…につい
ても、上記と同様に繰り返し行う。
As described above, "sample data x1, x
2, and Z that reflects the preference of the decision maker when x3 is input is given as teacher data. ”Is performed by using a plurality of combinations of other sample data and teacher data (x1a,
x2a, x3a, za), (x1b, x2b, x3b,
zb), (x1c, x2c, x3c, zc),... are repeated in the same manner as described above.

【0062】このように複数回の学習を行って結合係数
の修正を行うことで、ある任意の入力データx1m、x
2m、x3mが入力されたときの、意思決定者の好みを
反映させたZと、実際に出力されるZの誤差は減る。こ
れにより、そのニューラルネットワークは、より高精度
に、意思決定者の選好規準を表すことができる。
By correcting the coupling coefficient by performing learning a plurality of times in this manner, any given input data x1m, x1m
When 2m and x3m are input, the error between Z that reflects the preference of the decision maker and Z that is actually output is reduced. Thereby, the neural network can express the preference criterion of the decision maker with higher accuracy.

【0063】このように、非線形関数の近似手法である
ニューラルネットワークを用いれば、多目的最適化の際
の非線形な選好関数を実現することができる。本実施形
態では、非線形関数近似法であるニューラルネットワー
クを、多目的最適化における非線形な選好関数を実現さ
せるときに適用した点がポイントの一つである。
As described above, by using the neural network which is an approximation method of the nonlinear function, it is possible to realize the nonlinear preference function in the multi-objective optimization. In the present embodiment, one of the points is that a neural network, which is a nonlinear function approximation method, is applied when realizing a nonlinear preference function in multi-objective optimization.

【0064】ここで、適用されるものは、ニューラルネ
ットワークの一部であるRBFネットワークであること
ができる。RBFネットワークとニューラルネットワー
クは、基本的には両者とも同じように使われている。但
し、RBFネットワークは、ニューラルネットワークよ
りも学習が早い。また、RBFネットワークは、構造が
簡単なのでハードウェア化に適している。
Here, what is applied can be an RBF network that is part of a neural network. The RBF network and the neural network are basically used in the same manner. However, the RBF network learns faster than the neural network. Further, the RBF network has a simple structure and is suitable for hardware implementation.

【0065】多目的最適化の選考過程の関数近似にRB
Fネットワークやニューラルネットワークを用いると、
再学習または追加学習を行うことにより、例えば、以下
の(1)〜(4)の効果を奏することができる。
The function approximation in the selection process of the multi-objective optimization is RB
If you use F network or neural network,
By performing relearning or additional learning, for example, the following effects (1) to (4) can be obtained.

【0066】(1)意思決定者の選考の傾向(選好規
準)が変わってきたときにも、再学習または追加学習に
より、その時点での意思決定者の好みを最も良く反映さ
せた選好解を得ることができる。 (2)学習途中で突発的な事象が加わる、目的関数が途
中で増える、目的自体が変わる、制約条件が変わる、な
どへの対応が可能である。突発的な事象とは、例えば、
経路問題における配送途中の集荷要求や、災害発生時の
設備配置問題において、その後に二次災害が発生した場
合などが考えられる。 (3)これらの時々刻々と変化する状況下でもリアルタ
イムで選好関数を生成できる。 (4)時間軸上の変化にも対応できる。時間によって制
約条件等が変わっても、その変化に追従するようにリア
ルタイムで選好関数が変わる。
(1) Even when the selection tendency of the decision maker (preference criteria) has changed, the preferred solution which reflects the decision maker's preference at that time in the best way by re-learning or additional learning. Obtainable. (2) It is possible to cope with a sudden event being added in the course of learning, an increase in the number of objective functions in the middle, a change in the purpose itself, a change in constraint conditions, and the like. A sudden event is, for example,
It is conceivable that a secondary disaster occurs afterwards in the route problem due to a collection request during delivery or in a facility arrangement problem in the event of a disaster. (3) A preference function can be generated in real time even under these constantly changing situations. (4) It can respond to changes on the time axis. Even if the constraint condition changes with time, the preference function changes in real time so as to follow the change.

【0067】ニューラルネットワークの学習について説
明する。学習法自体については、従来のやり方が広く適
用できる。BP法(繰返し学習)の他に、結合係数を遺
伝子に割り当ててGAで直接的に最適な結合係数の組を
決定する方法も適用可能である。また、教師なし学習
(例えば、強化学習)も適用可能である。
The learning of the neural network will be described. As for the learning method itself, conventional methods can be widely applied. In addition to the BP method (iterative learning), a method of allocating a coupling coefficient to a gene and directly determining an optimal set of coupling coefficients by GA is also applicable. Unsupervised learning (for example, reinforcement learning) is also applicable.

【0068】但し、選好のように構造がよくわかないも
のについてはBP法は適していない。BP法では、重み
の初期値に依存してローカルミニマムに陥り易いからで
ある。その意味では、より広い探索が可能なGAを用い
て学習する方が適している。再学習を行うときや環境変
動には、GAが適している。特に、RBFネットワーク
とGAの組合せでは、良好な結果が得られている。
However, the BP method is not suitable for those whose structure is not well understood, such as preference. This is because the BP method easily falls into local minimum depending on the initial value of the weight. In that sense, it is more appropriate to learn using a GA that allows a wider search. GA is suitable for re-learning and for environmental changes. In particular, good results have been obtained with the combination of the RBF network and the GA.

【0069】教師なし学習に関しては、いいと評価され
たときにプラスの強化信号を出し、悪いと評価されたと
きにマイナスの強化信号を出すことにより、選好構造を
つくることはできる。
With respect to unsupervised learning, a preference structure can be created by outputting a positive reinforcement signal when evaluated as good and outputting a negative reinforcement signal when evaluated as bad.

【0070】次に、図3および図4を参照して、本実施
形態の適用例として、旅行基礎プランニングについて説
明する。
Next, with reference to FIG. 3 and FIG. 4, a travel basic planning will be described as an application example of the present embodiment.

【0071】例えば、アメリカに行くことが決まってい
る場合でも、具体的にアメリカのどの観光地に行くか
(目的地)については色々と考えられる。例えば、旅行
に行く人の好みも人それぞれであるし、また、時期や季
節によっても、目的地の好み(選定)は変わってくる。
また、その年の流行によっても目的地は変わってくる
(例えば、今年は田舎が流行っているから郊外をゆっく
りと周るプランが好まれるなど)。
For example, even if it is decided to go to the United States, there are various ways to go to a specific tourist destination in the United States (destination). For example, the preferences of the people who go on a trip vary from person to person, and the taste (selection) of the destination changes depending on the time and season.
In addition, destinations will change depending on the trend of the year (for example, this year the countryside is popular, so a plan to go around the suburbs slowly is preferred).

【0072】本適用例は、旅行プラン決定時に考慮すべ
き条件が多い場合であっても、それらの多目的間のバラ
ンスをとって意思決定者の好みが反映された選好解とし
ての旅行プランを提供するものである。
In this application example, even when there are many conditions to be considered when determining a travel plan, it is possible to provide a travel plan as a preferred solution in which the preferences of the decision maker are reflected by balancing these multipurposes. Is what you do.

【0073】図3に示すように、本適用例では、まず、
目的地の選定を遺伝的アルゴリズム(GA)によって行
う。GAによって、観光地1〜Nのうち、目的地が具体
的にどの観光地(単数または複数)であるかが決まる
(符号11参照)。
As shown in FIG. 3, in this application example, first,
The destination is selected by a genetic algorithm (GA). The GA determines which sightseeing spot (single or plural) is the destination among the sightseeing spots 1 to N (see reference numeral 11).

【0074】ここでは、アメリカ周遊プランの目的地と
して、ニューヨークとラスベガスとロサンゼルスの3つ
の観光地が決まったとする。これら3つの観光地からな
るアメリカ周遊プランが符号11として出力される。
Here, it is assumed that three tourist destinations of New York, Las Vegas, and Los Angeles have been determined as destinations of the US tour plan. The United States tour plan consisting of these three tourist destinations is output as reference numeral 11.

【0075】次に、符号11として出力されたアメリカ
周遊プラン(目的値)に基づいて、そのアメリカ周遊プ
ランに含まれる評価指標データ12が、意思決定者の意
思が介在することなく、機械的かつ自動的に抽出され
る。
Next, based on the United States tour plan (target value) output as the reference numeral 11, the evaluation index data 12 included in the United States tour plan can be obtained mechanically and without the intention of the decision maker. Automatically extracted.

【0076】評価指標データ12は、GAからの出力値
(S1)に基づいて、客観的に決まる値である。評価指
標データ12には、日数、滞在率、移動量、魅力等のデ
ータが含まれる。
The evaluation index data 12 is a value that is determined objectively based on the output value (S1) from the GA. The evaluation index data 12 includes data such as the number of days, the stay rate, the amount of movement, and the attractiveness.

【0077】上記において、日数は、その目的地に決ま
った3つの観光地の観光に要する日数である。滞在率
は、アメリカ周遊プランの全日程のうち、他の2つの観
光地に要する日数との関係で、残りの1つの観光地に滞
在できる日の割合である。移動量や移動時間は、3つの
観光地間を移動するときの移動量や移動時間である。魅
力は、3つの観光地のそれぞれについて、前年度の同地
区への旅行アンケート等が反映される。
In the above description, the number of days is the number of days required for sightseeing at three sightseeing spots determined as the destination. The stay rate is a ratio of days that can be stayed at the remaining one sightseeing spot in relation to the number of days required for the other two sightseeing spots in the entire itinerary plan of the United States. The moving amount and the moving time are the moving amount and the moving time when moving between the three sightseeing spots. Attraction is reflected in the previous year's trip questionnaire to the same area for each of the three tourist destinations.

【0078】次に、GAから出力された目的値11から
抽出された評価指標データ12に基づいて、その目的地
11を評価する。この評価の際に使用される各評価指標
データ12の重み付けは、例えば、対象年齢や旅行時期
等の考慮条件13によって変化させる。
Next, the destination 11 is evaluated based on the evaluation index data 12 extracted from the target value 11 output from the GA. The weighting of each evaluation index data 12 used at the time of this evaluation is changed by, for example, a consideration condition 13 such as a target age and a travel time.

【0079】例えば、その目的地11のアメリカ周遊プ
ランの対象年齢(13)が年配の方であれば、滞在率が
高く移動量が小さいプランが好まれるので、その好みが
反映されるように、滞在率や移動量の重み付けを変化さ
せる。
For example, if the target age (13) of the US tour plan for the destination 11 is an elderly person, a plan with a high stay rate and a small amount of travel is preferred, so that the preference is reflected. Change the weight of the stay rate and the amount of movement.

【0080】GAから出力された目的地11は、その評
価指標データ12とその評価指標データ12の重み付け
に基づいて、対象年齢や旅行時期等の考慮条件13を反
映させた評価がなされる(符号14)。
The destination 11 output from the GA is evaluated based on the evaluation index data 12 and the weighting of the evaluation index data 12, reflecting the consideration conditions 13 such as the target age and travel time (reference numeral). 14).

【0081】以上に述べた、目的地11に対する評価1
4は、図4に示すRBFネットワーク10で行う。この
RBFネットワーク10の入力層には、その目的地11
についての評価指標データ12のそれぞれの(x1、x
2、x3)と、その目的地11についての考慮条件13
のそれぞれ(y1、y2、y3)が入力される。その目
的地11についての評価14が、RBFネットワーク1
0からZとして出力される。
Evaluation 1 for destination 11 described above
4 is performed in the RBF network 10 shown in FIG. The input layer of the RBF network 10 has a destination 11
(X1, x
2, x3) and consideration conditions 13 for the destination 11
(Y1, y2, y3) are input. The evaluation 14 for the destination 11 is the RBF network 1
Output from 0 to Z.

【0082】例えば、RBFネットワーク10への入力
データは以下のとおりとなる。x1は、その目的地11
についての日数である。x2は、その目的地11につい
ての滞在率である。x3は、その目的地11についての
移動量である。y1は、その目的地11についての対象
年齢である。y2は、その目的地11についての旅行時
期である。
For example, the input data to the RBF network 10 is as follows. x1 is the destination 11
Is the number of days. x2 is the stay rate for the destination 11. x3 is the movement amount of the destination 11. y1 is the target age for the destination 11. y2 is a travel time for the destination 11.

【0083】ここでは、RBFネットワーク10に入力
されるx1、x2、x3、y1、y2、y3を、サンプ
ルデータとして意思決定者に示す。これらx1、x2、
x3、y1、y2、y3に対する意思決定者の好みを反
映させたZの値を、RBFネットワーク10に教師デー
タとして与える。教師データZを与えることで、RBF
ネットワーク10の各結合係数の値を調整し、RBFネ
ットワーク10から実際に出力されるZの値と、意思決
定者の好みを反映させた教師データZの値との誤差を減
らす。
Here, x1, x2, x3, y1, y2, and y3 input to the RBF network 10 are shown to the decision maker as sample data. These x1, x2,
A value of Z reflecting the decision maker's preference for x3, y1, y2, and y3 is provided to the RBF network 10 as teacher data. By giving the teacher data Z, the RBF
The value of each coupling coefficient of the network 10 is adjusted to reduce the error between the value of Z actually output from the RBF network 10 and the value of the teacher data Z reflecting the preference of the decision maker.

【0084】上記のように、「サンプルデータx1、x
2、x3、y1、y2、y3を入力したときの意思決定
者の好みを反映させたZを教師データとして与える」と
いう作業を、他の目的地11についても、上記と同様に
繰り返し行う。このように複数回の学習を行って結合係
数の修正を行うことで、ある任意の目的地11について
のデータx1m、x2m、x3m、y1m、y2m、y
3mが入力されたときの、意思決定者の好みを反映させ
たZと、実際に出力されるZの誤差は減る。これによ
り、RBFネットワーク10の精度が高まる。
As described above, "sample data x1, x
2, Z3, y1, y2, and y3 are input as teacher data, reflecting the preference of the decision maker. "For the other destinations 11, the same operation is repeated. By correcting the coupling coefficient by performing learning a plurality of times in this manner, data x1m, x2m, x3m, y1m, y2m, y for a given destination 11 can be obtained.
When 3m is input, the error between Z that reflects the decision maker's preference and Z that is actually output is reduced. Thereby, the accuracy of the RBF network 10 increases.

【0085】すなわち、GAから出力された複数の目的
地11のそれぞれについて、それぞれの目的地11の評
価指標データ12と考慮条件13に基づいて、その目的
地11についての評価14を、意思決定者が行う。それ
らの入力(評価指標データ12と考慮条件13)と出力
(評価14の結果)を教師データとしてRBFネットワ
ーク10に学習させる。このことで、意思決定者の好み
を反映させた非線形の選好関数を近似する、RBFネッ
トワーク10を形成することができる。
That is, for each of the plurality of destinations 11 output from the GA, based on the evaluation index data 12 and the consideration condition 13 of each of the destinations 11, an evaluation 14 of the destination 11 is determined by the decision maker. Do. The input (the evaluation index data 12 and the consideration condition 13) and the output (the result of the evaluation 14) are learned by the RBF network 10 as teacher data. Thus, it is possible to form the RBF network 10 that approximates a non-linear preference function reflecting the decision maker's preference.

【0086】上記のように、RBFネットワーク10で
は、その年の流行(魅力)(12)や対象年齢等(1
3)に応じた、非線形の選好関数を近似することができ
る。例えば、対象年齢(y1)が若ければ、移動量(x
3)が大きくても、魅力(x4)が大きい、目的地11
の評価14(Z)が高くなるような選好関数が生成され
る。
As described above, in the RBF network 10, the trend (charm) (12) of the year and the target age (1)
A non-linear preference function according to 3) can be approximated. For example, if the target age (y1) is young, the movement amount (x
Destination 11 having large attractiveness (x4) even if 3) is large
A preference function is generated such that the evaluation 14 (Z) of is higher.

【0087】そのRBFネットワーク10から出力され
る選好解Zは、意思決定者の選好を反映した評価14で
あるから、その評価値14が高い目的地11がGAにお
ける適応度の高い個体であるとされる。GAにおいて、
次世代(図10中、再計画)では、現世代よりも、適応
度が高い個体(目的地11)の割合が高くなる。毎世代
このような操作を繰り返すと、適応度の高い個体集団が
形成される。これがGAにおける進化であり、最適解
(多目的最適化における選好解)への接近である。
Since the preference solution Z output from the RBF network 10 is an evaluation 14 reflecting the preference of the decision maker, the destination 11 having a high evaluation value 14 is an individual having a high fitness in GA. Is done. In GA
In the next generation (replanning in FIG. 10), the proportion of individuals (destination 11) with higher fitness is higher than in the current generation. When such an operation is repeated for each generation, an individual population having high fitness is formed. This is the evolution in GA and the approach to the optimal solution (preferred solution in multi-objective optimization).

【0088】本適用例では、GAにおける各個体である
目的地11の適応度を、意思決定者の選好を反映させた
評価14として求める。そのため、GAによって、意思
決定者の選好規準に、よりピッタリと適合する目的地1
1が、最終的な目的地(最適解)として選択される。
In this application example, the fitness of the destination 11 as each individual in the GA is obtained as the evaluation 14 reflecting the preference of the decision maker. For this reason, GA is a destination 1 that is more suitable for the decision criterion's preference criteria.
1 is selected as the final destination (optimal solution).

【0089】上記適用例は、以下の技術を開示してい
る。
The above application example discloses the following technology.

【0090】RBFネットワーク10は、多目的最適化
問題における選好関数を近似している。図3に示すよう
に、観光地1〜Nないし目的地11は、上記多目的最適
問題に関する適応度をそれぞれが有する個体である。
The RBF network 10 approximates a preference function in a multi-objective optimization problem. As shown in FIG. 3, the sightseeing spots 1 to N to the destination 11 are individuals each having fitness for the multi-objective optimal problem.

【0091】GAでは、上記個体群の中から上記適応度
が高い上記個体ほど選択確率が高くなるように自然選択
する操作を複数世代行う遺伝的アルゴリズムを用いた解
探索を行う。
In the GA, a solution search is performed using a genetic algorithm that performs an operation of performing natural selection for a plurality of generations so that the individual having a higher fitness level has a higher selection probability from the individual group.

【0092】GAは、上記複数世代のうちの単一の世代
の上記操作が行われたときの結果である目的地11を出
力する。その目的地11に関する評価指標データ12お
よび考慮条件13を、RBFネットワーク10に入力す
る。
The GA outputs the destination 11 which is the result when the operation of a single generation of the plurality of generations is performed. The evaluation index data 12 and the consideration condition 13 relating to the destination 11 are input to the RBF network 10.

【0093】その目的地11がRBFネットワーク10
に入力されたときに、そのRBFネットワーク10から
出力される評価14が高い目的地11(個体)を、上記
適応度が高い個体として、上記GAの次世代の操作を行
う。
The destination 11 is the RBF network 10
Then, the destination 11 (individual) having a high evaluation 14 output from the RBF network 10 is set as the individual having the high fitness, and the next-generation operation of the GA is performed.

【0094】次に、図5を参照して、第2の実施形態に
ついて説明する。
Next, a second embodiment will be described with reference to FIG.

【0095】選好関数を得るべく、RBFネットワーク
を用いる際に、複数のサンプリングデータから、教師デ
ータをいくつか選択する場合を考える。
Consider a case where some teacher data are selected from a plurality of sampling data when using the RBF network to obtain a preference function.

【0096】その選択された教師データは、RBFネッ
トワークの結合係数を調整するために用いられる。よっ
て、RBFネットワークに与えられる教師データは、得
たい選好関数の特徴を表しているものでなくてはならな
い。RBFネットワークに与えられるべき教師データと
して、複数のサンプルデータの中から、何を選択すべき
かが問題となる。第2実施形態では、上記問題を解決す
べく、RBFネットワークの前段に、前処理部が設けら
れている。
The selected teacher data is used to adjust the coupling coefficient of the RBF network. Therefore, the teacher data given to the RBF network must represent the characteristics of the preference function to be obtained. What should be selected from a plurality of sample data as teacher data to be given to the RBF network is a problem. In the second embodiment, in order to solve the above problem, a pre-processing unit is provided at a stage preceding the RBF network.

【0097】RBFネットワークのパラメータの調整に
必要なのは、教師データのみである。教師データに関
し、以下の2つのポイントがある。 ・教師データが多いほどRBFパラメータの調整が困難
になる。 ・教師データが少ないと、その教師データが、得たい選
好関数の特徴を表したデータであるかどうかの判定が難
しい。
All that is needed to adjust the parameters of the RBF network is the teacher data. There are the following two points regarding teacher data. Adjustment of RBF parameters becomes more difficult as the amount of teacher data increases. If the amount of teacher data is small, it is difficult to determine whether the teacher data is data representing characteristics of a desired preference function.

【0098】そこで、サンプルデータとしては、なるべ
く多くのデータを集めておくとともに、その多くのサン
プルデータの中から、そのデータを与えた結果として、
RBFネットワークのパラメータが、得たい選好関数を
より良く表現するようなデータを、教師データとして選
択することが望ましい。
Therefore, as much data as possible is collected as the sample data, and as a result of giving the data from the many sample data,
It is desirable to select, as the teacher data, data in which the parameters of the RBF network better express the desired preference function.

【0099】第2実施形態では、以下の動作が行われ
る。ここでは、40点のサンプルデータがあるとする。 教師データとして、40点のサンプルデータの中か
ら、ランダムに10点のデータを選択する。 その10点の教師データを与えてRBFネットワー
クのパラメータを調整する。 40点のサンプルデータの評価値と、の調整結果
として得られるRBF関数の出力値との誤差を求める。
その誤差が小さいほど、そので選択されたデータの教
師データとしての評価は、高い値が与えられる。 再度、からを行う。 からを繰り返して、評価の高いデータを、教師
データとして数組(数パターン)選び出す。 要素1点を変化させた場合の評価値変化から最適な
RBF関数を選択する。教師データ組を選択する基準の
1つが「全サンプルデータとの誤差が少ないもの」であ
るが、これだけでは、正しい評価を得にくいことから第
2の基準を設けたものである。通常、要素数点を変動さ
せた場合の評価基準を明確に持つことは難しいが、他の
要素が固定で1点のみを変化させた場合の評価基準は明
確であることが多い。例えば、日数、移動量等の要素が
同じ場合、”魅力”要素は高い方が良い。
In the second embodiment, the following operation is performed. Here, it is assumed that there are 40 sample data. As teacher data, 10 points of data are randomly selected from 40 points of sample data. The parameters of the RBF network are adjusted by giving the ten points of teacher data. An error between the evaluation value of the sample data of 40 points and the output value of the RBF function obtained as an adjustment result is obtained.
As the error is smaller, a higher value is given to the evaluation of the selected data as teacher data. Do again from Are repeated to select several sets (several patterns) of highly evaluated data as teacher data. An optimum RBF function is selected from the evaluation value change when one element is changed. One of the criteria for selecting a teacher data set is “a small error from all sample data”. However, since it is difficult to obtain a correct evaluation by only this, the second criterion is provided. Usually, it is difficult to have a clear evaluation criterion when the number of elements is changed, but the evaluation criterion when other elements are fixed and only one point is changed is often clear. For example, when the elements such as the number of days and the amount of movement are the same, the higher the “attractive” element is, the better.

【0100】上記のように、本実施形態では、RBFネ
ットワークに与えるべき教師データを、複数有るサンプ
ルデータから選択するに際しては、試行錯誤的に徐々に
収束させていく手法が用いられる。
As described above, in the present embodiment, when teacher data to be given to the RBF network is selected from a plurality of sample data, a method of gradually converging through trial and error is used.

【0101】ここで、上記やにおいて、選択を繰り
返すときに、GAや探索手法を用いれば、より効果的
に、教師データとして評価の高いデータを集めることが
できる。
Here, in the above case, when the selection is repeated, if a GA or a search method is used, data with a high evaluation as teacher data can be collected more effectively.

【0102】第2実施形態によれば、より特徴あるデー
タを教師データとして使って、より自分の欲しい選好関
数をつくることができる。
According to the second embodiment, a preference function desired by the user can be created by using more characteristic data as teacher data.

【0103】意思決定者自身も、2つのサンプルデータ
を比べていずれが教師データとしてよいのかは分かるも
のの、その2つずつの比較を繰り返して最終的に教師デ
ータとしてよいとして選んだデータが、全体の複数のサ
ンプルデータの中で選好の特徴を示すものであるか否か
は不明である。ここが選考過程を簡素化するときの難し
さである。
Although the decision maker himself knows which is better as the teacher data by comparing the two sample data, the data which is selected as the teacher data by repeating the comparison of each two is finally determined. It is not known whether or not the sample data indicates a characteristic of preference in the plurality of sample data. This is the difficulty in simplifying the selection process.

【0104】本実施形態では、複数のサンプルデータの
生成自体は、人が行い、そのサンプルデータの中から特
徴的なものを選ぶ(絞り込む)のは、この前処理部が行
う。前処理部が、複数のサンプリングデータから教師デ
ータとして適したデータの選択を行う上記動作は、自動
化することができる。
In the present embodiment, the generation of a plurality of sample data itself is performed by a person, and the selection and narrowing down of characteristic data from the sample data is performed by the preprocessing unit. The above operation in which the preprocessing unit selects data suitable as teacher data from a plurality of sampling data can be automated.

【0105】従来は、サンプルデータの中から如何に特
徴的なものを選ぶかについては、明確な理論は無く、経
験と勘で行われていた。また、クラスタリングという方
法が知られている。これは、複数のサンプルデータを統
計上でクラス分けした上で、クラスごとに教師データを
選び、クラスごとにそれぞれのニューラルネットワーク
を作って、空間の領域毎に適用するという方法である。
このクラスタリングを用いて、局所的な集団に対して、
それぞれニューラルネットワークを作るという手法がパ
ターン認識では知られている。ところが、人の好みは、
クラスタリングや統計では表しきれない。そこで、第2
実施形態の前処理部を用いて、より適切な教師データを
選択する。
Conventionally, there is no clear theory about how to select characteristic data from sample data, and it has been performed based on experience and intuition. Also, a method called clustering is known. This is a method in which a plurality of sample data is classified into classes on a statistical basis, teacher data is selected for each class, a neural network is created for each class, and applied to each space region.
Using this clustering, for a local population,
The technique of creating a neural network is known in pattern recognition. However, the preference of people is
It cannot be represented by clustering or statistics. Therefore, the second
Using the preprocessing unit of the embodiment, more appropriate teacher data is selected.

【0106】[0106]

【発明の効果】本発明の多目的最適化方法によれば、特
に非線形な選好関数の下での多目的最適化を行うことが
できる。
According to the multi-objective optimization method of the present invention, multi-objective optimization can be performed particularly under a nonlinear preference function.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明のプラン立案装置の第1の実施
形態に用いるニューラルネットワークの構成を示す図で
ある。
FIG. 1 is a diagram showing a configuration of a neural network used in a first embodiment of a plan drafting device of the present invention.

【図2】図2は、多変数関数の近似に用いるニューラル
ネットワークの構成を示す図である。
FIG. 2 is a diagram illustrating a configuration of a neural network used for approximation of a multivariable function.

【図3】図3は、本発明のプラン立案装置の第1実施形
態の適用例を説明するための図である。
FIG. 3 is a diagram for explaining an application example of the first embodiment of the plan drafting apparatus of the present invention.

【図4】図4は、本発明のプラン立案装置の第1実施形
態の適用例に用いるニューラルネットワークの構成を示
す図である。
FIG. 4 is a diagram showing a configuration of a neural network used in an application example of the first embodiment of the plan drafting apparatus of the present invention.

【図5】図5は、本発明のプラン立案装置の第2実施形
態に用いるニューラルネットワークの構成を示す図であ
る。
FIG. 5 is a diagram showing a configuration of a neural network used in a second embodiment of the plan drafting apparatus of the present invention.

【符号の説明】[Explanation of symbols]

10 RBFネットワーク 11 目的地 12 評価指標データ 13 考慮条件 14 評価 20 ニューラルネットワーク x1 入力データ x2 入力データ x3 入力データ y1 入力データ y2 入力データ y3 入力データ z 出力(教師データ) Reference Signs List 10 RBF network 11 Destination 12 Evaluation index data 13 Consideration condition 14 Evaluation 20 Neural network x1 Input data x2 Input data x3 Input data y1 Input data y2 Input data y3 Input data z Output (teacher data)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 溝口 正信 愛知県名古屋市中村区岩塚町字高道1番地 三菱重工業株式会社産業機器事業部内 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Masanobu Mizoguchi 1 Industrial Highway, Iwatsuka-cho, Nakamura-ku, Nagoya-shi, Aichi, Japan

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】(a) ニューラルネットワークを提供す
るステップと、(b) 前記ニューラルネットワーク
に、多目的最適化問題に関する複数の入力データを与え
るステップと、(c) 前記(b)の結果として前記ニ
ューラルネットワークが学習するステップと、(d)
前記(c)の結果として、前記多目的最適化問題におけ
る選好関数を近似した前記ニューラルネットワークを得
るステップとを備えた多目的最適化方法。
(A) providing a neural network; (b) providing the neural network with a plurality of input data relating to a multi-objective optimization problem; (c) providing the neural network as a result of (b). The network learning step; (d)
Obtaining the neural network approximating a preference function in the multi-objective optimization problem as a result of (c).
【請求項2】 請求項1記載の多目的最適化方法におい
て、 前記(b)において、前記ニューラルネットワークに与
えられる前記複数の入力データのそれぞれは、前記多目
的最適化問題における各目的評価値である多目的最適化
方法。
2. The multi-objective optimization method according to claim 1, wherein in (b), each of the plurality of input data provided to the neural network is a respective objective evaluation value in the multi-objective optimization problem. Optimization method.
【請求項3】 請求項1記載の多目的最適化方法におい
て、 前記(b)において、前記ニューラルネットワークに与
えられる前記複数の入力データのそれぞれは、前記多目
的最適化問題におけるパレート解集合から選択されたパ
レート解である多目的最適化方法。
3. The multi-objective optimization method according to claim 1, wherein in (b), each of the plurality of input data provided to the neural network is selected from a Pareto solution set in the multi-objective optimization problem. A multi-objective optimization method that is a Pareto solution.
【請求項4】 請求項3記載の多目的最適化方法におい
て、 前記パレート解は、前記パレート解集合についてのパレ
ート解解析を行った結果に基づいて、選択される多目的
最適化方法。
4. The multi-objective optimization method according to claim 3, wherein the Pareto solution is selected based on a result of performing a Pareto solution analysis on the Pareto solution set.
【請求項5】 請求項1から4のいずれか1項に記載の
多目的最適化方法において、 前記(c)の前記学習は、教師付き学習であり、 前記(b)は、前記複数の入力データに対応する教師デ
ータを前記ニューラルネットワークに与えるステップを
含む多目的最適化方法。
5. The multi-objective optimization method according to claim 1, wherein the learning of (c) is supervised learning, and the (b) is a learning of the plurality of input data. Multi-objective optimization method including the step of providing teacher data corresponding to the above to the neural network.
【請求項6】 請求項5記載の多目的最適化方法におい
て、 前記教師データは、前記複数の入力データに対する、前
記多目的最適化問題の意思決定者による選好解である多
目的最適化方法。
6. The multi-objective optimization method according to claim 5, wherein the teacher data is a preferred solution to the plurality of input data by a decision maker of the multi-objective optimization problem.
【請求項7】 請求項1から6のいずれか1項に記載の
多目的最適化方法において、 前記(c)は、前記多目的最適化問題の選好規準が変化
したときに、再び行われる多目的最適化方法。
7. The multi-objective optimization method according to claim 1, wherein (c) is performed again when a preference criterion of the multi-objective optimization problem changes. Method.
【請求項8】 請求項1から7のいずれか1項に記載の
多目的最適化方法において、 前記(c)は、前記多目的最適化問題が変化したとき
に、再び行われる多目的最適化方法。
8. The multi-objective optimization method according to claim 1, wherein (c) is performed again when the multi-objective optimization problem changes.
【請求項9】(a) ニューラルネットワークを提供す
るステップと、(b) 前記ニューラルネットワーク
に、多目的最適化問題に関する複数の入力データを与え
るステップと、(c) 前記(b)の結果として前記ニ
ューラルネットワークが学習するステップと、(d)
前記(c)の結果として、前記多目的最適化問題におけ
る選好関数を近似した前記ニューラルネットワークを得
るステップとを備え、 前記複数の入力データは、第1の入力データと第2の入
力データとを含み、 前記第1の入力データは、前記多目的最適化問題の評価
指標であり、 前記第2の入力データは、前記第1の入力データの前記
評価指標としての重み付けを調整するためのデータであ
る多目的最適化方法。
9. A step of providing a neural network, (b) providing the neural network with a plurality of input data relating to a multi-objective optimization problem, and (c) the neural network as a result of the step (b). The network learning step; (d)
Obtaining the neural network approximating a preference function in the multi-objective optimization problem as a result of (c), wherein the plurality of input data includes first input data and second input data The first input data is an evaluation index of the multi-objective optimization problem; and the second input data is data for adjusting the weight of the first input data as the evaluation index. Optimization method.
【請求項10】(a) ニューラルネットワークを提供
するステップと、(b) 前記ニューラルネットワーク
に、多目的最適化問題に関する複数の入力データを与え
るステップと、(c) 前記(b)の結果として前記ニ
ューラルネットワークが学習するステップと、(d)
前記(c)の結果として、前記多目的最適化問題におけ
る選好関数を近似した前記ニューラルネットワークを得
るステップと、(e) 前記多目的最適問題に関する適
応度をそれぞれが有する個体の群を提供するステップ
と、(f) 前記個体群の中から前記適応度が高い前記
個体ほど選択確率が高くなるように自然選択する操作を
複数世代行う遺伝的アルゴリズムを用いた解探索を行う
ステップと、(g) 前記(f)における前記複数世代
のうちの単一の世代の前記操作が行われたときの結果
を、前記(d)の結果として得られた前記ニューラルネ
ットワークに入力するステップと、(h) 前記(g)
の結果、前記ニューラルネットワークから出力される評
価が高い前記個体を、前記適応度が高い個体として、前
記(f)を実行するステップとを備えた多目的最適化方
法。
(A) providing a neural network; (b) providing said neural network with a plurality of input data relating to a multi-objective optimization problem; and (c) providing said neural network as a result of said (b). The network learning step; (d)
(C) obtaining the neural network approximating a preference function in the multi-objective optimization problem as a result of (c); and (e) providing a group of individuals each having fitness for the multi-objective optimization problem. (F) performing a solution search using a genetic algorithm that performs an operation of performing natural selection for a plurality of generations so that the individual with the higher fitness from the individual group has a higher selection probability; (f) inputting a result when the operation of a single generation of the plurality of generations is performed to the neural network obtained as a result of (d); and (h) inputting the result of (g). )
Executing the above (f) with the individual having a high evaluation outputted from the neural network as the individual having a high fitness.
【請求項11】(i) 複数のサンプルデータを提供す
るステップと、(j) ニューラルネットワークを提供
するステップと、(k) 前記ニューラルネットワーク
に、前記複数のサンプルデータから選択された多目的最
適化問題に関する複数の入力データと、前記複数の入力
データに対応する教師データを与えるステップと、
(l) 前記(k)の結果として前記ニューラルネット
ワークが教師付き学習を行うステップと、(m) 前記
(l)の結果としての前記ニューラルネットワークから
出力される値と、前記複数のサンプルデータの評価値と
の誤差を求めるステップと、(n) 前記(k)から
(m)を複数回実行するステップと、(o) 前記
(n)の結果、前記誤差が小さいときに使用された前記
複数の入力データと、前記複数の入力データに対応する
前記教師データとを用いて、前記ニューラルネットワー
クに学習させるステップと、(p) 前記(o)の結果
として、前記多目的最適化問題における選好関数を近似
した前記ニューラルネットワークを得るステップとを備
えた多目的最適化方法。
(I) providing a plurality of sample data; (j) providing a neural network; and (k) providing the neural network with a multi-objective optimization problem selected from the plurality of sample data. Providing a plurality of input data and teacher data corresponding to the plurality of input data;
(L) the neural network performing supervised learning as a result of (k); and (m) evaluating values output from the neural network as a result of (l) and evaluating the plurality of sample data. Calculating an error from the value; (n) performing the above (k) to (m) a plurality of times; and (o) as a result of the above (n), the plurality of values used when the error is small. Training the neural network using input data and the teacher data corresponding to the plurality of input data; (p) approximating a preference function in the multi-objective optimization problem as a result of the (o); Obtaining the above neural network.
【請求項12】 請求項11に記載の多目的最適化方法
において、 前記(n)を行う際には、遺伝的アルゴリズムを用いた
解探索を行う多目的最適化方法。
12. The multi-objective optimization method according to claim 11, wherein in performing (n), a solution search using a genetic algorithm is performed.
【請求項13】 請求項1から12のいずれか1項に記
載の多目的最適化方法において、 前記選好関数を近似した前記ニューラルネットワーク
は、非線形の前記選好関数を近似している多目的最適化
方法。
13. The multi-objective optimization method according to claim 1, wherein the neural network that approximates the preference function approximates the nonlinear preference function.
【請求項14】 請求項1から13のいずれか1項に記
載の多目的最適化方法において、 前記ニューラルネットワークは、RBFネットワークで
ある多目的最適化方法。
14. The multi-objective optimization method according to claim 1, wherein the neural network is an RBF network.
【請求項15】 請求項1から14のいずれか1項に記
載の多目的最適化方法の各ステップをコンピュータに実
行させるためのプログラム。
15. A program for causing a computer to execute each step of the multi-objective optimization method according to claim 1. Description:
【請求項16】 多目的最適化問題で定義されるプラン
を立案するプラン立案装置であって、 ニューラルネットワークを備え、 前記ニューラルネットワークには、前記プランの前記多
目的最適化問題に関する複数の入力データが与えられ、
その結果として前記ニューラルネットワークが学習し、
前記学習したニューラルネットワークにより前記多目的
最適化問題における選好関数を近似し、前記近似された
選好関数に基づいて、前記プランを出力するプラン立案
装置。
16. A plan drafting apparatus for drafting a plan defined by a multi-objective optimization problem, comprising a neural network, wherein the neural network is provided with a plurality of input data on the multi-objective optimization problem of the plan. And
As a result, the neural network learns,
A plan planning device that approximates a preference function in the multi-objective optimization problem by the learned neural network, and outputs the plan based on the approximated preference function.
【請求項17】 請求項16記載のプラン立案装置にお
いて、前記プランには、旅行プラン、設備配備プラン、
設備割り当てプラン、物流プラン、デザインプランのい
ずれかが含まれるプラン立案装置。
17. The plan drafting apparatus according to claim 16, wherein the plan includes a travel plan, a facility deployment plan,
A plan drafting device that includes one of a facility allocation plan, a logistics plan, and a design plan.
JP2001093999A 2001-03-28 2001-03-28 Multipurpose optimization method, program and planning device Withdrawn JP2002288625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001093999A JP2002288625A (en) 2001-03-28 2001-03-28 Multipurpose optimization method, program and planning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001093999A JP2002288625A (en) 2001-03-28 2001-03-28 Multipurpose optimization method, program and planning device

Publications (1)

Publication Number Publication Date
JP2002288625A true JP2002288625A (en) 2002-10-04

Family

ID=18948266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001093999A Withdrawn JP2002288625A (en) 2001-03-28 2001-03-28 Multipurpose optimization method, program and planning device

Country Status (1)

Country Link
JP (1) JP2002288625A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114687A (en) * 2011-11-28 2013-06-10 General Electric Co <Ge> Method and device for managing operation of power plant
WO2014142620A1 (en) * 2013-03-14 2014-09-18 ㈜엠피디에이 Neural adaptive learning device using question types and relevant concepts and neural adaptive learning method
JP2016045861A (en) * 2014-08-26 2016-04-04 株式会社豊田中央研究所 Abnormality diagnosis device and program
WO2017154284A1 (en) * 2016-03-09 2017-09-14 ソニー株式会社 Information processing method and information processing device
WO2018163011A1 (en) * 2017-03-09 2018-09-13 株式会社半導体エネルギー研究所 Semiconductor device and broadcasting system
JP2019200720A (en) * 2018-05-18 2019-11-21 株式会社竹中工務店 Design support device and design support model learning device
WO2021192012A1 (en) * 2020-03-24 2021-09-30 日本電気株式会社 Determination assistance device, determination assistance method and computer-readable recording medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114687A (en) * 2011-11-28 2013-06-10 General Electric Co <Ge> Method and device for managing operation of power plant
WO2014142620A1 (en) * 2013-03-14 2014-09-18 ㈜엠피디에이 Neural adaptive learning device using question types and relevant concepts and neural adaptive learning method
WO2014142621A1 (en) * 2013-03-14 2014-09-18 ㈜엠피디에이 Neural adaptive learning device and neural adaptive learning method using relational concept map
JP2016045861A (en) * 2014-08-26 2016-04-04 株式会社豊田中央研究所 Abnormality diagnosis device and program
JPWO2017154284A1 (en) * 2016-03-09 2019-01-10 ソニー株式会社 Information processing method and information processing apparatus
WO2017154284A1 (en) * 2016-03-09 2017-09-14 ソニー株式会社 Information processing method and information processing device
WO2018163011A1 (en) * 2017-03-09 2018-09-13 株式会社半導体エネルギー研究所 Semiconductor device and broadcasting system
JPWO2018163011A1 (en) * 2017-03-09 2020-03-05 株式会社半導体エネルギー研究所 Semiconductor device and broadcasting system
JP7208889B2 (en) 2017-03-09 2023-01-19 株式会社半導体エネルギー研究所 broadcasting system
JP2019200720A (en) * 2018-05-18 2019-11-21 株式会社竹中工務店 Design support device and design support model learning device
JP7131067B2 (en) 2018-05-18 2022-09-06 株式会社竹中工務店 Design support device and design support model learning device
WO2021192012A1 (en) * 2020-03-24 2021-09-30 日本電気株式会社 Determination assistance device, determination assistance method and computer-readable recording medium
JPWO2021192012A1 (en) * 2020-03-24 2021-09-30
JP7452629B2 (en) 2020-03-24 2024-03-19 日本電気株式会社 Decision support device, decision support method and program

Similar Documents

Publication Publication Date Title
Palmer et al. Designing an artificial neural network for forecasting tourism time series
Ghaseminezhad et al. A novel self-organizing map (SOM) neural network for discrete groups of data clustering
Almeida et al. A multi-objective memetic and hybrid methodology for optimizing the parameters and performance of artificial neural networks
US5249259A (en) Genetic algorithm technique for designing neural networks
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
Jiang et al. Design of structural modular neural networks with genetic algorithm
Yu et al. Evolutionary fuzzy neural networks for hybrid financial prediction
CN114170789B (en) Intelligent network link lane change decision modeling method based on space-time diagram neural network
CN110223785A (en) A kind of infectious disease transmission network reconstruction method based on deep learning
Delgado et al. A multiobjective genetic algorithm for obtaining the optimal size of a recurrent neural network for grammatical inference
Kozlova et al. The use of neural networks for planning the behavior of complex systems
JP2002288625A (en) Multipurpose optimization method, program and planning device
De Campos et al. Automatic design of neural networks with l-systems and genetic algorithms-a biologically inspired methodology
Lizhe et al. BP network model optimized by adaptive genetic algorithms and the application on quality evaluation for class teaching
Varahrami Recognition of good prediction of gold price between MLFF and GMDH neural network
JP3354593B2 (en) Learning system for network type information processing equipment
CN115879412A (en) Layout level circuit diagram size parameter optimization method based on transfer learning
CN112433028B (en) Electronic nose gas classification method based on memristor cell neural network
Cheung Scheduling
Jain et al. Practical applications of computational intelligence techniques
CN109117491B (en) Agent model construction method of high-dimensional small data fusing expert experience
Abraham et al. An intelligent forex monitoring system
Huynh et al. Training single hidden layer feedforward neural networks by singular value decomposition
JP3310009B2 (en) Neural network system
JPH05314090A (en) Method and device for recognizing pattern by using neural network

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603