JP2003058579A - Method for optimizing design/blending - Google Patents

Method for optimizing design/blending

Info

Publication number
JP2003058579A
JP2003058579A JP2001249805A JP2001249805A JP2003058579A JP 2003058579 A JP2003058579 A JP 2003058579A JP 2001249805 A JP2001249805 A JP 2001249805A JP 2001249805 A JP2001249805 A JP 2001249805A JP 2003058579 A JP2003058579 A JP 2003058579A
Authority
JP
Japan
Prior art keywords
value
factor
learning
design
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001249805A
Other languages
Japanese (ja)
Inventor
Koichi Negishi
公一 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bridgestone Corp
Original Assignee
Bridgestone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bridgestone Corp filed Critical Bridgestone Corp
Priority to JP2001249805A priority Critical patent/JP2003058579A/en
Publication of JP2003058579A publication Critical patent/JP2003058579A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method for efficiently and easily calculating an optimum value of factor data to produce optional characteristic data by using a method of a neural network and learning a mapping relation between a factor group and a characteristic group of experimental data of design/blending, etc. SOLUTION: A learning data table in which each experimental data in blending/design is united in a tabular format subjected to attribute division between a factor and an attribute is prepared, each column of the learning data table is selected, the each column is allocated to an input layer or output layer, the mapping relaton between a factor group and a characteristic group of the experimental data is learned, the learning results is used to calculate an optimum value of factor data to produce optional characteristic data, also the optimization of design/blending is realized in a GUI environment, and the neural network is learned and the optimization of design combination for blending is carried out by selecting a function tab on a computer screen.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、各種製品設計、配
合設計あるいは製造装置の条件設定等において、ニュー
ラルネットワークの手法を用いて、要因と特性との写像
関係を学習して、任意の特性データに対して、それを作
り出す要因データの最適値を求める方法に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention learns a mapping relationship between a factor and a characteristic by using a method of a neural network in various product design, compounding design, condition setting of a manufacturing apparatus, etc. On the other hand, the present invention relates to a method for obtaining the optimum value of the factor data that produces it.

【0002】[0002]

【従来の技術】従来、各種製品設計、配合設計あるいは
製造装置の条件設定等における実験データの解析方法と
しては、重回帰分析が知られているが、要因数が多い場
合にはそれに応じてデータ数が十分ないと精度が得られ
ないこと、回帰式が高々二次までの適用であるため非線
形の強い現象の解析には誤差が多いこと、上記手法を使
いこなすためにはある程度統計学の専門知識が必要であ
ること、更には、手軽に利用できるソフトウエアがない
などの問題点があった。また、回帰分析においては、グ
ラフと表が多用されるが、GUI(グラフィカル・ユー
ザ・インターフェイス)の視覚的なわかり易さがなかっ
た。一方、非線形の強い現象を解析する手法として、生
体ニューロンの、.多入力1出力、.出力のスイッ
チング特性、.可変性のあるシナプスの重み、を模擬
化したニューロンモデルをネットワーク状に接続したニ
ューラルネットワークを用いて、製品設計や配合設計に
おける要因と特性との関係をシミュレーションする方法
が盛んに行われている。これは、入力層、中間層及び出
力層の各々のニューロンがシナプスによって結合された
ニューラルネットワークを構成し、例えば、製品の形状
や構造などの値を要因として上記入力層に入力し、中間
層を介して、上記製品特性を出力層から出力するもの
で、後述する学習後に、上記要因の各値が入力される
と、それに対応する特性が出力される。
2. Description of the Related Art Conventionally, multiple regression analysis is known as a method of analyzing experimental data in various product designs, compounding designs, or setting of conditions for manufacturing equipment. If there are not enough numbers, accuracy cannot be obtained, there are many errors in the analysis of strong non-linear phenomena because the regression formula is applied to at most quadratic, and there is some statistical expertise to master the above method. However, there is a problem that there is no software that can be easily used. Further, in the regression analysis, graphs and tables are often used, but the GUI (graphical user interface) is not easy to understand visually. On the other hand, as a method of analyzing a strong nonlinear phenomenon, a. Multi-input 1-output ,. Output switching characteristics ,. A method of simulating the relationship between factors and characteristics in product design and compounding design is actively used by using a neural network in which neuron models simulating variable synapse weights are connected in a network. This forms a neural network in which the neurons of the input layer, the intermediate layer, and the output layer are connected by synapses, and, for example, the values of the shape and structure of the product are input to the input layer, and the intermediate layer is The product characteristic is output from the output layer via the output layer. When each value of the factor is input after learning, which will be described later, the corresponding characteristic is output.

【0003】図16は上記ニューラルネットワークの一
構成例(階層型NN)を示す図で、このニューラルネッ
トワークは、ニューロンに対応するユニットI,I,
‥‥,Iから成る入力層、多数のユニットM,M,
‥‥,Mから成る中間層、及びユニットU,U,‥
‥,Uから成る出力層から構成される多入力・多出力
の構造を有する。なお、同図において、B,Bはオ
フセットユニットである。上記入力層のユニットには、
例えば、製品の形状や構造などの設計パラメータや製造
条件、あるいは組成物の配合比などの要因の各値を入力
値として用い、出力層のユニットには、例えば、製品あ
るいは組成物の表面粗度、引張強度、対摩耗性、耐熱性
などの特性値を出力値として用いる。なお、一般には、
上記入出力関係は、規格化されたシグモイド関数などの
ニューロンの特徴を表わす基底関数f(x)が用いら
れ、出力値は0〜1となる。上記ニューラルネットワー
クにおいて、各入力信号をxとするとき、中間層のユ
ニット及び出力層のユニットの各出力yは、以下の式
(1),(2)で表せる。
FIG. 16 is a diagram showing a structural example (hierarchical NN) of the above-mentioned neural network. This neural network has units I 1 , I 2 , corresponding to neurons.
.., an input layer consisting of I p , a number of units M 1 , M 2 ,
.., an intermediate layer composed of M q , and units U 1 , U 2 ,.
.., U r has a multi-input / multi-output structure composed of an output layer. In the figure, B 1 and B 2 are offset units. In the input layer unit,
For example, design parameters such as product shape and structure, manufacturing conditions, or values of factors such as composition ratios of compositions are used as input values, and the unit of the output layer is, for example, the surface roughness of the product or composition. Characteristic values such as tensile strength, wear resistance, and heat resistance are used as output values. In addition, in general,
For the above-mentioned input / output relationship, a basis function f (x) representing a characteristic of a neuron such as a standardized sigmoid function is used, and output values are 0 to 1. In the above neural network, when each input signal is x i , each output y i of the unit of the intermediate layer and the unit of the output layer can be expressed by the following equations (1) and (2).

【数1】 但し、p ;入力側のシナプスの個数、 wji;層(i,j)間の各シナプス結合の強さに対応
する荷重 b;オフセット値 したがって、入力層の上記要因の各値を入力することに
よって、出力層のユニットからは、上記製品特性の個数
に応じた各値が出力される。なお、上記各ユニットの荷
重wjiは、後述する学習処理により、既知である予測
データについて誤差、すなわち、学習に用いた特性項目
のデータである実測値と、学習に用いた要因項目のデー
タから推定計算された推定値との誤差が最小となるよう
に学習・修正される。
[Equation 1] However, p The number of synapses on the input side, w ji ; the load b j corresponding to the strength of each synaptic connection between layers (i, j); the offset value, and therefore, by inputting each value of the above factors of the input layer, Each value corresponding to the number of product characteristics is output from the unit of the output layer. The weight w ji of each unit is calculated from the error of known prediction data, that is, the actual measurement value that is the data of the characteristic item used for learning and the data of the factor item used for learning by the learning process described later. Learning and correction are performed so that the error between the estimated value and the estimated value is minimized.

【0004】次に、上記ニューラルネットワークの学習
処理について図17フローチャートを参照して説明す
る。まず、予め求めた、学習データ及びテストデータを
読み取り(ステップS50)、ニューラルネットワーク
における各荷重wji及びオフセット値bを予め定め
た値に設定することによって初期化する(ステップS5
2)。次に、上記入力された複数の学習データを用いて
ニューラルネットワークを学習させるため、各荷重w
ji及びオフセット値bの少なくとも1つを僅かずつ
変化させて中間層及び出力層の各々の誤差を求め、誤差
が最小になるように学習する(ステップS54)。な
お、上記誤差E(w)は、例えば、出力をy、教師
データをvとすると次式(3)で表わせる。
Next, the learning processing of the neural network will be described with reference to the flowchart of FIG. First, the learning data and the test data obtained in advance are read (step S50), and each weight w ji and the offset value b j in the neural network are set to predetermined values for initialization (step S5).
2). Next, in order to train the neural network using the plurality of input learning data, each weight w
at least one of ji and offset values b j is changed little by little obtains the error of each of the intermediate layers and the output layer, to learn so that the error is minimized (step S54). The error E j (w) can be represented by the following equation (3), where y j is the output and v j is the teacher data.

【数2】 続いて、上記求めた各荷重wji及びオフセット値b
を更新(書換え)し(ステップS56)た後、上記更新
された各荷重及びオフセット値によるニューラルネット
ワークによってテストデータの各々をテストしてテスト
結果の値として特性データを得る(ステップS58)。
そして、上記テスト結果の値が収束判定の基準である所
定範囲内の値か否かを判別することにより収束したか否
かを判断するか、または上記の処理を所定回数繰り返し
したか否かを判断し(ステップS60)、肯定判断の場
合には学習をを終了する。一方、否定判断の場合には上
記処理を繰り返す。これによって、学習データを入力し
た場合に、中間層及び出力層の各々のユニットの誤差が
最小になるように各荷重wji及びオフセット値b
定まる。上記学習が完了すると、上記学習によって求め
られた各荷重wji及びオフセット値bを用いて、要
因条件の各値を入力して製品性能(特性)を表わす値を
推定値として出力することにより、上記要因条件を変更
した場合の特性変化をシミュレーションすることができ
る。
[Equation 2] Then, each load w obtained abovejiAnd offset value bj
Is updated (rewritten) (step S56), and then the above update
Neural network based on each weighted load and offset value
Test each piece of test data by work
Characteristic data is obtained as a result value (step S58).
Then, the value of the above test result is the criterion for the convergence judgment.
Whether it converged by judging whether it is a value within a certain range
Whether or not to repeat the above process a predetermined number of times
If it is judged positive (step S60),
If so, the learning ends. On the other hand, in the case of negative judgment,
The above process is repeated. This allows you to enter the learning data
Error of each unit in the middle layer and the output layer
Each load w to be the minimumjiAnd offset value b jBut
Determined. When the above learning is completed,
Each load wjiAnd offset value bjUsing
Enter each value of the causal condition and enter the value that represents the product performance (characteristic).
Change the above factor conditions by outputting as an estimated value
It is possible to simulate changes in characteristics when
It

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記ニ
ューラルネットワークの手法は、利用者が統計学の専門
知識がなくても行うことができるという利点はあるもの
の、ニューラルネットワーク特有のデータ準備、学習、
解析への利用までの一連の流れを初心者でも分かり易く
実現することは困難であった。また、要因群と特性群と
の写像関係を求めたり、要因データ群に対する特性デー
タの推定計算を行うだけでは、任意の特性データを作り
出す要因条件をシミュレーションして最適化することが
困難であった。
However, although the above neural network method has the advantage that it can be performed without the user having specialized knowledge of statistics, data preparation, learning, and
It was difficult for even a beginner to easily realize the series of flow up to the use for analysis. Further, it is difficult to simulate and optimize the factor condition for generating arbitrary characteristic data only by obtaining the mapping relationship between the factor group and the characteristic group or by estimating the characteristic data for the factor data group. .

【0006】本発明は、従来の問題点に鑑みてなされた
もので、ニューラルネットワークの手法を用いて、設計
・配合等の実験データの要因群と特性群との写像関係を
学習して、任意の特性データに対して、それを作り出す
要因データの最適値を効率的にかつ容易に求める方法を
提供することを目的とする。
The present invention has been made in view of the conventional problems, and learns the mapping relationship between the factor group and the characteristic group of the experimental data such as design / mixture by using the method of the neural network to arbitrarily It is an object of the present invention to provide a method for efficiently and easily obtaining the optimum value of factor data for producing the characteristic data of the above.

【0007】[0007]

【課題を解決するための手段】本発明の請求項1に記載
の設計・配合の最適化方法は、ニューラルネットワーク
の手法を用いて、製品設計や配合設計等における実験デ
ータの要因群と特性群との写像関係を学習して設計・配
合の最適化を行う際に、上記実験データを要因項目の列
と特性項目の列とに分けた学習データ表を作成し、この
学習データ表の各列を選択して、入力層あるいは出力層
に割付けて上記写像関係を学習した後、最適化手法を用
いて、任意の特性データに対して、それを作り出す要因
データの最適値を求めるようにしたことを特徴とするも
ので、これにより、要因データ群を入力層に、特性デー
タ群を出力層に割付ける構成のニューラルネットワーク
に加えて、特性データ群を入力層に、要因データ群を出
力層に割付ける構成のニューラルネットワークを構築で
きるので、任意の特性データに対して、それを作り出す
要因データの最適値を精度よく求めることができ、各種
設計業務の効率化と精度向上を図ることができる。
A method of optimizing a design / compound according to claim 1 of the present invention uses a neural network method to use a factor group and a characteristic group of experimental data in product design, formulation design, etc. When learning the mapping relationship with and designing / compounding optimization, create a learning data table in which the above experimental data is divided into a column of factor items and a column of characteristic items, and each column of this learning data table After selecting and assigning it to the input layer or the output layer to learn the above mapping relation, the optimization method is used to find the optimum value of the factor data that creates it for any characteristic data. In addition to the neural network configured to allocate the factor data group to the input layer and the characteristic data group to the output layer, the characteristic data group to the input layer and the factor data group to the output layer. Structure to allocate Since can build a neural network, for any characteristic data, it an optimum value of factor data can be determined accurately to produce, it is possible to improve the efficiency of various design work and accuracy.

【0008】請求項2に記載の設計・配合の最適化方法
は、上記写像関係を学習する際に、上記学習データ表の
要因項目の列、及び特性項目の列を、入力層の項目、出
力層の項目、あるいは無視する項目のいずれかに設定す
る手段を設けて、学習すべき要因項目及び特性項目の選
択及び設定を容易にかつ効率的に行うことができるよう
にしたものである。請求項3に記載の設計・配合の最適
化方法は、上記最適化手法として、ニュートン法あるい
は組み合わせ法を用いたことを特徴とするものである。
According to a second aspect of the present invention, there is provided a method for optimizing a design / compounding method, wherein when learning the mapping relationship, a column of factor items and a column of characteristic items of the learning data table are set as input layer items and output items. By providing means for setting either a layer item or an item to be ignored, selection and setting of factor items and characteristic items to be learned can be performed easily and efficiently. The method of optimizing the design and composition according to claim 3 is characterized in that a Newton method or a combination method is used as the optimization method.

【0009】また、請求項4に記載の設計・配合の最適
化方法は、最適化の効率を向上させるため、最適な要因
デ−タを求める際に、要因値に初期値、最大値、最小値
を設定し、要因値を上記初期値から上記最大値と最小値
との間で増減させるようにしたことを特徴とするもので
ある。請求項5に記載の設計・配合の最適化方法は、前
回求められた推定値を特性の新たな目標値に設定して、
再度最適化処理を行い、所望の特性を得るための最適な
要因デ−タを求めるようにしたことを特徴とするもの
で、これにより、最適化の効率を向上させることが可能
となる。請求項6に記載の設計・配合の最適化方法は、
前回求められた推定値を作り出した要因値を新たな要因
値の初期値に設定して、再度最適化処理を行い、最適な
要因デ−タを求めるようにしたことを特徴とするもの
で、これにより、最適化の効率を更に向上させることが
可能となる。
Further, in the method of optimizing the design and composition according to the fourth aspect, in order to improve the efficiency of optimization, when obtaining the optimum factor data, the factor values are set to the initial value, the maximum value and the minimum value. A value is set, and the factor value is increased or decreased between the initial value and the maximum value or the minimum value. The design / compound optimization method according to claim 5 sets the estimated value obtained last time to a new target value of the characteristic,
This is characterized in that the optimization process is performed again to obtain the optimum factor data for obtaining the desired characteristics, which makes it possible to improve the efficiency of the optimization. The design / compound optimization method according to claim 6 is:
It is characterized by setting the factor value that produced the estimated value obtained last time to the initial value of a new factor value, performing optimization processing again, and obtaining the optimum factor data. This makes it possible to further improve the efficiency of optimization.

【0010】また、請求項7に記載の設計・配合の最適
化方法は、最適な要因デ−タを求める際に、特性群のそ
れぞれに軽重度付けをしたことを特徴とするもので、こ
れにより、最適化における収束性を向上させることがで
きる。請求項8に記載の設計・配合の最適化方法は、最
適な要因デ−タを求める際に、特性群のそれぞれに許容
変動量を付加したことを特徴とするもので、これによ
り、最適化における収束性を更に向上させることができ
る。請求項9に記載の設計・配合の最適化方法は、収束
判定条件によって規定される複数の最適度数を設定し、
最適な要因デ−タを求める際には、上記最適度数のいず
れかを選択して最適化するようにしたことを特徴とする
もので、これにより、必要な精度に応じた最適化の程度
を設定できるので、効率的に最適化を行うことが可能と
なる。請求項10に記載の設計・配合の最適化方法は、
最適な要因デ−タを求める際に、要因群のそれぞれに軽
重度付けをしたことを特徴とするもので、これにより、
最適化における収束性を更に向上させることができる。
Further, the designing / compounding optimizing method according to claim 7 is characterized in that each of the characteristic groups is lightly weighted when the optimum factor data is obtained. As a result, the convergence of optimization can be improved. The method of optimizing the design and composition according to claim 8 is characterized in that an allowable variation amount is added to each of the characteristic groups when obtaining the optimum factor data. Can further improve the convergence. The design / compound optimization method according to claim 9 sets a plurality of optimum frequencies defined by a convergence determination condition,
When obtaining the optimum factor data, one of the above-mentioned optimum frequencies is selected for optimization, whereby the degree of optimization according to the required accuracy can be determined. Since it can be set, it is possible to efficiently perform optimization. The design / compound optimization method according to claim 10 is:
It is characterized in that each of the factor groups is given a slight severity when determining the optimum factor data.
It is possible to further improve the convergence in the optimization.

【0011】また、請求項11に記載の設計・配合の最
適化方法は、コンピュータ画面上で機能タブを選択し
て、上記ニューラルネットワークの学習と最適化とを行
うようにしたことを特徴とするもので、これにより、G
UI環境において最適化を行うことができるので、設計
・配合の最適化を容易にかつ効率的に行うことが可能と
なる。
The designing / compounding optimizing method according to claim 11 is characterized in that a function tab is selected on a computer screen to perform learning and optimization of the neural network. By this, G
Since the optimization can be performed in the UI environment, it becomes possible to easily and efficiently optimize the design and formulation.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面に基づき説明する。図1は、本実施の形態に係
わる設計・配合の最適化を実施するためのパーソナルコ
ンピュータの概略を示す図で、本例においては、パーソ
ナルコンピュータ10を用いたグラフィカル・ユーザ・
インターフェイス(GUI)環境において、ニューラル
ネットワークの手法を用いて製品・配合の学習を行い、
上記学習結果を用いて、任意の特性データに対して、そ
れを作り出す要因データの最適値を求める最適化を行
う。同図において、11はパーソナルコンピュータ10
の表示手段であるディスプレイ、12はコンピュータ本
体、13a,13bはそれぞれ入力手段であるキーボー
ド及びマウスである。コンピュータ本体12は、図2に
示すように、後述する処理プログラムに従って演算処理
を行うCPU14と、データやプログラムあるいは計算
結果等の記憶手段であるROM15,RAM16及びメ
モリー17と、この本体12と入出力装置などとのデー
タ等のやり取りを行うためのI/Oボード18と、デー
タやコマンドが入出力可能なように接続されたバス19
とを備えている。なお、上記データは、キーボード13
aから直接コンピュータ本体12に入力してもよいし、
データ用FDからパーソナルコンピュータ10に内蔵さ
れているFDU12Fを介して入力してもよい。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an outline of a personal computer for carrying out the optimization of the design and formulation according to the present embodiment. In this example, a graphical user using a personal computer 10
In the interface (GUI) environment, learn the product / mixture using the neural network method,
Using the above learning result, optimization is performed for any characteristic data to find the optimum value of the factor data that creates it. In the figure, 11 is a personal computer 10.
Is a display body, 12 is a computer main body, and 13a and 13b are input means keyboard and mouse, respectively. As shown in FIG. 2, the computer main body 12 includes a CPU 14 that performs arithmetic processing according to a processing program described later, a ROM 15, a RAM 16 and a memory 17 that are storage means for storing data, programs, calculation results, etc., and the main body 12 and input / output. An I / O board 18 for exchanging data and the like with a device and a bus 19 connected so that data and commands can be input and output.
It has and. Note that the above data is the keyboard 13
It may be directly input to the computer main body 12 from a,
The data FD may be input via the FDU 12F built in the personal computer 10.

【0013】次に、本実施の形態の最適化方法につい
て、図3のフローチャートを参照して説明する。まず、
パーソナルコンピュータ10を立ち上げて、設計・配合
のシミュレーションシステムプログラムを起動させ、図
4に示すような初期画面G0をディスプレイ11の表示
画面に表示させる。そして、上記初期画面G0の上方に
表示された学習データ表欄g1をクリックし、図5に示
すようなデータ表作成画面G1を呼び出して、学習デー
タ表の作成を行う(ステップS10)。本例では、上記
学習データ表は、通常のパソコンにインストールされて
いる表計算アプリケーションソフトであるExcel上
にて行う。具体的には、データ表作成画面G1のデータ
作成欄g11に要因数、特性数、データ数を入力した
後、表作成ボタンB11をクリックして、Excelブ
ックを呼び出し、このExcelブック上に、図6に示
すような、設計・配合のシミュレーションに使用される
要因条件と特性とを列、実験データを行とした各セルに
それぞれデータ値を配列した学習データ表10Tを作成
する。このとき、上記実験データはキーボード13aに
より入力するか、後述するように、図4のファイル操作
欄g7をクリックして予めExcelブック上に作成さ
れた学習データ表を読み出すようにしてもよい(図12
参照)。なお、表計算等の演算やグラフの作成などは、
Excelのプログラム言語であるVBA(Visual Ba
sic Applications)を用いて実現してもよいが、学習
データ群の数が多い場合などには、その内部にコンパイ
ル済みの関数セットを含んだバイナリファイルであるD
LL(Dynamic Link Library)を用いることにより、
処理の高速化を図ることができる。
Next, the optimization method of this embodiment will be described with reference to the flowchart of FIG. First,
The personal computer 10 is started up, the design / compounding simulation system program is started, and the initial screen G0 as shown in FIG. 4 is displayed on the display screen of the display 11. Then, the learning data table column g1 displayed above the initial screen G0 is clicked to call the data table creation screen G1 as shown in FIG. 5 to create the learning data table (step S10). In this example, the learning data table is executed on Excel, which is a spreadsheet application software installed in a normal personal computer. Specifically, after inputting the number of factors, the number of characteristics, and the number of data in the data creation field g11 of the data table creation screen G1, the table creation button B11 is clicked to call the Excel book, and the figure is displayed on this Excel book. As shown in FIG. 6, a learning data table 10T in which data values are arranged in each cell having columns of factor conditions and characteristics used for design / compounding simulation and rows of experimental data is created. At this time, the experimental data may be input by the keyboard 13a, or as described later, the file operation column g7 in FIG. 4 may be clicked to read out the learning data table previously created in the Excel book (FIG. 12
reference). Note that calculations such as spreadsheets and graph creation are
VBA (Visual Ba), which is a programming language of Excel
sic Applications), but if the number of learning data groups is large, it is a binary file D containing a compiled function set inside.
By using LL (Dynamic Link Library),
The processing speed can be increased.

【0014】次に、入出力設定欄g2をクリックし、図
7(a),(b)に示すような入出力設定画面G2を呼
び出して、各割付欄g21,g22,‥‥,g29に表
示された、学習データ表10Tの要因項目及び特性項目
の各列を、順次、入力層の項目、出力層の項目、あるい
は無視する(デフォルトの値にする)項目のいずれかに
設定する(ステップS12)。これにより、学習すべき
要因項目及び特性項目の選択及び設定を容易に行うこと
ができるので、効率的な学習を行うことができる。な
お、初回の学習においては、通常、要因項目の全てを入
力層に、特性項目の全てを出力層に割付ける。その後、
学習欄g3を選択し、上記設計・配合等の実験データを
用いて、ニューラルネットワークの学習、すなわち、要
因群と特性群との写像関係の学習を行う。
Next, the input / output setting column g2 is clicked to call the input / output setting screen G2 as shown in FIGS. 7 (a) and 7 (b) and displayed in the respective assignment columns g21, g22, ..., G29. The respective columns of the factor items and the characteristic items of the learned data table 10T are sequentially set to any of the items of the input layer, the items of the output layer, or the items to be ignored (set to default values) (step S12). ). As a result, it is possible to easily select and set factor items and characteristic items to be learned, so that efficient learning can be performed. In the first learning, normally, all factor items are assigned to the input layer and all characteristic items are assigned to the output layer. afterwards,
The learning field g3 is selected, and learning of the neural network, that is, learning of the mapping relationship between the factor group and the characteristic group is performed using the experimental data such as the above-mentioned design / mixture.

【0015】学習欄g3を選択すると、図8に示すよう
な学習画面G3が表示され、この画面を用いて学習パラ
メータの設定や学習方法の設定を行うことができる。は
じめに、ニューラルネットワークのパラメータ設定欄g
31に示された、隠れ層ノード数、繰返計算数の最大値
(リミット)、収束判定限界、ジクモイドの傾きなどの
パラメータ値を設定するとともに、学習順序を設定して
(ステップS14)要因群と特性群の写像関係を学習
し、荷重wji及びオフセット値bを求める(ステッ
プS16)。本発明では、学習効率を向上させる目的
で、上記収束判定限界の値として、通常の正規化した値
(0〜1)と実際の単位での値とのいずれかを選択可能
とするとともに、上記通常の学習パラメータに加えて、
中間層の修正比率η、出力層の荷重修正比率η’、荷重
の修正を行う際に用いる、直前の荷重修正量に対する修
正比率であるモーメント係数、学習が飽和した際の飽和
ノードの揺さぶり量、飽和チェック間隔、及び飽和判定
の移動平均回数を学習パラメータとして設定可能として
いる。
When the learning field g3 is selected, a learning screen G3 as shown in FIG. 8 is displayed, and the learning parameters and the learning method can be set using this screen. First, the parameter setting field g of the neural network
Set the parameter values such as the number of hidden layer nodes, the maximum value (limit) of the number of repeated calculations, the convergence determination limit, the slope of the dicuoid shown in 31, and the learning order (step S14). And the mapping relationship of the characteristic group are learned, and the weight w ji and the offset value b j are obtained (step S16). In the present invention, for the purpose of improving learning efficiency, it is possible to select either a normalized value (0 to 1) or a value in an actual unit as the value of the convergence determination limit, and In addition to the usual learning parameters,
The correction ratio η of the middle layer, the load correction ratio η ′ of the output layer, the moment coefficient that is the correction ratio to the immediately preceding load correction amount used when correcting the load, the amount of shaking of the saturated node when learning is saturated, The saturation check interval and the number of moving averages of saturation determination can be set as learning parameters.

【0016】一般に、学習終了の判定は、教師データで
ある実測値と、出力層ノードから出力される、判定すべ
き荷重wji及びオフセット値bを用いて演算された
推定値との差が予め設定された収束判定限界の値以下と
なっているか否かによって行うが、この値の単位として
は、通常用いられている正規化した値(0〜1)よりも
実スケールの値の方が取り扱い易い場合がある。また、
いろいろな単位の現象にそれぞれニューラルネットワー
クモデルを割りあてている場合には、上記正規化した値
を用いた方が便利な場合がある。そこで、本例のよう
に、収束判定限界の値として、通常の正規化した値と実
際の単位での値とのいずれかを選択可能にすることによ
り、学習効率を向上させることが可能となる。
In general, the learning end is determined by the difference between the measured value that is the teacher data and the estimated value that is output from the output layer node and that is calculated using the weight w ji and the offset value b j to be determined. It is performed depending on whether or not the value is equal to or less than a preset convergence determination limit value. As a unit of this value, a value on the real scale is more than a normalized value (0 to 1) which is usually used. It may be easy to handle. Also,
When the neural network model is assigned to each phenomenon of various units, it may be more convenient to use the above-mentioned normalized value. Therefore, as in this example, it is possible to improve learning efficiency by making it possible to select either a normalized value or a value in an actual unit as the value of the convergence determination limit. .

【0017】また、ニューラルネットワークの学習にお
いては、荷重の大きさを中間層と出力層間の荷重、入力
層と中間層間の荷重の順で修正することを繰り返すが、
計算で求めた修正量に対して100%修正してしまうの
ではなく、100%よりも小さな比率で修正する方が経
験上有効であることから、本例では、上記のように、中
間層の修正比率ηと出力層の荷重修正比率η’とを学習
パラメータに設定し、これにより、学習の収束を早める
ようにしている。また、上記荷重の修正は、何千回、何
万回という規模で繰り返されるので、修正に際しては、
上記のように、直前の荷重修正量に対する修正比率であ
るモーメント係数を学習パラメータに設定して直前の修
正量の何割かを加える構成にすることにより、加速的に
学習を進めることができるとともに、発散を抑制するこ
とができる。
In the learning of the neural network, the magnitude of the load is repeatedly corrected in the order of the load between the intermediate layer and the output layer and the load between the input layer and the intermediate layer.
Since it is experientially effective to correct the amount of correction calculated by 100% rather than 100%, in this example, as described above, in the middle layer, The modification ratio η and the output layer weight modification ratio η ′ are set as learning parameters, whereby the learning convergence is accelerated. In addition, since the above-mentioned load correction is repeated thousands of times and tens of thousands of times, when correcting,
As described above, by setting the moment coefficient, which is the modification ratio to the immediately preceding load modification amount, as a learning parameter and adding some percentage of the immediately previous modification amount, learning can be accelerated and, Divergence can be suppressed.

【0018】ところで、学習の進行過程においては、各
ノードの出力yは、入力をxとすると、以下の式(4)
に示すジグモイド関数で計算される。
By the way, in the course of learning, the output y of each node is given by the following equation (4), where x is the input.
It is calculated by the sigmoid function shown in.

【数3】 ここで、入力xがある程度大きすぎたり小さすぎたりす
ると、xの値が多少変化してもyの値は0又は1で変化
しない飽和状態になってしまう。そこで、上記のよう
に、学習が飽和した際の飽和ノードの揺さぶり量、飽和
チェック間隔、飽和判定の移動平均回数についてもを学
習パラメータとして設定可能とすることにより、学習の
収束を早めることができる。
[Equation 3] Here, if the input x is too large or too small to some extent, the value of y changes to 0 or 1 even if the value of x changes to some extent, resulting in a saturated state. Therefore, as described above, it is possible to speed up the convergence of learning by making it possible to set the fluctuation amount of the saturation node when the learning is saturated, the saturation check interval, and the moving average number of times of the saturation determination as learning parameters. .

【0019】また、パターンの学習順序を固定したまま
実行するよりはランダムに変更する場合の方が学習効率
が向上する場合があるため、本発明では、パターン学習
順序欄g33を設けて、学習に際して、パターンの学習
順序をランダムに変更するか、固定したまま実行するか
を選択できるようにするとともに、パターンの学習順序
をランダムに変更する場合には、その変更するタイミン
グを回数で判定するか、ノード出力が飽和した際にも実
行するかを選択できるようにしている。なお、学習順序
を固定しなければならない制約がある場合には、上記パ
ターン学習順序欄g33の「表の順序で固定」をクリッ
クして学習することができる。
Further, the learning efficiency may be improved by randomly changing the pattern learning order rather than by executing the pattern learning order fixedly. Therefore, in the present invention, the pattern learning order column g33 is provided for learning. , It is possible to select whether to change the learning order of the pattern at random or to execute it while keeping it fixed, and when changing the learning order of the pattern at random, determine the change timing by the number of times, It is possible to select whether to execute even when the node output is saturated. If there is a constraint that the learning order should be fixed, the learning can be performed by clicking "Fix in table order" in the pattern learning order column g33.

【0020】ニューラルネットワークの学習は、上述し
た学習データ表10Tの要因群データ及び特性群データ
を読み取り、これらの値を用いて学習データを読み取
り、入力された複数の学習データを用いてニューラルネ
ットワークの各荷重wji及びオフセット値bをそれ
ぞれ変化させることによって中間層及び出力層の各々の
誤差を求め、誤差が最小になるように学習する。そし
て、上記求めた各荷重w 及びオフセット値bを更
新した後、上記更新された各荷重wji及びオフセット
値bを用い、ニューラルネットワークにより、テスト
データの各々をテストしてテスト結果の値としての特性
データ(推定値)を得る。なお、学習の収束の様子は、
上記学習画面G3の収束状態表示欄g34に逐次表示さ
れる。次に、テスト結果の値が収束判定の基準である所
定範囲内の値か否か、または上記の処理を所定回数繰り
返ししたか否かを判別することにより収束したか否かを
判断し肯定判断の場合には本ルーチンを終了する。一
方、否定判断の場合には上記処理を繰り返して、中間層
及び出力層の各々のユニットの誤差が最小になるように
各荷重wji及びオフセット値bを算出する。学習終
了後には、上記学習画面G3のシステムパラメータ保存
欄g37をクリックすることにより、上記学習に用いた
ニューラルネットワークのパラメータを保存することが
できる。なお、本例においては、後述するように、継続
学習が可能なように構成したので、上記パラメータを保
存しておくことが望ましい。
In learning the neural network, the factor group data and the characteristic group data in the learning data table 10T described above are read, the learning data is read using these values, and the neural network of the neural network is read using a plurality of input learning data. The respective errors of the intermediate layer and the output layer are obtained by changing the respective weights w ji and the offset values b j , and learning is performed so that the errors are minimized. Then, after updating the respective loads w j i and the offset values b j obtained above, each of the test data is tested by a neural network using the updated respective loads w ji and the offset values b j The characteristic data (estimated value) as the value of is obtained. In addition, the state of convergence of learning is
It is sequentially displayed in the convergence state display field g34 of the learning screen G3. Next, it is judged whether or not the test result has converged by judging whether or not the value of the test result is within a predetermined range which is a criterion for the convergence judgment, or whether or not the above processing is repeated a predetermined number of times, and an affirmative judgment is made. In the case of, this routine is ended. On the other hand, in the case of a negative determination, the above processing is repeated to calculate each load w ji and the offset value b j so that the error of each unit of the intermediate layer and the output layer is minimized. After the learning is completed, the parameters of the neural network used for the learning can be stored by clicking the system parameter storage field g37 on the learning screen G3. It should be noted that in this example, as described later, since the continuous learning is possible, it is desirable to store the above parameters.

【0021】また、本例では、学習終了後に学習度検証
欄g4をクリックすることにより、図9に示すような学
習度検証画面G4を呼び出して、上記学習した写像関係
の計算結果から作成した、実測値と上記推定値との関係
のグラフで表示して学習度の検証を行えるようにしてい
る(ステップS18)。このとき、上記実測値と推定値
との相関係数を求めてこれを同時に表示する。これによ
り、利用者はニューラルネットワークの学習程度を確実
に把握することができる。なお、上記図9では、例とし
て、特性1に関する実測値と推定値の相関関係をグラフ
欄g41に表示したが、特性項目番号欄g42の数値を
変更することで、学習が完了した他の特性項目について
も表示できることは言うまでもない。
Further, in this example, by clicking the learning degree verification column g4 after the learning is completed, the learning degree verification screen G4 as shown in FIG. The graph of the relationship between the actual measurement value and the estimated value is displayed so that the learning degree can be verified (step S18). At this time, the correlation coefficient between the measured value and the estimated value is obtained and displayed simultaneously. As a result, the user can surely grasp the learning degree of the neural network. Note that, in FIG. 9, as an example, the correlation between the actual measurement value and the estimated value regarding the characteristic 1 is displayed in the graph column g41. However, by changing the numerical value in the characteristic item number column g42, another characteristic for which learning is completed is performed. It goes without saying that items can also be displayed.

【0022】また、本例では、継続学習が可能なように
構成したので、継続学習を行う際には、学習欄g3を選
択して図8の学習画面G3に戻り、継続学習条件欄g3
2の継続学習を選択する。その際、上記学習画面G3の
特性項目番号欄g35で所定の特性項目を指定するとと
もに、学習パラメータを変更するか、前回と同じ値を使
うか、デフォルト値を使うかのいずれかを選択すること
ができる。これにより、前回と同じ値を使う場合には、
同じ学習パラメータについて、最初から学習を行う必要
がなく、学習パラメータを変更する場合にも、前回の結
果を参照して変更できるので、学習効率を向上させるこ
とができる。なお、学習パラメータの再設定後には、学
習再開欄g38を選択して学習を継続することができ
る。また、上記継続学習は、必ずしも学習度の検証後に
行うものではなく、収束が遅いなどの理由で学習を途中
で中断したりした場合に行うこともできる。そのときに
は、上述したように、前回と同じ学習パラメータで学習
を継続することも可能であるし、学習パラメータを変更
することも可能なので、効率よく学習を行うことができ
る。
Further, in this example, since the continuous learning is possible, when the continuous learning is performed, the learning column g3 is selected and the learning screen G3 shown in FIG. 8 is returned to the continuous learning condition column g3.
Select 2 continuous learning. At that time, a predetermined characteristic item is designated in the characteristic item number column g35 of the learning screen G3, and the learning parameter is changed, the same value as the previous time is used, or the default value is used. You can As a result, when using the same value as last time,
It is not necessary to perform learning from the beginning for the same learning parameter, and even when the learning parameter is changed, the learning result can be changed by referring to the previous result, so that the learning efficiency can be improved. After the learning parameters are reset, the learning restart column g38 can be selected to continue the learning. Further, the continuous learning is not necessarily performed after the learning degree is verified, and may be performed when the learning is interrupted midway due to a slow convergence or the like. At that time, as described above, it is possible to continue the learning with the same learning parameter as the previous one, or to change the learning parameter, so that the learning can be efficiently performed.

【0023】以上の処理が終了し、ニューラルネットワ
ークの学習が十分に行われた後に、ネットワークの構
造、すなわち荷重やオフセット値をメモリー17に記憶
させる。その後、特性推定欄g5をクリックして、図1
0に示すような特性推定画面G5を表示させ、要因と特
性の推定を行う(ステップS20)。本発明では、上記
特性推定画面G5の特性推定欄g51又は要因推定欄g
52を選択することにより、従来の要因データ群に対す
る特性データの推定計算と、特性データ群に対する要因
データの推定計算とのいずれの推定計算も行うことがで
きるように構成してある。その後、上記学習結果を用い
て、任意の特性データに対して、それを作り出す要因デ
ータを推定してその最適値を演算して(ステップS2
2)、設計・配合における最適な要因データの組み合わ
せを求める。なお、最適化方法としては、1変数のニュ
ートン法、または多変数のニュートン法、あるいは、組
み合わせ法等の周知の最適化手法を用いることができ
る。
After the above processing is completed and the learning of the neural network is sufficiently performed, the network structure, that is, the weight and the offset value are stored in the memory 17. After that, click the characteristic estimation field g5 to
A characteristic estimation screen G5 as shown in 0 is displayed, and factors and characteristics are estimated (step S20). In the present invention, the characteristic estimation column g51 or the factor estimation column g of the characteristic estimation screen G5 described above.
By selecting 52, both of the conventional estimation calculation of characteristic data for the factor data group and the estimation calculation of factor data for the characteristic data group can be performed. Then, using the above learning result, the factor data for producing arbitrary characteristic data is estimated and its optimum value is calculated (step S2).
2) Find the optimum combination of factor data in design and formulation. As the optimization method, a well-known optimization method such as a one-variable Newton method, a multivariable Newton method, or a combination method can be used.

【0024】ニュートン法による場合には、変数とする
要因項目を設定した上で、現在地での推定計算を実施し
て目標となる特性値(以下、目標値という)との誤差量
を求め、更に、その変数を、例えば変化域の1/100
0程度変化させたときの推定計算を実施して目標値との
誤差量を求め、数値的に微分係数を計算し、目標値との
誤差量がゼロとなる方向に変数を変化させる。このよう
な操作を誤差量が所定の値以下になるまで繰り返すこと
で、目標値を実現するのに最適な複数の要因変数の値を
数値的に計算することが可能となる。また、組み合わせ
法においては、複数要因のそれぞれについて分割によっ
て組み合わせを決めておき、それぞれの組み合わせに対
して特性の推定計算を実施することで所定の目標値を実
現するための最適要因の組み合わせを求めることができ
る。これらは、計算時間の制約や収束性の制約があるた
めに、ニューラルネットワークでおおよその値を推定す
ることと組合わせて利用することで効果的に実現でき
る。
In the case of the Newton method, after setting factor items as variables, an estimation calculation at the current location is performed to obtain an error amount with respect to a target characteristic value (hereinafter referred to as a target value), and further, , The variable is, for example, 1/100 of the change range
An estimation calculation is performed when the value is changed by about 0 to obtain an error amount with respect to the target value, a differential coefficient is calculated numerically, and the variable is changed so that the error amount with respect to the target value becomes zero. By repeating such an operation until the error amount becomes equal to or less than the predetermined value, it becomes possible to numerically calculate the optimum values of the plurality of factor variables for realizing the target value. In addition, in the combination method, a combination is determined for each of a plurality of factors by division, and a characteristic estimation calculation is performed for each combination to obtain an optimal factor combination for achieving a predetermined target value. be able to. These can be effectively realized by using them in combination with estimating approximate values by a neural network, because of constraints on calculation time and convergence.

【0025】以下に、本発明による最適化について説明
する。まず、要因最適化欄g6をクリックして、図11
に示すような要因最適化画面G6を表示させ、この要因
最適化画面G6の最適化1ボタンg61又は最適化2ボ
タンg62を選択する。「最適化2」は、後述するよう
に、要因の変化に対して安定点が複数個あって、最適値
以外のところに収束し易い場合の最適化に適用されるも
ので、通常は、「最適化1」にて最適化を行う。最適化
を行う際には、最適化要因欄g63のそれぞれの欄に要
因データの初期値及び最大値(MAX),最小値(MI
N)を設定するとともに、特性欄g64に特性データの
目標値を設定し、この設定された要因データの最大値と
最小値との間で目標値に設定された特性データを作り出
す要因データの最適値を求める。なお、上記初期値及び
目標値は、同図の上,下の矢印で示したスピンボタンに
より、上記設定された最大値と最小値との間の範囲内で
増減することができる。
The optimization according to the present invention will be described below. First, click the factor optimization column g6, and
The factor optimization screen G6 as shown in (1) is displayed, and the optimization 1 button g61 or the optimization 2 button g62 of this factor optimization screen G6 is selected. As will be described later, “optimization 2” is applied to optimization in the case where there are a plurality of stable points with respect to changes in factors and it is easy to converge to a position other than the optimum value. Optimization is performed in "Optimization 1". When performing optimization, the initial value, the maximum value (MAX), and the minimum value (MI) of factor data are stored in the respective columns of the optimization factor column g63.
N) is set, the target value of the characteristic data is set in the characteristic column g64, and the optimum factor data for generating the characteristic data set to the target value between the maximum value and the minimum value of the set factor data is set. Find the value. The initial value and the target value can be increased / decreased within the range between the set maximum value and minimum value by using the spin buttons indicated by the upper and lower arrows in FIG.

【0026】本例では、推定値ボタンB61をクリック
することで、現在設定されている要因値を用いて、ニュ
ーラルネットワークで特性値を推定計算して、推定値欄
g65に表示することができるようにしている。また、
最適値ボタンB62をクリックすることで、現在設定さ
れている特性値を用いて、ニューラルネットワークで要
因値を推定計算して、最適値欄g66に表示することが
できる。更に、本例では、推定値コピーボタンB63を
クリックして、上記求められた推定値を特性欄g64の
目標値にコピーして、これを新たな目標値に設定した
り、最適値コピーボタンB64をクリックして、上記求
められた最適値を最適化要因欄g63の初期値にコピー
して、新たな初期値に設定したりすることも可能であ
る。また、上記の推定で求めた推定値と特性値との差異
量を算出して、誤差量欄g67に表示したり、上記の推
定で求めた最適値と要因値との差異量を算出して、誤差
量欄g68に表示することもできる。したがって、上記
誤差量欄g67,g68に表示された差異量を参照しな
がら、上記特性欄g64の目標値にコピーされた値を新
たな目標値に設定し、上記最適化要因欄g63の初期値
にコピーされた最適値を新たな初期値として設定して、
再度最適化計算を行うことにより、所望の特性を作り出
すための最適な要因条件を効率よく求めることができ
る。なお、最適化の終了後には、ファイル欄g7を選択
して、図12に示すようなファイル操作画面G7を呼び
出し、ニューラルネットワークに使用した学習データ表
と、上記結果とをExcelブックに保存する。
In this example, by clicking the estimated value button B61, the characteristic value is estimated and calculated by the neural network using the factor value that is currently set, and the characteristic value can be displayed in the estimated value column g65. I have to. Also,
By clicking the optimum value button B62, the factor value can be estimated and calculated by the neural network using the currently set characteristic value and displayed in the optimum value column g66. Further, in this example, the estimated value copy button B63 is clicked to copy the obtained estimated value to the target value in the characteristic column g64 to set it as a new target value, or to copy the optimum value button B64. It is also possible to click and copy the obtained optimum value to the initial value of the optimization factor column g63 to set a new initial value. Further, the difference amount between the estimated value and the characteristic value obtained by the above estimation is calculated and displayed in the error amount column g67, or the difference amount between the optimum value and the factor value obtained by the above estimation is calculated. , Can be displayed in the error amount column g68. Therefore, the value copied to the target value in the characteristic column g64 is set as a new target value while referring to the difference amount displayed in the error amount columns g67 and g68, and the initial value in the optimization factor column g63 is set. Set the optimum value copied to as a new initial value,
By performing the optimization calculation again, the optimum factor condition for producing the desired characteristic can be efficiently obtained. After the optimization, the file column g7 is selected to call the file operation screen G7 as shown in FIG. 12, and the learning data table used for the neural network and the above result are saved in the Excel book.

【0027】次に、「最適化2」による最適化方法につ
いて説明する。最適化2ボタンg62を選択すると、図
13に示すような分割最適化画面G8が表示される。上
記分割最適化画面G8は、特定の特性データに対して、
それを作り出す要因データの最適値をより厳密に求める
もので、最適化を実施する領域の分割数を指定する分割
数指定欄g81を有するとともに、特性欄g82、推定
値欄g83及び誤差量欄g84には、1つの特性項目が
選択的に高い優先度に設定された場合には、指定された
1つの特性の目標値、推定値、誤差量が表示される。最
適化2では、分割数を指定すると、分割の各領域ごとに
ニューラルネットワークで特性値を推定計算して、領域
ごとの推定値欄g83に表示する。具体的には、図14
に示すように、分割した各領域での特性値の誤差量の安
定点における特性値を推定値とし、これを推定値表示欄
g85に表示し、当該領域で安定点がない場合には、
「Not Found」と表示する。これにより、要因の変化に
対して収束し易い安定点が複数個ある場合でも、真の収
束点を見出すことができるので、目標特性に対する要因
データの最適値を確実に求めることができる。
Next, an optimization method by "optimization 2" will be described. When the optimization 2 button g62 is selected, a division optimization screen G8 as shown in FIG. 13 is displayed. The division optimization screen G8 is
The optimum value of the factor data that creates it is determined more strictly, and it has a division number designation column g81 for designating the number of divisions of the region to be optimized, and also has a characteristic column g82, an estimated value column g83, and an error amount column g84. In, the target value, the estimated value, and the error amount of one specified characteristic are displayed when one characteristic item is selectively set to a high priority. In optimization 2, when the number of divisions is designated, the characteristic value is estimated and calculated by the neural network for each area of division and displayed in the estimated value column g83 for each area. Specifically, FIG.
As shown in, the characteristic value at the stable point of the error amount of the characteristic value in each divided area is set as an estimated value, which is displayed in the estimated value display field g85, and when there is no stable point in the area,
"Not Found" is displayed. This makes it possible to find the true convergence point even when there are a plurality of stable points that easily converge with respect to the change in the factor, and thus it is possible to reliably obtain the optimum value of the factor data for the target characteristic.

【0028】本発明では、更に、任意の特性データに対
してそれを作り出す最適な要因データを更に効率よく求
めるために、以下の機能を付加している。 (1)特性群のそれぞれに重軽度(優先度)付けを行う機
能 具体的には、n個の特性群について優先度を数字で設定
する。例えば、最優先を1とし、優先度を10までとす
る。なお、後述する変動許容量が0(変動を許容しな
い)の特性群を、優先度0の特性群とする。 (2)特性群のそれぞれに変動許容量を付加する機能 n個の特性群について許容変動量をグラフで与える。具
体的には、ID番号を指定すると、その特性群の最大値
と最小値を縦軸に、発生乱数を横軸としたグラフを指定
することができる。例えば、0〜1の範囲で乱数をほぼ
均一な確率で発生させる場合、図15(a)に示すよう
な許容変動グラフを与えると、乱数値がpのときに対応
する特性値の値はPとなり、図15(b)の対応表に示
すように、上記(1)によって、この特性項目の優先度
が高く設定することは発生する乱数値pの幅がピーク値
となる確率が高くなることと対応する。なお、優先度0
は、乱数値がp=0.5、すなわち特性値がピーク値に
固定されることを意味する。 (3)最適度を定量化する機能 ニュートン法等の繰り返し計算を行うリラクゼーション
手法で最適解を求める際の収束判定条件数値で表わす。
具体的には、収束条件を最も厳しくしたときを最適度数
100%とし、収束条件を緩くするに応じて、最適度数
を小さく対応づける。 (4)要因特性群のそれぞれに重軽度(優先度)付けを行
う機能 具体的には、m個の要因群について優先度を数字で設定
する。例えば、最優先を1とし、優先度を10までとす
る。優先度の高い要因群から優先的に変化させて最適解
を求める。また、優先度10の要因については固定値と
考えて最適化は行わない。
In the present invention, the following functions are further added in order to more efficiently find the optimum factor data for producing arbitrary characteristic data. (1) Function of assigning a seriousness (priority) to each of the characteristic groups Specifically, the priority is set by numbers for the n characteristic groups. For example, the highest priority is 1, and the priority is 10. A characteristic group having a fluctuation allowable amount of 0 (which does not allow fluctuation), which will be described later, is a characteristic group having a priority of 0. (2) Function of adding allowable fluctuation amount to each of the characteristic groups The allowable fluctuation amount is given in a graph for the n characteristic groups. Specifically, when an ID number is specified, a graph can be specified with the maximum value and the minimum value of the characteristic group on the vertical axis and the generated random number on the horizontal axis. For example, in the case of generating random numbers in the range of 0 to 1 with a substantially uniform probability, if an allowable fluctuation graph as shown in FIG. 15A is given, the value of the characteristic value corresponding to the random value p is P. Therefore, as shown in the correspondence table of FIG. 15B, by setting the priority of this characteristic item to be high according to the above (1), the probability that the width of the generated random value p becomes the peak value becomes high. Corresponds to. Priority 0
Means that the random number value is p = 0.5, that is, the characteristic value is fixed to the peak value. (3) Function to quantify the optimality It is expressed by numerical values for the conditions for convergence determination when obtaining the optimal solution by the relaxation method that performs repeated calculation such as Newton's method.
Specifically, the optimum frequency is set to 100% when the convergence condition is the strictest, and the optimum frequency is associated with a smaller value as the convergence condition is loosened. (4) Function of assigning severity (priority) to each of the factor characteristic groups Specifically, the priority is set by a numeral for m factor groups. For example, the highest priority is 1, and the priority is 10. The optimum solution is obtained by changing the factors having a high priority preferentially. The factor of priority 10 is considered to be a fixed value and is not optimized.

【0029】以上の機能を用いて最適な要因データを求
める方法について説明する。まず、上述した学習によっ
て、以下の式(5)に示すような、複数の入力要因群X
のパターンを複数の出力要因群Yのパターンに写像する
関数関係を得る。 Y=fij(X) ‥‥(5) 但し、i=1〜m、j=1〜n この関数関係は、明示的に与えることも可能であるが、
本発明のように、ニューラルネットワークを適応するこ
とで、式の形が分からない場合にも以下の手法が適応で
きる。次に、特性群の重軽度付けにより指定された優先
度に従ってYを選択し、上記図15(a)の優先度と
許容変動量の関係を示すグラフ直線で指定した所定の変
動量を与える。このとき、優先度0と指定された特性項
目については与えられた値に固定して、変動を許容しな
いこととする。特性群については、優先度が高いほど発
生する乱数幅がピーク値付近に限定されるので、優先度
が高いデータほどピーク値となる確率が高くなる。そし
て、例えば、多変数ニュートン法を適用した繰り返し計
算により、上記式(5)を満足するXを求める。この
とき、ニュートン法の解の収束限界を極めて厳しい値に
設定した場合には得られた解の最適度は100%に近く
なり、収束限界を緩くするに連れて解の最適度を小さく
して行く。なお、これにより、必要な精度に応じた最適
化の程度を設定できるので、効率的に最適化を行うこと
ができる。このように、ニュートン法において、変数の
修正量を計算する際に、重軽度付けに応じて変数の係数
を変えることで、優先度の高い変数を優先的に最適解に
近づけることが可能となるので、効率的に最適化を行う
ことができるとともに、最適化における収束性を向上さ
せることができる。
A method of obtaining optimum factor data using the above functions will be described. First, through the learning described above, a plurality of input factor groups X as shown in the following equation (5) are obtained.
The functional relationship that maps the pattern of P to the pattern of the plurality of output factor groups Y is obtained. Y j = f ij (X j ) ... (5) where i = 1 to m, j = 1 to n This functional relationship can be explicitly given,
By applying a neural network as in the present invention, the following method can be applied even when the form of the equation is unknown. Next, Y i is selected according to the priority designated by the degree of lightness of the characteristic group, and a predetermined variation amount designated by the straight line of the graph showing the relationship between the priority and the allowable variation amount in FIG. 15A is given. . At this time, the characteristic item designated as the priority 0 is fixed to the given value and the fluctuation is not allowed. With respect to the characteristic group, the higher the priority is, the more the generated random number range is limited to the vicinity of the peak value. Therefore, the higher the priority of the data, the higher the probability of the peak value. Then, for example, iterative calculation applying the multivariable Newton's method determines X j that satisfies the above equation (5). At this time, when the convergence limit of the solution of the Newton method is set to an extremely strict value, the optimum degree of the obtained solution is close to 100%, and the optimum degree of the solution is reduced as the convergence limit is loosened. go. In this way, the degree of optimization can be set according to the required accuracy, so that the optimization can be performed efficiently. In this way, in the Newton method, when calculating the modification amount of a variable, by changing the coefficient of the variable according to the degree of lightness and weight, it becomes possible to preferentially bring the variable with high priority closer to the optimal solution. Therefore, the optimization can be efficiently performed, and the convergence of the optimization can be improved.

【0030】[0030]

【発明の効果】以上説明したように、本発明によれば、
配合・設計における各実験データを要因と特性に属性分
けした表形式にまとめた学習データ表を作成し、上記学
習データ表の各列を選択して、入力層あるいは出力層に
割付けて、上記実験データの要因群と特性群との写像関
係を学習し、上記学習結果を用いて、任意の特性データ
に対して、それを作り出す要因データの最適値を求める
ようにしたので、達成したい特性値を得るための好適な
要因条件を容易に求めることができ、各種設計業務にお
いて、最適化処理を効率的に行うことができる。更に、
上記設計・配合の最適化を、GUI環境で実現するよう
にしたので、コンピュータ画面上で機能タブを選択する
ことにより、上記ニューラルネットワークの学習と設計
配合の最適化とを容易に、かつ、効率的に行うことがで
きる。
As described above, according to the present invention,
Create a learning data table that summarizes each experimental data in formulation and design in a table format that attribute is classified into factors and characteristics, select each column of the above learning data table, assign it to the input layer or output layer, and perform the above experiment By learning the mapping relationship between the factor group and the characteristic group of the data and using the above learning results, the optimum value of the factor data that produces it is obtained for any characteristic data. A suitable factor condition for obtaining can be easily obtained, and the optimization process can be efficiently performed in various design works. Furthermore,
Since the optimization of the above design and formulation is realized in the GUI environment, by selecting the function tab on the computer screen, the learning of the neural network and the optimization of the design formulation can be performed easily and efficiently. Can be done on a regular basis.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の設計・配合の最適化を実施するため
のパーソナルコンピュータの概略を示す図である。
FIG. 1 is a diagram showing an outline of a personal computer for carrying out the optimization of design and formulation of the present invention.

【図2】 コンピュータ本体の構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a configuration of a computer main body.

【図3】 本実施の形態に係わる設計・配合の最適化方
法を示すフローチャートである。
FIG. 3 is a flowchart showing an optimization method of design / blending according to the present embodiment.

【図4】 本実施の形態に係わる設計・配合の最適化を
実施するための初期画面を示す図である。
FIG. 4 is a diagram showing an initial screen for implementing design / compound optimization according to the present embodiment.

【図5】 本実施の形態に係わる学習データ表作成画面
を示す図である。
FIG. 5 is a diagram showing a learning data table creation screen according to the present embodiment.

【図6】 本実施の形態に係わる学習データ表の一例を
示す図である。
FIG. 6 is a diagram showing an example of a learning data table according to the present embodiment.

【図7】 本実施の形態に係わる入出力設定画面を示す
図である。
FIG. 7 is a diagram showing an input / output setting screen according to the present embodiment.

【図8】 本実施の形態に係わる学習画面を示す図であ
る。
FIG. 8 is a diagram showing a learning screen according to the present embodiment.

【図9】 本実施の形態に係わる学習度検証画面を示す
図である。
FIG. 9 is a diagram showing a learning degree verification screen according to the present embodiment.

【図10】 本実施の形態に係わる特性推定画面を示す
図である。
FIG. 10 is a diagram showing a characteristic estimation screen according to the present embodiment.

【図11】 本実施の形態に係わる要因最適化画面を示
す図である。
FIG. 11 is a diagram showing a factor optimization screen according to the present embodiment.

【図12】 本実施の形態に係わるファイル操作画面を
示す図である。
FIG. 12 is a diagram showing a file operation screen according to the present embodiment.

【図13】 本実施の形態に係わる分割最適化画面を示
す図である。
FIG. 13 is a diagram showing a division optimization screen according to the present embodiment.

【図14】 要因データと特性値の誤差量の関係を示す
図である。
FIG. 14 is a diagram showing a relationship between factor data and an error amount of a characteristic value.

【図15】 本実施の形態に係わる許容変動グラフを示
す図である。
FIG. 15 is a diagram showing an allowable fluctuation graph according to the present embodiment.

【図16】 ニューラルネットワークの一構成例を示す
図でである。
FIG. 16 is a diagram showing a configuration example of a neural network.

【図17】 ニューラルネットワークの学習方法の概要
を示すフローチャートである。
FIG. 17 is a flowchart showing an outline of a learning method of a neural network.

【符号の説明】[Explanation of symbols]

10 パーソナルコンピュータ、11 ディスプレイ、
12 コンピュータ本体、12F FDU、13a キ
ーボード、13b マウス、14 CPU、15 RO
M、16 RAM、17 メモリー、18 入出力装
置、19 バス。
10 personal computers, 11 displays,
12 computer main body, 12F FDU, 13a keyboard, 13b mouse, 14 CPU, 15 RO
M, 16 RAM, 17 memory, 18 input / output device, 19 bus.

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 ニューラルネットワークの手法を用い
て、製品設計や配合設計等における実験データの要因群
と特性群との写像関係を学習して設計・配合の最適化を
行う際に、上記実験データを要因項目の列と特性項目の
列とに分けた学習データ表を作成し、この学習データ表
の各列を選択して、入力層あるいは出力層に割付けて上
記写像関係を学習した後、最適化手法を用いて、任意の
特性データに対して、それを作り出す要因データの最適
値を求めるようにしたことを特徴とする設計・配合の最
適化方法。
1. The above experimental data is used when a mapping relationship between a factor group and a characteristic group of experimental data in product design, mixture design, etc. is learned by using a neural network method to optimize the design / mixture. Create a learning data table in which is divided into a column of factor items and a column of characteristic items, select each column of this learning data table, assign it to the input layer or output layer, and learn the above mapping relationship, then A method for optimizing design and composition, characterized in that the optimum value of factor data for creating arbitrary characteristic data is obtained by using the optimization method.
【請求項2】 上記写像関係を学習する際に、上記学習
データ表の要因項目の列、及び特性項目の列を、入力層
の項目、出力層の項目、あるいは無視する項目のいずれ
かに設定する手段を設けたことを特徴とする請求項1に
記載の設計・配合の最適化方法。
2. When learning the mapping relationship, the row of factor items and the row of characteristic items of the learning data table are set to either input layer items, output layer items, or items to be ignored. The method for optimizing the design / compounding according to claim 1, further comprising:
【請求項3】 上記最適化手法として、ニュートン法あ
るいは組み合わせ法を用いたことを特徴とする請求項1
または請求項2に記載の設計・配合の最適化方法。
3. A Newton method or a combination method is used as the optimization method.
Alternatively, the method of optimizing the design and composition according to claim 2.
【請求項4】 最適な要因デ−タを求める際に、要因値
に、初期値、最大値、最小値を設定し、要因値を上記初
期値から上記最大値と最小値との間で増減させるように
したことを特徴とする請求項1〜請求項3のいずれかに
記載の設計・配合の最適化方法。
4. When obtaining the optimum factor data, an initial value, a maximum value, and a minimum value are set for the factor value, and the factor value is increased / decreased from the initial value to the maximum value and the minimum value. The method for optimizing the design / compounding according to any one of claims 1 to 3, wherein
【請求項5】 前回求められた推定値を特性の新たな目
標値に設定して、再度最適化処理を行い、所望の特性を
得るための最適な要因デ−タを求めるようにしたことを
特徴とする請求項1〜請求項4のいずれかに記載の設計
・配合の最適化方法。
5. The previously obtained estimated value is set as a new target value of the characteristic, the optimization process is performed again, and the optimum factor data for obtaining the desired characteristic is obtained. The method of optimizing the design / compounding according to any one of claims 1 to 4.
【請求項6】 前回求められた推定値を作り出した要因
値を新たな要因値の初期値に設定して再度最適化処理を
行い、最適な要因デ−タを求めるようにしたことを特徴
とする請求項1〜請求項5のいずれかに記載の設計・配
合の最適化方法。
6. The optimum factor data is obtained by setting the factor value that produced the previously obtained estimated value as an initial value of a new factor value and performing optimization processing again. The method for optimizing the design / compounding according to any one of claims 1 to 5.
【請求項7】 最適な要因デ−タを求める際に、特性群
のそれぞれに軽重度付けをしたことを特徴とする請求項
1〜請求項6のいずれかに記載の設計・配合の最適化方
法。
7. The optimization of the design / compounding according to any one of claims 1 to 6, wherein each of the characteristic groups is given a degree of lightness when obtaining the optimum factor data. Method.
【請求項8】 最適な要因デ−タを求める際に、特性群
のそれぞれに許容変動量を付加したことを特徴とする請
求項1〜請求項7のいずれかに記載の設計・配合の最適
化方法。
8. The optimum design / compounding method according to claim 1, wherein an allowable variation amount is added to each of the characteristic groups when the optimum factor data is obtained. Method.
【請求項9】 収束判定条件によって規定される複数の
最適度数を設定し、最適な要因デ−タを求める際には、
上記最適度数のいずれかを選択して最適化するようにし
たことを特徴とする請求項1〜請求項8のいずれかに記
載の設計・配合の最適化方法。
9. When setting a plurality of optimum frequencies defined by a convergence judgment condition and obtaining optimum factor data,
9. The method for optimizing a design / compounding according to claim 1, wherein any one of the optimum frequencies is selected for optimization.
【請求項10】 最適な要因デ−タを求める際に、要因
群のそれぞれに軽重度付けをしたことを特徴とする請求
項1〜請求項9のいずれかに記載の設計・配合の最適化
方法。
10. The optimization of the design / compounding according to any one of claims 1 to 9, characterized in that each of the factor groups is assigned a degree of lightness when obtaining the optimum factor data. Method.
【請求項11】 コンピュータ画面上で機能タブを選択
して、上記ニューラルネットワークの学習と最適化とを
行うようにしたことを特徴とする請求項1〜請求項10
のいずれかに記載の設計・配合の最適化方法。
11. The method according to claim 1, wherein a function tab is selected on a computer screen to perform learning and optimization of the neural network.
The method for optimizing the design and composition according to any one of 1.
JP2001249805A 2001-08-21 2001-08-21 Method for optimizing design/blending Pending JP2003058579A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001249805A JP2003058579A (en) 2001-08-21 2001-08-21 Method for optimizing design/blending

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001249805A JP2003058579A (en) 2001-08-21 2001-08-21 Method for optimizing design/blending

Publications (1)

Publication Number Publication Date
JP2003058579A true JP2003058579A (en) 2003-02-28

Family

ID=19078747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001249805A Pending JP2003058579A (en) 2001-08-21 2001-08-21 Method for optimizing design/blending

Country Status (1)

Country Link
JP (1) JP2003058579A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289859B2 (en) * 2005-09-30 2007-10-30 Hitachi, Ltd. Method for determining parameter of product design and its supporting system
WO2019198408A1 (en) * 2018-04-11 2019-10-17 富士フイルム株式会社 Learning device, learning method, and learning program
JP2020030683A (en) * 2018-08-23 2020-02-27 横浜ゴム株式会社 Rubber material design method, rubber material design device, and program
WO2021044913A1 (en) * 2019-09-05 2021-03-11 国立大学法人東京工業大学 Preparation and evaluation system, preparation and evaluation method, and program
JP2021043959A (en) * 2019-09-05 2021-03-18 国立大学法人東京工業大学 Creation evaluation system, creation evaluation method and program
US10957419B2 (en) 2016-08-01 2021-03-23 Samsung Electronics Co., Ltd. Method and apparatus for new material discovery using machine learning on targeted physical property
US11017314B2 (en) 2015-11-04 2021-05-25 Samsung Electronics Co., Ltd. Method and device for searching new material
JP6984780B1 (en) * 2021-06-30 2021-12-22 富士電機株式会社 Information processing equipment, information processing system and information processing method
US11581067B2 (en) 2018-01-17 2023-02-14 Samsung Electronics Co., Ltd. Method and apparatus for generating a chemical structure using a neural network

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289859B2 (en) * 2005-09-30 2007-10-30 Hitachi, Ltd. Method for determining parameter of product design and its supporting system
US11017314B2 (en) 2015-11-04 2021-05-25 Samsung Electronics Co., Ltd. Method and device for searching new material
US10957419B2 (en) 2016-08-01 2021-03-23 Samsung Electronics Co., Ltd. Method and apparatus for new material discovery using machine learning on targeted physical property
US11581067B2 (en) 2018-01-17 2023-02-14 Samsung Electronics Co., Ltd. Method and apparatus for generating a chemical structure using a neural network
WO2019198408A1 (en) * 2018-04-11 2019-10-17 富士フイルム株式会社 Learning device, learning method, and learning program
JPWO2019198408A1 (en) * 2018-04-11 2021-02-12 富士フイルム株式会社 Learning devices, learning methods, and learning programs
JP2020030683A (en) * 2018-08-23 2020-02-27 横浜ゴム株式会社 Rubber material design method, rubber material design device, and program
JP7139782B2 (en) 2018-08-23 2022-09-21 横浜ゴム株式会社 RUBBER MATERIAL DESIGN METHOD, RUBBER MATERIAL DESIGN DEVICE, AND PROGRAM
WO2021044913A1 (en) * 2019-09-05 2021-03-11 国立大学法人東京工業大学 Preparation and evaluation system, preparation and evaluation method, and program
JP2021043959A (en) * 2019-09-05 2021-03-18 国立大学法人東京工業大学 Creation evaluation system, creation evaluation method and program
JP6984780B1 (en) * 2021-06-30 2021-12-22 富士電機株式会社 Information processing equipment, information processing system and information processing method
JP2023006548A (en) * 2021-06-30 2023-01-18 富士電機株式会社 Information processing apparatus, information processing system, and information processing method

Similar Documents

Publication Publication Date Title
CN108304679A (en) A kind of adaptive reliability analysis method
JP3743247B2 (en) Prediction device using neural network
JP2003058582A (en) Simulation system of design/combination
CN106650920A (en) Prediction model based on optimized extreme learning machine (ELM)
CN111950180B (en) Reliability analysis method and system for cable bearing bridge structure system
CN111291513B (en) BP neural network-based prediction method for rolling force of differential thick plate
CN106469340A (en) A kind of compound Project Risk Assessment model based on neutral net
JP2003058579A (en) Method for optimizing design/blending
CN111416797A (en) Intrusion detection method for optimizing regularization extreme learning machine by improving longicorn herd algorithm
JP2020060827A (en) Control device and control method
CN114004008B (en) Airplane assembly line resource configuration optimization method based on neural network and genetic algorithm
CN104537224B (en) Multi-state System Reliability analysis method and system based on adaptive learning algorithm
CN110956261A (en) Method and system for determining evaluation index
JP2010152767A (en) Prediction control method and prediction control system
JPWO2020161935A1 (en) Learning equipment, learning methods, and programs
WO2023175921A1 (en) Model analysis device, model analysis method, and recording medium
JP2003058863A (en) Learning method for neural network
JP2003058859A (en) Optimizing method for neural network
CN114819151A (en) Biochemical path planning method based on improved agent-assisted shuffled frog leaping algorithm
CN114202063A (en) Fuzzy neural network greenhouse temperature prediction method based on genetic algorithm optimization
JPH0561848A (en) Device and method for selecting and executing optimum algorithm
CN112036662A (en) Method for establishing regional flow prediction model and regional flow prediction method
CN111563767A (en) Stock price prediction method and device
JP2003044827A (en) Method for estimating characteristic
JP2021012600A (en) Method for diagnosis, method for learning, learning device, and program