JP7346885B2 - Shape generation device and shape generation method - Google Patents

Shape generation device and shape generation method Download PDF

Info

Publication number
JP7346885B2
JP7346885B2 JP2019076236A JP2019076236A JP7346885B2 JP 7346885 B2 JP7346885 B2 JP 7346885B2 JP 2019076236 A JP2019076236 A JP 2019076236A JP 2019076236 A JP2019076236 A JP 2019076236A JP 7346885 B2 JP7346885 B2 JP 7346885B2
Authority
JP
Japan
Prior art keywords
learning
shape
shape data
target
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019076236A
Other languages
Japanese (ja)
Other versions
JP2020173701A (en
Inventor
一男 米倉
均 服部
卓史 西津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2019076236A priority Critical patent/JP7346885B2/en
Publication of JP2020173701A publication Critical patent/JP2020173701A/en
Application granted granted Critical
Publication of JP7346885B2 publication Critical patent/JP7346885B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、形状生成装置および形状生成方法に関する。 The present disclosure relates to a shape generation device and a shape generation method.

航空機の翼やタービンブレードといった対象物の機械設計では、対象物に対する要求仕様を満たした上で、性能が高い形状を追求する必要がある。例えば、先行文献1では、対象物の形状のうち、予め設定された目標性能値以上の性能を有する形状を含む複数の形状を主成分分析することによって主成分を抽出し、主成分に基づいて対象物の新規の形状を生成して、その性能を評価することが記載されている。 In the mechanical design of objects such as aircraft wings and turbine blades, it is necessary to pursue a shape with high performance while satisfying the required specifications for the object. For example, in prior document 1, principal components are extracted by principal component analysis of a plurality of shapes of the object, including shapes that have performance equal to or higher than a preset target performance value, and based on the principal components, It is described that a new shape of an object is generated and its performance is evaluated.

特開2013-003971号公報Japanese Patent Application Publication No. 2013-003971

しかし、特許文献1の技術では、新規の形状に性能値が対応付けられていない。このような新規形状の性能値を把握するには、新規形状からCFD(Computational Fluid Dynamics)計算等により、改めて性能値を導出する必要があった。そうすると、性能値を満たすことを目標としたとしても、新規形状を生成した結果からしか性能値を把握できないため、複数の形状を手探りで生成し、その都度、性能値を確認して目標に近づける必要があった。したがって、特許文献1の技術を適用したとしても、適用しない場合に比べ、計算回数は削減されるものの、設計時間の短縮化としては十分ではなかった。 However, in the technique of Patent Document 1, a new shape is not associated with a performance value. In order to understand the performance value of such a new shape, it was necessary to derive the performance value anew from the new shape by CFD (Computational Fluid Dynamics) calculation or the like. In this case, even if the goal is to meet the performance value, the performance value can only be determined from the result of generating a new shape, so it is necessary to generate multiple shapes by hand and check the performance value each time to get closer to the goal. There was a need. Therefore, even if the technique of Patent Document 1 is applied, although the number of calculations is reduced compared to the case where it is not applied, it is not sufficient to shorten the design time.

そこで本開示は、設計時間を短縮することが可能な形状生成装置および形状生成方法を提供することを目的としている。 Therefore, an object of the present disclosure is to provide a shape generation device and a shape generation method that can shorten design time.

上記課題を解決するために、本開示の一態様に係る形状生成装置は、学習用形状データと、学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、特徴量と学習用性能値とを復号して学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する形状生成部を備え、学習用形状データは、学習用形状データに基づく学習用形状の外形に対応する点列データを含み、点列データは、学習用形状の曲率が高い領域で比較的密度が高く、学習用形状の曲率が低い領域で比較的密度が低いIn order to solve the above problems, a shape generation device according to an aspect of the present disclosure includes an encoding module that generates feature amounts by encoding learning shape data and learning performance values corresponding to the learning shape data. , and a decoding module that decodes feature quantities and learning performance values to generate shape data corresponding to the learning shape data, and includes a target performance value and a decoding module for a generative model that has been subjected to machine learning multiple times . The learning shape data includes point sequence data corresponding to the outer shape of the learning shape based on the learning shape data, and the learning shape data includes point sequence data corresponding to the outer shape of the learning shape based on the learning shape data. has a relatively high density in areas where the learning shape has a high curvature, and has a relatively low density in areas where the learning shape has a low curvature.

上記課題を解決するために、本開示の一態様に係る形状生成装置は、学習用形状データと、学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、特徴量と学習用性能値とを復号して学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する復号モジュール処理部と、生成された目標形状データに基づく目標形状を平滑化する平滑化処理部と、を備え、平滑化された目標形状データは、目標形状の外形に対応する点列データを含み、点列データは、目標形状の曲率が高い領域で比較的密度が高く、目標形状の曲率が低い領域で比較的密度が低い In order to solve the above problems, a shape generation device according to an aspect of the present disclosure includes an encoding module that generates feature amounts by encoding learning shape data and learning performance values corresponding to the learning shape data. , and a decoding module that decodes feature quantities and learning performance values to generate shape data corresponding to the learning shape data, and includes a target performance value and a decoding module for a generative model that has been subjected to machine learning multiple times. A decoding module processing section that generates target shape data by inputting arbitrary feature quantities, and a smoothing processing section that smoothes the target shape based on the generated target shape data, and generates a smoothed target shape. The data includes point sequence data corresponding to the outer shape of the target shape, and the point sequence data has a relatively high density in areas where the curvature of the target shape is high, and a relatively low density in areas where the curvature of the target shape is low.

上記課題を解決するために、本開示の一態様に係る形状生成方法は、コンピュータが、学習用形状データと、学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、特徴量と学習用性能値とを復号して学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する形状生成方法であって、学習用形状データは、学習用形状データに基づく学習用形状の外形に対応する点列データを含み、点列データは、学習用形状の曲率が高い領域で比較的密度が高く、学習用形状の曲率が低い領域で比較的密度が低い。 In order to solve the above problems, in a shape generation method according to one aspect of the present disclosure, a computer generates feature amounts by encoding learning shape data and learning performance values corresponding to the learning shape data. It includes an encoding module and a decoding module that decodes feature values and learning performance values to generate shape data corresponding to the learning shape data, and is targeted at the decoding module in a generative model that has undergone multiple machine learnings. A shape generation method that generates target shape data by inputting performance values and arbitrary feature quantities, the learning shape data including point sequence data corresponding to the outer shape of the learning shape based on the learning shape data. , the point sequence data has a relatively high density in areas where the learning shape has a high curvature, and has a relatively low density in areas where the learning shape has a low curvature .

上記課題を解決するために、本開示の一態様に係る形状生成方法は、コンピュータが、学習用形状データと、学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、特徴量と学習用性能値とを復号して学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成し、生成された目標形状データに基づく目標形状を平滑化する形状生成方法であって、平滑化された目標形状データは、目標形状の外形に対応する点列データを含み、点列データは、目標形状の曲率が高い領域で比較的密度が高く、目標形状の曲率が低い領域で比較的密度が低い In order to solve the above problems, in a shape generation method according to one aspect of the present disclosure, a computer generates feature amounts by encoding learning shape data and learning performance values corresponding to the learning shape data. It includes an encoding module and a decoding module that decodes feature values and learning performance values to generate shape data corresponding to the learning shape data, and is targeted at the decoding module in a generative model that has undergone multiple machine learnings. A shape generation method that generates target shape data by inputting performance values and arbitrary feature quantities, and smoothes the target shape based on the generated target shape data , the smoothed target shape data is The point sequence data includes point sequence data corresponding to the outer shape of the shape, and the point sequence data has a relatively high density in areas where the curvature of the target shape is high, and a relatively low density in areas where the curvature of the target shape is low.

本開示によれば、設計時間を短縮することが可能となる。 According to the present disclosure, it is possible to shorten design time.

図1は、形状生成装置の概略的な構成を示したブロック図である。FIG. 1 is a block diagram showing a schematic configuration of a shape generation device. 図2は、形状生成装置による形状生成方法の概略的な流れを示したフローチャートである。FIG. 2 is a flowchart showing a general flow of the shape generation method by the shape generation device. 図3は、機械学習部の概略的な構成を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining the schematic configuration of the machine learning section. 図4は、形状生成部の概略的な構成を説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the schematic configuration of the shape generation section. 図5は、第1手法を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining the first method. 図6は、第1手法による機械学習を検証したものである。FIG. 6 shows a verification of machine learning using the first method. 図7は、第2手法を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining the second method. 図8は、自己交差を説明するための説明図である。FIG. 8 is an explanatory diagram for explaining self-intersection. 図9は、第2手法による機械学習を検証したものである。FIG. 9 shows a verification of machine learning using the second method. 図10は、第2手法による機械学習を検証したものである。FIG. 10 shows a verification of machine learning using the second method. 図11は、機械学習部の概略的な構成を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining the schematic configuration of the machine learning section. 図12は、形状生成部の概略的な構成を説明するための説明図である。FIG. 12 is an explanatory diagram for explaining the schematic configuration of the shape generation section.

以下に添付図面を参照しながら、本開示の一実施形態について説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、本開示の理解を容易とするための例示にすぎず、特に断る場合を除き、限定されるものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本開示に直接関係のない要素は図示を省略する。 An embodiment of the present disclosure will be described below with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in these embodiments are merely examples for facilitating understanding of the present disclosure, and are not intended to be limiting unless otherwise specified. In this specification and drawings, elements having substantially the same functions and configurations are designated by the same reference numerals to omit redundant explanation, and elements not directly related to the present disclosure are omitted from illustration. do.

本開示では、所定の性能値を満たすことを目標として新規の形状を生成するため、形状を示す形状データ(学習用形状データ)および性能値(学習用性能値)を入力ノードとした機械学習を用いる。機械学習としては、生成モデル(Generative Model)と呼ばれる学習モデルが検討されている。かかる生成モデルは、例えば、複数の画像データからその特徴量を学習し、ラベルと呼ばれる数値を指定することで、現実には存在しない画像を生成する手法である。本開示では、VAE(Variational Auto-Encoder)、CVAE(Conditional Variational Auto-Encoder)、GAN(Generative Adversarial Network)、Conditional GANといった生成モデルのうち、例えば、CVAEを用い、生成モデルの「画像」および「ラベル」の代わりに、「形状」および「性能値」を採用する。 In this disclosure, in order to generate a new shape with the goal of satisfying a predetermined performance value, machine learning is performed using shape data indicating the shape (learning shape data) and performance values (learning performance value) as input nodes. use As for machine learning, a learning model called a generative model is being considered. Such a generative model is a method of generating an image that does not actually exist by, for example, learning feature amounts from a plurality of image data and specifying a numerical value called a label. In the present disclosure, among generative models such as VAE (Variational Auto-Encoder), CVAE (Conditional Variational Auto-Encoder), GAN (Generative Adversarial Network), and Conditional GAN, for example, CVAE is used, and the "image" and " Instead of "label", "shape" and "performance value" will be used.

VAE(Variational Auto-Encoder)は、CVAEの基本構成に相当する。VAEは、既存の技術であり、様々な技術資料を参照できるので、ここでは、その詳細な説明を省略する。単純なVAEでは、ランダムな変数に基づいてデータを生成するが、本開示のCVAEでは、これに性能値(ラベル)を付して、所望の種類のデータを生成する。したがって、CVAEは、単純なVAEに対し、入力ノードと特徴量とのいずれにも、性能値のノードを加えている点が異なる。CVAEでは、後述するように、期待値μに加え、分散σ、スケールファクタεを取り入れることで、多様な形状を再現することができる。 VAE (Variational Auto-Encoder) corresponds to the basic configuration of CVAE. Since VAE is an existing technology and various technical documents can be referred to, a detailed explanation thereof will be omitted here. In simple VAE, data is generated based on random variables, but in CVAE of the present disclosure, a performance value (label) is attached to this data to generate a desired type of data. Therefore, CVAE differs from simple VAE in that performance value nodes are added to both input nodes and feature amounts. In CVAE, as will be described later, various shapes can be reproduced by incorporating a variance σ and a scale factor ε in addition to the expected value μ.

図1は、形状生成装置100の概略的な構成を示したブロック図であり、図2は、形状生成装置100による形状生成方法の概略的な流れを示したフローチャートである。形状生成装置100は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含むコンピュータにより、機械学習部110と、形状生成部120として機能する。図2に示すように、機械学習部110は、学習用の形状である学習用形状を示す学習用形状データと、学習用の性能値である学習用性能値とに基づいて生成モデル(例えば、後述する符号化モジュール、復号モジュール)を機械学習する(機械学習フェーズS1)。形状生成部120は、そのように学習された生成モデルの一部(例えば、復号モジュール)を用い、目標となる性能値である目標性能値に基づいて、目標性能値を満たす新規の形状(目標形状)を示す目標形状データを生成(設計)する(形状生成フェーズS2)。 FIG. 1 is a block diagram showing a schematic configuration of a shape generation device 100, and FIG. 2 is a flowchart showing a schematic flow of a shape generation method by the shape generation device 100. The shape generation device 100 functions as a machine learning section 110 and a shape generation section 120 using a computer including a central processing unit (CPU), a ROM in which programs and the like are stored, and a RAM as a work area. As shown in FIG. 2, the machine learning unit 110 generates a generative model (for example, An encoding module and a decoding module (to be described later) are subjected to machine learning (machine learning phase S1). The shape generation unit 120 uses a part of the generative model learned in this way (for example, a decoding module) to create a new shape (target (shape generation phase S2).

図3は、機械学習部110の概略的な構成を説明するための説明図である。機械学習部110は、性能値導出部112と、符号化モジュール学習部114と、復号モジュール学習部116とを含む。ここで、実線の矢印は数値の流れを示し、破線の矢印は制御の方向を示す。 FIG. 3 is an explanatory diagram for explaining the schematic configuration of the machine learning section 110. Machine learning section 110 includes a performance value deriving section 112, an encoding module learning section 114, and a decoding module learning section 116. Here, solid arrows indicate the flow of numerical values, and dashed arrows indicate the direction of control.

性能値導出部112は、サンプルとして準備された、対象物を表す複数種類の学習用形状10から、繰り返し1の学習用形状データ(学習用形状を特定可能な複数のパラメータ)を抽出し、CFD計算等により、その学習用形状10の性能値(学習用性能値)を導出する。性能値は、1または複数の数値で表され、単位の有無は問わない。なお、ここでは、説明の便宜上、性能値として1の数値を用いる。性能値導出部112は、導出した学習用性能値を学習用形状データに対応付けて保持する。こうして、複数種類ある学習用形状全てに対して学習用性能値が対応付けられる。なお、学習用形状10の性能値が予め把握されている場合、性能値導出部112は、学習用性能値を導出することなく、把握されている性能値を学習用性能値として学習用形状データに対応付けて保持する。 The performance value deriving unit 112 extracts learning shape data (a plurality of parameters that can identify the learning shape) of iteration 1 from the plurality of types of learning shapes 10 representing the target object prepared as samples, and performs CFD. The performance value (learning performance value) of the learning shape 10 is derived by calculation or the like. The performance value is expressed by one or more numerical values, and the presence or absence of units does not matter. Note that here, for convenience of explanation, a numerical value of 1 is used as the performance value. The performance value deriving unit 112 stores the derived performance value for learning in association with the shape data for learning. In this way, learning performance values are associated with all of the plurality of learning shapes. Note that when the performance value of the learning shape 10 is known in advance, the performance value deriving unit 112 uses the known performance value as the learning performance value to generate the learning shape data without deriving the learning performance value. It is stored in association with.

符号化モジュール学習部114は、入力ノードである、学習用形状データ、および、学習用形状データに対応付けられた学習用性能値を符号化して特徴量を生成する符号化モジュール114aを機械学習する。符号化モジュール114aにおいて、特徴量は、期待値μと、分散σ、スケールファクタεの正規分布に従って確率的に求められる変数列である。かかる特徴量の変数は、それぞれ0~1の範囲で示される。ここで、符号化モジュール学習部114は、CVAEに基づき、ニューラルネットワークを用いて、例えば、各入力ノード同士を乗じたり、それに重み係数を乗じて符号化モジュール114aを生成しているため、符号化モジュール114aを、複雑な非線形関数で表すことができる。 The encoding module learning unit 114 performs machine learning on the encoding module 114a that generates feature quantities by encoding learning shape data and learning performance values associated with the learning shape data, which are input nodes. . In the encoding module 114a, the feature quantity is a variable sequence probabilistically determined according to a normal distribution with an expected value μ, a variance σ, and a scale factor ε. The variables of such feature quantities are each shown in a range of 0 to 1. Here, the encoding module learning unit 114 uses a neural network based on CVAE to generate the encoding module 114a, for example, by multiplying each input node or by a weighting coefficient. Module 114a can be represented by a complex nonlinear function.

復号モジュール学習部116は、符号化モジュール114aにより得られた特徴量と、学習用形状データに対応付けられた学習用性能値とを復号して新規の形状20を示す形状データを生成する復号モジュール116aを機械学習する。ここで、復号モジュール学習部116は、CVAEに基づき、ニューラルネットワークを用いて、例えば、性能値同士、特徴量同士、または、性能値と特徴量とを乗じたり、それに重み係数を乗じて復号モジュール116aを生成しているため、復号モジュール116aを複雑な非線形関数で表すことができる。 The decoding module learning unit 116 is a decoding module that generates shape data indicating a new shape 20 by decoding the feature amount obtained by the encoding module 114a and the learning performance value associated with the learning shape data. Machine learning 116a. Here, the decoding module learning unit 116 uses a neural network based on CVAE to multiply performance values, feature quantities, or performance values and feature quantities, or multiplies them by a weighting coefficient, so that the decoding module 116a, the decoding module 116a can be expressed by a complex nonlinear function.

かかる復号モジュール学習部116による復号は、符号化モジュール学習部114による符号化の逆算に相当する。したがって、符号化モジュール114aおよび復号モジュール116aを正しく推定できた場合、同一の性能値を入力しさえすれば、符号化モジュール114aに入力された学習用形状10を示す学習用形状データが、復号モジュール116aによって復元され、学習用形状データに対応(相似)する形状データが形成されることになる。換言すれば、符号化モジュール学習部114および復号モジュール学習部116は、生成された新規の形状20が、入力された学習用形状10と同一になるように、符号化モジュール114aおよび復号モジュール116aを機械学習する。 The decoding by the decoding module learning section 116 corresponds to the inverse calculation of the encoding by the encoding module learning section 114. Therefore, if the encoding module 114a and the decoding module 116a can be estimated correctly, as long as the same performance value is input, the learning shape data indicating the learning shape 10 input to the encoding module 114a will be transferred to the decoding module. 116a, to form shape data that corresponds to (is similar to) the learning shape data. In other words, the encoding module learning section 114 and the decoding module learning section 116 train the encoding module 114a and the decoding module 116a so that the generated new shape 20 is the same as the input learning shape 10. Machine learning.

図4は、形状生成部120の概略的な構成を説明するための説明図である。形状生成部120は、復号モジュール処理部122と、平滑化処理部124とを含む。なお、平滑化処理部124については後程詳述する。ここで、実線の矢印は数値の流れを示し、破線の矢印は制御の方向を示す。 FIG. 4 is an explanatory diagram for explaining the schematic configuration of the shape generation section 120. The shape generation section 120 includes a decoding module processing section 122 and a smoothing processing section 124. Note that the smoothing processing unit 124 will be described in detail later. Here, solid arrows indicate the flow of numerical values, and dashed arrows indicate the direction of control.

復号モジュール処理部122は、学習された復号モジュール116aを参照し、目標性能値と特徴量とから新規の形状20を示す目標形状データを復号する。平滑化処理部124は、生成された形状データに基づく目標形状を平滑化する。かかる平滑化処理部124は後程詳述する。ここで、性能値は、設計の目標とする(設計で要求される)目標性能値であり、形状データは、目標性能値を満たす新規の形状(目標形状)を示す目標形状データである。 The decoding module processing unit 122 refers to the learned decoding module 116a and decodes target shape data indicating the new shape 20 from the target performance value and the feature amount. The smoothing processing unit 124 smoothes the target shape based on the generated shape data. The smoothing processing section 124 will be described in detail later. Here, the performance value is a target performance value targeted for design (required in design), and the shape data is target shape data indicating a new shape (target shape) that satisfies the target performance value.

また、特徴量は、符号化モジュール114aの結果である特徴量とフォーマットが等しく、設計者に任意に決定された数値列で表される。かかる任意の数値列の各数値は0~1の範囲であれば、どのような数値(ランダムな数値)でもよい。ここでは、特徴量としてどのような数値を入力したとしても、理論的には、目標性能値を満たす目標形状データが導出されるはずである。したがって、設計者は、かかる特徴量を変化させることで、新規の形状20を調整することができる。かかる形状の調整においては、例えば、デザイン性、加工性、制作コスト、重量等が考慮される。 Further, the feature amount has the same format as the feature amount that is the result of the encoding module 114a, and is expressed as a numerical value string arbitrarily determined by the designer. Each numerical value in such arbitrary numerical value string may be any numerical value (random numerical value) as long as it is in the range of 0 to 1. Here, no matter what numerical value is input as the feature quantity, theoretically, target shape data that satisfies the target performance value should be derived. Therefore, the designer can adjust the new shape 20 by changing the feature amount. In adjusting the shape, for example, design, workability, production cost, weight, etc. are taken into consideration.

以下、機械学習部110および形状生成部120の具体的な設計例を説明する。ここでは、設計の対象物である形状として翼の断面形状を挙げる。なお、上述したCVAEでは、入力ノードとしての学習用形状データを様々な形式で表すことが可能である。例えば、翼の断面形状を画像として表すことができる。 A specific design example of the machine learning section 110 and the shape generation section 120 will be described below. Here, the cross-sectional shape of a wing is cited as the shape that is the object of design. Note that in the above-mentioned CVAE, learning shape data as an input node can be expressed in various formats. For example, the cross-sectional shape of a wing can be represented as an image.

しかし、翼の断面形状を画像で表すとなると、入力ノードである学習用形状データは、画像におけるピクセル毎の輝度となり、生成される新規の形状データも輝度で表され、その形状の境界線が曖昧となる。そうすると、機械設計で必要な明瞭な外形線が得られ難い。また、形状の微妙な違いを捉えるためには解像度を高める必要が生じ、入力ノードの次元が徒に高くなるおそれがある。そこで、本開示では、翼の断面形状を外形線で示すこととし、具体的には、外形線を折れ線で近似して点列データ(複数の点が列で表されたもの)で表す。 However, when representing the cross-sectional shape of a wing as an image, the learning shape data that is the input node is the brightness of each pixel in the image, and the new shape data that is generated is also represented by brightness, and the boundary line of the shape is It becomes vague. In this case, it is difficult to obtain a clear outline necessary for mechanical design. Furthermore, in order to capture subtle differences in shape, it becomes necessary to increase the resolution, which may unnecessarily increase the dimensionality of the input node. Therefore, in the present disclosure, the cross-sectional shape of the blade is shown by an outline line, and specifically, the outline line is approximated by a polygonal line and represented by point sequence data (a plurality of points expressed in a row).

このように翼の断面形状の外形を点列データで表す場合に、その点列データの軸の制限に応じて、X軸およびY軸の一方を制限した第1手法と、いずれの軸も制限されない第2手法とを挙げることができる。以下、両手法を検討する。 In this way, when representing the outline of the cross-sectional shape of a wing using point sequence data, there are two methods: the first method in which one of the X and Y axes is restricted, and the other in which both axes are restricted, depending on the axis restriction of the point sequence data. For example, a second method in which the method is not performed. Both methods will be considered below.

図5は、第1手法を説明するための説明図である。第1手法では、点列データのX軸およびY軸の一方(ここではX軸)を制限する。すなわち、第1手法では、図5においてx0、x1、x2、x3、x4、x5、…で示すように、点列データのX軸座標に関しては所定の間隔を開けて固定的に設定し、Y軸座標に関しては自由な変数としている。また、学習用性能値として揚力係数(Lift Coefficient)を挙げる。ここで、揚力係数は、物体が空気中を移動、または、空気の流れの中に置かれた場合における、その物体の形や角度によって生じる揚力の違いを表す無次元の数値である。 FIG. 5 is an explanatory diagram for explaining the first method. In the first method, one of the X-axis and Y-axis (here, the X-axis) of the point sequence data is restricted. That is, in the first method, as shown in FIG. 5 by x0, x1, x2, x3, x4, x5,... The axis coordinates are free variables. In addition, a lift coefficient is cited as a learning performance value. Here, the lift coefficient is a dimensionless numerical value that represents the difference in lift caused by the shape and angle of an object when the object moves in the air or is placed in an air flow.

したがって、符号化モジュール114aの入力ノードのうち、翼の断面形状(形状)に関する入力ノード(学習用形状データ)は、図5のように、(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)、(x5,y5)、(x1,y6)、(x2,y7)、(x3,y8)、(x4,y9)、(x5,y10)、…となる。ここでは、同一のX軸座標について2つのY軸座標が割り当てられる。 Therefore, among the input nodes of the encoding module 114a, the input nodes (learning shape data) regarding the cross-sectional shape (shape) of the wing are (x0, y0), (x1, y1), (x2 , y2), (x3, y3), (x4, y4), (x5, y5), (x1, y6), (x2, y7), (x3, y8), (x4, y9), (x5, y10 ),... Here, two Y-axis coordinates are assigned to the same X-axis coordinate.

また、性能値導出部112は、かかる点列データから揚力係数を導出する。そして、導出された揚力係数も入力ノードに加える。符号化モジュール学習部114は、このような翼の断面形状を示す学習用形状データおよび揚力係数の複数の組合せ(例えば189サンプル)を全て符号化して特徴量を生成する符号化モジュール114aを機械学習する。また、復号モジュール学習部116は、符号化モジュール114aにより得られた特徴量と揚力係数の組合せを全て復号して翼の断面形状を示す形状データを生成する復号モジュール116aを機械学習する。 Furthermore, the performance value deriving unit 112 derives a lift coefficient from the point sequence data. The derived lift coefficient is also added to the input node. The encoding module learning unit 114 performs machine learning on the encoding module 114a that encodes all of the learning shape data indicating the cross-sectional shape of the wing and multiple combinations (for example, 189 samples) of lift coefficients to generate feature quantities. do. Furthermore, the decoding module learning unit 116 performs machine learning on the decoding module 116a, which decodes all combinations of feature values and lift coefficients obtained by the encoding module 114a to generate shape data indicating the cross-sectional shape of the wing.

このとき、符号化モジュール学習部114および復号モジュール学習部116は、生成された新規の翼の断面形状が、入力された学習用の翼の断面形状と同一になるように、符号化モジュール114aおよび復号モジュール116aを機械学習する。 At this time, the encoding module learning unit 114 and the decoding module learning unit 116 operate the encoding module 114a and the decoding module learning unit 116 so that the cross-sectional shape of the generated new wing is the same as the input cross-sectional shape of the learning wing. Machine learning is performed on the decryption module 116a.

このように符号化モジュール114aおよび復号モジュール116aの機械学習が進むと、復号モジュール処理部122は、学習された復号モジュール116aを参照し、目標性能値としての揚力係数と、任意に定めた特徴量とに基づいて新規に翼の断面形状を示す目標形状データを復号する。こうして、要求される揚力係数を満たす新規の翼の断面形状が得られる。 As the machine learning of the encoding module 114a and the decoding module 116a progresses in this way, the decoding module processing unit 122 refers to the learned decoding module 116a and calculates the lift coefficient as the target performance value and the arbitrarily determined feature quantity. Based on this, target shape data that newly indicates the cross-sectional shape of the wing is decoded. In this way, a new wing cross-sectional shape is obtained that satisfies the required lift coefficient.

図6は、第1手法による機械学習を検証したものである。ここでは、目標とする揚力係数として1.0と1.2とを挙げ、設計者が任意に特徴量を調整して、それぞれ1の翼の断面形状を得たとする。例えば、図6における(a)では揚力係数1.0で得た翼の断面形状を示し、図6における(b)では揚力係数1.2で得た翼の断面形状を示す。ここでは、揚力係数に応じて翼の断面形状が変化するのが理解できる。 FIG. 6 shows a verification of machine learning using the first method. Here, it is assumed that the target lift coefficients are 1.0 and 1.2, and the designer arbitrarily adjusts the feature amounts to obtain one wing cross-sectional shape for each. For example, (a) in FIG. 6 shows the cross-sectional shape of a wing obtained with a lift coefficient of 1.0, and (b) in FIG. 6 shows a cross-sectional shape of a wing obtained with a lift coefficient of 1.2. Here, it can be seen that the cross-sectional shape of the wing changes depending on the lift coefficient.

また、ここでは、検証のため、それぞれ新規に得た翼の断面形状を示す目標形状データに対し、さらに、その断面形状の揚力係数を確認的に導出した。なお、ここでは、揚力係数を導出するために、層流翼の計算プログラムであるXfoil(2次元亜音速粘性流コード)を用いている。 In addition, for verification purposes, the lift coefficients of the newly obtained cross-sectional shapes of each wing were further derived for the purpose of confirmatory target shape data. Here, in order to derive the lift coefficient, Xfoil (two-dimensional subsonic viscous flow code), which is a calculation program for laminar airfoils, is used.

検証において、図6における(a)の翼の断面形状では、揚力係数が0.9860となった。したがって、新規の翼の断面形状が、目標として入力した揚力係数1.0を満たすように形成されていることが理解できる。なお、図6における(b)の翼の断面形状では、揚力係数が1.2237となり、新規の翼の断面形状が、目標として入力した揚力係数1.2を満たすように形成されていることが理解できる。 In the verification, the lift coefficient was found to be 0.9860 for the cross-sectional shape of the wing shown in (a) in FIG. Therefore, it can be understood that the cross-sectional shape of the new wing is formed to satisfy the lift coefficient of 1.0, which was input as the target. In addition, in the cross-sectional shape of the wing shown in (b) in FIG. 6, the lift coefficient is 1.2237, and the new wing cross-sectional shape is formed to satisfy the lift coefficient of 1.2 input as the target. It can be understood.

なお、ここでは、図示していないが、目標とする揚力係数を1.0以下の0.8、1.2以上の1.4とした場合も、新規に生成された翼の断面形状の揚力係数が、それぞれ0.7900、1.3929となり、新規の翼の断面形状が、目標として入力した揚力係数0.8、1.4を満たすように形成されていることが理解できる。こうして、設計時間を短縮することが可能となる。 Although not shown here, even when the target lift coefficient is set to 0.8, which is less than 1.0, and 1.4, which is more than 1.2, the lift of the newly generated cross-sectional shape of the wing is The coefficients are 0.7900 and 1.3929, respectively, and it can be seen that the cross-sectional shape of the new wing is formed to satisfy the lift coefficients of 0.8 and 1.4 input as targets. In this way, it becomes possible to shorten the design time.

ただし、X軸およびY軸の一方を制限した第1手法によると、一方の軸の値が固定されるため、翼の断面形状を構成する折れ線の距離が固定的に長くなる。翼の断面形状の外形は直線で近似できる部位もあるが、揚力を得るために、曲率が高い部位もある。このような曲率が高い部位にまで第1手法を用いると、目標とする揚力係数を得ることができなかったり、生成された新規の翼の断面形状が現実的な形状ではない場合が生じ得る。そこで、第2手法を検討する。 However, according to the first method in which one of the X-axis and Y-axis is restricted, the value of one axis is fixed, so the distance between the polygonal lines forming the cross-sectional shape of the wing is fixedly increased. Although there are parts of the cross-sectional shape of the wing that can be approximated by a straight line, there are also parts that have a high degree of curvature in order to obtain lift. If the first method is applied to such a region with high curvature, the target lift coefficient may not be obtained, or the cross-sectional shape of the generated new wing may not be a realistic shape. Therefore, the second method will be considered.

図7は、第2手法を説明するための説明図である。第2手法では、点列データが、X軸およびY軸のいずれの軸も制限されない。すなわち、第2手法では、図7に示すように、所定の学習用形状における曲率が高い領域130において、点列データの密度を比較的高くとり、曲率が低い領域132において点列データの密度を比較的低くとる。 FIG. 7 is an explanatory diagram for explaining the second method. In the second method, the point sequence data is not limited in either the X axis or the Y axis. That is, in the second method, as shown in FIG. 7, the density of point sequence data is set relatively high in a region 130 with high curvature in a predetermined learning shape, and the density of point sequence data is set relatively high in a region 132 with low curvature. Keep it relatively low.

したがって、符号化モジュール114aの入力ノードのうち、翼の断面形状(形状)に関する入力ノード(学習用形状データ)は、図7のように、(x0,y0)、(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)、(x5,y5)、(x6,y6)、(x7,y7)、(x8,y8)、(x9,y9)、(x10,y10)、(x11,y11)、(x12,y12)、(x13,y13)、(x14,y14)、…となる。ここでは、X軸座標およびY軸座標が他と独立して割り当てられる。 Therefore, among the input nodes of the encoding module 114a, the input nodes (learning shape data) regarding the cross-sectional shape (shape) of the wing are (x0, y0), (x1, y1), (x2 , y2), (x3, y3), (x4, y4), (x5, y5), (x6, y6), (x7, y7), (x8, y8), (x9, y9), (x10, y10 ), (x11, y11), (x12, y12), (x13, y13), (x14, y14), and so on. Here, the X-axis and Y-axis coordinates are assigned independently.

また、性能値導出部112は、かかる点列データから揚力係数(性能値)を導出する。そして、導出された揚力係数も入力ノードに加える。符号化モジュール学習部114は、このような翼の断面形状を示す学習形状データおよび揚力係数の複数の組合せ(例えば4560サンプル)を全て符号化して特徴量を生成する符号化モジュール114aを機械学習する。また、復号モジュール学習部116は、符号化モジュール114aにより得られた特徴量と揚力係数の組合せを全て復号して翼の断面形状を示す形状データを生成する復号モジュール116aを機械学習する。 Furthermore, the performance value deriving unit 112 derives a lift coefficient (performance value) from the point sequence data. The derived lift coefficient is also added to the input node. The encoding module learning unit 114 performs machine learning on the encoding module 114a that generates feature quantities by encoding all of the multiple combinations (for example, 4560 samples) of learning shape data indicating the cross-sectional shape of the wing and lift coefficients. . Furthermore, the decoding module learning unit 116 performs machine learning on the decoding module 116a, which decodes all combinations of feature values and lift coefficients obtained by the encoding module 114a to generate shape data indicating the cross-sectional shape of the wing.

このとき、符号化モジュール学習部114および復号モジュール学習部116は、生成された新規の翼の断面形状が、入力された学習用の翼の断面形状と同一になるように、符号化モジュール114aおよび復号モジュール116aを機械学習する。 At this time, the encoding module learning unit 114 and the decoding module learning unit 116 operate the encoding module 114a and the decoding module learning unit 116 so that the cross-sectional shape of the generated new wing is the same as the input cross-sectional shape of the learning wing. Machine learning is performed on the decryption module 116a.

このように符号化モジュール114aおよび復号モジュール116aの機械学習が進むと、復号モジュール処理部122は、学習された復号モジュール116aを参照し、目標性能値としての揚力係数と、任意に定めた特徴量とに基づいて新規に翼の断面形状を示す目標形状データを復号する。こうして、要求される揚力係数を満たす新規の翼の断面形状が得られる。また、第2手法においては、曲率が高い領域を、曲線に近い、高密度の折れ線で表すことができる。 As the machine learning of the encoding module 114a and the decoding module 116a progresses in this way, the decoding module processing unit 122 refers to the learned decoding module 116a and calculates the lift coefficient as the target performance value and the arbitrarily determined feature quantity. Based on this, target shape data that newly indicates the cross-sectional shape of the wing is decoded. In this way, a new wing cross-sectional shape is obtained that satisfies the required lift coefficient. Furthermore, in the second method, a region with high curvature can be represented by a high-density polygonal line that is close to a curve.

しかし、第2手法では、上記のように、翼の断面形状の曲率が高い領域を高精度(高分解能)で得られる反面、点列データが複数の軸に自由に離散化することで自己交差が生じ易くなる。ここで、自己交差とは、折れ線が不規則に形成され、ループ状に交差することである。 However, with the second method, as mentioned above, while it is possible to obtain areas with high curvature in the cross-sectional shape of the wing with high accuracy (high resolution), the point sequence data is freely discretized into multiple axes, so it is possible to obtain self-intersecting becomes more likely to occur. Here, self-intersection means that the polygonal lines are formed irregularly and intersect in a loop.

図8は、自己交差を説明するための説明図である。図8では、第2手法を用いて新規に生成された翼の断面形状の特に後縁部134を拡大して示している。第2手法では、点列データがX軸およびY軸の2軸に関して自由度を有する。したがって、新規に生成される翼の断面形状の点列データも他の点に制限されることなく、自由な位置に出現する。そうすると、直線に近い領域では問題にならないが、図8の後縁部134のように、曲率が高く、点列データの密度が高くなっている部位については、ニューラルネットワーク等の誤差により、滑らかな折れ線になることなく自己交差が生じる。このような自己交差は、それが極めて小さいものであったとしても、CFD計算ができなくなるので、許容できない。 FIG. 8 is an explanatory diagram for explaining self-intersection. FIG. 8 shows an enlarged view of the cross-sectional shape of the wing newly generated using the second method, particularly the trailing edge portion 134. In the second method, the point sequence data has degrees of freedom regarding two axes, the X-axis and the Y-axis. Therefore, the newly generated point sequence data of the cross-sectional shape of the blade is not restricted to other points and appears at any position. In this case, it will not be a problem in areas that are close to straight lines, but in areas with high curvature and high density of point sequence data, such as the trailing edge 134 in FIG. Self-intersection occurs without forming a broken line. Such self-intersections, even if extremely small, are unacceptable because they make CFD calculations impossible.

そこで、このような自己交差が生じる点列データに基づく目標形状を平滑化することを考える。例えば、理想的な曲線上の点にニューラルネットワークの誤差が加わって、図8の後縁部134のような分散した点列データが生成されたと仮定する。平滑化処理部124は、その誤差を排除し、回帰曲線を作成するために、本開示では、例えば、ガウス過程回帰(Gaussian Process)を用いて近似曲線を生成する。 Therefore, consider smoothing the target shape based on point sequence data in which such self-intersection occurs. For example, assume that a neural network error is added to points on an ideal curve to generate dispersed point sequence data such as the trailing edge portion 134 in FIG. 8. In order to eliminate the error and create a regression curve, the smoothing processing unit 124 generates an approximate curve using, for example, Gaussian process regression in the present disclosure.

ガウス過程回帰では、2軸上における曲線が、1の軸の全ての値に対し、他の軸の値が1つに特定されることを前提としている。したがって、無端状に形成される翼の断面形状の外形線では、1の軸の値に対し、他の軸では、少なくとも2つの値が存在することになるので、ガウス過程回帰をそのまま適用することができない。そこで、図8のように、生成された翼の断面形状の点列データのうち、X軸座標が最小となる点xminと、X軸座標が最大となる点xmaxとで翼の断面形状の点列データを上下に二分する。平滑化処理部124は、かかる上半分の点列データと下半分の点列データそれぞれに対し、それぞれ独立して、X軸座標からY軸座標を回帰する翼の断面形状の点列モデルを生成する。 Gaussian process regression is based on the assumption that a curve on two axes has a single value on the other axis for every value on one axis. Therefore, in the outline of the cross-sectional shape of an endless blade, for one axis value, there are at least two values in other axes, so Gaussian process regression can be applied as is. I can't. Therefore, as shown in FIG. 8, among the generated point sequence data of the cross-sectional shape of the blade, the point xmin where the X-axis coordinate is the minimum and the point xmax where the X-axis coordinate is the maximum are the points of the cross-sectional shape of the blade. Divide column data into upper and lower halves. The smoothing processing unit 124 independently generates a point sequence model of the cross-sectional shape of the wing by regressing the Y-axis coordinate from the X-axis coordinate for each of the upper half point sequence data and the lower half point sequence data. do.

こうすることで、曲率が高い領域の点列の自己交差を抑制し、平滑化することが可能となる。例えば、図8における後縁部134の点列データは、ガウス過程回帰により、点列モデル136のようになる。点列モデル136を参照すると、その近似曲線が滑らかになっているのが理解できる。 By doing so, it becomes possible to suppress self-intersection of the point sequence in a region with high curvature and smooth it. For example, the point sequence data of the trailing edge portion 134 in FIG. 8 becomes a point sequence model 136 by Gaussian process regression. Referring to the point sequence model 136, it can be seen that the approximate curve is smooth.

ここでは、翼の断面形状を上半分と下半分とに二分する例を挙げて説明したが、かかる場合に限らず、さらに細分化して、その曲線毎にガウス過程回帰を行ってもよい。この場合、細分化した曲線の接線を1軸と見なすことで、1の軸の全ての値に対し、他の軸の値が1つに特定されるように設定することが可能となる。 Here, an example has been described in which the cross-sectional shape of the blade is divided into an upper half and a lower half. However, the present invention is not limited to this case, and the Gaussian process regression may be performed for each curve by further subdividing the shape. In this case, by regarding the tangents of the subdivided curves as one axis, it is possible to specify one value on the other axes for every value on one axis.

なお、点列データの平滑化が不要な場合、平滑化処理部124は、何ら処理を行わない。したがって、復号モジュール116aによって生成された形状データが最終的な形状データとなる。 Note that if smoothing of the point sequence data is not necessary, the smoothing processing unit 124 does not perform any processing. Therefore, the shape data generated by the decoding module 116a becomes the final shape data.

図9は、第2手法による機械学習を検証したものである。ここでは、図6同様、目標とする揚力係数として1.0と1.2とを挙げ、設計者が任意に特徴量を調整して、それぞれ1の翼の断面形状を得たとする。例えば、図9における(a)では揚力係数1.0で得た翼の断面形状を示し、図9における(b)では揚力係数1.2で得た翼の断面形状を示す。ここでは、揚力係数に応じて翼の断面形状が変化するのが理解できる。 FIG. 9 shows a verification of machine learning using the second method. Here, as in FIG. 6, it is assumed that the target lift coefficients are 1.0 and 1.2, and the designer arbitrarily adjusts the feature amounts to obtain one wing cross-sectional shape for each. For example, (a) in FIG. 9 shows the cross-sectional shape of a wing obtained with a lift coefficient of 1.0, and (b) in FIG. 9 shows a cross-sectional shape of a wing obtained with a lift coefficient of 1.2. Here, it can be seen that the cross-sectional shape of the wing changes depending on the lift coefficient.

また、ここでは、検証のため、それぞれ新規に得た翼の断面形状を示す目標形状データに対し、さらに、その断面形状の揚力係数を確認的に導出した。検証において、図9における(a)の翼の断面形状では、揚力係数が1.0152となった。したがって、新規の翼の断面形状が、目標として入力した揚力係数1.0を満たすように形成されていることが理解できる。なお、図9における(b)の翼の断面形状では、揚力係数が1.2028となり、新規の翼の断面形状が、目標として入力した揚力係数1.2を満たすように形成されていることが理解できる。こうして、設計時間を短縮することが可能となる。 In addition, for verification purposes, the lift coefficients of the newly obtained cross-sectional shapes of each wing were further derived for the purpose of confirmatory target shape data. In the verification, the lift coefficient was found to be 1.0152 for the cross-sectional shape of the wing shown in (a) in FIG. Therefore, it can be understood that the cross-sectional shape of the new wing is formed to satisfy the lift coefficient of 1.0, which was input as the target. In addition, in the cross-sectional shape of the wing in (b) in FIG. 9, the lift coefficient is 1.2028, and it can be seen that the new wing cross-sectional shape is formed to satisfy the lift coefficient of 1.2 that was input as the target. It can be understood. In this way, it becomes possible to shorten the design time.

ここでは、上述した第2手法を、さらにタービンブレードに適用して検証を行った。なお、後述する図10を参照して理解できるように、タービンブレードは目標とする性能値に応じてX軸方向の幅(翼弦長)が異なるため、X軸座標の間隔を適切に決定できず、第1手法を適用し難い。 Here, the second method described above was further applied to a turbine blade for verification. As can be understood with reference to FIG. 10, which will be described later, the width of the turbine blade in the X-axis direction (chord length) differs depending on the target performance value, so the interval between the X-axis coordinates cannot be appropriately determined. First, it is difficult to apply the first method.

図10は、第2手法による機械学習を検証したものである。ここでは、性能値として、流出角度と損失係数との2つのパラメータを挙げている。ここで、流出角度は、タービン出口における流体の流出する角度を示す。損失係数は、流体エネルギーの摩擦損失を無次元の数値で表したものである。 FIG. 10 shows a verification of machine learning using the second method. Here, two parameters, the outflow angle and the loss coefficient, are listed as performance values. Here, the outflow angle indicates the angle at which the fluid flows out at the turbine outlet. The loss coefficient is a dimensionless value expressing the frictional loss of fluid energy.

ここでは、流出角度および損失係数の組合せとして、-67.2度、0.0394の組合せと、-62.3度、0.0394の組合せとを挙げ、設計者が任意に特徴量を調整して、それぞれ1のタービンブレードの断面形状を得たとする。例えば、図10における(a)では流出角度=-67.2度、損失係数=0.0394で得たタービンブレードの断面形状を示し、図10における(b)では流出角度=-62.3度、損失係数=0.0394で得たタービンブレードの断面形状を示す。ここでは、流出角度に応じて翼の後縁部134の角度が変化するのが理解できる。 Here, the combinations of the outflow angle and loss coefficient are -67.2 degrees and 0.0394, and -62.3 degrees and 0.0394, and the designer can arbitrarily adjust the feature values. Assume that the cross-sectional shape of one turbine blade is obtained. For example, (a) in FIG. 10 shows the cross-sectional shape of a turbine blade obtained with an outflow angle of -67.2 degrees and a loss coefficient of 0.0394, and (b) in FIG. 10 shows an outflow angle of -62.3 degrees. , shows the cross-sectional shape of the turbine blade obtained with loss coefficient=0.0394. Here, it can be seen that the angle of the trailing edge 134 of the wing changes depending on the outflow angle.

また、ここでは、検証のため、それぞれ新規に得たタービンブレードの断面形状を示す目標形状データに対し、さらに、その断面形状の流出角度および損失係数を確認的に導出した。検証において、図10における(a)の翼の断面形状では、流出角度=-66.8度、損失係数=0.0406となった。したがって、新規のタービンブレードの断面形状が、目標として入力した流出角度=-67.2度、損失係数=0.0394を満たすように形成されていることが理解できる。なお、図10における(b)のタービンブレードの断面形状では、流出角度=-62.0度、損失係数=0.0389となり、新規の翼の断面形状が、目標として入力した流出角度=-62.3度、損失係数=0.0394を満たすように形成されていることが理解できる。こうして、設計時間を短縮することが可能となる。 In addition, here, for verification purposes, the outflow angle and loss coefficient of each newly obtained cross-sectional shape of the turbine blade were further derived for the target shape data indicating the cross-sectional shape of the turbine blade. In the verification, for the cross-sectional shape of the blade shown in (a) in FIG. 10, the outflow angle was -66.8 degrees and the loss coefficient was 0.0406. Therefore, it can be seen that the cross-sectional shape of the new turbine blade is formed to satisfy the input target outflow angle = -67.2 degrees and loss coefficient = 0.0394. In addition, in the cross-sectional shape of the turbine blade in (b) in Fig. 10, the outflow angle = -62.0 degrees and the loss coefficient = 0.0389, and the new blade cross-sectional shape is the outflow angle = -62 which was input as the target. It can be seen that it is formed to satisfy the following conditions: .3 degrees and a loss coefficient of 0.0394. In this way, it becomes possible to shorten the design time.

以上、説明した形状生成装置100および形状生成方法により、所定の性能値を満たすことを目標として新規の形状(形状データ)を生成できる。したがって、所定の性能値が要求される場合であっても、目標性能値を満たす形状を容易かつ短期間で特定でき、設計時間を短縮することが可能となる。 With the shape generation device 100 and shape generation method described above, a new shape (shape data) can be generated with the goal of satisfying a predetermined performance value. Therefore, even if a predetermined performance value is required, a shape that satisfies the target performance value can be easily and quickly identified, making it possible to shorten the design time.

以上、添付図面を参照しながら一実施形態について説明したが、本開示は上記実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変形例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。 Although one embodiment has been described above with reference to the accompanying drawings, it goes without saying that the present disclosure is not limited to the above embodiment. It is clear that those skilled in the art can come up with various modifications or modifications within the scope of the claims, and it is understood that these naturally fall within the technical scope of the present disclosure. be done.

例えば、上述した実施形態においては、機械設計の対象物として、航空機の翼やタービンブレードといった、空気または水等の流体を利用した流体部品を挙げて説明した。しかし、生成モデルは、その対象物に制限されず、様々な形状を生成することができる。 For example, in the embodiments described above, fluid components that utilize fluids such as air or water, such as aircraft wings and turbine blades, have been described as objects of mechanical design. However, the generative model is not limited to the object and can generate various shapes.

また、上述した実施形態においては、形状として、断面形状、すなわち2次元の形状を挙げて説明した。しかし、かかる場合に限らず、形状を何らかのパラメータとして数値化できれば、3次元の形状にも適用することができる。この場合、上記の点列データは、2次元の形状の外形線に対応する代わりに、3次元の形状の表面に対応する。 Furthermore, in the above-described embodiments, the cross-sectional shape, that is, the two-dimensional shape, was used as the shape. However, the present invention is not limited to this case, and can be applied to three-dimensional shapes as long as the shape can be quantified as some parameter. In this case, the above point sequence data corresponds to the surface of a three-dimensional shape instead of the outline of a two-dimensional shape.

また、上述した実施形態においては、生成モデルとして、VAE、CVAE、GAN、Conditional GANのうち、CVAEを用いる例を挙げて説明したが、生成モデルはCVAEに限らず、例えば、Conditional GANを用いることができる。CVAEの代わりにConditional GANを用いる場合、機械学習部110および形状生成部120を以下のように動作させる。 In addition, in the above-described embodiment, an example of using CVAE among VAE, CVAE, GAN, and Conditional GAN is given as the generative model, but the generative model is not limited to CVAE, and for example, Conditional GAN may be used. I can do it. When using Conditional GAN instead of CVAE, the machine learning section 110 and shape generation section 120 are operated as follows.

図11は、機械学習部110の概略的な構成を説明するための説明図である。機械学習部110は、性能値導出部112と、生成器学習部214と、選択部216、識別器学習部218とを含む。ここで、実線の矢印は数値の流れを示し、破線の矢印は制御の方向を示す。 FIG. 11 is an explanatory diagram for explaining the general configuration of the machine learning section 110. The machine learning section 110 includes a performance value derivation section 112, a generator learning section 214, a selection section 216, and a discriminator learning section 218. Here, solid arrows indicate the flow of numerical values, and dashed arrows indicate the direction of control.

性能値導出部112は、図3を用いて説明したのと同様、サンプルとして準備された、対象物を表す複数種類の学習用形状10から、繰り返し1の学習用形状データを抽出し、CFD計算等により、その学習用形状10の性能値(学習用性能値)を導出する。 As described using FIG. 3, the performance value deriving unit 112 extracts learning shape data of iteration 1 from multiple types of learning shapes 10 representing the target object prepared as samples, and performs CFD calculation. etc., the performance value (learning performance value) of the learning shape 10 is derived.

生成器学習部214は、ランダムなベクトルであるランダムベクトルと学習用性能値とを入力ノードとして、ニューラルネットワークを用い、新規の形状データを生成する生成器(generator)214aを機械学習する。かかる生成器214aは、図3における復号モジュール116aと類似する役割を果たす。 The generator learning unit 214 uses a neural network to machine learn a generator 214a that generates new shape data using a random vector and a learning performance value as input nodes. Such generator 214a plays a role similar to decoding module 116a in FIG. 3.

選択部216は、学習形状データ、および、性能値導出部112が導出した学習用性能値の組合せ、もしくは、生成器214aが生成した形状データ、および、学習用性能値の組合せのいずれか一方をランダムに選択する。 The selection unit 216 selects either the combination of the learning shape data and the learning performance value derived by the performance value deriving unit 112, or the combination of the shape data and the learning performance value generated by the generator 214a. Select randomly.

識別器学習部218は、選択部216で選択された形状データおよび性能値の組合せが実際のもの(本物)であるか、生成器214aが生成したもの(偽物)であるかを識別(判定)する識別器(discriminator)218aを機械学習する。 The classifier learning unit 218 identifies (determines) whether the combination of shape data and performance values selected by the selection unit 216 is an actual one (genuine) or one generated by the generator 214a (fake). Machine learning is performed on a discriminator 218a.

このように、識別器218aは生成器214aで生成された形状データと実際の学習用形状データを見分ける役割を果たす。このとき、生成器214aは識別器218aを“騙す”ように機械学習し、識別器218aは生成器214aに“騙されないように”機械学習する。機械学習が進むと、生成器214aは実際の学習用形状データと実質的に同等の形状データを生成することができるようになる。Conditional GANは、明示的な特徴量の抽出と復元を行わない点が上述したCVAEと異なる。 In this way, the classifier 218a plays a role in distinguishing between the shape data generated by the generator 214a and the actual learning shape data. At this time, the generator 214a performs machine learning so as to "deceive" the discriminator 218a, and the discriminator 218a performs machine learning so as not to be "deceived" by the generator 214a. As machine learning progresses, the generator 214a will be able to generate shape data that is substantially equivalent to actual learning shape data. Conditional GAN differs from the above-mentioned CVAE in that it does not explicitly extract and restore feature quantities.

図12は、形状生成部120の概略的な構成を説明するための説明図である。形状生成部120は、学習された生成器214aを参照し、ランダムベクトルと目標性能値とから目標形状データを生成する。ここでは、ランダムベクトルとしてどのような値を入力したとしても、理論的には、目標性能値を満たす形状が導出されるはずである。したがって、設計者は、かかるランダムベクトルを変化させることで、性能値を確認しつつ形状を調整する。 FIG. 12 is an explanatory diagram for explaining the schematic configuration of the shape generation section 120. The shape generation unit 120 refers to the learned generator 214a and generates target shape data from the random vector and the target performance value. Here, no matter what value is input as the random vector, theoretically a shape that satisfies the target performance value should be derived. Therefore, the designer adjusts the shape while checking the performance value by changing the random vector.

このように、Conditional GANを用いた場合であっても、所定の性能値を満たすことを目標として新規の形状(形状データ)を生成できる。したがって、所定の性能値が要求される場合であっても、目標性能値を満たす形状を容易かつ短期間で特定でき、設計時間を短縮することが可能となる。 In this way, even when Conditional GAN is used, a new shape (shape data) can be generated with the goal of satisfying a predetermined performance value. Therefore, even if a predetermined performance value is required, a shape that satisfies the target performance value can be easily and quickly identified, making it possible to shorten the design time.

本開示は、形状生成装置および形状生成方法に利用することができる。 The present disclosure can be used in a shape generation device and a shape generation method.

100 形状生成装置
110 機械学習部
112 性能値導出部
114 符号化モジュール学習部
114a 符号化モジュール
116 復号モジュール学習部
116a 復号モジュール
120 形状生成部
122 復号モジュール処理部
124 平滑化処理部
214 生成器学習部
214a 生成器
216 選択部
218 識別器学習部
218a 識別器
100 Shape generation device 110 Machine learning section 112 Performance value derivation section 114 Encoding module learning section 114a Encoding module 116 Decoding module learning section 116a Decoding module 120 Shape generation section 122 Decoding module processing section 124 Smoothing processing section 214 Generator learning section 214a Generator 216 Selection unit 218 Discriminator learning unit 218a Discriminator

Claims (4)

学習用形状データと、前記学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、前記特徴量と前記学習用性能値とを復号して前記学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける前記復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する形状生成部を備え、
前記学習用形状データは、前記学習用形状データに基づく学習用形状の外形に対応する点列データを含み、
前記点列データは、前記学習用形状の曲率が高い領域で比較的密度が高く、前記学習用形状の曲率が低い領域で比較的密度が低い形状生成装置。
an encoding module that generates a feature amount by encoding learning shape data and a learning performance value corresponding to the learning shape data; and an encoding module that decodes the feature amount and the learning performance value to generate the learning feature value. a decoding module that generates shape data corresponding to the shape data for use, and inputs a target performance value and an arbitrary feature quantity to the decoding module in a generative model that has undergone machine learning multiple times to generate target shape data. Equipped with a shape generator,
The learning shape data includes point sequence data corresponding to the outer shape of the learning shape based on the learning shape data,
The point sequence data has a relatively high density in a region where the learning shape has a high curvature, and a relatively low density in a region where the learning shape has a low curvature.
学習用形状データと、前記学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、前記特徴量と前記学習用性能値とを復号して前記学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける前記復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する復号モジュール処理部と、
生成された前記目標形状データに基づく目標形状を平滑化する平滑化処理部と、
を備え
平滑化された前記目標形状データは、前記目標形状の外形に対応する点列データを含み、
前記点列データは、前記目標形状の曲率が高い領域で比較的密度が高く、前記目標形状の曲率が低い領域で比較的密度が低い形状生成装置。
an encoding module that generates a feature amount by encoding learning shape data and a learning performance value corresponding to the learning shape data; and an encoding module that decodes the feature amount and the learning performance value to generate the learning feature value. a decoding module that generates shape data corresponding to the shape data for use, and inputs a target performance value and an arbitrary feature quantity to the decoding module in a generative model that has undergone machine learning multiple times to generate target shape data. a decryption module processing unit;
a smoothing processing unit that smoothes a target shape based on the generated target shape data;
Equipped with
The smoothed target shape data includes point sequence data corresponding to the outer shape of the target shape,
The point sequence data has a relatively high density in an area where the target shape has a high curvature, and a relatively low density in an area where the target shape has a low curvature.
コンピュータが、
学習用形状データと、前記学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、前記特徴量と前記学習用性能値とを復号して前記学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける前記復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成する形状生成方法であって、
前記学習用形状データは、前記学習用形状データに基づく学習用形状の外形に対応する点列データを含み、
前記点列データは、前記学習用形状の曲率が高い領域で比較的密度が高く、前記学習用形状の曲率が低い領域で比較的密度が低い形状生成方法。
The computer is
an encoding module that generates a feature amount by encoding learning shape data and a learning performance value corresponding to the learning shape data; and an encoding module that decodes the feature amount and the learning performance value to generate the learning feature value. a decoding module that generates shape data corresponding to the shape data for use, and inputs a target performance value and an arbitrary feature quantity to the decoding module in a generative model that has undergone machine learning multiple times to generate target shape data. A shape generation method,
The learning shape data includes point sequence data corresponding to the outer shape of the learning shape based on the learning shape data,
The point sequence data has a relatively high density in an area where the learning shape has a high curvature, and a relatively low density in an area where the learning shape has a low curvature.
コンピュータが、
学習用形状データと、前記学習用形状データに対応する学習用性能値とを符号化して特徴量を生成する符号化モジュール、および、前記特徴量と前記学習用性能値とを復号して前記学習用形状データに対応する形状データを生成する復号モジュールを含み、複数回の機械学習を行った生成モデルにおける前記復号モジュールに目標性能値と任意の特徴量とを入力して目標形状データを生成し、
生成された前記目標形状データに基づく目標形状を平滑化する
形状生成方法であって、
平滑化された前記目標形状データは、前記目標形状の外形に対応する点列データを含み、
前記点列データは、前記目標形状の曲率が高い領域で比較的密度が高く、前記目標形状の曲率が低い領域で比較的密度が低い形状生成方法。
The computer is
an encoding module that generates a feature amount by encoding learning shape data and a learning performance value corresponding to the learning shape data; and an encoding module that decodes the feature amount and the learning performance value to generate the learning feature value. The method includes a decoding module that generates shape data corresponding to the shape data for use, and generates target shape data by inputting target performance values and arbitrary feature quantities to the decoding module in the generative model that has been subjected to machine learning multiple times. ,
A shape generation method for smoothing a target shape based on the generated target shape data ,
The smoothed target shape data includes point sequence data corresponding to the outer shape of the target shape,
The point sequence data has a relatively high density in an area where the target shape has a high curvature, and a relatively low density in an area where the target shape has a low curvature.
JP2019076236A 2019-04-12 2019-04-12 Shape generation device and shape generation method Active JP7346885B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019076236A JP7346885B2 (en) 2019-04-12 2019-04-12 Shape generation device and shape generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019076236A JP7346885B2 (en) 2019-04-12 2019-04-12 Shape generation device and shape generation method

Publications (2)

Publication Number Publication Date
JP2020173701A JP2020173701A (en) 2020-10-22
JP7346885B2 true JP7346885B2 (en) 2023-09-20

Family

ID=72831416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019076236A Active JP7346885B2 (en) 2019-04-12 2019-04-12 Shape generation device and shape generation method

Country Status (1)

Country Link
JP (1) JP7346885B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7248823B1 (en) * 2021-06-09 2023-03-29 千代田化工建設株式会社 Fluid state estimation system, learning device, learning program, estimation device, and estimation program
DE102023003193A1 (en) 2022-08-19 2024-02-22 Mercedes-Benz Group AG System and method for the design of structural elements of a vehicle using generative adversarial networks

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006813A (en) 2012-06-26 2014-01-16 Honda Motor Co Ltd Performance prediction device, performance prediction method, and program
CN104778327A (en) 2015-04-23 2015-07-15 复旦大学 Airplane airfoil design optimization method based on artificial neural network
US20170124409A1 (en) 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
JP6381768B1 (en) 2017-11-20 2018-08-29 ヤフー株式会社 Learning device, learning method, learning program and operation program
JP2018139085A (en) 2017-02-24 2018-09-06 エヌ・ティ・ティ・コミュニケーションズ株式会社 Method, device, system, and program for abnormality prediction
WO2018229881A1 (en) 2017-06-13 2018-12-20 株式会社日本製鋼所 Screw shape estimation apparatus, screw shape estimation method, and screw shape estimation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006813A (en) 2012-06-26 2014-01-16 Honda Motor Co Ltd Performance prediction device, performance prediction method, and program
CN104778327A (en) 2015-04-23 2015-07-15 复旦大学 Airplane airfoil design optimization method based on artificial neural network
US20170124409A1 (en) 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
JP2018139085A (en) 2017-02-24 2018-09-06 エヌ・ティ・ティ・コミュニケーションズ株式会社 Method, device, system, and program for abnormality prediction
WO2018229881A1 (en) 2017-06-13 2018-12-20 株式会社日本製鋼所 Screw shape estimation apparatus, screw shape estimation method, and screw shape estimation program
JP6381768B1 (en) 2017-11-20 2018-08-29 ヤフー株式会社 Learning device, learning method, learning program and operation program

Also Published As

Publication number Publication date
JP2020173701A (en) 2020-10-22

Similar Documents

Publication Publication Date Title
Gaynor et al. Multiple-material topology optimization of compliant mechanisms created via PolyJet three-dimensional printing
JP7346885B2 (en) Shape generation device and shape generation method
Navangul et al. Error minimization in layered manufacturing parts by stereolithography file modification using a vertex translation algorithm
Bagheri et al. Constraint handling in efficient global optimization
Huang et al. A new method for ship bulbous bow generation and modification
Wang et al. Optimal boundary triangulations of an interpolating ruled surface
JP5926358B1 (en) Tool path curving method and curving device for ensuring shape error
Hartmann et al. Generation of unstructured curvilinear grids and high‐order discontinuous Galerkin discretization applied to a 3D high‐lift configuration
Novak-Marcincin et al. Analyses and solutions on technical and economical aspects of rapid prototyping technology
Varpe et al. Benefits of nonaxisymmetric endwall contouring in a compressor cascade with a tip clearance
Adjei et al. Aerodynamic design optimization of an axial flow compressor stator using parameterized free-form deformation
Corson et al. Investigating aeroelastic performance of multi-mega watt wind turbine rotors using CFD
Amoiralis et al. Freeform deformation versus B-spline representation in inverse airfoil design
Masarati et al. Control constraint of underactuated aerospace systems
Vishal et al. Numerical investigation into discontinuity-induced bifurcations in an aeroelastic system with coupled non-smooth nonlinearities
Deodhar et al. Experimentally infused plant and controller optimization using iterative design of experiments—theoretical framework and airborne wind energy case study
Wang et al. A new multiobjective optimization adaptive layering algorithm for 3D printing based on demand-oriented
Balan et al. Hp-adaptivity on anisotropic meshes for hybridized discontinuous Galerkin scheme
EP4181072A1 (en) Method of generating facial expression and threee-dimensional (3d) graphic interface device using the same
JP6675785B2 (en) Simulation method, program, and simulation device by molecular dynamics method
Vivarelli et al. Efficient adjoint-based mesh adaptation applied to turbo-machinery flows
Menéndez Arán et al. Effect of wake alignment on turbine blade loading distribution and power coefficient
Reimer et al. Modeling of movable control surfaces and atmospheric effects
CN109434840A (en) A kind of robot free path generation method based on spline curve
Liu Filling n-sided holes with trimmed b-spline surfaces based on energy-minimization method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R151 Written notification of patent or utility model registration

Ref document number: 7346885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151