WO2023176062A1 - 多孔質体の設計方法及び多孔質体の製造方法 - Google Patents

多孔質体の設計方法及び多孔質体の製造方法 Download PDF

Info

Publication number
WO2023176062A1
WO2023176062A1 PCT/JP2022/045085 JP2022045085W WO2023176062A1 WO 2023176062 A1 WO2023176062 A1 WO 2023176062A1 JP 2022045085 W JP2022045085 W JP 2022045085W WO 2023176062 A1 WO2023176062 A1 WO 2023176062A1
Authority
WO
WIPO (PCT)
Prior art keywords
porous body
image data
dimensional image
label
parameters
Prior art date
Application number
PCT/JP2022/045085
Other languages
English (en)
French (fr)
Inventor
真吾 惣川
柚希 橋本
知典 高橋
真一 大川原
陽介 松田
知輝 保田
史郎 吉川
秀行 松本
Original Assignee
日本碍子株式会社
国立大学法人東京工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本碍子株式会社, 国立大学法人東京工業大学 filed Critical 日本碍子株式会社
Publication of WO2023176062A1 publication Critical patent/WO2023176062A1/ja

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C04CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
    • C04BLIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
    • C04B38/00Porous mortars, concrete, artificial stone or ceramic ware; Preparation thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Definitions

  • the present invention relates to a method for designing a porous body and a method for manufacturing a porous body.
  • Patent Document 1 describes a porous body having a sufficiently small porosity and a sufficiently large permeability by satisfying a predetermined numerical range and relational expression.
  • Patent Document 2 describes that the number of communicating holes, which is the number of communicating holes per 1 mm 2 of a porous partition wall, is preferably 3,800 or more and 6,000 or less. The number of communicating holes was determined by taking continuous tomographic images of the septum using an X-ray CT device, and using a three-dimensional model created from the continuous tomographic images using GeoDict, a microstructure simulation software developed by Math2Market GmbH. It is stated that it is calculated.
  • porous bodies there are many types of parameters required for porous bodies, such as shape-related parameters such as porosity and number of communicating pores, and performance-related parameters such as pressure drop characteristics, collection characteristics, and mechanical strength characteristics.
  • shape-related parameters such as porosity and number of communicating pores
  • performance-related parameters such as pressure drop characteristics, collection characteristics, and mechanical strength characteristics.
  • the present invention was made to solve these problems, and its main purpose is to efficiently identify a porous body having suitable parameters.
  • the present invention employs the following means to achieve the above-mentioned main objective.
  • the method for designing a porous body of the present invention includes: Learning by a conditional generative adversarial network using multiple pieces of true data that associates three-dimensional image data of a porous body with a label containing one or more types of indicators representing the shape and/or performance of the porous body a learning step of obtaining a trained generator that generates three-dimensional image data based on the label;
  • the values of the labels are variously changed and inputted to the trained generator, and each of the plurality of three-dimensional image data generated by the trained generator based on the input is represented by the three-dimensional image data.
  • One or more types of parameters representing the shape and/or performance of the porous body are calculated, and based on the calculated one or more types of parameters, the one type of three-dimensional image data is selected from among the plurality of generated three-dimensional image data.
  • a porous structure identification step of identifying three-dimensional image data for which the above parameters are suitable includes:
  • the method for producing a porous body of the present invention includes: a design step of executing the above-described porous body design method; a formation step of producing a porous body based on three-dimensional image data in which the one or more parameters specified in the design step are suitable; This includes:
  • This method of designing a porous body uses a plurality of pieces of real data in which three-dimensional image data of the porous body is associated with a label containing one or more types of indicators representing the shape and/or performance of the porous body. Learning is performed using a conditional generative adversarial network (hereinafter referred to as CGAN) to obtain a trained generator that generates three-dimensional image data based on labels. Then, various values of the labels are changed and inputted to the trained generator, and the porous shape represented by the 3D image data is One or more types of parameters representing the shape and/or performance of the body are calculated, and one or more types of parameters are selected from among the plurality of generated three-dimensional image data based on the calculated one or more types of parameters.
  • CGAN conditional generative adversarial network
  • Identify 3D image data In this porous body design method, by using a trained generator prepared by learning with CGAN, a label including one or more types of indicators is input, and multiple numbers representing various porous bodies according to the label are generated. 3D image data can be efficiently generated. Therefore, a porous body having suitable parameters can be efficiently identified using the plurality of generated three-dimensional image data. In addition, in this method for manufacturing a porous body, a porous body is manufactured based on suitable three-dimensional image data specified by the above-mentioned porous body design method, so a porous body having suitable parameters is obtained. be able to.
  • FIG. 2 is a configuration diagram schematically showing a design device 20.
  • FIG. FIG. 3 is an explanatory diagram schematically showing how the generator 31 generates three-dimensional image data.
  • FIG. 3 is an explanatory diagram schematically showing how the classifier 32 generates a true image likelihood score in consideration of label reproducibility.
  • 1 is a flowchart showing an example of a porous body design routine. An explanatory diagram of true data. An explanatory diagram showing how three-dimensional image data is generated using the GRF method.
  • FIG. 3 is a conceptual diagram showing how three-dimensional image data of a sphere-filled structure is generated.
  • FIG. 3 is an explanatory diagram of the machine learning unit 30.
  • FIG. 3 is an explanatory diagram of labels input to the trained generator 31, generated three-dimensional image data, and parameters.
  • FIG. 7 is an explanatory diagram showing a plurality of Pareto optimal solutions finally obtained through a search process and how suitable three-dimensional image data is specified from the plurality of Pareto optimal solutions.
  • FIG. 2 is an explanatory diagram showing how three-dimensional image data is generated from an actual porous body using CT scanning.
  • FIG. 1 is a block diagram schematically showing a design device 20, which is an embodiment of a porous body design device that executes the porous body design method of the present invention.
  • the porous body is used as a diesel particulate filter (DPF) that has the function of collecting particulate matter (PM) in the exhaust gas of a diesel engine.
  • DPF diesel particulate filter
  • PM particulate matter
  • the use of the porous body is not limited to this. Further, the porous body may have a porosity of 1% or more and 99% or less, for example.
  • the design device 20 includes a computer (hardware) including a device body 21, an input section 22 such as a keyboard and a mouse, and an output section 23 such as a display.
  • the device main body 21 includes a CPU, ROM, RAM, storage device, GPU (Graphics Processing Unit), input/output interface, and communication port (not shown).
  • the design device 20 includes a program (software) stored in a storage device of the device body 21. As shown in FIG. 1, the design device 20 includes a true data generation section 25, a machine learning section 30, and a porous structure identification section 35 as functional blocks constructed by cooperation of these hardware and software. , is equipped with.
  • the true data generation unit 25 generates a plurality of true data used when the machine learning unit 30 performs learning processing.
  • the true data is data in which three-dimensional image data of a porous body is associated with a label containing one or more types of indicators representing the shape and/or performance of the porous body.
  • the 3D image data included in the true data may be a 3D image of the structure of an actual porous body imaged with an X-ray CT device, or a 3D image of the structure of a virtual porous body created numerically. A three-dimensional image of the structure may also be used.
  • Three-dimensional image data is, for example, data in which position information (for example, XYZ coordinates) representing the three-dimensional position of a pixel (voxel) is associated with color information of the voxel.
  • position information for example, XYZ coordinates
  • each of the plurality of voxels included in the three-dimensional image data is binarized to represent either the internal space (pores) of the porous body or the object constituting the porous body.
  • color information may be binarized into a value of 0 and a value of 1, for example, or may be binarized into a value of 0 and a value of 255 as grayscale luminance values. Note that the color information is not limited to this, and may be ternary information, may include luminance values from 0 to 255, or may include RGB values.
  • indicators that indicate the shape (structural characteristics) of the porous body included in the label include the porosity of the porous body, solid fraction, specific surface area, pore size, particle size, and structural uniformity of pores or solids. , the chord length of a pore, which is the continuous length of pores in a given direction in a porous body, and the chord length of a solid, which is the continuous length of a solid in a given direction in a porous body. .
  • the label may include one or more types of indicators among these.
  • indicators that indicate the performance of porous materials included in the label include pressure drop characteristics, collection characteristics, mechanical strength characteristics, electrochemical characteristics, heat conduction characteristics, heat exchange characteristics, electrical conduction characteristics, These include gas adsorption properties, gas purification performance, catalyst coating properties, and removal efficiency of substances trapped in the porous body.
  • the label may include one or more types of indicators among these.
  • material type strength representing the strength of each pattern included in the porous body when the porous body is classified into n types of patterns, where n is an integer of 2 or more.
  • a vector (x1, x2, . . . , xn) is used as an index included in the label.
  • the material type strength vector is a type of index representing the shape of the porous body.
  • a label may include two or more types of these various indicators.
  • a label may include two or more types of indicators representing the shape of the porous body, two or more types of indicators representing the performance of the porous body, or a label may include two or more types of indicators representing the shape of the porous body. It may include one or more types of index representing the performance of the porous body and one or more types of index representing the performance of the porous body.
  • the machine learning unit 30 performs learning using a conditional generative adversarial network (CGAN) using a plurality of true data.
  • the machine learning unit 30 includes a generator 31 and a discriminator 32.
  • the generator 31 inputs noise (also referred to as a latent variable; a vector in which each element is a random number) and a label (also referred to as a condition vector), and generates three-dimensional image data based on the input.
  • FIG. 2 is an explanatory diagram schematically showing how the generator 31 generates three-dimensional image data. As shown in the figure, the generator 31 is configured as a neural network having a fully connected layer and a transposed convolution layer as main parts.
  • noise for example, a 400-dimensional vector
  • labels are input to the generator 31, first, a series of three-dimensional arrays (for example, 8x4x4 The noise converted into a 3-dimensional array (96 3-dimensional arrays) is expanded (Up Sampled) into a 3-dimensional array with one element of the label of the same size (for example, an 8x4x4 3-dimensional array are concatenated (3 pieces) to generate a group of three-dimensional arrays (for example, 99 three-dimensional arrays of 8 ⁇ 4 ⁇ 4) after concatenation.
  • the generator 31 repeatedly transposes and deconvolves the concatenated three-dimensional array group, and finally produces one three-dimensional image data (for example, one three-dimensional array of 256 x 128 x 128). generate.
  • the discriminator 32 inputs the label and the three-dimensional image data, and calculates a score representing the degree to which the input three-dimensional image data matches the pattern of the porous material indicated by the input label and the likeness of the image.
  • the total value, ⁇ true image-likeness score considering label reproducibility,'' is output.
  • FIG. 3 is an explanatory diagram schematically showing how the classifier 32 generates a true image likelihood score in consideration of label reproducibility.
  • the classifier 32 is configured as a neural network having a convolutional layer and a fully connected layer as main parts. When the label and 3D image data are input to the classifier 32, the classifier 32 first repeatedly convolutions the input 3D image data into a series of 3D arrays that are feature maps.
  • the discriminator 32 converts the input label (for example, three-dimensional) into a vector of the same size as the feature vector (for example, 48 dimensions) through full connection. Then, the classifier 32 uses a scalar value that is the inner product of the feature vector and the vector converted from the label (corresponding to label reproducibility) and a scalar value converted from the feature vector by full connection (corresponding to true image likelihood). The sum is output as a true image-likeness score considering the label reproducibility described above.
  • the classifier 32 is designed as a network structure that calculates a true image likelihood score in consideration of label reproducibility.
  • the trained generator 31 obtained as a result can generate realistic three-dimensional image data that matches the pattern of the porous body represented by the value of the label based on the input label.
  • the porous structure specifying unit 35 uses the three-dimensional image data generated by the trained generator 31 to determine one or more types of parameters representing the shape and/or performance of the porous body represented by the three-dimensional image data. Identify suitable three-dimensional image data.
  • the porous structure identification section 35 includes an optimization processing section 36 and a parameter calculation section 37.
  • the parameter calculation unit 37 calculates one or more types of parameters representing the shape and/or performance of the porous body represented by the three-dimensional image data, based on the three-dimensional image data generated by the trained generator 31.
  • the optimization processing unit 36 changes the label values in various ways and inputs them to the trained generator 31, and applies a parameter calculation unit to each of the plurality of three-dimensional image data generated by the trained generator 31 based on the input. 37 to calculate the parameters.
  • the optimization processing unit 36 Based on the calculated parameters, the optimization processing unit 36 identifies three-dimensional image data for which one or more types of parameters are suitable from among the plurality of three-dimensional image data generated by the trained generator 31. At this time, the optimization processing unit 36 uses the label input to the trained generator 31 as an explanatory variable, and the parameter calculation unit 37 calculates the label based on the three-dimensional image data generated by the trained generator 31 based on the input. Using one or more types of parameters as an objective function, an optimization method is used to identify three-dimensional image data for which one or more types of parameters are suitable.
  • the design method for porous bodies is Learning by a conditional generative adversarial network using multiple pieces of true data that associates three-dimensional image data of a porous body with a label containing one or more types of indicators representing the shape and/or performance of the porous body a learning step of obtaining a trained generator 31 that generates three-dimensional image data based on the label;
  • the value of the label is variously changed and inputted to the learned generator 31, and the 3D image data is applied to each of the plurality of 3D image data generated by the learned generator 31 based on the input.
  • One or more types of parameters representing the shape and/or performance of the porous body represented are calculated, and based on the calculated one or more types of parameters, the a porous structure identifying step of identifying three-dimensional image data suitable for one or more types of parameters; including.
  • FIG. 4 is a flowchart showing an example of a porous body design routine executed by the design device 20.
  • the design device 20 first performs a process of generating a plurality of true data to be used in the CGAN as a preparation process for the learning step (step S100).
  • the true data is the one in which the three-dimensional image data of the porous body is associated with the label, and the label is associated with the three-dimensional image data that matches the label. Therefore, the three-dimensional image data of true data is also called a true image.
  • the true data is used as input to the discriminator 32 in the CGAN.
  • FIG. 5 is an explanatory diagram of true data.
  • the above-described material type strength vector (x1, x2, . . . , xn) is used as the label.
  • the material type strength vector represents the strength of each pattern included in the porous body when the porous body is classified into n types of patterns (material types), where n is an integer of 2 or more.
  • the strength here means the size of each pattern component of n types of porous bodies contained in a certain porous body.
  • the material type intensity vector is what allows a certain porous body to be expressed as a hybrid material that mixes the structures and characteristics of n types of patterns contained in the porous body.
  • Each of the components x1 to xn may have a value from 0 to 1, with the value 0 when the component is not included (the intensity is the lowest), and the value 1 when the intensity of the component is the highest. Further, the sum (x1+x2+...+xn) of each component of the material type intensity vector may always have a value of 1.
  • Each of the plurality of true data represents the pattern of the porous body to which the 3D image data belongs among the n basis vectors of the material type intensity vector space constituted by the 3D image data and the material type intensity vector. It may also include data that associates the defined item with the defined item.
  • the basis vector is a vector in which the intensity of any one of the n types of porous body patterns in the material type intensity vector is set to a value other than 0, and the intensity of the (n-1) types of patterns is set to 0. It may be.
  • the base vector may be a unit vector in which the value of any one component among the components x1, x2, .
  • the material type strength vector associated with the true data is this unit vector.
  • n 3
  • the three types of porous bodies were a sintered simulated structure, a sphere-filled structure, and a sponge structure.
  • the three-dimensional image data on the left side of Figure 5 is an example of a sintered simulated structure
  • the three-dimensional image data on the center of Figure 5 is an example of a sphere-filled structure
  • the three-dimensional image data on the right side of Figure 5 is an example of a sponge structure.
  • the sintered simulated structure is a structure that simulates the sintered structure of a porous body.
  • a sphere-filled structure is a structure filled with a plurality of particles (spheres) that are constituent elements of a porous body.
  • the sponge structure is a structure in which the particles and spaces of the sphere-filled structure are reversed.
  • the sintered simulated structure has a structure in which a plurality of particles constituting the porous body are deformed and combined.
  • These three types of porous bodies were assigned to components x1, x2, and x3 of the material type intensity vector, respectively. That is, the strength of the sintered simulated structure is represented by x1, the strength of the sphere-filled structure is represented by x2, and the strength of the sponge structure is represented by x3.
  • each component x1 to x3 has a value from 0 to 1, and the value is 0 when the component is not included (the intensity is the lowest), and the value is 1 when the intensity of the component is the highest. Therefore, as shown in FIG. 5, the three-dimensional image data of the sintered simulated structure is associated with a unit vector (1, 0, 0) as a material type intensity vector.
  • the three-dimensional image data of the sphere-filled structure is associated with a unit vector (0, 1, 0) as a material type intensity vector.
  • a unit vector (0, 0, 1) is associated with the three-dimensional image data of the sponge structure as a material type intensity vector.
  • the true data generation unit 25 generates three-dimensional image data of each of the sintered simulated structure, the sphere-filled structure, and the sponge structure.
  • the three-dimensional image data may be a three-dimensional image of the structure of an actual porous body imaged by an X-ray CT device, or a three-dimensional image of the structure of a virtual porous body generated numerically. It is also possible to use to generate three-dimensional image data representing the structure of a virtual porous body, for example, the GRF (Gaussian Random Field) method or GeoDict (virtual material generation software) from Math2Market GmbH can be used.
  • GRF Garnier Random Field
  • GeoDict virtual material generation software
  • the real data generation unit 25 generates three-dimensional image data of the sintered simulated structure using the GRF method, and generates three-dimensional image data of the sphere-filled structure and the sponge structure using GeoDict.
  • the function of the portion of the true data generation unit 25 that executes the GRF method is realized using a program created using, for example, the programming language Python.
  • Python the programming language
  • other general-purpose programming languages such as C, Fortran, or Basic
  • the GRF method is a method of generating an image of a porous body having a random skeletal structure and a random pore surface structure according to a given random number sequence.
  • an image of a porous body can be generated based on the set standard deviation ⁇ and threshold value ⁇ .
  • FIG. 6 is an explanatory diagram showing how three-dimensional image data is generated using the GRF method. For convenience of explanation, FIG. 6 shows an image corresponding to one cross section of the porous body out of the three-dimensional image data.
  • the true data generating unit 25 When generating three-dimensional image data using the GRF method, the true data generating unit 25 first generates a uniformly distributed random number array (each random number is uniformly between 0 and 1) of the same size as the three-dimensional image data to be generated. (having values extracted from a probability distribution) is generated, and each element of the generated random number array is three-dimensionally arranged to form three-dimensional image data (FIG. 6(a)). Next, the true data generation unit 25 performs convolution by applying a Gaussian filter with standard deviation ⁇ to the generated three-dimensional image data.
  • a uniformly distributed random number array each random number is uniformly between 0 and 1
  • each element of the generated random number array is three-dimensionally arranged to form three-dimensional image data (FIG. 6(a)).
  • the true data generation unit 25 performs convolution by applying a Gaussian filter with standard deviation ⁇ to the generated three-dimensional image data.
  • FIG. 6(b) which is an image corresponding to a uniformly distributed random number array
  • FIG. 6(b) which is an image with smoothed color shading
  • the convolution result at this time differs depending on the value of the standard deviation ⁇ .
  • the three images in Figure 6(b) are the results of each convolution image when the standard deviation ⁇ is set to three types, 2, 3, and 4, when convolving the image in Figure 6(a). An example is shown.
  • the true data generation unit 25 binarizes the color information of each voxel of the three-dimensional image data after convolution using the threshold value ⁇ .
  • the threshold value ⁇ is any value greater than 0 and less than 1, and by comparing the magnitude relationship between this threshold value ⁇ and the color information value of each voxel (a value of 0 or more and 1 or less), the color information value is set to 0. Or binarize to 1.
  • three-dimensional image data is obtained that is binarized so that each voxel represents either the internal space (pores) of the porous body or the object constituting the porous body ( Figure 6 ( c)). The result of binarization at this time differs depending on the value of the threshold ⁇ .
  • the three images in FIG. 6(c) are the image data (image on the right side of FIG. 6(b)) obtained by performing convolution with the standard deviation ⁇ value of 4 in FIG. 6(b), and the threshold value ⁇ . Examples of images after binarization are shown when three values are set: 0.48, 0.49, and 0.50.
  • FIG. 6 when generating three-dimensional image data using the GRF method, three-dimensional images of porous bodies having different structures and characteristics can be obtained by variously changing the values of the standard deviation ⁇ and the threshold value ⁇ . Can generate data.
  • the standard deviation ⁇ three-dimensional image data with different scales of the skeletal structures of porous bodies can be generated, and by varying the threshold value ⁇ , three-dimensional images of porous bodies with different porosity and average pore diameter can be generated. Can generate data.
  • different uniformly distributed random number arrays can be generated. For each, adjust the combination of standard deviation ⁇ and threshold ⁇ so that they have similar structures and characteristics (for example, have a specific average pore diameter and porosity) to generate three-dimensional image data. do it.
  • the value of the standard deviation ⁇ may be fixed and the value of the threshold ⁇ may be adjusted.
  • the true data generation unit 25 performs processing to finely adjust the three-dimensional image data generated by the GRF method by generating object parts that are floating from surrounding objects and cannot be actually produced. (changing the corresponding voxel from an object to a space) may be performed.
  • the true data generation unit 25 determines that the porosity of the outermost surface of the porous body located at both ends in the flow direction of the internal fluid is equal to the pores inside the porous body.
  • a process may be performed to generate a surface layer structure of the porous body so that the surface layer structure becomes larger than the ratio.
  • the true data generating unit 25 may have a length of 5 voxels at both ends of the flow direction relative to the size of the three-dimensional image data to be generated.
  • the region is added to generate a uniformly distributed random number array whose length along the flow direction is 10 voxels larger.
  • the flow direction may be set, for example, as a direction parallel to any one of the XYZ axes used for the position information of voxels of the three-dimensional image data.
  • the true data generation unit 25 For example, if the size of the three-dimensional image data is 256 x 128 x 128 voxels, the true data generation unit 25 generates a uniformly distributed random number array with a size of 266 x 128 x 128 voxels. Next, the true data generation unit 25 applies a filter that attenuates from 1 to 0.9 along the flow direction to the added region, so that the value of the random number becomes smaller as it is closer to both ends in the flow direction. (in other words, it becomes easier to form pores). Next, the true data generation unit 25 generates binarized three-dimensional image data including the added region using the standard deviation ⁇ and threshold ⁇ described above, and then deletes the added region portion. .
  • the porosity of the outermost surface located at both ends in the flow direction of the three-dimensional image data becomes a value of 1 or a value close to it, and the 3D image has a natural surface structure closer to that of an actual porous body. Can generate dimensional image data.
  • the true data generation unit 25 sets the standard deviation ⁇ to a fixed value (value 4), and adjusts (sets) the value of the threshold ⁇ according to the distributed random number array so as to achieve the target porosity. ) to generate a plurality of three-dimensional image data of the sintered simulated structure using the GRF method.
  • the target porosity was a value randomly extracted from a normal distribution with an average of 0.55 and a standard deviation of 0.005, and was varied to some extent each time three-dimensional image data was generated.
  • FIG. 7 is a conceptual diagram showing how three-dimensional image data of a sphere-filled structure is generated.
  • multiple particles spheres
  • the particles are dropped from above and filled into an area of the size of three-dimensional image data, and the particles expand. It is created by simply simulating a state in which a region is filled with multiple particles without performing shrinkage processing. Therefore, in the sphere-filled structure, adjacent particles are in point contact with each other.
  • the sponge structure is created by filling a region with a plurality of particles in the same way as the sphere-filled structure, and then inverting the particles and the spaces so that the filled particles become spaces.
  • the diameter of each particle is slightly expanded (for example, by 2 voxels) without changing the center position, so that the particles partially overlap each other. I decided to make the state overlap and then perform the inversion.
  • the process of filling the region with particles as described above can be performed using, for example, a module called GrainGeo of GeoDict.
  • the process of expanding or contracting the particles can be performed using, for example, a module called ProcessGeo of GeoDict.
  • the real data generation unit 25 associates the thus generated three-dimensional image data of each of the sintered simulated structure, sphere-filled structure, and sponge structure with each label (here, material type intensity vector), and generates multiple Generate true data.
  • the true data generation unit 25 generates 5000 pieces of three-dimensional image data for each of the sintered simulated structure, the sphere-filled structure, and the sponge structure, resulting in a total of 15000 pieces of true data.
  • the 5000 pieces of three-dimensional image data of the same type have the same data generation method, but at least a portion of the image data is different from each other.
  • the GRF method by using a uniformly distributed random number array with different values each time, multiple three-dimensional image data with at least part of the data differing from each other while the generation method is the same (while the pattern of the porous body is the same) can be obtained.
  • GeoDict by randomizing the filling conditions such as the drop position and particle size of particles, it is possible to obtain three-dimensional image data that has at least part of the data different from each other while using the same generation method. can.
  • the design device 20 After generating a plurality of true data in step S100, the design device 20 performs learning processing using CGAN to obtain a learned generator 31 using the generated plurality of true data (step S110). .
  • This step S110 corresponds to an example of the learning step described above.
  • CGAN a trained generator 31 that generates a realistic image based on a label is obtained by training a generator 31 and a classifier 32 based on conflicting loss functions.
  • the generator 31 In CGAN, the generator 31 generates three-dimensional image data that is closer to the true image based on the input label, that is, realistic-looking three-dimensional image data that matches the pattern of the porous body indicated by the input label.
  • the generator 31 is trained so that the classifier 32 issues a true image-likeness score considering higher label reproducibility (evaluated by the classifier 32 as being genuine) for three-dimensional image data (also referred to as a fake image). I do.
  • the discriminator 32 outputs a true image likelihood score that takes into account label reproducibility for the three-dimensional image data (true image) included in the true data, and the three-dimensional image data (fake image) generated by the generator 31. ), the discriminator 32 is trained so that the difference between the true image likelihood score that takes into account the label reproducibility output by the discriminator 32 is maximized (so that a fake image can be identified as a fake more precisely) .
  • the trained classifier 32 evaluates the image generated by the generator 31 as more realistic. Obtain container 31.
  • This CGAN learning can be performed using a predetermined loss function.
  • the loss function formula in this embodiment, the loss function formula (formula (1) and formula (2) below) of WGAN-gp (Wasserstein GAN-gradient penalty), which is one of the variations of GAN, is used.
  • WGAN-gp Wang GAN-gradient penalty
  • other loss functions may be used.
  • FIG. 8 is an explanatory diagram of the machine learning section 30.
  • the machine learning unit 30 first inputs 3 types x 20 pieces of true data, a total of 60 pieces of true data, out of the 15,000 pieces of true data mentioned above, to the classifier 32. That is, 20 pieces of true data (combinations of labels and three-dimensional image data) of each of the sintered simulated structure, sphere-filled structure, and sponge structure are input to the discriminator 32.
  • the discriminator 32 receives fake data that combines 3 types x 20 fake images generated by inputting labels and noise to the generator 31 at that point in the learning process and the labels input to the generator 31. input.
  • the classifier 32 outputs a true image likelihood score in consideration of label reproducibility for each of these 60 pieces of true data and 60 pieces of false data. Then, the machine learning unit 30 calculates the original critic loss (original classifier loss function) of equation (1) based on the output of the classifier 32. Specifically, the machine learning unit 30 calculates the average true image likelihood score (second term on the right side of equation (1)) considering the reproducibility of the 60 labels output for each of the true data. Then, calculate the average true image likelihood score (first term on the right side of equation (1)) considering the reproducibility of the 60 labels output for each of the fake data, and calculate the difference using equation (1). Original critic loss. Furthermore, the machine learning unit 30 calculates the third term (gradient penalty) on the right side of equation (1).
  • original critic loss original classifier loss function
  • the machine learning unit 30 extracts each pair of images from uniformly distributed random numbers from 0 to 1 for 60 image pairs consisting of 60 true images and 60 false images.
  • 60 interpolated images are generated by performing internal division according to the ratio of the values, and are combined with the respective label information to obtain 60 interpolated image data x i
  • the machine learning unit 30 multiplies the average of the squares of the deviations from 1 of the L2 norm of the gradient of D(x i
  • a typical value of the coefficient ⁇ is 10, and this value is also set to 10 in this embodiment.
  • the machine learning unit 30 uses a discriminator to 32 studies. Specifically, learning of the classifier 32 means updating the values of a plurality of parameters used in the convolution layer and fully connected layer of the classifier 32. As a result, a true image likelihood score that takes into account the label reproducibility output by the classifier 32 for the 3D image data (true image) included in the true data, and a 3D image data (false image) generated by the generator 31 are determined.
  • the generator 31 performs one iteration of learning. Learning for one iteration of the generator 31 is performed as follows. First, the machine learning unit 30 inputs three types of labels and 20 noises to the generator 31. Next, the machine learning unit 30 calculates the 60 fake images (3 types of labels x 20 noises) output by the generator 31 based on the combination of the input label and noise, and the 60 fake images of each fake image. Sixty pieces of false data, which are a combination of the label input to the generator 31 at the time of generation, are input to the discriminator 32 at that point in the learning process.
  • the learning of the generator 31 means updating the values of a plurality of parameters used in the fully connected layer and the transposed convolution layer of the generator 31.
  • the true image likelihood score which takes into account the label reproducibility output by the classifier 32 for the three-dimensional image data (fake image) included in the fake data, is maximized (the fake image generated by the generator 31 learning is performed to make the image closer to the true image.
  • the generator 31 learns one iteration every time the discriminator 32 learns four iterations. That is, the generator 31 performs learning for 63 iterations while the discriminator 32 performs learning for 250 iterations.
  • the 20 noise elements used for learning by the generator 31 and classifier 32 described above are random values extracted from a normal distribution, but the 20 noises are different from each other. However, the same 20 noises are used for each label. Therefore, these 20 noises are also called fixed noises.
  • the process of learning the discriminator 32 for 250 iterations and learning the generator 31 63 times is called one epoch. Then, a trained generator 31 is obtained by repeating the process for a number of epochs until the fake image generated by the generator 31 becomes sufficiently close to the true image.
  • the learning was terminated because the fake image had sufficiently approached the true image after repeating the above 1 epoch 920 times.
  • the trained generator 31 obtained by performing CGAN learning in this way takes as input a label containing one or more types of indicators and efficiently generates multiple three-dimensional image data representing various porous bodies according to the label. Can be generated well. More specifically, for inputting an arbitrary label (here, material type intensity vector), three-dimensional image data that matches the pattern of the structure indicated by the label (more precisely, the pattern of the structure indicated by the label) It is possible to generate three-dimensional image data that is close to the true image. For example, if (1, 0, 0) is input as the material type intensity vector to the learned generator 31, three-dimensional image data that matches the pattern of the sintered simulated structure and is close to the true image is generated.
  • the learned generator 31 contains three types of material type intensity vectors (1,0,0), (0,1,0), and (0,0,1), which are the labels used for the true data.
  • material type intensity vector x1, x2, x3
  • the structure and characteristics of n types of porous bodies here, three types of porous bodies: sintered simulated structure, sphere-filled structure, and sponge structure
  • the trained generator 31 can generate three-dimensional image data of the hybrid material mixed in the above. Note that when the trained generator 31 generates three-dimensional image data, in addition to the label, randomly generated noise is also input to the trained generator 31 as in the learning process in step S110.
  • machine learning unit 30 that performs learning by CGAN as in step S110 above can be created, for example, using a general-purpose library for deep learning such as TensorFlow and PyTorch on the programming language Python.
  • step S110 the design device 20 performs the processes of steps S120 to S160 (porous structure identification process). These steps S120 to S160 correspond to an example of the porous structure specifying step described above.
  • the porous structure identification unit 35 first performs the processes of steps S115 to S150 (search process).
  • search process the porous structure specifying unit 35 first determines the value of the label to be input to the learned generator 31 (step S115).
  • the porous structure specifying unit 35 may, for example, randomly determine the value of the label, or may determine the value obtained from the operator via the input unit 22.
  • the number of labels determined in step S115 may be one or more, or may be more than one.
  • the porous structure identifying unit 35 inputs the label determined in step S115 to the trained generator 31, and causes the trained generator to generate three-dimensional image data (step S120).
  • the trained generator 31 generates a three-dimensional image based on one label input from the porous structure specifying unit 35 and the plurality of randomly generated (20 in this embodiment) fixed noises described above. A plurality of pieces of data (20 pieces in this embodiment) are generated. If the values of a plurality of labels are determined in step S115, the learned generator 31 generates a plurality of three-dimensional image data based on each of the plurality of labels and fixed noise.
  • the 20 fixed noises differ from each other in the values of at least some of the elements in the noise.
  • the same 20 fixed noises are used in step S120 regardless of the value of the label input to the trained generator 31.
  • the fixed noise used in step S120 does not need to be the same as the fixed noise used for CGAN learning.
  • the parameter calculation unit 37 of the porous structure identification unit 35 selects one or more types representing the shape and/or performance of the porous body represented by the three-dimensional image data.
  • a plurality of parameters (20 in this embodiment) are calculated and the average thereof is determined (step S130).
  • the parameters of the porous body various indicators other than the material type strength vector among those exemplified as indicators included in the above-mentioned label can be used.
  • the parameters include the porosity, solid fraction, specific surface area, pore size, particle size, and structural uniformity of pores or solids as indicators of the shape (structural characteristics) of the porous body.
  • Chord Length of the pores which is the continuous length of the pores in a given direction in the porous body
  • Chord Length of the solid which is the continuous length of the solid in the given direction in the porous body. It may contain more than one species.
  • the parameters include the pressure drop characteristics, collection characteristics, mechanical strength characteristics, electrochemical characteristics, heat conduction characteristics, heat exchange characteristics, electrical conduction characteristics, and gas adsorption characteristics of the porous materials, as examples of indicators that express the performance of the porous material. , gas purification performance, catalyst coating property, and removal efficiency of substances trapped in the porous body.
  • the parameters may include two or more types of these various indicators.
  • the parameters may include two or more types of indicators that express the shape of the porous body, may include two or more types of indicators that express the performance of the porous body, or may include two or more types of indicators that express the shape of the porous body. It may include one or more types of index representing the performance of the porous body and one or more types of index representing the performance of the porous body.
  • the parameters may include one or more of the pressure drop characteristics and collection characteristics of the porous body. In this embodiment, the parameters are the pressure drop characteristics and collection characteristics of the porous body.
  • the parameter calculation unit 37 executes a physical simulation based on each of the plurality of three-dimensional image data generated by the trained generator 31 to calculate one or more types of parameters (in this case, the pressure drop characteristics and collection characteristics of the porous body). Calculate.
  • the parameter calculation unit 37 calculates the pressure loss [Pa] as the pressure loss characteristic, and calculates the PM trapping efficiency (unit: dimensionless) as the trapping characteristic.
  • the parameter calculation unit 37 calculates the pressure loss and PM collection efficiency using FlowDict and FilterDict, which are additional modules related to CFD (Computational Fluid Dynamics) calculation of GeoDict.
  • FlowDict is a module that calculates the velocity at various points in the flow inside the porous body
  • FilterDict is a module that calculates the particle behavior of PM based on the obtained velocity field.
  • the present invention is not limited to this, and the parameter calculation unit 37 may calculate parameters using other methods.
  • the parameter calculation unit 37 performs fluid analysis using the lattice Boltzmann method as a physical simulation based on the three-dimensional image data, so that The pressure loss [Pa] may also be calculated.
  • Such a pressure loss calculation method is publicly known, and is described, for example, in paragraph 0072 of JP-A No. 2017-178729.
  • the parameter calculation unit 37 may calculate the collection efficiency as follows.
  • the parameter calculation unit 37 first performs a fluid analysis using the lattice Boltzmann method as a physical simulation based on the three-dimensional image data to PM the inside of the porous body represented by the three-dimensional image data. Calculate the amount of PM leakage [g/m 3 ] when the fluid containing the PM passes through.
  • the amount of PM leakage [g/m 3 ] is the value obtained by dividing the weight [g] of PM that has passed through the porous body, that is, the PM that was not collected by the porous body, by the volume [m 3 ] of the porous body. be.
  • Such a method for calculating the amount of PM leakage is publicly known, and is described, for example, in paragraph 0071 of Japanese Patent Application Laid-Open No.
  • the parameter calculation unit 37 calculates one or more types of parameters based on each of the 20 pieces of 3D image data. calculate. Further, the parameter calculation unit 37 calculates the average for each type of parameter (here, the average of the pressure drop characteristics and the average of the collection characteristics). The obtained average value is associated with the label at the time of generation of the three-dimensional image data from which the parameters were calculated. If a plurality of labels are input to the trained generator 31 in step S120, the average value of the parameters is calculated for each label.
  • the porous structure specifying unit 35 determines whether the end condition of the search process is satisfied (step S140). If the termination condition is not satisfied, the porous structure specifying unit 35 determines the value of the label to be next input to the learned generator 31 based on the parameters calculated in step S130 (step S150), and performs step S150. Processing after S120 is performed. As a result, the porous structure identifying unit 35 inputs the label to the learned generator 31 to generate three-dimensional image data, and performs the next learning based on the parameters calculated from the generated three-dimensional image data. The process of determining a label to be input to the processing generator 31 is repeatedly performed to sequentially search the porous body (three-dimensional image data).
  • the porous structure identifying unit 35 may determine the next label to be input to the learned generator 31 based on the parameters calculated in the most recent step S130. Furthermore, the porous structure specifying unit 35 determines the next label to be input to the learned generator 31 based on at least a part of the parameters calculated in step S130 that has been repeatedly executed not only recently but multiple times. do it. The porous structure identifying unit 35 may determine the next label to be input to the learned generator based on all of the parameters calculated so far. The porous structure specifying unit 35 may randomly determine the next label to be input to the trained generator, regardless of the parameters calculated so far.
  • the porous structure specifying unit 35 determines in step S140 that the condition for ending the search process is satisfied, it ends the search process.
  • the porous structure specifying unit 35 specifies suitable three-dimensional image data from among the three-dimensional image data generated during the search process (step S160), and performs the porous structure specifying process. finish.
  • the porous structure identification unit 35 of this embodiment uses the label input to the learned generator 31 as an explanatory variable, and the learned generator 31 uses the label input to the learned generator 31 as an explanatory variable based on the input.
  • an optimization method is used to identify three-dimensional image data for which the one or more types of parameters are suitable.
  • the optimization method for example, one or more of Bayesian optimization, genetic algorithm, and gradient method can be used. In this embodiment, Bayesian optimization is used.
  • the optimization processing section 36 of the porous structure identification section 35 performs the above-described search processing using this multi-objective Bayesian optimization method.
  • Using an optimization method to identify 3D image data for which one or more types of parameters are suitable includes cases where the optimization method is used to identify suitable 3D image data, and cases where the optimization method is used to identify suitable 3D image data This includes the case where a plurality of candidates for dimensional image data (for example, a plurality of Pareto optimal solutions, which will be described later and are finally obtained by repeating steps S120 to S150) are specified. In the latter case, suitable three-dimensional image data may be specified from among a plurality of candidates for suitable three-dimensional image data using a method other than the optimization method.
  • Multi-objective Bayesian optimization is a method for finding a Pareto front (a set of Pareto optimal solutions) when there is a trade-off relationship between multiple objective functions.
  • a Pareto optimal solution is a point that is not dominated by any other point on the objective function space defined by multiple objective functions.
  • pressure loss and collection efficiency are used as objective functions, and the smaller the pressure loss, the better, and the higher the collection efficiency, the more preferable. Therefore, a point B where the pressure loss is large and the collection efficiency is low with respect to a certain point A on the objective function space is dominated by that point A.
  • a point that is not dominated by other points is a Pareto optimal solution.
  • a set of objective functions which are one or more types of parameters, are calculated for a porous body represented by three-dimensional image data generated based on all evaluated labels (explanatory variables).
  • the Pareto front is updated.
  • the Pareto optimal solution is updated, and finally a plurality of Pareto optimal solutions are obtained.
  • acquisition functions are known, such as EHVI (Expected Hyper-Volume Improvement), HVPI (Hypervolume-based Probability of Improvement), and TS (Thompson Sampling).
  • EHVI was used as the acquisition function.
  • EHVI is a function for obtaining a point with the maximum expected value of increase in Pareto hypervolume. The point with the highest expected value is selected as the next point to search.
  • search candidate labels to be evaluated may be discretely determined in advance within the range of possible label values.
  • an acquisition function EHVI in this embodiment
  • the label that gives the maximum value of the acquisition function is selected as the next label to evaluate.
  • the optimization processing unit 36 uses the multi-objective Bayesian optimization method in the above-mentioned search processing to perform the following processing, for example.
  • step S115 of the search process the optimization processing unit 36 selects a label to be searched first from among the search candidate labels discretely determined in advance.
  • the optimization processing unit 36 randomly selects the label to be searched first.
  • the operator may select the label.
  • the number of labels selected in the first step S115 may be one or more, and in this embodiment, it is ten.
  • the learned generator 31 generates 20 pieces of three-dimensional image data (200 pieces of three-dimensional image data in total) based on each of the ten labels selected in step S115.
  • the parameter calculation unit 37 calculates the average of the parameters of the 20 three-dimensional image data for each label. That is, a total of 10 parameter averages are calculated. Since there are two types of parameters in this embodiment, pressure loss and collection efficiency, a total of 10 combinations of the average value of pressure loss and the average value of collection efficiency are calculated. The average of a total of 10 parameters thus calculated (a combination of the average value of pressure loss and the average value of collection efficiency, ie, 10 sets of parameters in total) is the set of objective functions described above.
  • the optimization processing unit 36 After determining in step S140 that the termination condition is not satisfied, the optimization processing unit 36 performs step S150. In step S150, the optimization processing unit 36 first identifies a Pareto front from the set of objective functions.
  • the optimization processing unit 36 uses a Gaussian process regression equation for the relationship between the evaluated labels (here, the 10 labels selected in step S115) and the objective function to calculate all unevaluated search candidate labels.
  • the acquisition function (in this embodiment, EHVI) is calculated for each of the labels, and the one label that gives the maximum value of the acquisition function (the label with the highest expected value for improving the current Pareto front) is identified. , that label is determined to be the next label to be evaluated (that is, the next label to be input to the trained generator 31).
  • step S120 performed after step S150, the optimization processing unit 36 inputs the next label to be evaluated determined in step S150 to the trained generator 31 to generate 20 three-dimensional image data, and continues.
  • the parameter calculation unit 37 calculates the average of the parameters corresponding to the label.
  • the optimization processing unit 36 adds the average of the parameters thus calculated (the combination of the average value of pressure loss and the average value of collection efficiency) to the set of objective functions.
  • the optimization processing unit 36 determines whether the objective function added this time improves the Pareto front (current Pareto front) identified in the previous step S150, and determines whether the objective function added this time improves the Pareto front (current Pareto front). updates the current Pareto front.
  • the optimization processing unit 36 calculates an acquisition function (EHVI in this embodiment) for each of all unevaluated labels among the search candidate labels, and calculates the acquisition function (EHVI in this embodiment) for each of the search candidate labels, and calculates the acquisition function (EHVI in this embodiment), and calculates the acquisition function (EHVI in this embodiment) for each of the search candidate labels, and calculates the acquisition function (EHVI in this embodiment), and calculates the acquisition function (EHVI in this embodiment) for each of the search candidate labels, and calculates the acquisition function (EHVI in this embodiment), and calculates the acquisition function (EHVI in this embodiment) for each of the search candidate labels.
  • the label is determined to be input to the learned generator 31 in the next step S120.
  • the optimization processing unit 36 repeatedly executes steps S120 to S150 in this manner until it is determined in step S140 that the termination condition is satisfied. As a result, calculation of parameters for unevaluated labels among search candidate labels and updating of the Pareto front based on the calculated parameters are repeatedly performed.
  • the predetermined termination condition of step S140 of the search process may be, for example, the number of repetitions of steps S120, S130, and S150 (i.e., the number of searches), or the condition in which the Pareto front of the objective function does not change (a condition in which a new Pareto optimal solution is The Pareto This may be when the hypervolume exceeds a predetermined threshold, or when the Pareto hypervolume exceeds a predetermined threshold and the state in which the Pareto hypervolume does not increase continues for a predetermined number of searches.
  • the optimization processing unit 36 may update the Pareto front and calculate the Pareto hypervolume before step S140 instead of in step S150.
  • the optimization processing unit 36 that performs the search process using Bayesian optimization as described above can be created using, for example, PHYSBO, which is a Python library for Bayesian optimization. Acquisition functions such as EHVI, HVPI, and TS described above can also be implemented using the PHYSBO library.
  • step S160 When using multi-objective Bayesian optimization as described above, one or more parameters (in this case, pressure loss and collection efficiency) are selected from a plurality of finally obtained Pareto optimal solutions. Identify (select) the optimal solution. Then, the three-dimensional image data corresponding to the identified Pareto-optimal solution (the three-dimensional image data that was the basis for calculating the pressure drop and collection efficiency of the Pareto-optimal solution in step S130) is It is specified as suitable three-dimensional image data. Such identification processing may be performed by the optimization processing unit 36 based on a predetermined method, or may be performed by an operator.
  • step S120 20 pieces of 3D image data are generated for one label, and in step S130, the average value of the parameters of the 20 pieces of 3D image data is calculated for each of one or more types of parameters. Calculated. Therefore, in step S160, one or more parameters (in this case, pressure loss and collection efficiency) are selected as the basis for calculating a suitable Pareto optimal solution from among the multiple Pareto optimal solutions finally obtained.
  • the label at the time of generation of three-dimensional image data may also be specified. That is, a label corresponding to a suitable Pareto optimal solution may be specified.
  • the three-dimensional image data generated by the learned generator 31 based on the identified label may be specified as three-dimensional image data having one or more types of parameters suitable.
  • suitable 3D image data may be specified from among the 20 3D image data already generated in step S120, or may be selected from noise different from the 20 fixed noises used in step S120. It may be specified from among one or more three-dimensional image data newly generated by the learned generator 31 based on the above specified label.
  • the learned generator 31 can generate an infinite number of three-dimensional image data from one label, and the values of parameters calculated from these three-dimensional image data will be different values to some extent. Therefore, labels that can generate three-dimensional image data for which one or more types of parameters are suitable are first identified, and one or more types of parameters are suitable from among the plurality of three-dimensional image data that are generated based on the identified labels. What is necessary is to specify three-dimensional image data.
  • the plurality of three-dimensional image data generated based on the identified label can be considered to have suitable values even if one or more types of parameters serving as the objective function differ to some extent. Therefore, for each of the plurality of three-dimensional image data generated based on the specified label, an index different from one or more parameters used in the objective function (e.g. mechanical strength characteristics, structural uniformity of pores, The above-mentioned index such as structural uniformity) may be calculated, and three-dimensional image data suitable for that index may be finally identified as suitable three-dimensional image data in step S160.
  • an index different from one or more parameters used in the objective function e.g. mechanical strength characteristics, structural uniformity of pores, The above-mentioned index such as structural uniformity
  • the porous structure specifying unit 35 finishes the porous structure specifying process, and performs an output process of outputting the result of the porous structure specifying process described above as process result data (step S170). , this routine ends.
  • the processing result data includes, for example, data in which the suitable three-dimensional image data specified in step S160 is associated with a label and a parameter of the three-dimensional image data.
  • the processing result data may include data in which three-dimensional image data is associated with a label and a parameter for each of the plurality of Pareto optimal solutions finally obtained in the search process.
  • the processing result data may be output by storing the data in the storage device of the design device 20 or an external storage medium connected to the design device 20, or by outputting the data based on the operator's instructions via the input unit 22. This may also be done by outputting the processing result data to the output unit 23.
  • FIG. 9 is an explanatory diagram of labels input to the learned generator 31, generated three-dimensional image data, and parameters.
  • the image on the left side of Figure 9 has labels A(1,0,0), B(0.75,0,0.25), C(0.5,0,0.5), D(0.25 , 0, 0.75), and E(0, 0, 1) are input to the trained generator 31, the three-dimensional image data output from the trained generator 31 is An example is shown. Note that these three-dimensional image data are generated by inputting one fixed noise together with the above-mentioned label to the trained generator 31.
  • the image in FIG. 9 is an image corresponding to one cross section of the porous body among the three-dimensional image data.
  • the material type strength vector A indicates a sintered simulated structure
  • the material type strength vector E indicates a sponge structure.
  • the generated three-dimensional image data is also sintered. It is possible to obtain three-dimensional image data of a hybrid material that is a mixture of a simulated structure and a sponge structure. For example, in the three-dimensional image data generated based on the material type strength vector B, the strength of the sintered simulated structure is 0.75 and the strength of the sponge structure is 0.25, so the hybrid structure is more similar to the sintered simulated structure. This becomes the image data of the material.
  • the three-dimensional image data generated based on the material type intensity vector D has an intensity of 0.25 for the sintered simulated structure and 0.75 for the sponge structure, so it is image data of a hybrid material that is more similar to the sponge structure. becomes.
  • the strength of the sintered simulated structure is 0.5 and the strength of the sponge structure is 0.5, so it is an intermediate between the sintered simulated structure and the sponge structure.
  • This is image data of the hybrid material.
  • the graph on the right side of FIG. 9 plots the parameters calculated by the parameter calculation unit 37 based on the three-dimensional image data of each of the material type strength vectors A to E, that is, the pressure loss [Pa] and the collection efficiency [-]. It is something.
  • the graph on the right side of FIG. 9 shows the average parameter of a plurality of three-dimensional image data generated by inputting a plurality of fixed noises together with the above labels to the learned generator 31 for each of the material type intensity vectors A to E. Values and standard deviation ranges are shown.
  • the parameter values of the three-dimensional image data generated by the trained generator 31 vary depending on the label. Therefore, by changing the labels and having the trained generator 31 generate three-dimensional image data representing various porous bodies, three-dimensional image data of various porous bodies having different parameter values can be efficiently obtained. be able to. Therefore, a porous body having suitable parameters can be efficiently specified using the plurality of generated three-dimensional image data.
  • the porous structure identification unit 35 generates a plurality of fixed noises (the number corresponding to the number of fixed noises, here 20) based on one label. ) It is preferable to calculate the average value of the parameters of the three-dimensional image data and consider the calculated average value as the value (representative value) of the parameter of the three-dimensional image data corresponding to the label. Then, as in the embodiment described above, the porous structure specifying unit 35 performs step S150 of the search process based on this average value and specifies a label corresponding to a suitable Pareto optimal solution in step S160. is preferred.
  • FIG. 10 is an explanatory diagram showing a plurality of Pareto-optimal solutions finally obtained through the search process and how suitable three-dimensional image data is specified from the plurality of Pareto-optimal solutions.
  • Each point indicated by a square in FIG. 10 is a plurality of Pareto optimal solutions finally obtained through the search process.
  • suitable three-dimensional image data can be specified, for example, as follows. First, among the plurality of Pareto-optimal solutions, the Pareto-optimal solution having the most preferable value for each of the plurality of objective functions is identified. For example, in FIG. 10, a Pareto optimal solution G with the lowest pressure loss and a Pareto optimal solution F with the highest collection efficiency are identified.
  • a virtual point that has the most preferable value of the identified Pareto optimal solution is set as a utopia point.
  • a point UP point indicated by a circle in FIG. 10
  • the one closest to the utopia point is identified as the Pareto-optimal solution with favorable pressure loss and collection efficiency, and the Pareto-optimal solution is The corresponding three-dimensional image data is identified as suitable three-dimensional image data.
  • the Pareto optimal solution H identified as follows is defined as the Pareto optimal solution closest to the utopia point.
  • each value of the objective function of a plurality of Pareto optimal solutions finally obtained through the search process is normalized so that the minimum value is 0 and the maximum value is 1.
  • the horizontal axis (pressure loss) in FIG . ⁇ x min ) and the value of y (collection efficiency here) is normalized as (y ⁇ y min )/(y max ⁇ y min ).
  • FIG. 10 also shows values 0 and 1 on the vertical and horizontal axes after normalization.
  • any one of the 20 three-dimensional image data that is the basis for calculating the Pareto optimal solution H is specified as three-dimensional image data that is suitable for pressure loss and collection efficiency.
  • pressure loss and collection efficiency are specified as three-dimensional image data suitable for this purpose.
  • the porous structure specifying unit 35 performs a process of specifying suitable three-dimensional image data using such a method.
  • the process of identifying suitable three-dimensional image data may be performed using other methods.
  • the porous structure identifying unit 35 first identifies the label corresponding to the Pareto optimal solution H, and then newly assigns a plurality of three-dimensional image data to the trained generator 31 based on the identified label. Three-dimensional image data with suitable pressure loss and collection efficiency may be identified from among the plurality of generated three-dimensional image data. Further, the porous structure identifying unit 35 may identify the Pareto optimal solution closest to the utopia point using another method. A target range is set in advance for each of the objective functions, and the porous structure identifying unit 35 identifies a Pareto-optimal solution that satisfies all of the preset target ranges among the plurality of Pareto-optimal solutions as a suitable Pareto-optimal solution. You may.
  • an upper limit value of pressure loss and a lower limit value of collection efficiency are set in advance as target ranges, and the porous structure identification unit 35 determines a Pareto optimal solution that satisfies both the upper limit value of pressure loss and the lower limit value of collection efficiency. may be identified as a suitable Pareto optimal solution.
  • a method for manufacturing a porous body that includes the above-described method for designing a porous body is also executed.
  • the method for manufacturing the porous body is a design step of executing the above-described porous body design method; a formation step of producing a porous body based on three-dimensional image data in which the one or more parameters specified in the design step are suitable; including.
  • the porous body design method described above for example, the porous body design routine shown in FIG. 4 is executed.
  • the porous body represented by the suitable three-dimensional image data specified in S160 of the porous body design routine described above becomes the designed porous body, that is, the porous body to be manufactured.
  • a porous body is produced based on suitable three-dimensional image data specified in the design process.
  • a porous body may be produced based on three-dimensional image data using three-dimensional modeling using a 3D printer.
  • the three-dimensional modeling for example, an additive manufacturing method or a stereolithography method may be used.
  • laser sintering may be used as three-dimensional modeling.
  • the forming step includes a pore former placement step in which a pore former is placed to form the pores of the porous body, a raw material placement step in which raw materials to form the porous body are placed, and the placed raw materials are sintered.
  • the method may include a sintering step of sintering, and a process of repeating the pore forming material placement step, the raw material placement step, and the sintering step multiple times.
  • the removal of the pore-forming material may be performed simultaneously with the sintering of the raw material in the sintering process.
  • a porous body based on three-dimensional image data may be directly formed by a three-dimensional modeling method.
  • an inverted porous body is formed by inverting the space and object of the three-dimensional image data using a three-dimensional modeling method, and the porous body is created based on the three-dimensional image data using the inverted porous body.
  • an unfired porous body is formed by filling the spaces in the inverted porous body with a raw material slurry for the porous body, and the porous body is formed by firing the unfired porous body and burning out the inverted porous body. You may. By doing so, for example, even if a porous body cannot be directly formed using a three-dimensional modeling method depending on the raw material of the porous body, a porous body can be formed based on three-dimensional image data.
  • a label including one or more types of indicators is input, and a label is generated. Accordingly, a plurality of three-dimensional image data representing various porous bodies can be efficiently generated. Therefore, a porous body having suitable parameters can be efficiently identified using the plurality of generated three-dimensional image data.
  • the labels are material type strength vectors (x1, x2, ..., xn).
  • this material type intensity vector By using this material type intensity vector, a certain porous body can be expressed as a hybrid material that mixes the structures and characteristics of n types of patterns contained in the porous body. Then, by performing a learning step using a label including this material type intensity vector, it is possible to cause the trained generator 31 to generate three-dimensional image data of a porous body having various structures and characteristics, which is suitable. It is possible to widen the search range for porous bodies having such parameters. As a result, it becomes easier to specify a porous body having more suitable parameters.
  • the label input to the trained generator 31 is used as an explanatory variable, and the label is expressed using the three-dimensional image data generated by the trained generator 31 based on the input.
  • three-dimensional image data for which one or more types of parameters are suitable is specified using an optimization method.
  • suitable three-dimensional image data may be identified by calculating the corresponding parameters for all search candidate labels without using an optimization method, in other words, an all-point search may be performed. If the number is large, the time required for the search tends to increase, and if the number of search candidate labels is small, the accuracy of the search (the accuracy of identifying three-dimensional image data having suitable parameters) tends to decrease.
  • an optimization method it is possible to efficiently identify suitable 3D image data while reducing the number of searches even when there are many search candidate labels, and therefore to identify 3D image data that has suitable parameters. It is possible to suppress a decrease in accuracy while suppressing an increase in processing time.
  • a porous body having suitable parameters is You can get a body.
  • the true data generation unit 25 uses the GRF method to generate three-dimensional image data of the sintered simulated structure, and uses GeoDict to generate three-dimensional image data of the sphere-filled structure and the sponge structure. Although it was generated and used for real data, it is not limited to this.
  • the true data generation unit 25 When using the material type intensity vector as a label, the true data generation unit 25 generates a porous body with n types of patterns (n bases of the material type intensity vector) whose number is the same as the number of components of the material type intensity vector. It is only necessary to generate three-dimensional image data representing the porous body corresponding to each vector.
  • the true data generation unit 25 sets n types of combinations of target porosity and standard deviation ⁇ used in the GRF method, and associates each combination with n material type intensity vectors used in the true data. In this way, n types of three-dimensional image data may be generated using the GRF method.
  • the true data generation unit 25 fills an area of the size of the three-dimensional image data using GeoDict in the same manner as the sphere filling structure, and then performs expansion/contraction processing of the particles to cause an insulating effect between adjacent particles. By simulating behavior during sintering (movement, bonding, etc.), three-dimensional image data of a sintered simulated structure may be generated using GeoDict instead of the GRF method.
  • the true data generation unit 25 is not limited to the GRF method or GeoDict, and may use any method to generate three-dimensional image data representing the structure of a numerically generated virtual porous body.
  • the true data generation unit 25 may generate three-dimensional image data from the structure of an actual porous body imaged by an X-ray CT device.
  • FIG. 11 is an explanatory diagram showing how three-dimensional image data is generated from an actual porous body using CT scanning.
  • a porous body obtained by cutting out a part of the partition wall of an actual honeycomb filter is prepared (Fig. 11 left), and multiple tomographic images are obtained by performing a CT scan on the porous body ( (center in FIG. 11), three-dimensional image data in which position information and brightness values of each voxel are associated may be generated based on the plurality of tomographic images (right in FIG. 11).
  • the brightness values are binarized using a threshold automatically determined (for example, by discriminant analysis method (Otsu's binarization)) from the distribution of the brightness values of each voxel
  • True data may be generated using the three-dimensional image data after binarization. Further, from the generated three-dimensional image data, a process may be performed to exclude from the three-dimensional image data regions in which no porous body exists and only space exists (for example, regions I and J on the right side of FIG. 11).
  • the true data generation unit 25 may generate three-dimensional image data based on a plurality of tomographic images input to the design device 20, for example.
  • the number of components of the material type intensity vector and A plurality of porous bodies each having the same number of n types of patterns may be manufactured and used to generate true data. That is, in the embodiment described above, n types of three-dimensional image data generation methods are set, but similarly, n types of porous body manufacturing methods are set, and porous bodies manufactured by n types of manufacturing methods are set. Each body may be associated with a material type strength vector for each porous body pattern (here, manufacturing method).
  • n types of manufacturing methods may be used in which at least one of the material of the constituent particles of the porous body, the average particle diameter of the constituent particles, the average particle diameter of the pore-forming material, and the blending ratio of the constituent particles and the pore-forming material differs from each other.
  • a plurality of porous bodies are actually manufactured using each of the n types of manufacturing methods, and the three-dimensional image data based on the obtained porous bodies is associated with the material type intensity vector and used as true data.
  • Multiple porous bodies manufactured using the same manufacturing method have similar structures and characteristics, but are not completely the same. Therefore, multiple porous bodies manufactured using n different manufacturing methods are prepared. By doing so, each of the material type intensity vectors used in the true data (for example, in the above embodiment, one of (1,0,0), (0,1,0), and (0,0,1)) It is possible to obtain three-dimensional image data corresponding to the image.
  • the material type intensity vector is used as a label included in the true data, but the label is not limited to this.
  • the label may include one or more types of indicators representing the shape and/or performance of the porous body.
  • examples of indicators representing the shape of a porous body include the porosity of the porous body, solid fraction, specific surface area, pore diameter, particle size, structural uniformity of pores or solids, cord length of pores, and solid cord length. These values may be measured based on three-dimensional image data, may be measured based on the actual porous body that is the source of the three-dimensional image data, or may be measured based on three-dimensional image data. It may be measured based on the actual porous body produced.
  • the porosity of the porous body may be calculated as the ratio of pore voxels to the total number of voxels in the three-dimensional image data.
  • the solid rate of the porous body may be calculated as the ratio of solid voxels to the total number of voxels in the three-dimensional image data.
  • the porosity and solidity ratio of the porous body may be calculated by mercury porosimetry, Archimedes method, etc. based on the actual porous body.
  • the specific surface area of the porous body may be the specific surface area per unit volume of the porous body or the specific surface area per unit mass of the porous body.
  • the specific surface area per unit volume of a porous body may be a value per the total volume of the porous body, a value per volume of pores (spaces) of the porous body, or a value per unit volume of the porous body ( It may also be a value per volume of object).
  • the surface area of the object portion used for calculating the specific surface area may be calculated based on, for example, the area of a portion where a solid voxel and a pore voxel are adjacent in three-dimensional image data.
  • the pore diameter of the porous body is determined by the average value of the pore diameter, the representative value of the pore diameter distribution (for example, D10, D50, D90, etc.), and the value representing the pore diameter distribution (standard deviation, maximum value). , minimum value, etc.).
  • the pore diameters D10, D50, and D90 are also referred to as 10% pore diameter, 50% pore diameter, and 90% pore diameter.
  • the pore diameter D10 means the 10% pore diameter from the smallest pore diameter in the volume-based integrated fraction of pore diameter distribution measurement. The same applies to the pore diameters D50 and D90.
  • These values regarding the pore diameter can be obtained by, for example, dividing the pore (pore voxel) portion in the three-dimensional image data into a plurality of pores by setting the boundaries of the plurality of pores using, for example, division using the WaterShed (watershed) algorithm.
  • the pore diameter is calculated as the equivalent spherical diameter for each of the divided multiple pores, and the pore diameter is calculated based on the distribution of the calculated pore diameter and statistical values based on the distribution (average, variance, maximum value, minimum value, etc.). good.
  • These values regarding the pore diameter may be calculated by mercury porosimetry or the like based on an actual porous body.
  • the particle size of the porous material is determined by the average value of the particle size, the representative value of the particle size distribution (for example, D10, D50, D90, etc.), and the value representing the particle size distribution (standard deviation, maximum value). , minimum value, etc.).
  • the particle diameters D10, D50, and D90 are also referred to as 10% particle diameter, 50% particle diameter, and 90% particle diameter.
  • the particle size D10 means the particle size of 10% from the smallest particle size in the volume-based integrated fraction of particle size distribution measurement. The same applies to the particle diameters D50 and D90.
  • the structural uniformity of pores or solids in a porous body means the dispersion of values related to pores or solids calculated for each region by dividing the porous body into a plurality of regions. Examples of values related to pores or solids calculated for each area include the above-mentioned porosity, solid rate, specific surface area, pore size, and particle size.
  • the cord length of pores is the continuous length of pores in a predetermined direction in a porous body.
  • the predetermined direction may be, for example, a direction parallel to any of the XYZ axes used for the position information of voxels of the three-dimensional image data, that is, any one of the XYZ directions.
  • the code length may be calculated for two or more of the XYZ directions. More specifically, the chord length of the pore is the average value of the chord length of the pore, the representative value of the distribution of the chord length of the pore (for example, L10, L50, L90, etc.), the value representing the distribution of the chord length of the pore (standard deviation, maximum value, minimum value, etc.).
  • the cord length L10 of the pores means the cord length of 10% of the pores from the smallest pore cord length in the integrated fraction of the length standard of the pore cord length distribution measurement.
  • the value related to the chord length of the pores in the X direction of the porous body can be calculated as follows. First, three-dimensional image data is divided into a plurality of cross sections (for example, XY cross sections) parallel to the X direction. The number of multiple cross sections matches the number of voxels in the Z direction of the three-dimensional image data.
  • voxels representing pores are examined, and a group of pore voxels that are continuous in a straight line in the X direction is identified as one continuous pore voxel.
  • the number of consecutive pore voxels that is, the code length of the pores is counted.
  • the cord length of a solid is the continuous length of the solid in a predetermined direction in a porous body. More specifically, the chord length of a solid is an average value of the chord length of the solid, a representative value of the distribution of the chord length of the solid (for example, L10, L50, L90, etc.), a value representing the distribution of the chord length of the solid (standard deviation, maximum value, minimum value, etc.).
  • the solid cord length L10 means the solid cord length of 10% of the smallest solid cord length in the length-based integrated fraction of the solid cord length distribution measurement.
  • the value related to the code length of a solid can be calculated by counting the number of consecutive voxels representing the solid (solid voxels), similarly to the value related to the code length of a pore.
  • These indices representing the shape of the porous body can be calculated using, for example, a module called PoroDict or a module called MatDict of GeoDict.
  • examples of indicators representing the performance of a porous body include, in addition to the pressure drop characteristics and collection properties of the porous body used in the embodiments described above, the mechanical strength characteristics and electrochemical properties of the porous body. properties, heat conduction properties, heat exchange properties, electrical conduction properties, gas adsorption properties, gas purification performance, catalyst coating properties, and removal efficiency of substances trapped in the porous body. These values may be measured based on the three-dimensional image data, may be measured based on the actual porous body that is the source of the three-dimensional image data, or may be measured based on the three-dimensional image data. It may be measured based on the actual porous body produced. For example, mechanical strength properties can be calculated using a module called ElastoDict from GeoDict.
  • Thermal conductivity properties and electrical conductivity properties can be calculated using a module called ConductoDict of GeoDict.
  • Electrochemical characteristics can be calculated using a module called BatteryDict of GeoDict.
  • Gas adsorption characteristics can be calculated using AddiDict of GeoDict.
  • Catalyst coating properties can be calculated using the VOF method installed in OpenFOAM, which is open source software for fluid simulation, or Ansys Fluent, which is thermal fluid analysis software from ANSYS.
  • the heat exchange characteristics can be calculated using the thermal fluid analysis installed in OpenFOAM or Ansys Fluent.
  • the true data generation unit 25 associates the three-dimensional image data with the porosity of the porous body represented by the three-dimensional image data in step S100. to generate true data.
  • the value of the label (porosity) used as true data can be, for example, a value in the range of 0% or more and less than 100%, or may be a value in the range of 1% or more and 99% or less.
  • the true data generation unit 25 may generate three-dimensional image data having various porosities by, for example, the above-mentioned GRF method, and use the generated three-dimensional image data as the true data.
  • the true data generation unit 25 generates three-dimensional image data having various porosity values in a wider range to include the porosity range assumed for the porous body to be designed, and generates three-dimensional image data as true data. It is preferable to use When the learning process in step S110 is performed using such true data, the learned generator 31 calculates the porosity indicated by the label in response to the input of an arbitrary label (in this case, an arbitrary porosity value). It is possible to generate three-dimensional image data (more precisely, three-dimensional image data of a porous body having a porosity close to that indicated by the label) that matches the porosity indicated by the label.
  • the generator 31 can efficiently generate a plurality of three-dimensional image data representing porous bodies with various porosity.
  • the label may include the material type strength vector and porosity.
  • a vector (x1, x2, x3, P) that is a combination of the material type strength vector and the porosity P of the embodiment described above may be used as the label.
  • the labels used as the true data may be, for example, a vector in which one of x1 to x3 has a value of 1 and the rest have a value of 0, as in the above-described embodiment, and the value of the porosity P is also combined. .
  • the learned generator 31 When the learning process in step S110 is performed using such true data, the learned generator 31 generates a porous body indicated by the label for inputting an arbitrary vector (x1, x2, x3, P). It is possible to generate three-dimensional image data (more precisely, three-dimensional image data close to the three-dimensional image data of the porous body indicated by the label) that matches the label. More specifically, it is a hybrid material in which the structures and characteristics of three types of porous bodies, sintered simulated structure, sphere-filled structure, and sponge structure, are mixed in various proportions, and the porosity P is set to an arbitrary value. Three-dimensional image data can be caused to be generated by the trained generator 31.
  • the true data generation unit 25 corresponds the three-dimensional image data and the pressure loss of the porous body represented by the three-dimensional image data in step S100. to generate true data.
  • the value of the label (pressure loss) used as the true data can be, for example, various values selected within the range of possible values of the porous body.
  • the true data generation unit 25 generates, for example, a plurality of three-dimensional image data, calculates the pressure loss for each three-dimensional image data by the method described in step S130, and calculates a predetermined value that can be used as true data. When a label value within the range is calculated, the value and the three-dimensional image data may be used as true data.
  • the learned generator 31 calculates the pressure loss indicated by the label in response to the input of an arbitrary label (in this case, an arbitrary pressure loss value). It is possible to generate three-dimensional image data (more precisely, three-dimensional image data of a porous body having a pressure loss close to the pressure loss indicated by the label) that matches the pressure loss indicated by the label.
  • the generator 31 can efficiently generate a plurality of three-dimensional image data representing porous bodies with various pressure losses.
  • the label may include only the pressure loss, or the label may include the material type strength vector and the pressure drop, similar to the case where the label includes the material type strength vector and the porosity. Further, the label may include the material type strength vector, porosity, and pressure loss. In this way, the label can use an appropriate combination of one or more types of indicators representing the shape and/or performance of the porous body.
  • one or more of the above-mentioned indicators representing the shape and/or performance of the porous body can be used in combination as appropriate.
  • One or more types of indicators included in the label and one or more types of indicators (parameters) calculated in the porous structure identification step may include one or more indicators that are not included in the other, or each may contain at least one type of indicator. may be different, and may not include the same type of indicators.
  • the parameter calculation unit 37 calculates one or more types of parameters by executing a physical simulation, but the invention is not limited to this.
  • the parameter calculation unit 37 may calculate one or more types of parameters using another method, or a worker or another device may calculate one or more types of parameters instead of the parameter calculation unit 37.
  • an operator creates a porous body based on each of the plurality of three-dimensional image data generated by the trained generator 31, and uses the created porous body to determine one or more types of parameters by experiment. It may be calculated.
  • an operator may use three-dimensional modeling using a 3D printer to create a porous body based on three-dimensional image data.
  • the operator may input the parameters calculated through experiments into the design device 20, and the porous structure specifying unit 35 may execute the processing from step S140 onwards.
  • the parameter calculation unit 37 may calculate one or more types of parameters by applying a learning model.
  • the learning model is based on the results of a physical simulation based on 3D image data that has been performed in advance, or the results of an experiment on a porous body actually produced based on 3D image data. By obtaining correspondence relationship data and learning that correspondence relationship, it is possible to build in advance a model that directly calculates (predicts) one or more types of parameters when 3D image data is input. Can be done.
  • the learning model can be constructed in advance as a model that calculates feature amounts representing the shape of the porous body from three-dimensional image data and calculates one or more types of parameters from the feature amounts.
  • a learning model can be constructed using, for example, a support vector machine (SVM).
  • SVM support vector machine
  • the method of constructing a learning model using SVM is known, for example, “Machine learning and data-driven characterization framework for porous materials: Permeability prediction and channeling defect detection” by Tomoki Yasuda, Shinichi Ookawara, Shiro Yoshikawa, and Hideyuki Matsumoto, Chemical. Engineering Journal 420 (2021) 130069 DOI: 10.1016/j.cej.2021.130069.
  • the porous structure identification unit 35 performs a search process using an optimization method to identify three-dimensional image data having one or more types of parameters suitable.
  • the operator may determine the next label value to be input to the learned generator 31 based on the parameters calculated in step S130, without using the optimization method.
  • the porous structure specifying unit 35 may randomly determine the value of the label to be input to the learned generator 31 next.
  • the porous structure specifying unit 35 may omit step S150 and perform each of steps S120 and S130 multiple times.
  • various labels may be input to the learned generator 31 to generate a large number of three-dimensional image data and one or more types of parameters may be calculated based on each three-dimensional image data.
  • the porous structure specifying unit 35 may perform step S120 and step S130 for all of the search candidate labels discretely defined above.
  • the porous structure identification unit 35 or the operator performs the process of step S160 based on the result of step S130, and identifies suitable three-dimensional image data from among the three-dimensional image data generated in step S120. do it.
  • each parameter for example, pressure loss and collection efficiency
  • the three-dimensional image data generated in step S120 is plotted on a graph as shown in FIG.
  • Three-dimensional image data having parameters closest to the most preferable point for example, a point where the pressure drop is lowest and the collection efficiency is highest
  • suitable three-dimensional image data may be specified as suitable three-dimensional image data.
  • the porosity is 1% or more and 99% or less and one or more types of parameters are selected from among the plurality of three-dimensional image data generated in step S120.
  • 3D image data may be specified.
  • the porous structure identifying unit 35 calculates the porosity of the plurality of three-dimensional image data generated in step S120, and if the porosity is not 1% or more and 99% or less, the three-dimensional image data may be excluded and not specified as suitable three-dimensional image data.
  • the present invention can be used in the manufacturing industry of porous bodies used as filters for purifying exhaust gas emitted from automobile engines, stationary engines for construction machinery and industrial use, combustion equipment, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ceramic Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Organic Chemistry (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Structural Engineering (AREA)
  • Materials Engineering (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

多孔質体の設計方法は、多孔質体の3次元画像データと多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けた複数の真のデータを用いて条件付き敵対的生成ネットワークによる学習を行って、ラベルに基づく3次元画像データを生成する学習済み生成器を得る(S110)学習ステップと、ラベルの値を種々変更して学習済み生成器に入力し(S120)、入力に基づいて学習済み生成器が生成した複数の3次元画像データの各々に対して3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出し(S130)、算出された1種類以上のパラメータに基づいて、生成された複数の3次元画像データの中から1種類以上のパラメータが好適な3次元画像データを特定する(S160)多孔質構造特定ステップと、を含む。

Description

多孔質体の設計方法及び多孔質体の製造方法
 本発明は、多孔質体の設計方法及び多孔質体の製造方法に関する。
 従来、ハニカムフィルタなど、排ガスを浄化するものにおいて、多孔質体を用いることが知られている。例えば、特許文献1には、気孔率及び透過率が所定の数値範囲及び関係式を満たすことで、気孔率が十分小さく且つ透過率が十分大きい多孔質体が記載されている。また、特許文献2には、多孔質の隔壁1mm2当たりの連通孔の数である連通孔数が3800本以上6000本以下であることが好ましい旨が記載されている。連通孔数は、X線CT装置を用いて隔壁の連続断層画像を撮像し、Math2Market GmbH社によって開発されたミクロ構造シミュレーションソフトであるGeoDictを用いて連続断層画像から作成した3次元モデルを用いて算出することが記載されている。
特開2015-189666号公報 特許第6940786号
 ところで、多孔質体に求められるパラメータとしては、例えば気孔率や連通孔数などの形状に関するパラメータや、圧損特性,捕集特性,機械的強度特性など性能に関するパラメータなどの多くの種類がある。そして、これらのパラメータのうち1種類以上について、好適なパラメータを有する多孔質体を効率よく特定したいという要望があった。
 本発明はこのような課題を解決するためになされたものであり、好適なパラメータを有する多孔質体を効率よく特定することを主目的とする。
 本発明は、上述した主目的を達成するために以下の手段を採った。
 本発明の多孔質体の設計方法は、
 多孔質体の3次元画像データと該多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けた複数の真のデータを用いて条件付き敵対的生成ネットワークによる学習を行って、前記ラベルに基づく3次元画像データを生成する学習済み生成器を得る学習ステップと、
 前記ラベルの値を種々変更して前記学習済み生成器に入力し、該入力に基づいて前記学習済み生成器が生成した複数の3次元画像データの各々に対して該3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出し、算出された該1種類以上のパラメータに基づいて、前記生成された複数の3次元画像データの中から前記1種類以上のパラメータが好適な3次元画像データを特定する多孔質構造特定ステップと、
 を含むものである。
 本発明の多孔質体の製造方法は、
 上述した多孔質体の設計方法を実行する設計工程と、
 前記設計工程で特定された前記1種類以上のパラメータが好適な3次元画像データに基づく多孔質体を作製する形成工程と、
 を含むものである。
 この多孔質体の設計方法では、多孔質体の3次元画像データと多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けた複数の真のデータを用いて条件付き敵対的生成ネットワーク(Conditional Generative Adversarial Network,以下、CGANと称する)による学習を行って、ラベルに基づく3次元画像データを生成する学習済み生成器を得る。そして、ラベルの値を種々変更して学習済み生成器に入力し、入力に基づいて学習済み生成器が生成した複数の3次元画像データの各々に対して3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出し、算出された1種類以上のパラメータに基づいて、生成された複数の3次元画像データの中から1種類以上のパラメータが好適な3次元画像データを特定する。この多孔質体の設計方法では、CGANによる学習を行って用意した学習済み生成器を用いることで、1種類以上の指標を含むラベルを入力として、ラベルに応じた種々の多孔質体を表す複数の3次元画像データを効率よく生成できる。そのため、生成された複数の3次元画像データを用いて好適なパラメータを有する多孔質体を効率よく特定できる。また、この多孔質体の製造方法では、上述した多孔質体の設計方法で特定された好適な3次元画像データに基づいて多孔質体を作製するため、好適なパラメータを有する多孔質体を得ることができる。
設計装置20の概略を示す構成図。 生成器31が3次元画像データを生成する様子を模式的に示す説明図。 識別器32がラベル再現性を考慮した真画像らしさスコアを生成する様子を模式的に示す説明図。 多孔質体設計ルーチンの一例を示すフローチャート。 真のデータの説明図。 GRF法で3次元画像データを生成する様子を示す説明図。 球充填構造の3次元画像データを生成する様子を示す概念図。 機械学習部30の説明図。 学習済み生成器31に入力するラベルと生成された3次元画像データ及びパラメータの説明図。 探索処理によって最終的に得られた複数のパレート最適解と、複数のパレート最適解から好適な3次元画像データを特定する様子と、を示す説明図。 実在の多孔質体からCTスキャンを用いて3次元画像データを生成する様子を示す説明図。
 次に、本発明の実施形態について、図面を用いて説明する。図1は、本発明の多孔質体の設計方法を実行する多孔質体の設計装置の一実施形態である設計装置20の概略を示す構成図である。本実施形態では、多孔質体は、ディーゼルエンジンの排ガス中の粒子状物質(パティキュレート・マター(PM))を捕集する機能を持つディーゼル・パティキュレート・フィルタ(DPF)として用いられるものである。ただし、多孔質体の用途はこれに限られない。また、多孔質体は、例えば気孔率が1%以上99%以下としてもよい。
 設計装置20は、装置本体21と、キーボードやマウスなどの入力部22と、ディスプレイなどの出力部23と、を含むコンピュータ(ハードウェア)を備えている。装置本体21は、図示しないCPU,ROM,RAM,記憶装置,GPU(Graphics Processing Unit),入出力インターフェース,及び通信ポートを備えている。また、設計装置20は、装置本体21の記憶装置に記憶されたプログラム(ソフトウェア)を備えている。図1に示すように、設計装置20は、これらのハードウェア及びソフトウェアの協働により構築される機能ブロックとして、真のデータ生成部25と、機械学習部30と、多孔質構造特定部35と、を備えている。
 真のデータ生成部25は、機械学習部30が学習処理を行う際に用いる複数の真のデータを生成する。真のデータは、多孔質体の3次元画像データとその多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けたデータである。真のデータに含まれる3次元画像データはX線CT装置で撮像された実在の多孔質体の構造を3次元画像にしたものでもよいし、数値的に作成された仮想的な多孔質体の構造を3次元画像にしたものでもよい。
 3次元画像データは、例えば画素(ボクセル)の3次元上の位置を表す位置情報(例えばXYZ座標)と、ボクセルの色情報とを対応づけたデータである。本実施形態では、3次元画像データに含まれる複数のボクセルの各々は、多孔質体の内部の空間(気孔)と多孔質体を構成する物体とのいずれであるかを表すように2値化された色情報を有する。色情報は、例えば値0及び値1に2値化されていてもよいし、グレースケールの輝度値として値0及び値255に2値化されていてもよい。なお、色情報はこれに限らず3値化された情報であってもよいし、値0から値255までの輝度値を含んでいてもよいし、RGB値を含んでいてもよい。
 ラベルに含まれる、多孔質体の形状(構造的な特徴)を表す指標の例としては、多孔質体の気孔率,固体率,比表面積,気孔径,粒子径,気孔又は固体の構造均一性,多孔質体中の所定方向についての気孔の連続長さである気孔のコードレングス(Chord Length),及び多孔質体中の所定方向についての固体の連続長さである固体のコードレングスが挙げられる。ラベルにはこれらのうち1種類以上の指標が含まれていてもよい。ラベルに含まれる、多孔質体の性能を表す指標の例としては、多孔質体の圧損特性、捕集特性、機械的強度特性、電気化学特性、熱伝導特性、熱交換特性、電気伝導特性、ガス吸着特性、ガスの浄化性能、触媒コート性、及び多孔質体に捕集された物質の除去効率が挙げられる。ラベルにはこれらのうち1種類以上の指標が含まれていてもよい。また、本実施形態では、ラベルに含まれる指標として、nを2以上の整数として多孔質体をn種のパターンに分類した場合における多孔質体に含まれる各々のパターンの強度を表す材料種強度ベクトル(x1,x2,・・・,xn)を用いる。材料種強度ベクトルは、多孔質体の形状を表す指標の一種である。材料種強度ベクトルについては後述する。ラベルは、これらの種々の指標のうち2種類以上を含んでいてもよい。例えば、ラベルは多孔質体の形状を表す2種類以上の指標を含んでいてもよいし、多孔質体の性能を表す2種類以上の指標を含んでいてもよいし、多孔質体の形状を表す1種類以上の指標と多孔質体の性能を表す1種類以上の指標とを含んでいてもよい。
 機械学習部30は、複数の真のデータを用いて条件付き敵対的生成ネットワーク(CGAN)による学習を行う。機械学習部30は、生成器31と、識別器32とを備えている。
 生成器31は、ノイズ(潜在変数とも言う。各要素が乱数のベクトル)とラベル(条件ベクトルとも言う)とを入力して、入力に基づく3次元画像データを生成する。図2は、生成器31が3次元画像データを生成する様子を模式的に示す説明図である。図示するように、生成器31は、全結合層と転置畳み込み層とを主要部として有するニューラルネットワークとして構成されている。生成器31にノイズ(例えば400次元のベクトル)及びラベルが入力されると、まず、全結合(Fully connect)により3次元画像の特徴マップである一連の3次元配列(例えば8×4×4の3次元配列が96個)に変換されたノイズが、ラベルの一要素が同サイズの3次元配列に拡大(Up Sampling)されたラベル要素数の配列群(例えば8×4×4の3次元配列が3個)と連結(Concatenate)されて、連結後の3次元配列群(例えば8×4×4の3次元配列が99個)が生成される。次に、生成器31は、連結後の3次元配列群を繰り返し転置畳み込み(Deconvolution)していき、最終的に一つの3次元画像データ(例えば256×128×128の3次元配列が1個)を生成する。
 識別器32は、ラベルと3次元画像データとを入力して、入力した3次元画像データが入力したラベルが示す多孔質体のパターンとマッチしている度合いと本物の画像らしさを表すスコアとの合算値である「ラベル再現性を考慮した真画像らしさスコア」を出力する。図3は、識別器32がラベル再現性を考慮した真画像らしさスコアを生成する様子を模式的に示す説明図である。識別器32は、畳み込み層と全結合層を主要部として有するニューラルネットワークとして構成されている。識別器32にラベル及び3次元画像データが入力されると、まず、識別器32は、入力された3次元画像データを繰り返し畳み込み(Convolution)していき、特徴マップである一連の3次元配列に変換して(例えば16×8×8の3次元配列が128個)、さらに全結合により一つの特徴ベクトル(例えば48次元のベクトル)に変換する。一方、識別器32は、入力されたラベル(例えば3次元)を全結合により特徴ベクトルと同サイズ(例えば48次元)のベクトルに変換する。そして、識別器32は、特徴ベクトルとラベルから変換されたベクトルとの内積であるスカラー値(ラベル再現性に対応)と特徴ベクトルから全結合により変換されたスカラー値(真画像らしさに対応)との和を、上記のラベル再現性を考慮した真画像らしさスコアとして出力する。例えば、生成器31が真画像らしい画像を出力したとしても、その画像が違うラベルの真画像に対して似ていて真画像らしいのであれば、生成器31の学習は不十分であり、ラベル再現性を達成できていないことになる。生成器31に、与えたラベルの意図に沿った真画像らしい画像を生成させるために、識別器32はラベル再現性を考慮した真画像らしさスコアを算出するネットワーク構造として設計されている。
 詳細は後述するが、機械学習部30においてCGANによる学習が行われることで、生成器31の全結合層と転置畳み込み層,及び識別器32の全結合層と畳み込み層で用いられる複数(例えば数十万~数億、問題に応じてそれ以上)の重み及びバイアス等のパラメータの値が調整され更新されていく。その結果として得られる学習済みの生成器31は、入力したラベルに基づいてそのラベルの値が表す多孔質体のパターンとマッチした本物らしい3次元画像データを生成できる。
 多孔質構造特定部35は、学習済み生成器31が生成した3次元画像データを利用して、3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータが好適な3次元画像データを特定する。多孔質構造特定部35は、最適化処理部36と、パラメータ算出部37と、を備えている。パラメータ算出部37は、学習済み生成器31が生成した3次元画像データに基づいて、3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出する。最適化処理部36は、ラベルの値を種々変更して学習済み生成器31に入力し、入力に基づいて学習済み生成器31が生成した複数の3次元画像データの各々に対してパラメータ算出部37にパラメータを算出させる。最適化処理部36は、算出されたパラメータに基づいて、学習済み生成器31に生成された複数の3次元画像データの中から1種類以上のパラメータが好適な3次元画像データを特定する。このとき、最適化処理部36は、学習済み生成器31に入力するラベルを説明変数とし、入力に基づいて学習済み生成器31が生成した3次元画像データに基づいてパラメータ算出部37が算出した1種類以上のパラメータを目的関数として、最適化手法を用いて1種類以上のパラメータが好適な3次元画像データを特定する。
 次に、こうして構成された本実施形態の設計装置20の動作、特に、設計装置20が実行する多孔質体の設計方法について説明する。多孔質体の設計方法は、
 多孔質体の3次元画像データと該多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けた複数の真のデータを用いて条件付き敵対的生成ネットワークによる学習を行って、前記ラベルに基づく3次元画像データを生成する学習済み生成器31を得る学習ステップと、
 前記ラベルの値を種々変更して前記学習済み生成器31に入力し、該入力に基づいて前記学習済み生成器31が生成した複数の3次元画像データの各々に対して該3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出し、算出された該1種類以上のパラメータに基づいて、前記生成された複数の3次元画像データの中から前記1種類以上のパラメータが好適な3次元画像データを特定する多孔質構造特定ステップと、
 を含む。
 図4は、設計装置20により実行される多孔質体設計ルーチンの一例を示すフローチャートである。このルーチンを開始すると、設計装置20は、まず、学習ステップの準備処理として、CGANに用いる複数の真のデータを生成する処理を行う(ステップS100)。
 真のデータは、上述したように多孔質体の3次元画像データとラベルとを対応づけたものであり、ラベルとラベルにマッチした3次元画像データとが対応付けられている。そのため真のデータの3次元画像データを真画像とも称する。真のデータは、CGANにおける識別器32への入力として用いられる。
 図5は、真のデータの説明図である。本実施形態では、ラベルとして上述した材料種強度ベクトル(x1,x2,・・・,xn)を用いる。材料種強度ベクトルは、nを2以上の整数として多孔質体をn種のパターン(材料種)に分類した場合における多孔質体に含まれる各々のパターンの強度を表す。ここで言う強度とは、ある多孔質体の中に含まれるn種の多孔質体の各々のパターンの成分の大きさを意味する。言い換えると、ある多孔質体を、その多孔質体に含まれるn種のパターンの構造や特徴を混ぜ合わせたハイブリッド材料として表現できるようにしたものが材料種強度ベクトルである。各成分x1~xnは、0から1までの値とし、その成分を含まない(強度が最も低い)場合を値0、その成分の強度が最も高い場合を値1としてもよい。また、材料種強度ベクトルの各成分の和(x1+x2+・・・+xn)は常に値1としてもよい。複数の真のデータの各々は、3次元画像データと、材料種強度ベクトルが構成する材料種強度ベクトル空間のn個の基底ベクトルのうちその3次元画像データが属する多孔質体のパターンを表すと定義されたものと、を対応づけたデータを含んでいてもよい。また、基底ベクトルは、材料種強度ベクトルにおいてn種の多孔質体のパターンのうちいずれか1種のパターンの強度を値0以外とし(n-1)種のパターンの強度を値0としたベクトルであってもよい。すなわち、基底ベクトルは、材料種強度ベクトルの成分x1,x2,・・・,xnのうちいずれか1つの成分の値を0以外とし、それ以外の成分の値を0としたベクトルであってもよい。基底ベクトルは、材料種強度ベクトルの成分x1,x2,・・・,xnのうちいずれか1つの成分の値を1とし、それ以外の成分の値を0とした単位ベクトルであってもよい。本実施形態では、真のデータに対応付けられる材料種強度ベクトルは、この単位ベクトルとした。
 材料種強度ベクトルの一例について具体的に説明する。本実施形態では、n=3とし、3種類のパターンの多孔質体は、焼結模擬構造,球充填構造,及びスポンジ構造とした。図5の左側の3次元画像データが焼結模擬構造の一例であり、図5の中央の3次元画像データが球充填構造の一例であり、図5の右側の3次元画像データがスポンジ構造の一例である。焼結模擬構造は、多孔質体の焼結構造を模擬した構造である。球充填構造は、多孔質体の構成要素となる複数の粒子(球体)を充填した構造である。スポンジ構造は、球充填構造の粒子と空間とを反転させた構造である。焼結模擬構造は、球充填構造とは異なり多孔質体を構成する複数の粒子が変形及び結合した構造をしている。これら3種の多孔質体をそれぞれ材料種強度ベクトルの成分x1,x2,x3に割り当てた。すなわち焼結模擬構造の強度をx1で表し、球充填構造の強度をx2で表し、スポンジ構造の強度をx3で表すものとした。また、各成分x1~x3は、0から1までの値とし、その成分を含まない(強度が最も低い)場合を値0、その成分の強度が最も高い場合を値1とした。そのため、図5に示すように、焼結模擬構造の3次元画像データには、材料種強度ベクトルとして単位ベクトル(1,0,0)が対応づけられる。球充填構造の3次元画像データには、材料種強度ベクトルとして単位ベクトル(0,1,0)が対応づけられる。スポンジ構造の3次元画像データには、材料種強度ベクトルとして単位ベクトル(0,0,1)が対応づけられる。
 ステップS100では、真のデータ生成部25は、この焼結模擬構造,球充填構造,及びスポンジ構造の各々の3次元画像データを生成する。3次元画像データは、X線CT装置で撮像された実在の多孔質体の構造を3次元画像にしたものでもよいし、数値的に生成された仮想的な多孔質体の構造を3次元画像にしたものでもよい。仮想的な多孔質体の構造を表す3次元画像データの生成には、例えばGRF(Gaussian Random Field,ガウシアンランダムフィールド)法、又はMath2Market GmbH社のGeoDict(仮想材料生成ソフト)を用いることができる。本実施形態では、真のデータ生成部25は、GRF法を用いて焼結模擬構造の3次元画像データを生成し、GeoDictを用いて球充填構造及びスポンジ構造の3次元画像データを生成する。本実施形態では、真のデータ生成部25のうちGRF法を実行する部分の機能は例えばプログラミング言語であるPythonを用いて作製したプログラムを用いて実現した。ただし、Pythonに限らず他の汎用的なプログラミング言語(C,Fortran,又はBasicなど)を用いてもよい。
 GRF法を用いた3次元画像データの生成について説明する。GRF法は、与えられた乱数配列に従ってランダムな骨格構造およびランダムな空孔表面構造を有する多孔質体の画像を生成する方法である。GRF法では、設定された標準偏差σと閾値γとに基づいて、多孔質体の画像を生成することができる。図6は、GRF法で3次元画像データを生成する様子を示す説明図である。図6では、説明の便宜上、3次元画像データのうち多孔質体の1断面に相当する画像を示している。GRF法で3次元画像データを生成する場合、真のデータ生成部25は、まず、生成する3次元画像データと同サイズの一様分布乱数配列(各々の乱数は0から1の間の一様確率分布から抽出した値を有する)を生成して、生成した乱数配列の各要素を3次元的に配置した3次元画像データとする(図6(a))。次に、真のデータ生成部25は、生成された3次元画像データに対して、標準偏差σのガウシアンフィルタ(Gaussian Filter)を適用して畳み込みを行う。これにより、畳み込み後の3次元画像は畳み込み前の画像よりも色の濃淡が平滑化し、標準偏差σの大きさに応じたスケールの多孔質体骨格構造を有する画像となる(図6(b))。例えば、一様分布乱数配列に対応した画像である図6(a)から、色の濃淡が平滑化した画像である図6(b)が生成される。このときの畳み込みの結果は、標準偏差σの値によって異なる態様となる。図6(b)の3つの画像は、図6(a)の画像の畳み込みを行う時の標準偏差σの値を2,3,4の3種類に設定した場合の各々の畳み込み後の画像の一例を示している。続いて、真のデータ生成部25は、畳み込み後の3次元画像データの各ボクセルの色情報を閾値γを用いて2値化する。閾値γは0超過1未満のいずれかの値であり、この閾値γと各ボクセルの色情報の値(0以上1以下の値)との大小関係を比較することで、色情報の値を0又は1に2値化する。これにより、各ボクセルが多孔質体の内部の空間(気孔)と多孔質体を構成する物体とのいずれであるかを表すように2値化された3次元画像データが得られる(図6(c))。このときの2値化の結果は、閾値γの値によって異なる態様となる。図6(c)の3つの画像は、図6(b)のうち標準偏差σの値を4として畳み込みを行った場合の画像データ(図6(b)の右側の画像)を、閾値γの値として0.48,0.49,0.50の3種類に設定した場合の各々の2値化後の画像の一例を示している。図6からもわかるように、GRF法で3次元画像データを生成する場合には、標準偏差σ及び閾値γの値を種々変更することで互いに異なる構造や特徴を有する多孔質体の3次元画像データを生成できる。例えば標準偏差σを異ならせることで互いに多孔体の骨格構造のスケールが異なる3次元画像データを生成でき、閾値γを異ならせることで互いに気孔率および平均気孔径の異なる多孔質体の3次元画像データを生成できる。逆に、同様の構造や特徴を有する多孔質体(例えば特定の平均気孔径及び気孔率を有するような多孔質体)の3次元画像データを複数生成するには、異なる一様分布乱数配列のそれぞれに対して、同様の構造や特徴を有するように(例えば特定の平均気孔径及び気孔率を有するように)標準偏差σ及び閾値γの値の組合わせを調整して3次元画像データを生成すればよい。このとき、標準偏差σの値は固定値として閾値γの値を調整してもよい。
 なお、真のデータ生成部25は、GRF法で生成した3次元画像データに対して、3次元画像データを微調整する処理として、周囲の物体から浮いており実際には作製できないような物体部分を除去(該当のボクセルを物体から空間に変更)する処理を行ってもよい。真のデータ生成部25は、GRF法で3次元画像データを生成する際に、多孔質体のうち内部の流体の流れ方向の両端に位置する最表面の気孔率が多孔質体の内部の気孔率よりも大きくなるように多孔質体の表層構造を生成する処理を行ってもよい。例えば、真のデータ生成部25は、上述した3次元画像データの一様分布乱数配列を生成する際に、生成する3次元画像データのサイズに対して流れ方向の両端に長さ5ボクセルずつの領域を追加して、流れ方向に沿った長さが10ボクセル分大きいサイズの一様分布乱数配列を生成する。流れ方向は、例えば3次元画像データのボクセルの位置情報に用いているXYZ軸のうちいずれかに平行な方向として設定してもよい。例えば、真のデータ生成部25は、3次元画像データのサイズが256×128×128ボクセルであった場合には、266×128×128ボクセルのサイズの一様分布乱数配列を生成する。続いて、真のデータ生成部25は、追加した領域に対して、流れ方向に沿って1から0.9まで減衰するフィルタを適用して、流れ方向の両端に近いほど乱数の値が小さくなる(すなわち気孔になりやすくなる)ようにする。次に、真のデータ生成部25は、上述した標準偏差σ及び閾値γを用いて、追加した領域も含めて2値化した3次元画像データを生成し、その後に追加した領域部分を削除する。このような処理を行うことで、3次元画像データのうち流れ方向の両端に位置する最表面の気孔率が値1又はそれに近い値となり、実在の多孔質体により近い自然な表層構造を有する3次元画像データを生成できる。
 本実施形態では、真のデータ生成部25は、標準偏差σを固定値(値4)に設定し、閾値γは目標気孔率を達成するように一応分布乱数配列に応じて値を調整(設定)して、GRF法により焼結模擬構造の3次元画像データを複数生成する。目標気孔率は、平均0.55,標準偏差0.005の正規分布からランダムに抽出した値として、3次元画像データを生成する際に毎回ある程度変動させた。
 また、真のデータ生成部25は、上述したようにGeoDictを用いて、球充填構造,及びスポンジ構造の各々の3次元画像データを複数生成する。図7は、球充填構造の3次元画像データを生成する様子を示す概念図である。球充填構造は、図7に示すように、多孔質体の構成要素となる複数の粒子(球体)を上方から落下させて3次元画像データのサイズの領域内に充填していき、粒子の膨張収縮処理を行わずに単に複数の粒子を領域内に充填した状態を模擬することで作成する。そのため、球充填構造では、隣接する粒子同士はいずれも点接触している。スポンジ構造は、球充填構造と同様に複数の粒子を領域内に充填したあと、粒子と空間とを反転させて充填した粒子部分が空間となっている構造として作成する。ただし、隣接する粒子同士が点接触しているのみでは反転後の空間(気孔)の接続が悪くなる。そのため、スポンジ構造を作成する際には、粒子を充填した後に各粒子の中心位置は変更せずに直径をわずかに(例えば2ボクセル分)膨張させる処理を行うことで、粒子同士が互いに一部重複した状態にしてから反転を行うこととした。なお、上記のように領域内に粒子を充填する処理は、例えばGeoDictのGrainGeoというモジュールを用いて行うことができる。また、粒子を膨張させる処理や収縮させる処理は、例えばGeoDictのProcessGeoというモジュールを用いて行うことができる。
 真のデータ生成部25は、こうして生成した焼結模擬構造,球充填構造,及びスポンジ構造の各々の3次元画像データと、各々のラベル(ここでは材料種強度ベクトル)とを対応づけて、複数の真のデータを生成する。本実施形態のステップS100では、真のデータ生成部25は、焼結模擬構造,球充填構造,及びスポンジ構造の各々の3次元画像データを5000個ずつ生成して、計15000個の真のデータを用意する。なお、種類の同じ5000個の3次元画像データは、互いにデータの生成方法は同じであるが、互いに画像データの少なくとも一部が異なる。例えばGRF法では、毎回値が異なる一様分布乱数配列を用いることで、生成方法を同じとしつつ(多孔質体のパターンを同じとしつつ)互いにデータの少なくとも一部が異なる複数の3次元画像データを得ることができる。GeoDictを用いる場合は、粒子を落下させる位置及び粒径などの充填時の条件をランダムにすることなどにより、生成方法を同じとしつつ互いにデータの少なくとも一部が異なる3次元画像データを得ることができる。
 ステップS100で複数の真のデータを生成したあと、設計装置20は、生成された複数の真のデータを用いてCGANによる学習を行って学習済み生成器31を得る学習処理を行う(ステップS110)。このステップS110が、上述した学習ステップの一例に相当する。CGANは、生成器31と識別器32とを相反する損失関数に基づいて各々を学習させることで、ラベルに基づく本物らしい画像を生成する学習済み生成器31を得るものである。CGANでは、生成器31が入力したラベルに基づいてより真画像に近い3次元画像データ、すなわち入力したラベルにより示される多孔質体のパターンにマッチした本物らしい3次元画像データを生成して、その3次元画像データ(偽物画像とも称する)に対し識別器32がより高いラベル再現性を考慮した真画像らしさスコアを出す(識別器32に本物らしいと評価される)ように、生成器31の学習を行う。また、真のデータに含まれる3次元画像データ(真画像)に対して識別器32が出力するラベル再現性を考慮した真画像らしさスコアと、生成器31が生成した3次元画像データ(偽物画像)に対して識別器32が出力するラベル再現性を考慮した真画像らしさスコアとの差が最大になるように(偽物画像をより精密に偽物と見抜けるように)、識別器32の学習を行う。CGANでは、この生成器31の学習と識別器32の学習とを交代で繰り返し行うことで、生成器31の生成した画像を学習された識別器32がより本物らしいと評価するような学習済み生成器31を得る。
 このCGANの学習は、所定の損失関数を用いて行うことができる。損失関数の式として、本実施形態では、GANのバリエーションの1つであるWGAN-gp(Wasserstein GAN-gradient penalty)の損失関数の式(下記式(1)及び式(2))を用いる。ただし、他の損失関数を用いてもよい。
 CGANによる学習の具体的な例について説明する。図8は、機械学習部30の説明図である。ステップS110では、機械学習部30は、まず、識別器32に、上述した15000個の真のデータのうち、3種類×20個の真のデータ、合計60個の真のデータを入力する。すなわち、焼結模擬構造,球充填構造,及びスポンジ構造の各々の真のデータ(ラベルと3次元画像データとの組合わせ)を20個ずつ識別器32に入力する。同時に学習過程のその時点における生成器31にラベルとノイズとを入力して生成させた3種類×20個の偽物画像と生成器31に入力したラベルとを組み合わせた偽のデータを識別器32に入力する。識別器32は、これら60個の真のデータ及び60個の偽のデータの各々について、ラベル再現性を考慮した真画像らしさスコアを出力する。そして、機械学習部30は、識別器32の出力に基づいて式(1)のOriginal critic loss(オリジナルの識別器損失関数)を算出する。具体的には、機械学習部30は、真のデータの各々に対して出力された60個のラベル再現性を考慮した真画像らしさスコアの平均(式(1)の右辺第2項)を計算し、偽のデータの各々に対して出力された60個のラベル再現性を考慮した真画像らしさスコアの平均(式(1)の右辺第1項)を計算し、その差を式(1)のOriginal critic lossとする。さらに、機械学習部30は、式(1)の右辺第3項(Gradient penalty,勾配ペナルティ)を算出する。具体的には、機械学習部30は、それらの60個の真画像と60個の偽画像からなる60組の画像ペアに対し、各ペアの画像を0から1の一様分布乱数から抽出された値の比で内分して60個の内挿画像を生成し、それぞれのラベル情報と組み合わせて60個の内挿画像データxi|yを得る。さらに、機械学習部30は、各々のxi |y に対する識別器32の出力であるD(xi|y)の勾配のL2ノルムの1からの偏差の二乗の平均に係数λを乗じたものをGradient penaltyとする。そして、機械学習部30は、算出したGradient penaltyとOriginal critic lossとの和を識別器32の損失関数(式(1)のLD)とする。係数λは値10が典型的な値であり、本実施形態でも値10とした。そして、機械学習部30は、この損失関数LDに基づいて、損失関数LDが最小となるように、より具体的には式(1)の右辺全体が最小化されるように、識別器32の学習を行う。識別器32の学習は、具体的には、識別器32の畳み込み層と全結合層とで用いられる複数のパラメータの値の更新を行うことを意味する。これにより、真のデータに含まれる3次元画像データ(真画像)に対して識別器32が出力するラベル再現性を考慮した真画像らしさスコアと、生成器31が生成した3次元画像データ(偽物画像)に対して識別器32が出力するラベル再現性を考慮した真画像らしさスコアと、の差が最大になるように(偽物画像をより精密に偽物と見抜けるように)、識別器32の学習が行われる。このように60個の真のデータに基づく識別器32の学習を1イタレーション(iteration)と称する。識別器32は、15000個の真のデータを用いて学習を行うように、15000/60=250回の学習、すなわち250イタレーションの学習を行う。
 また、識別器32が4イタレーションの学習を行う毎に、生成器31の1イタレーションの学習を行う。生成器31の1イタレーションの学習は、以下のように行う。まず、機械学習部30は、3種類のラベルと20個のノイズを生成器31に入力する。続いて、機械学習部30は、入力されたラベルとノイズとの組み合わせに基づいて生成器31が出力した60個の偽物画像(3種類のラベル×20個のノイズ)と、各々の偽物画像の生成時に生成器31に入力したラベルと、を組み合わせた60個の偽のデータを学習過程のその時点における識別機32に入力する。そして、機械学習部30は、60個の偽のデータに対する識別器32の出力の平均値(=式(2)の右辺)を計算して生成器31の損失関数(式(2)のLG)とする。そして、機械学習部30は、この損失関数LGが最小となるように生成器31の学習を行う。生成器31の学習は、具体的には、生成器31の全結合層と転置畳み込み層とで用いられる複数のパラメータの値の更新を行うことを意味する。これにより、偽のデータに含まれる3次元画像データ(偽画像)に対して識別器32が出力するラベル再現性を考慮した真画像らしさスコアが最大になるように(生成器31が生成する偽物画像をより真画像に近づけるように)学習が行われる。このように60個の偽のデータに基づく生成器31の学習を1イタレーション(iteration)と称する。生成器31は、識別器32が4イタレーション学習するごとに1イタレーション学習する。すなわち、識別器32の250イタレーションの学習に対して生成器31は63イタレーションの学習を行う。
 上述した生成器31及び識別器32の学習に用いられる20個のノイズの要素は正規分布から抽出されるランダムな値だが、20個のノイズは互いに異なる。ただし、同じ20個のノイズが各ラベルに対して用いられる。そのためこの20個のノイズを固定ノイズとも称する。
 上述した250イタレーションの識別器32の学習と63回の生成器31の学習とを行う処理を1エポック(Epoch)と称する。そして、生成器31が生成する偽物画像が真画像に十分近くなるまでのエポック数を繰り返して行うことで、学習済み生成器31を得る。後述する図9,10に示すデータを得た際には、上記の1エポックを920回繰り返したところで偽物画像が真画像に十分に近づいたため学習を終了した。
 このようにCGANの学習を行って得られた学習済み生成器31は、1種類以上の指標を含むラベルを入力として、ラベルに応じた種々の多孔質体を表す複数の3次元画像データを効率よく生成できる。より具体的には、任意のラベル(ここでは材料種強度ベクトル)の入力に対して、そのラベルの示す構造のパターンとマッチした3次元画像データ(より正確にはラベルが示す構造のパターンとマッチし、かつ真画像に近い3次元画像データ)を生成することができる。例えば、学習済み生成器31に材料種強度ベクトルとして(1,0,0)を入力すると、焼結模擬構造のパターンとマッチし且つ真画像に近い3次元画像データが生成される。また、学習済み生成器31には、真のデータに用いたラベルである3種類の材料種強度ベクトル(1,0,0),(0,1,0),及び(0,0,1)に限らず、任意の材料種強度ベクトル(x1,x2,x3)の入力に対して、入力された材料種強度ベクトルが示す構造のパターンとマッチした3次元画像データを生成できる。これにより、材料種強度ベクトルを用いて、n種のパターンの多孔質体(ここでは焼結模擬構造,球充填構造,及びスポンジ構造の3種の多孔質体)の構造や特徴を種々の割合で混ぜ合わせたハイブリッド材料の3次元画像データを、学習済み生成器31に生成させることができる。なお、学習済み生成器31に3次元画像データを生成させる際には、ラベルに加えて、ステップS110の学習処理と同様にランダムに発生させるノイズも、学習済み生成器31に入力する。
 なお、上記のステップS110のようなCGANによる学習を行う機械学習部30は、例えばプログラミング言語であるPython上でTensorFlow及びPyTorchなどの深層学習用の汎用ライブラリを利用して作成することができる。
 ステップS110を行うと、設計装置20は、ステップS120~S160の処理(多孔質構造特定処理)を行う。このステップS120~S160が、上述した多孔質構造特定ステップの一例に相当する。
 本実施形態の多孔質構造等特定処理では、多孔質構造特定部35は、まず、ステップS115~S150の処理(探索処理)を行う。この探索処理では、多孔質構造特定部35は、まず、最初に学習済み生成器31に入力するラベルの値を決定する(ステップS115)。多孔質構造特定部35は、例えばラベルの値をランダムに決定してもよいし、作業者から入力部22を介して取得した値に決定してもよい。ステップS115で決定するラベルの数は1個以上であればよく、複数個であってもよい。続いて、多孔質構造特定部35は、ステップS115で決定したラベルを学習済み生成器31に入力して、学習済み生成器に3次元画像データを生成させる(ステップS120)。学習済み生成器31は、多孔質構造特定部35から入力した1個のラベルと、上述したランダムに発生させた複数(本実施形態では20個)の固定ノイズと、に基づいて、3次元画像データを複数(本実施形態では20個)生成する。ステップS115で複数のラベルの値が決定された場合は、学習済み生成器31は複数のラベルの各々と固定ノイズとに基づいて3次元画像データをそれぞれ複数生成する。20個の固定ノイズは、互いにノイズ中の各要素の少なくとも一部の値が異なる。ステップS120で用いる20個の固定ノイズは、学習済み生成器31に入力するラベルの値にかかわらず同じものを用いる。ステップS120で用いる固定ノイズは、CGANの学習に用いる固定ノイズと同一である必要はない。次に、多孔質構造特定部35のパラメータ算出部37は、生成された3次元画像データに基づいて、3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを複数(本実施形態では20個)算出してその平均を求める(ステップS130)。
 ここで、多孔質体のパラメータとしては、上述したラベルに含まれる指標として例示したもののうち材料種強度ベクトル以外の種々の指標を用いることができる。具体的には、パラメータは、多孔質体の形状(構造的な特徴)を表す指標として、多孔質体の気孔率,固体率,比表面積,気孔径,粒子径,気孔又は固体の構造均一性,多孔質体中の所定方向についての気孔の連続長さである気孔のコードレングス(Chord Length),及び多孔質体中の所定方向についての固体の連続長さである固体のコードレングスのうち1種以上を含んでいてもよい。パラメータは、多孔質体の性能を表す指標の例として、多孔質体の圧損特性、捕集特性、機械的強度特性、電気化学特性、熱伝導特性、熱交換特性、電気伝導特性、ガス吸着特性、ガスの浄化性能、触媒コート性、及び多孔質体に捕集された物質の除去効率のうち1種以上を含んでいてもよい。パラメータは、これらの種々の指標のうち2種類以上を含んでいてもよい。例えば、パラメータは多孔質体の形状を表す2種類以上の指標を含んでいてもよいし、多孔質体の性能を表す2種類以上の指標を含んでいてもよいし、多孔質体の形状を表す1種類以上の指標と多孔質体の性能を表す1種類以上の指標とを含んでいてもよい。パラメータは、多孔質体の圧損特性及び捕集特性のうち1種類以上を含んでいてもよい。本実施形態では、パラメータは、多孔質体の圧損特性及び捕集特性とした。
 パラメータ算出部37は、学習済み生成器31が生成した複数の3次元画像データの各々に基づいて、物理シミュレーションの実行により1種類以上のパラメータ(ここでは多孔質体の圧損特性及び捕集特性)を算出する。パラメータ算出部37は圧損特性として圧力損失[Pa]を算出し、捕集特性としてPMの捕集効率(単位は無次元)を算出する。本実施形態では、パラメータ算出部37は、GeoDictのCFD(数値流体力学:Computational Fluid Dynamics)計算に係る追加モジュールであるFlowDict及びFilterDictを用いて、圧力損失及びPMの捕集効率を算出する。FlowDictは多孔体内流れの各所の速度を計算するモジュールであり、FilterDictは得られた速度場に基づきPMの粒子挙動を算出するモジュールである。これに限らず、パラメータ算出部37は他の手法でパラメータを算出してもよい。例えば、パラメータ算出部37は、3次元画像データに基づいて、物理シミュレーションとして格子ボルツマン法による流体解析を行うことで、3次元画像データで表される多孔質体の内部を流体が通過する際の圧力損失[Pa]を算出してもよい。このような圧力損失の算出方法は公知であり、例えば特開2017-178729号公報の段落0072に記載されている。パラメータ算出部37は、以下のようにして捕集効率を算出してもよい。具体的には、パラメータ算出部37は、まず、3次元画像データに基づいて、物理シミュレーションとして格子ボルツマン法による流体解析を行うことで、3次元画像データで表される多孔質体の内部をPMを含む流体が通過する際のPMの漏れ量[g/m3]を算出する。PMの漏れ量[g/m3]は、多孔質体を通過したPMすなわち多孔質体に捕集されなかったPMの重量[g]を多孔質体の体積[m3]で除した値である。このようなPMの漏れ量の算出方法は公知であり、例えば特開2017-178729号公報の段落0071に記載されている。また、パラメータ算出部37は、このPMの漏れ量と、流体解析において多孔質体の内部に流入させたPMの総量[g/m3](多孔質体の単位体積[m3]あたりの値)とに基づいて、捕集効率=(PMの総量-PMの漏れ量)/PMの総量 の関係式により捕集効率(単位は無次元)を算出する。
 上述したようにステップS120で20個の3次元画像データを学習済み生成器31に生成させる場合は、パラメータ算出部37は、20個の3次元画像データの各々に基づいて1種類以上のパラメータを算出する。また、パラメータ算出部37は、パラメータの種類毎の平均(ここでは圧損特性の平均と捕集特性の平均)を求める。求めた平均値は、パラメータの算出の元となった3次元画像データの生成時のラベルと対応付けられる。ステップS120で学習済み生成器31に複数のラベルを入力した場合は、ラベル毎にパラメータの平均値を求める。
 ステップS130でパラメータ算出部37が1種類以上のパラメータを算出すると、多孔質構造特定部35は、探索処理の終了条件が成立したか否かを判定する(ステップS140)。多孔質構造特定部35は、終了条件が成立していなければ、ステップS130で算出されたパラメータに基づいて次に学習済み生成器31に入力するラベルの値を決定して(ステップS150)、ステップS120以降の処理を行う。これにより、多孔質構造特定部35は、学習済み生成器31にラベルを入力して3次元画像データを生成させる処理と、生成された3次元画像データから算出されるパラメータに基づいて次に学習済み生成器31に入力するラベルを決定する処理と、を繰り返し行って、逐次的に多孔質体(3次元画像データ)を探索していく。ステップS120を繰り返し行う際に用いる固定ノイズ(本実施形態では20個の固定ノイズ)は、毎回同じ値とする。多孔質構造特定部35は、ステップS150において、直近のステップS130で算出されたパラメータに基づいて次に学習済み生成器31に入力するラベルを決定してもよい。また、多孔質構造特定部35は、直近に限らずこれまで繰り返し実行された複数回のステップS130で算出されたパラメータの少なくとも一部に基づいて次に学習済み生成器31に入力するラベルを決定すればよい。多孔質構造特定部35は、これまでに算出されたパラメータの全てに基づいて次に学習済み生成器に入力するラベルを決定してもよい。多孔質構造特定部35は、これまでに算出されたパラメータと無関係に次に学習済み生成器に入力するラベルをランダムに決定してもよい。そして、多孔質構造特定部35は、ステップS140で探索処理の終了条件が成立したと判定すると、探索処理を終了する。探索処理を終了すると、多孔質構造特定部35は、探索処理の間に生成された3次元画像データの中から好適な3次元画像データを特定して(ステップS160)、多孔質構造特定処理を終了する。
 また、本実施形態の多孔質構造特定部35は、このように多孔質構造特定処理を行うにあたり、学習済み生成器31に入力するラベルを説明変数とし、入力に基づいて学習済み生成器31が生成した3次元画像データで表される多孔質体について算出される1種類以上のパラメータを目的関数として、最適化手法を用いて1種類以上のパラメータが好適な3次元画像データを特定する。最適化手法としては、例えばベイズ最適化,遺伝的アルゴリズム,及び勾配法のうち1以上の手法を用いることができる。本実施形態では、ベイズ最適化を用いることとした。また、本実施形態ではパラメータとして多孔質体の圧損特性及び捕集特性(より具体的には圧力損失及び捕集効率)の2つを用いているため、多目的ベイズ最適化を用いる。そのため、本実施形態では、多孔質構造特定部35の最適化処理部36が、この多目的ベイズ最適化の手法を用いて上述した探索処理を行う。「最適化手法を用いて1種類以上のパラメータが好適な3次元画像データを特定する」には、最適化手法によって好適な3次元画像データの特定まで行う場合と、最適化手法によって好適な3次元画像データの複数の候補(例えばステップS120~S150を繰り返して最終的に得られる、後述する複数のパレート最適解)の特定まで行う場合とを含む。後者の場合は、好適な3次元画像データの複数の候補の中から最適化手法とは別の手法で好適な3次元画像データの特定を行えばよい。
 多目的ベイズ最適化は、複数の目的関数の間にトレードオフの関係がある場合に、パレートフロント(パレート最適解の集合)を求める手法である。パレート最適解とは、複数の目的関数で定義される目的関数空間上で他のどの点にも支配されていない点である。例えば、本実施形態では圧力損失と捕集効率とを目的関数としており、圧力損失は小さいほど好ましく、捕集効率は高いほど好ましい。そのため、目的関数空間上のある点Aに対して圧力損失が大きく且つ捕集効率が低くなっている点Bは、その点Aに支配されている。そのように他の点に支配されていない点がパレート最適解である。
 多目的ベイズ最適化では、評価済みの全てのラベル(説明変数)の各々に基づいて生成された3次元画像データで表される多孔質体について算出される1種類以上のパラメータである目的関数の集合のパレートフロントに対し、まだ評価していないラベルのうち、そのラベルを用いれば生成される画像のパラメータである目的関数が現在のパレートフロントを改善する確率もしくは期待値が高いラベルを、獲得関数を用いて選択する。ここで選択されたラベルから生成された3次元画像データの目的関数が現在のパレートフロントを改善すれば、パレートフロントが更新される。これらの処理を繰り返すことで、パレート最適解を更新していき、最終的に複数のパレート最適解を得る。獲得関数としては、種々のものが知られており、例えばEHVI(Expected Hyper-Volume Improvement),HVPI(Hypervolume-based Probability of Improvement),TS(Thompson Sampling)などが挙げられる。本実施形態では、獲得関数としてEHVIを用いた。EHVIは、パレート超体積の増加量の期待値が最大の点を獲得するための関数である。この期待値が最大の点を、次に探索する点として選択する。
 なお、探索を開始する前に、評価すべき探索候補ラベルをラベルの値が取り得る範囲内で予め離散的に定めておいてもよい。この場合、既評価ラベルと目的関数との関係に対するガウス過程回帰式を用いて、毎回、探索候補ラベルのうち未評価の全てのラベルの各々に対して獲得関数(本実施形態ではEHVI)が計算され、獲得関数の最大値を与えるラベルが次に評価するラベルとして選択される。本実施形態では、材料種強度ベクトルの各要素(x1,x2,及びx3)の取り得る範囲を0から1とし、その範囲を0.1間隔で10分割する11個の値を各要素における探索候補の値として選んでいる。したがって、1331個(=11×11×11)の探索候補ラベルが説明変数空間における探索点として予め定められている。
 したがって、最適化処理部36は、上述した探索処理において多目的ベイズ最適化の手法を用いて例えば以下のように処理を行う。まず、最適化処理部36は、探索処理のステップS115において、上述した予め離散的に定められた探索候補ラベルの中から最初に探索するラベルを選択する。本実施形態では最適化処理部36が最初に探索するラベルの選択をランダムに行う。ただし、作業者がラベルの選択を行ってもよい。最初のステップS115で選択するラベルの数は1個以上であればよく、本実施形態では10個とした。続いて、ステップS120では、ステップS115で選ばれた10個のラベルの各々に基づく20個の3次元画像データ(合計200個の3次元画像データ)が学習済み生成器31により生成される。続くステップS130では、パラメータ算出部37により20個の3次元画像データのパラメータの平均がラベル毎に算出される。すなわち、パラメータの平均が計10個算出される。パラメータは本実施形態では圧力損失と捕集効率の2種類であるため、圧力損失の平均値と捕集効率の平均値との組み合わせが計10個算出される。こうして算出された計10個のパラメータの平均(圧力損失の平均値と捕集効率の平均値との組み合わせ、すなわち計10組のパラメータ)が、上述した目的関数の集合である。そして、最適化処理部36はステップS140で終了条件が成立していないと判定した後、ステップS150を行う。このステップS150では、最適化処理部36は、まず、目的関数の集合の中からパレートフロントを特定する。そして、最適化処理部36は、既評価ラベル(ここではステップS115で選択された10個のラベル)と目的関数との関係に対するガウス過程回帰式を用いて、探索候補ラベルのうち未評価の全てのラベルの各々に対して獲得関数(本実施形態ではEHVI)を計算し、獲得関数の最大値を与える1個のラベル(現在のパレートフロントを改善する期待値が最も高いラベル)を特定して、そのラベルを次に評価するラベル(すなわち次に学習済み生成器31に入力するラベル)に決定する。
 最適化処理部36は、ステップS150の後に行われるステップS120では、ステップS150で決定された次に評価するラベルを学習済み生成器31に入力して20個の3次元画像データを生成させ、続くステップS130ではそのラベルに対応するパラメータの平均をパラメータ算出部37に算出させる。最適化処理部36は、こうして算出されたパラメータの平均(圧力損失の平均値と捕集効率の平均値との組み合わせ)を目的関数の集合に加える。そして、最適化処理部36は、次のステップS150において、今回追加した目的関数が前回のステップS150で特定したパレートフロント(現在のパレートフロント)を改善するか否かを判定し、改善する場合には、現在のパレートフロントを更新する。すなわち今回追加した目的関数をパレート最適解の1つとして追加し、既に存在するパレート最適解のうち今回追加した目的関数に支配されるものがあればパレート最適解から除外する。そして、最適化処理部36は、探索候補ラベルのうち未評価の全てのラベルの各々に対して獲得関数(本実施形態ではEHVI)を計算し、現在のパレートフロントを改善する期待値が最も高いラベルを、次のステップS120で学習済み生成器31に入力するラベルに決定する。最適化処理部36は、ステップS140で終了条件が成立したと判定するまで、このようにステップS120~S150を繰り返し実行する。これにより、探索候補ラベルのうち未評価のラベルについてのパラメータの算出と算出されたパラメータに基づくパレートフロントの更新とが繰り返し行われる。探索処理のステップS140の所定の終了条件は、例えばステップS120,S130,S150を繰り返し行う繰り返し数(すなわち探索回数)としてもよいし、目的関数のパレートフロントが変化しない状態(新たなパレート最適解が追加されず、パレートフロントが更新されない状態)が所定の探索回数分継続したときとしてもよいし、目的関数のパレート超体積が増加しない状態が所定の探索回数分継続したときとしてもよいし、パレート超体積が所定の閾値を超えたときとしてもよいし、パレート超体積が所定の閾値を超え、かつ、パレート超体積が増加しない状態が所定の探索回数分継続したとき、としてもよい。パレート超体積に基づいてステップS140の判定を行う場合は、最適化処理部36はステップS150ではなくステップS140の前にパレートフロントの更新及びパレート超体積の算出を行えばよい。
 以上のようなベイズ最適化を用いた探索処理を行う最適化処理部36は、例えばベイズ最適化のためのPythonのライブラリであるPHYSBOを利用して作成することができる。上述したEHVI,HVPI,及びTSなどの獲得関数も、PHYSBOのライブラリを用いて実行することができる。
 以上のような多目的ベイズ最適化を用いる場合、ステップS160では、最終的に得られた複数のパレート最適解の中から、1種類以上のパラメータ(ここでは圧力損失及び捕集効率)が好適なパレート最適解を特定(選択)する。そして、特定されたパレート最適解に対応する3次元画像データ(ステップS130でそのパレート最適解の圧力損失及び捕集効率の算出の元となった3次元画像データ)を、1種類以上のパラメータが好適な3次元画像データとして特定する。このような特定を行う処理は、最適化処理部36が予め定められた手法に基づいて行ってもよいし、作業者が行ってもよい。
 上述したように、ステップS120では1個のラベルに対して20個の3次元画像データが生成され、ステップS130では1種類以上のパラメータの各々について20個の3次元画像データのパラメータの平均値が算出される。そのため、ステップS160では、まず、最終的に得られた複数のパレート最適解の中から、1種類以上のパラメータ(ここでは圧力損失及び捕集効率)が好適なパレート最適解の算出の元となった3次元画像データの生成時のラベルを特定してもよい。すなわち好適なパレート最適解に対応するラベルを特定してもよい。そして、特定されたラベルに基づいて学習済み生成器31に生成される3次元画像データを、1種類以上のパラメータが好適な3次元画像データとして特定してもよい。この場合の好適な3次元画像データは、ステップS120で既に生成済みの20個の3次元画像データの中から特定してもよいし、ステップS120で用いた20個の固定ノイズとは異なるノイズと上記の特定されたラベルとに基づいて学習済み生成器31に新たに生成された1以上の3次元画像データの中から特定してもよい。ノイズを変更することで、1つのラベルから学習済み生成器31は無数の3次元画像データを生成でき、これらの3次元画像データから算出されるパラメータの値は互いにある程度は異なる値になる。そのため、1種類以上のパラメータが好適な3次元画像データを生成できるラベルをまず特定して、特定されたラベルに基づいて生成される複数の3次元画像データの中から1種類以上のパラメータが好適な3次元画像データを特定すればよい。また、特定されたラベルに基づいて生成される複数の3次元画像データは、目的関数である1種類以上のパラメータはある程度値が異なるとしても好適な値であるとみなせる。そのため、特定されたラベルに基づいて生成される複数の3次元画像データの各々について目的関数に用いた1種類以上のパラメータとは異なる指標(例えば機械的強度特性、気孔の構造均一性、固体の構造均一性などの上述した指標)を算出し、その指標が好適な3次元画像データを、ステップS160で好適な3次元画像データとして最終的に特定してもよい。
 多孔質構造特定部35は、ステップS160の処理を行うと、多孔質構造特定処理を終了し、上述した多孔質構造特定処理の結果を処理結果データとして出力する出力処理を行って(ステップS170)、本ルーチンを終了する。処理結果データには、例えば、ステップS160で特定された好適な3次元画像データと、その3次元画像データのラベル及びパラメータと、を対応付けたデータが含まれる。処理結果データには、探索処理で最終的に得られた複数のパレート最適解の各々について3次元画像データとラベル及びパラメータとを対応付けたデータを含んでいてもよい。処理結果データの出力は、設計装置20の記憶装置又は設計装置20に接続された外部記憶媒体などにデータを記憶することで行ってもよいし、入力部22を介した作業者の指示に基づいて出力部23に処理結果データを出力することで行ってもよい。
 以上のような多孔質体設計ルーチンを実際に行って得られたデータについて、図9,10を用いて説明する。図9は、学習済み生成器31に入力するラベルと生成された3次元画像データ及びパラメータの説明図である。図9の左側の画像は、ラベルとしてA(1,0,0)、B(0.75,0,0.25)、C(0.5,0,0.5)、D(0.25,0,0.75)、E(0,0,1)の5点の材料種強度ベクトルを学習済み生成器31に入力した時の、学習済み生成器31から出力された3次元画像データの一例を示している。なお、これらの3次元画像データは上記のラベルとともに1個の固定ノイズを学習済み生成器31に入力して生成されている。図9の画像は、3次元画像データのうち多孔質体の1断面に相当する画像である。図9の画像では白色部分が空間(気孔)を表し、灰色部分が物体を表す。材料種強度ベクトルAは焼結模擬構造を示すものであり、材料種強度ベクトルEはスポンジ構造を示すものである。図9に示すように、材料種強度ベクトルとしてAとEとの中間的な値を持つ材料種強度ベクトルB~Dを学習済み生成器31に入力すると、生成される3次元画像データも焼結模擬構造とスポンジ構造とを混ぜ合わせたハイブリッド材料の3次元画像データを得ることができる。例えば、材料種強度ベクトルBに基づいて生成された3次元画像データは、焼結模擬構造の強度が0.75、スポンジ構造の強度が0.25であるため、焼結模擬構造により似たハイブリッド材料の画像データとなる。材料種強度ベクトルDに基づいて生成された3次元画像データは、焼結模擬構造の強度が0.25、スポンジ構造の強度が0.75であるため、スポンジ構造により似たハイブリッド材料の画像データとなる。材料種強度ベクトルCに基づいて生成された3次元画像データは焼結模擬構造の強度が0.5、スポンジ構造の強度が0.5であるため、焼結模擬構造とスポンジ構造の中間的なハイブリッド材料の画像データとなる。図9の右側のグラフは、材料種強度ベクトルA~Eの各々の3次元画像データに基づいてパラメータ算出部37が算出したパラメータすなわち圧力損失[Pa]と捕集効率[-]とをプロットしたものである。図9の右側のグラフは、材料種強度ベクトルA~Eの各々について、上記のラベルとともに複数の固定ノイズを学習済み生成器31に入力して生成された複数の3次元画像データのパラメータの平均値と標準偏差の範囲とを示している。このグラフに示すように、学習済み生成器31が生成した3次元画像データのパラメータの値は、ラベルに応じて種々変化する。そのため、ラベルを変化させて種々の多孔質体を表す3次元画像データを学習済み生成器31に生成させることで、パラメータの値が互いに異なる種々の多孔質体の3次元画像データを効率よく得ることができる。そのため、生成された複数の3次元画像データを用いて好適なパラメータを有する多孔質体を効率よく特定することができる。なお、図9のグラフのエラーバーで示された標準偏差の範囲からわかるように、入力されたラベルが同じであっても学習済み生成器31が生成する3次元画像データのパラメータには多少の幅が生じる。そのため、上述した実施形態のように複数の固定ノイズを用いることで、多孔質構造特定部35が1つのラベルに基づいて生成された複数(固定ノイズの数に対応する個数でありここでは20個)の3次元画像データのパラメータの平均値を算出して、算出された平均値をラベルに対応する3次元画像データのパラメータの値(代表値)とみなすことが好ましい。そして、上述した実施形態のように、多孔質構造特定部35がこの平均値に基づいて探索処理のステップS150を行ったりステップS160における好適なパレート最適解に対応するラベルの特定を行ったりすることが好ましい。
 図10は、探索処理によって最終的に得られた複数のパレート最適解を示すと共に、複数のパレート最適解から好適な3次元画像データを特定する様子を示す説明図である。図10に四角で示す各点が、探索処理によって最終的に得られた複数のパレート最適解である。この複数のパレート最適解から、例えば以下のようにして好適な3次元画像データを特定することができる。まず、複数のパレート最適解のうち、複数の目的関数の各々について、最も好ましい値を有するパレート最適解を特定する。例えば、図10では、最も圧力損失が低いパレート最適解Gと、最も捕集効率が高いパレート最適解Fとを特定する。そして、特定したパレート最適解が有する最も好ましい値を兼ね備えた仮想的な点をユートピアポイントとして設定する。図10では、パレート最適解Gの圧力損失とパレート最適解Fの捕集効率とを兼ね備えた点UP(図10に丸で示した点)が、ユートピアポイントとして設定される。次に、探索処理によって最終的に得られた複数のパレート最適解の中から、最もユートピアポイントに近いものを、圧力損失及び捕集効率が好適なパレート最適解として特定し、そのパレート最適解に対応する3次元画像データを、好適な3次元画像データとして特定する。図10では、以下のようにして特定したパレート最適解Hを、最もユートピアポイントに近いパレート最適解とした。まず、探索処理によって最終的に得られた複数のパレート最適解の目的関数の各々の値について、最小値を値0とし最大値を値1とするように正規化する。すなわち、図10の横軸(圧力損失)をx軸とし縦軸(捕集効率)をy軸とした場合に、xの値(ここでは圧力損失)を(x-xmin)/(xmax-xmin)として正規化し、yの値(ここでは捕集効率)を(y-ymin)/(ymax-ymin)として正規化する。図10では正規化後の縦軸及び横軸の値0及び値1も示した。続いて、正規化後の各パレート最適解の各点のうちユートピアポイントを通るy=x又はy=1-xの直線に最も近い点(ここではy=1-xの直線に最も近いパレート最適解H)を、好適なパレート最適解として特定する。そして、パレート最適解Hの算出の元となった20個の3次元画像データのいずれかを、圧力損失及び捕集効率が好適な3次元画像データとして特定する。例えば正規化後において20個の3次元画像データのうち圧力損失及び捕集効率の組み合わせがパレート最適解Hの圧力損失の平均値及び捕集効率の平均値の組み合わせに最も近い3次元画像データを、圧力損失及び捕集効率が好適な3次元画像データとして特定する。本実施形態では、ステップS160において多孔質構造特定部35がこのような手法で好適な3次元画像データを特定する処理を行うものとした。ただし、好適な3次元画像データを特定する処理は、他の手法で行ってもよい。例えば、多孔質構造特定部35は、上述したように、パレート最適解Hに対応するラベルをまず特定して、特定したラベルに基づいて学習済み生成器31に複数の3次元画像データを新たに生成させ、生成された複数の3次元画像データの中から、圧力損失及び捕集効率が好適な3次元画像データを特定してもよい。また、多孔質構造特定部35は、最もユートピアポイントに近いパレート最適解を他の手法で特定してもよい。目的関数の各々について目標範囲が予め設定されており、多孔質構造特定部35は、複数のパレート最適解のうち予め設定された目標範囲を全て満たすパレート最適解を、好適なパレート最適解として特定してもよい。例えば目標範囲として圧力損失の上限値と捕集効率の下限値が予め設定されており、多孔質構造特定部35はこの圧力損失の上限値と捕集効率の下限値とを共に満たすパレート最適解を、好適なパレート最適解として特定してもよい。
 また、本実施形態では、上述した多孔質体の設計方法を含んで実行される多孔質体の製造方法も実行する。多孔質体の製造方法は、
 上述した多孔質体の設計方法を実行する設計工程と、
 前記設計工程で特定された前記1種類以上のパラメータが好適な3次元画像データに基づく多孔質体を作製する形成工程と、
 を含む。
 設計工程では、上述した多孔質体の設計方法、例えば図4の多孔質体設計ルーチンを実行する。例えば上述した多孔質体設計ルーチンのS160で特定された好適な3次元画像データで表される多孔質体が、設計された多孔質体すなわち製造すべき多孔質体となる。
 形成工程では、設計工程で特定された好適な3次元画像データに基づいて、多孔質体を作製する。形成工程では、3Dプリンターによる3次元造形を利用して、3次元画像データに基づく多孔質体を作製してもよい。3次元造形としては、例えば積層造形法を用いてもよいし、光造形法を用いてもよい。多孔質体が焼結体である場合には、3次元造形としてレーザーシンタリングを用いてもよい。例えば、形成工程は、多孔質体の気孔を形成する造孔材を配置する造孔材配置工程と、多孔質体の物体を形成する原料を配置する原料配置工程と、配置された原料を焼結させる焼結工程とを含み、造孔材配置工程,原料配置工程,及び焼結工程を複数回に亘って繰り返し行う処理を含んでいてもよい。造孔材の除去は、焼結工程において原料の焼結と同時に行われてもよい。
 形成工程では、3次元画像データに基づく多孔質体を、3次元造形法により直接形成してもよい。あるいは、形成工程では、3次元画像データの空間と物体とを反転させた反転多孔質体を3次元造形法により形成して、反転多孔質体を用いて3次元画像データに基づく多孔質体を形成してもよい。例えば、多孔質体の原料スラリーで反転多孔質体の空間を埋めるようにして未焼成多孔質体を形成し、未焼成多孔質体を焼成し反転多孔質体を焼失させて多孔質体を形成してもよい。こうすることで、例えば多孔質体の原料によって3次元造形法を用いて多孔質体を直接形成できないような場合でも、3次元画像データに基づく多孔質体を形成することができる。
 これらのような3次元造形法を用いた多孔質体の製造方法は公知であり、例えば上述した特許文献1,特開2017-051931号公報,及び特開2017-052677号公報に記載されている。
 以上詳述した本実施形態の多孔質体の設計方法によれば、CGANによる学習を行って用意した学習済み生成器31を用いることで、1種類以上の指標を含むラベルを入力として、ラベルに応じた種々の多孔質体を表す複数の3次元画像データを効率よく生成できる。そのため、生成された複数の3次元画像データを用いて好適なパラメータを有する多孔質体を効率よく特定できる。
 また、ラベルは、nを2以上の整数として多孔質体をn種のパターンに分類した場合における多孔質体に含まれる各々のパターンの強度を表す指標である材料種強度ベクトル(x1,x2,・・・,xn)を含んでいる。この材料種強度ベクトルを用いることで、ある多孔質体を、その多孔質体に含まれるn種のパターンの構造や特徴を混ぜ合わせたハイブリッド材料として表現できる。そして、この材料種強度ベクトルを含むラベルを用いて学習ステップを行うことで、様々な構造や特徴を有する多孔質体の3次元画像データを学習済み生成器31に生成させることができるから、好適なパラメータを有する多孔質体の探索範囲を広くすることができる。その結果、より好適なパラメータを有する多孔質体を特定しやすくなる。
 さらに、多孔質構造特定ステップ(図4のステップS115~S160)では、学習済み生成器31に入力するラベルを説明変数とし、入力に基づいて学習済み生成器31が生成した3次元画像データで表される多孔質体について算出される1種類以上のパラメータを目的関数として、最適化手法を用いて1種類以上のパラメータが好適な3次元画像データを特定する。このように最適化手法を用いることで、ラベルの種々の値に対応する多数の多孔質体の3次元画像データの中から、好適なパラメータを有する3次元画像データを効率よく特定できる。例えば、最適化手法を用いずに全ての探索候補ラベルについて対応するパラメータを算出して好適な3次元画像データを特定する、すなわち全点探索を行ってもよいが、その場合は探索候補ラベルの数が多いと探索に要する時間が増大しやすく、探索候補ラベルの数が少ないと探索の精度(好適なパラメータを有する3次元画像データを特定する精度)が低くなりやすい。最適化手法を用いることで、探索候補ラベルの数が多くても探索数を少なくしつつ好適な3次元画像データを効率よく特定することができるため好適なパラメータを有する3次元画像データを特定する際の処理時間の増大を抑制しつつ精度の低下も抑制できる。
 また、本実施形態の多孔質体の製造方法では、上述した多孔質体の設計方法で特定された好適な3次元画像データに基づいて多孔質体を作製するため、好適なパラメータを有する多孔質体を得ることができる。
 なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
 例えば、上述した実施形態では、真のデータ生成部25は、GRF法を用いて焼結模擬構造の3次元画像データを生成し、GeoDictを用いて球充填構造及びスポンジ構造の3次元画像データを生成して真のデータに用いたが、これに限られない。ラベルとして材料種強度ベクトルを用いる場合は、真のデータ生成部25は、材料種強度ベクトルの成分の数と同じ数であるn種のパターンの多孔質体(材料種強度ベクトルのn個の基底ベクトルの各々に対応する多孔質体)を表す3次元画像データを生成できればよい。例えば、真のデータ生成部25は、GRF法で用いる目標気孔率及び標準偏差σの組合わせをn種類設定して、各々の組合わせを真のデータで用いるn個の材料種強度ベクトルに対応付けることで、GRF法を用いてn種類の3次元画像データを生成してもよい。あるいは、真のデータ生成部25は、GeoDictを用いて球充填構造と同じ方法で3次元画像データのサイズの領域内に充填した後に、粒子の膨張収縮処理を行うことで隣接する粒子間の焼結時の挙動(移動や結合など)を模擬することで、GRF法ではなくGeoDictを用いて焼結模擬構造の3次元画像データを生成してもよい。真のデータ生成部25は、GRF法又はGeoDictに限らず、数値的に生成された仮想的な多孔質体の構造を表す3次元画像データをどのような方法で生成してもよい。
 また、上述したように、真のデータ生成部25は、X線CT装置で撮像された実在の多孔質体の構造から3次元画像データを生成してもよい。図11は、実在の多孔質体からCTスキャンを用いて3次元画像データを生成する様子を示す説明図である。例えば、実在のハニカムフィルタの隔壁部の一部を切り出して得た多孔質体を用意し(図11左)、その多孔質体に対してCTスキャンを行うことによって複数の断層画像を取得し(図11中央)、この複数の断層画像に基づいて各ボクセルの位置情報と輝度値とが対応付けられた3次元画像データを生成してもよい(図11右)。生成された3次元画像データに対して、例えば各ボクセルの輝度値の分布から自動(例えば判別分析法(大津の二値化))で決定された閾値を用いて輝度値を2値化して、2値化後の3次元画像データを用いて真のデータを生成してもよい。また、生成された3次元画像データのうち多孔質体が存在せず空間のみが存在する領域(例えば図11右の領域I,J)を3次元画像データから除外する処理を行ってもよい。真のデータ生成部25は、例えば設計装置20に入力された複数の断層画像に基づいて3次元画像データを生成してもよい。
 このように実在の多孔質体に基づいて得られた3次元画像データを用いて真のデータを生成する場合、且つラベルとして材料種強度ベクトルを用いる場合は、材料種強度ベクトルの成分の数と同じ数であるn種のパターンの多孔質体をそれぞれ複数製造して、真のデータの生成に用いればよい。すなわち、上述した実施形態では3次元画像データの生成方法をn種類設定したが、これと同様に、多孔質体の製造方法をn種類設定して、n種類の製造方法で作製された多孔質体の各々を多孔質体のパターン(ここでは製造方法)毎に材料種強度ベクトルに対応付ければよい。例えば、多孔質体の構成粒子の材質,構成粒子の平均粒径,造孔材の平均粒径,及び構成粒子と造孔材との配合割合のうち1以上が互いに異なるn種類の製造方法を定めておき、n種類の製造方法の各々を用いて複数の多孔質体を実際に製造し、得られた多孔質体に基づく3次元画像データを材料種強度ベクトルに対応付けて真のデータとしてもよい。製造方法が互いに同じ複数の多孔質体は、互いに同様の構造や特徴を有する一方で全く同一の多孔質体にはならないことから、n種の製造方法で作り分けた複数の多孔質体を用意することで、真のデータで用いる材料種強度ベクトルの各々(例えば上述した実施形態では(1,0,0),(0,1,0)、及び(0,0,1)のいずれか)に対応する3次元画像データを得ることができる。
 上述した実施形態では、真のデータに含まれるラベルとして材料種強度ベクトルを用いたが、これに限られない。上述したように、ラベルは多孔質体の形状及び/又は性能を表す1種類以上の指標を含んでいればよい。上述したように、多孔質体の形状を表す指標の例としては、多孔質体の気孔率,固体率,比表面積,気孔径,粒子径,気孔又は固体の構造均一性,気孔のコードレングス,及び固体のコードレングスが挙げられる。これらの値は、3次元画像データに基づいて測定されてもよいし、3次元画データの元となった実在の多孔質体に基づいて測定されてもよいし、3次元画像データに基づいて製造された実在の多孔質体に基づいて測定されてもよい。
 多孔質体の気孔率は、3次元画像データの全ボクセル数に示す気孔ボクセルの割合として算出してもよい。多孔質体の固体率は、3次元画像データの全ボクセル数に示す固体ボクセルの割合として算出されてもよい。多孔質体の気孔率及び固体率は、それぞれ、実在の多孔質体に基づいて水銀圧入法、アルキメデス法などにより算出されてもよい。多孔質体の比表面積は、多孔質体の単位体積あたりの比表面積としてもよいし、多孔質体の単位質量あたりの比表面積としてもよい。多孔質体の単位体積あたりの比表面積は、多孔質体の全体積あたりの値としてもよいし、多孔質体の気孔(空間)の体積あたりの値としてもよいし、多孔質体の固体(物体)の体積あたりの値としてもよい。比表面積の算出に用いる物体部分の表面積は、例えば3次元画像データにおける固体ボクセルと気孔ボクセルとが隣接する部分の面積に基づいて算出してもよい。多孔質体の気孔径は、より具体的には、気孔径の平均値,気孔径の分布の代表値(例えばD10,D50,D90など),気孔径の分布を表す値(標準偏差,最大値,最小値など)のうち1以上としてもよい。なお、気孔径のD10,D50,D90は、10%気孔径,50%気孔径,90%気孔径とも称する。気孔径のD10は、気孔径分布測定の容積基準の積算分率における気孔径が小さい側から10%の気孔径を意味する。気孔径のD50,D90についても同様である。気孔径に関するこれらの値は、例えば、3次元画像データにおける気孔(気孔ボクセル)部分を例えばWaterShed(分水嶺)アルゴリズムによる分割などを用いて複数の気孔の境界を設定して複数の気孔に分割し、分割した複数の気孔の各々について等価球直径として気孔径を算出し、算出された気孔径の分布や分布に基づく統計値(平均,分散,最大値,最小値など)に基づいて算出されてもよい。気孔径に関するこれらの値は、実在の多孔質体に基づいて水銀圧入法などにより算出されてもよい。多孔質体の粒子径は、より具体的には、粒子径の平均値,粒子径の分布の代表値(例えばD10,D50,D90など),粒子径の分布を表す値(標準偏差,最大値,最小値など)のうち1以上としてもよい。なお、粒子径のD10,D50,D90は、10%粒子径,50%粒子径,90%粒子径とも称する。粒子径のD10は、粒子径分布測定の容積基準の積算分率における粒子径が小さい側から10%の粒子径を意味する。粒子径のD50,D90にtういても同様である。粒子径に関するこれらの値は、例えば、3次元画像データにおける気孔部分と固体部分とを反転させた上で、反転後の気孔部分について上記と同様に例えばWaterShed分割などを用いて算出されてもよい。多孔質体の気孔又は固体の構造均一性は、より具体的には、多孔質体を複数の領域に分割して領域毎に算出された気孔又は固体に関する値の分散を意味する。領域毎に算出される気孔又は固体に関する値の例としては、上述した気孔率,固体率,比表面積,気孔径,粒子径が挙げられる。気孔のコードレングスとは、多孔質体中の所定方向についての気孔の連続した長さである。所定方向は、例えば3次元画像データのボクセルの位置情報に用いているXYZ軸のいずれかに平行な方向すなわちXYZ方向のいずれかとしてもよい。XYZ方向のうちの2以上についてそれぞれコードレングスを算出してもよい。気孔のコードレングスは、より具体的には、気孔のコードレングスの平均値,気孔のコードレングスの分布の代表値(例えばL10,L50,L90など),気孔のコードレングスの分布を表す値(標準偏差,最大値,最小値など)のうち1以上としてもよい。気孔のコードレングスのL10は、気孔のコードレングスの分布測定の長さ基準の積算分率における気孔のコードレングスが小さい側から10%の気孔のコードレングスを意味する。気孔のコードレングスのL50,L90についても同様である。例えば、多孔質体のX方向についての気孔のコードレングスに関する値は以下のように算出できる。まず、3次元画像データを、X方向に平行な複数の断面(例えばXY断面)に分割する。複数の断面の数は、3次元画像データのZ方向のボクセル数と一致する。続いて、複数の断面の各々について、気孔を表すボクセル(気孔ボクセル)を調べていき、X方向に1直線に連続している気孔ボクセル群を1つの連続気孔ボクセルとして特定して、断面内の複数の連続気孔ボクセルの各々について気孔ボクセルの連続数すなわち気孔のコードレングスをカウントする。このようにして全ての断面における気孔のコードレングスのカウントを行うことで、多孔質体中の気孔のコードレングスの分布に関する情報が得られる。例えば、カウントされた気孔のコードレングスの平均値を算出したり、気孔のコードレングスの標準偏差を算出したり、気孔のコードレングスのL90を算出したりすることができる。固体のコードレングスとは、多孔質体中の所定方向についての固体の連続した長さである。固体のコードレングスは、より具体的には、固体のコードレングスの平均値,固体のコードレングスの分布の代表値(例えばL10,L50,L90など),固体のコードレングスの分布を表す値(標準偏差,最大値,最小値など)のうち1以上としてもよい。固体のコードレングスのL10は、固体のコードレングスの分布測定の長さ基準の積算分率における固体のコードレングスが小さい側から10%の固体のコードレングスを意味する。固体のコードレングスのL50,L90についても同様である。固体のコードレングスに関する値は、気孔のコードレングスにかんする値と同様に、固体を表すボクセル(固体ボクセル)の連続数をカウントすることで算出できる。これらの多孔質体の形状を表す指標は、例えばGeoDictのPoroDictというモジュールやMatDictというモジュールを用いて算出することができる。
 上述したように、多孔質体の性能を表す指標の例としては、上述した実施形態で用いた多孔質体の圧損特性及び捕集特性の他に、多孔質体の機械的強度特性、電気化学特性、熱伝導特性、熱交換特性、電気伝導特性、ガス吸着特性、ガスの浄化性能、触媒コート性、及び多孔質体に捕集された物質の除去効率などが挙げられる。これらの値は、3次元画像データに基づいて測定されてもよいし、3次元画データの元となった実在の多孔質体に基づいて測定されてもよいし、3次元画像データに基づいて製造された実在の多孔質体に基づいて測定されてもよい。例えば、機械的強度特性はGeoDictのElastoDictというモジュールを用いて算出できる。熱伝導特性及び電気伝導特性はGeoDictのConductoDictというモジュールを用いて算出できる。電気化学特性はGeoDictのBatteryDictというモジュールを用いて算出できる。ガス吸着特性はGeoDictのAddiDictを用いて算出できる。触媒コート性は流体シミュレーション用のオープンソースソフトウェアであるOpenFOAM又はANSYS社の熱流体解析ソフトウェアであるAnsys Fluentに搭載されたVOF法を用いて算出できる。熱交換特性はOpenFOAM又はAnsys Fluentに搭載された熱流体解析を用いて算出できる。
 例えば、ラベルとして多孔質体の気孔率を用いる場合は、真のデータ生成部25は、ステップS100において、3次元画像データとその3次元画像データで表される多孔質体の気孔率とを対応付けて真のデータを生成する。真のデータとして用いるラベル(気孔率)の値は、例えば0%以上100%未満の範囲内の値とすることができ、1%以上99%以下の範囲内の値としてもよい。真のデータ生成部25は、例えば上述したGRF法により、種々の気孔率を有する3次元画像データを生成して真のデータとして用いてもよい。真のデータ生成部25は、設計する多孔質体として想定している気孔率の範囲を含むようにより広い範囲の種々の気孔率の値を有する3次元画像データを生成して、真のデータとして用いることが好ましい。このような真のデータを用いてステップS110の学習処理を行うと、学習済み生成器31は、任意のラベル(ここでは任意の気孔率の値)の入力に対して、そのラベルの示す気孔率とマッチした3次元画像データ(より正確にはラベルが示す気孔率に近い気孔率を有する多孔質体の3次元画像データ)を生成することができる。そして、多孔質構造特定ステップでは、気孔率を生成器31の入力として用いることで、生成器31が種々の気孔率の多孔質体を表す複数の3次元画像データを効率よく生成できる。なお、ラベルが材料種強度ベクトルと気孔率とを含んでいてもよい。例えば、上述した実施形態の材料種強度ベクトルと気孔率Pとを組み合わせたベクトル(x1,x2,x3,P)をラベルとして用いてもよい。この場合、真のデータとして用いるラベルは、例えば上述した実施形態と同様にx1~x3についてはいずれか1つが値1で残りが値0とし、さらに気孔率Pの値を組み合わせたベクトルとしてもよい。このような真のデータを用いてステップS110の学習処理を行うと、学習済み生成器31は、任意のベクトル(x1,x2,x3,P)の入力に対して、そのラベルの示す多孔質体とマッチした3次元画像データ(より正確にはラベルが示す多孔質体の3次元画像データに近い3次元画像データ)を生成することができる。より具体的には、焼結模擬構造,球充填構造,及びスポンジ構造の3種の多孔質体の構造や特徴を種々の割合で混ぜ合わせたハイブリッド材料、且つ気孔率Pを任意の値にした3次元画像データを、学習済み生成器31に生成させることができる。
 例えば、ラベルとして多孔質体の圧力損失を用いる場合は、真のデータ生成部25は、ステップS100において、3次元画像データとその3次元画像データで表される多孔質体の圧力損失とを対応付けて真のデータを生成する。真のデータとして用いるラベル(圧力損失)の値は、例えば多孔質体の取り得る値の範囲内で選ばれた種々の値とすることができる。真のデータ生成部25は、例えば複数の3次元画像データを生成し、各々の3次元画像データについてステップS130で説明した方法により圧力損失を算出して、真のデータとして用いることのできる所定の範囲内のラベルの値が算出された場合に、その値と3次元画像データとを真のデータとしてもよい。このような真のデータを用いてステップS110の学習処理を行うと、学習済み生成器31は、任意のラベル(ここでは任意の圧力損失の値)の入力に対して、そのラベルの示す圧力損失とマッチした3次元画像データ(より正確にはラベルが示す圧力損失に近い圧力損失を有する多孔質体の3次元画像データ)を生成することができる。そして、多孔質構造特定ステップでは、圧力損失を生成器31の入力として用いることで、生成器31が種々の圧力損失の多孔質体を表す複数の3次元画像データを効率よく生成できる。ラベルは圧力損失のみとしてもよいし、ラベルが材料種強度ベクトルと気孔率とを含んでいる場合と同様に、ラベルが材料種強度ベクトルと圧力損失とを含んでいてもよい。また、ラベルが材料種強度ベクトルと気孔率と圧力損失とを含んでいてもよい。このように、ラベルには、多孔質体の形状及び/又は性能を表す1種類以上の指標を適宜組み合わせて用いることができる。
 ラベルと同様に、多孔質構造特定ステップで算出される1種類以上のパラメータについても、上述した多孔質体の形状及び/又は性能を表す1種類以上の指標を適宜組み合わせて用いることができる。ラベルに含まれる1種類以上の指標と多孔質構造特定ステップで算出される1種類以上の指標(パラメータ)とは、一方が他方に含まれない指標を含んでいてもよいし、互いに少なくとも1種が異なっていてもよいし、互いに同じ種類の指標を含まなくてもよい。
 上述した実施形態では、ステップS130において、パラメータ算出部37が物理シミュレーションの実行により1種類以上のパラメータを算出したが、これに限られない。パラメータ算出部37が他の方法で1種類以上のパラメータを算出してもよいし、パラメータ算出部37の代わりに作業者や他の装置が1種類以上のパラメータを算出してもよい。例えば、ステップS130において、作業者が学習済み生成器31が生成した複数の3次元画像データの各々に基づく多孔質体を作製し、作製した多孔質体を用いて実験により1種類以上のパラメータを算出してもよい。例えば、作業者は、3Dプリンターを用いた3次元造形を利用して、3次元画像データに基づく多孔質体を作製してもよい。そして、作業者が実験により算出したパラメータを設計装置20に入力して、多孔質構造特定部35がステップS140以降の処理を実行してもよい。あるいは、ステップS130において、パラメータ算出部37が学習モデルの適用によって1種類以上のパラメータを算出してもよい。例えば、学習モデルは、予め行われた3次元画像データに基づく物理シミュレーションの結果又は3次元画像データに基づいて実際に作製された多孔質体での実験結果に基づいて3次元画像とパラメータとの対応関係のデータを得ておき、その対応関係を学習させることで、3次元画像データを入力すると1種類以上のパラメータを直接的に算出(予測)するようなモデルとして、予め構築しておくことができる。このような学習モデルの構築は公知であり、例えば Moussa Tembely,Ali M. AlSumaiti,及びWaleed Alameri著,「A deep learning perspective on predicting permeability in porous media from network modeling to direct simulation」Comput Geosci 24 (2020) 1541-1556 DOI: 10.1007/s10596-020-09963-4、及び、Serveh Kamrava,Pejman Tahmasebi,Muhammad Sahimi著,「Linking Morphology of Porous Media to Their Macroscopic Permeability by Deep Learning」,Transport in Porous Media 131 (2020) 427-448 DOI: 10.1007/s11242-019-01352-5  などに記載されている。あるいは、学習モデルは、3次元画像データから多孔質体の形状を表す特徴量を算出し、その特徴量から1種類以上のパラメータを算出するモデルとして、予め構築しておくこともできる。このような学習モデルの構築は、例えばサポートベクターマシン(SVM)を用いて行うことができる。SVMを用いた学習モデルの構築方法は公知であり、例えばTomoki Yasuda, Shinichi Ookawara, Shiro Yoshikawa  及び Hideyuki Matsumoto著,「Machine learning and data-driven characterization framework for porous materials: Permeability prediction and channeling defect detection」, Chemical Engineering Journal 420 (2021) 130069 DOI: 10.1016/j.cej.2021.130069に記載されている。
 上述した実施形態では、多孔質構造特定ステップにおいて、多孔質構造特定部35が最適化手法を用いた探索処理を行って1種類以上のパラメータが好適な3次元画像データを特定したが、これに限られない。例えば、探索処理のステップS150において、最適化手法を用いずに、ステップS130で算出されたパラメータに基づいて作業者が次に学習済み生成器31に入力するラベルの値を決定してもよい。探索処理のステップS150において、多孔質構造特定部35が、次に学習済み生成器31に入力するラベルの値をランダムに決定してもよい。あるいは、多孔質構造特定部35は、探索処理においてステップS120~150の処理を繰り返す代わりに、ステップS150を省略しステップS120及びS130の処理をそれぞれ複数回行ってもよい。すなわち、種々のラベルを学習済み生成器31に入力して多数の3次元画像データの生成及び各々の3次元画像データに基づく1種類以上のパラメータを算出してもよい。例えば、多孔質構造特定部35が、上述した離散的に定められた探索候補ラベルの全てに対してステップS120及びステップS130を行ってもよい。この場合も、ステップS130の結果に基づいて多孔質構造特定部35又は作業者がステップS160の処理を行って、ステップS120で生成された3次元画像データの中から好適な3次元画像データを特定すればよい。例えば、ステップS120で生成された3次元画像データの各々のパラメータ(例えば圧力損失及び捕集効率)を図10のようにグラフ上にプロットした上で、各パラメータを値0から値1の範囲に正規化して、最も好ましい点(例えば圧力損失が最も低く捕集効率が最も高い点)に最も近いパラメータを有する3次元画像データを、好適な3次元画像データとして特定してもよい。
 上述した実施形態において、多孔質構造特定処理のステップS160では、ステップS120で生成された複数の3次元画像データの中から気孔率が1%以上99%以下であり且つ1種類以上のパラメータが好適な3次元画像データを特定してもよい。例えば、多孔質構造特定部35が、ステップS120で生成された複数の3次元画像データの気孔率を算出して、気孔率が1%以上99%以下ではない場合には、その3次元画像データを除外して好適な3次元画像データとして特定しないようにしてもよい。
 本明細書では、出願当初の請求項4において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~3のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項5において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~4のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項6において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~5のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項7において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~6のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項8において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~6のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項9において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~8のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項11において「請求項1又は2に記載の多孔質体の設計方法」を「請求項1~10のいずれか1項に記載の多孔質体の設計方法」に変更した技術思想も開示されている。本明細書では、出願当初の請求項12において「請求項1又は2に記載の多孔質体の設計方法を実行する設計工程」を「請求項1~11のいずれか1項に記載の多孔質体の設計方法を実行する設計工程」に変更した技術思想も開示されている。
 本出願は、2022年3月15日に出願された日本国特許出願第2022-40298号を優先権主張の基礎としており、引用によりその内容の全てが本明細書に含まれる。
 本発明は、自動車用エンジン、建設機械用及び産業用の定置エンジン並びに燃焼機器等から排出される排ガスを浄化するためのフィルタとして利用される多孔質体の製造産業に利用可能である。
 20 設計装置、21 装置本体、22 入力部、23 出力部、25 真のデータ生成部、30 機械学習部、31 生成器、32 識別器、35 多孔質構造特定部、36 最適化処理部、37 パラメータ算出部。

Claims (12)

  1.  多孔質体の3次元画像データと該多孔質体の形状及び/又は性能を表す1種類以上の指標を含むラベルとを対応付けた複数の真のデータを用いて条件付き敵対的生成ネットワークによる学習を行って、前記ラベルに基づく3次元画像データを生成する学習済み生成器を得る学習ステップと、
     前記ラベルの値を種々変更して前記学習済み生成器に入力し、該入力に基づいて前記学習済み生成器が生成した複数の3次元画像データの各々に対して該3次元画像データで表される多孔質体の形状及び/又は性能を表す1種類以上のパラメータを算出し、算出された該1種類以上のパラメータに基づいて、前記生成された複数の3次元画像データの中から前記1種類以上のパラメータが好適な3次元画像データを特定する多孔質構造特定ステップと、
     を含む多孔質体の設計方法。
  2.  前記ラベルは、前記多孔質体の圧損特性及び捕集特性のうち1種類以上の前記指標を含む、
     請求項1に記載の多孔質体の設計方法。
  3.  前記1種類以上のパラメータは、前記多孔質体の圧損特性及び捕集特性のうち1種類以上を含む、
     請求項1又は2に記載の多孔質体の設計方法。
  4.  前記ラベルは、前記多孔質体の気孔率,固体率,比表面積,気孔径,粒子径,気孔又は固体の構造均一性,前記多孔質体中の所定方向についての気孔の連続長さである気孔のコードレングス,及び前記多孔質体中の所定方向についての固体の連続長さである固体のコードレングスのうち1種類以上の前記指標を含む、
     請求項1又は2に記載の多孔質体の設計方法。
  5.  前記1種類以上のパラメータは、前記多孔質体の気孔率,固体率,比表面積,気孔径,粒子径,気孔又は固体の構造均一性,前記多孔質体中の所定方向についての気孔の連続長さである気孔のコードレングス,及び前記多孔質体中の所定方向についての固体の連続長さである固体のコードレングスのうち1種類以上を含む、
     請求項1又は2に記載の多孔質体の設計方法。
  6.  前記ラベルは、nを2以上の整数として前記多孔質体をn種のパターンに分類した場合における多孔質体に含まれる各々のパターンの強度を表す前記指標である材料種強度ベクトル(x1,x2,・・・,xn)を含む、
     請求項1又は2に記載の多孔質体の設計方法。
  7.  前記多孔質構造特定ステップでは、前記学習済み生成器が生成した複数の3次元画像データの各々に対して物理シミュレーションの実行又は学習モデルの適用によって前記1種類以上のパラメータを算出する、
     請求項1又は2に記載の多孔質体の設計方法。
  8.  前記多孔質構造特定ステップでは、前記学習済み生成器が生成した複数の3次元画像データの各々に基づいて多孔質体を作製し、該作製した多孔質体を用いて実験により前記1種類以上のパラメータを算出する、
     請求項1又は2に記載の多孔質体の設計方法。
  9.  前記多孔質構造特定ステップでは、
     前記学習済み生成器に入力する前記ラベルを説明変数とし、該入力に基づいて前記学習済み生成器が生成した3次元画像データで表される前記多孔質体について算出される前記1種類以上のパラメータを目的関数として、最適化手法を用いて前記1種類以上のパラメータが好適な前記3次元画像データを特定する、
     請求項1又は2に記載の多孔質体の設計方法。
  10.  前記最適化手法として、ベイズ最適化を用いる、
     請求項9に記載の多孔質体の設計方法。
  11.  前記多孔質構造特定ステップでは、前記生成された複数の3次元画像データの中から気孔率が1%以上99%以下であり且つ前記1種類以上のパラメータが好適な3次元画像データを特定する、
     請求項1又は2に記載の多孔質体の設計方法。
  12.  請求項1又は2に記載の多孔質体の設計方法を実行する設計工程と、
     前記設計工程で特定された前記1種類以上のパラメータが好適な3次元画像データに基づく多孔質体を作製する形成工程と、
     を含む多孔質体の製造方法。
PCT/JP2022/045085 2022-03-15 2022-12-07 多孔質体の設計方法及び多孔質体の製造方法 WO2023176062A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022040298 2022-03-15
JP2022-040298 2022-03-15

Publications (1)

Publication Number Publication Date
WO2023176062A1 true WO2023176062A1 (ja) 2023-09-21

Family

ID=88023202

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/045085 WO2023176062A1 (ja) 2022-03-15 2022-12-07 多孔質体の設計方法及び多孔質体の製造方法

Country Status (1)

Country Link
WO (1) WO2023176062A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005009922A1 (ja) * 2003-07-25 2005-02-03 Ngk Insulators, Ltd. セラミックス多孔質体及びその透過性能評価方法
JP2015189666A (ja) * 2014-03-28 2015-11-02 日本碍子株式会社 多孔質体、ハニカムフィルタ、多孔質体の製造方法、及びハニカムフィルタの製造方法
JP2017178729A (ja) * 2016-03-31 2017-10-05 日本碍子株式会社 多孔質体,ハニカムフィルタ,微構造解析方法,そのプログラム及び微構造解析装置
CN111724331A (zh) * 2019-03-22 2020-09-29 四川大学 一种基于生成网络的多孔介质图像重建方法
JP2020187642A (ja) * 2019-05-16 2020-11-19 富士通株式会社 最適化装置、最適化システム、最適化方法および最適化プログラム
CN112634428A (zh) * 2019-10-09 2021-04-09 四川大学 一种基于双向循环生成网络的多孔介质三维图像重建方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005009922A1 (ja) * 2003-07-25 2005-02-03 Ngk Insulators, Ltd. セラミックス多孔質体及びその透過性能評価方法
JP2015189666A (ja) * 2014-03-28 2015-11-02 日本碍子株式会社 多孔質体、ハニカムフィルタ、多孔質体の製造方法、及びハニカムフィルタの製造方法
JP2017178729A (ja) * 2016-03-31 2017-10-05 日本碍子株式会社 多孔質体,ハニカムフィルタ,微構造解析方法,そのプログラム及び微構造解析装置
CN111724331A (zh) * 2019-03-22 2020-09-29 四川大学 一种基于生成网络的多孔介质图像重建方法
JP2020187642A (ja) * 2019-05-16 2020-11-19 富士通株式会社 最適化装置、最適化システム、最適化方法および最適化プログラム
CN112634428A (zh) * 2019-10-09 2021-04-09 四川大学 一种基于双向循环生成网络的多孔介质三维图像重建方法

Similar Documents

Publication Publication Date Title
Blank et al. Generating well-spaced points on a unit simplex for evolutionary many-objective optimization
Müller SOCEMO: surrogate optimization of computationally expensive multiobjective problems
CN107391512B (zh) 知识图谱预测的方法和装置
CN105793848B (zh) 包括建模步骤的计算机辅助设计方法
CN109215123A (zh) 基于cGAN的无限地形生成方法、系统、存储介质和终端
Kwon et al. B-rep model simplification using selective and iterative volume decomposition to obtain finer multi-resolution models
Wang et al. Hierarchical combinatorial design and optimization of non-periodic metamaterial structures
CN112215847B (zh) 基于对抗学习多尺度特征的重叠染色体自动分割方法
Papagiannopoulos et al. How to teach neural networks to mesh: Application on 2-D simplicial contours
Kamrava et al. Quantifying accuracy of stochastic methods of reconstructing complex materials by deep learning
Aguilera-Venegas et al. A probabilistic extension to Conway’s Game of Life
Fontes et al. On multi-objective evolutionary algorithms
WO2023176062A1 (ja) 多孔質体の設計方法及び多孔質体の製造方法
CN115249054A (zh) 一种改进的混合多目标粒子群优化特征选择算法
Zubov et al. Pore-network extraction using discrete Morse theory: Preserving the topology of the pore space
CN115903814B (zh) 基于凸多边形树的多机器人最优编队路径规划方法
Guessasma et al. Optimization of the mechanical properties of virtual porous solids using a hybrid approach
Kazarnikov et al. Parameter estimation for cellular automata
CN115169521A (zh) 一种保持预测顺序和结构依赖关系的图神经网络解释方法
CN115295098A (zh) 一种基于机器学习的圆球颗粒体系渗透特性的预测方法及系统
Baldwin et al. A data-driven approach for multi-lattice transitions
CN114444012A (zh) 一种基于神经网络架构搜索的偏微分方程数值求解方法
Parashar et al. Self organizing maps (SOM) for design selection in robust multi-objective design of aerofoil
CN112949719B (zh) 基于gan的试井解释代理模型生成方法
Byrne Approaches to evolutionary architectural design exploration using grammatical evolution

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932325

Country of ref document: EP

Kind code of ref document: A1