WO2023120057A1 - 物性値予測方法、及び物性値予測システム - Google Patents

物性値予測方法、及び物性値予測システム Download PDF

Info

Publication number
WO2023120057A1
WO2023120057A1 PCT/JP2022/043910 JP2022043910W WO2023120057A1 WO 2023120057 A1 WO2023120057 A1 WO 2023120057A1 JP 2022043910 W JP2022043910 W JP 2022043910W WO 2023120057 A1 WO2023120057 A1 WO 2023120057A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
prediction
physical property
value
predicted
Prior art date
Application number
PCT/JP2022/043910
Other languages
English (en)
French (fr)
Inventor
雅子 赤木
Original Assignee
メック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メック株式会社 filed Critical メック株式会社
Publication of WO2023120057A1 publication Critical patent/WO2023120057A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]

Definitions

  • the present disclosure relates to a physical property value prediction method and a physical property value prediction system using machine learning.
  • the electronic board has a laminated structure of metal such as copper and resin, and the quality of the electronic board corresponds to the degree of adhesion between the metal and the resin interface.
  • metal such as copper and resin
  • the quality of the electronic board corresponds to the degree of adhesion between the metal and the resin interface.
  • Patent Document 1 describes estimating physical property values of rubber materials using machine learning.
  • the present disclosure provides a physical property value prediction method and a physical property value prediction system that provide the possibility of explaining the prediction accuracy for prediction models that use machine learning to predict the physical property values of materials.
  • a physical property value prediction method of the present disclosure includes a feature map output unit that outputs a feature map from an image of a material, and a conversion unit that converts the feature map into physical property values related to the material.
  • a prediction model machine-learned to input captured images as explanatory variables and output the physical property values is input with a plurality of prediction target images for which the actual measured values of the physical property values are known, and the plurality of A prediction value and a feature amount map for each of the prediction target images are output, and from the prediction results of images having approximately the same measured physical property values among the plurality of prediction target images, the error between the actual measurement value and the prediction value is a first threshold.
  • the above-described poorly predicted images and the well-predicted images in which the error between the measured value and the predicted value is smaller than the first threshold are specified, and a plurality of the feature maps of the poorly predicted images are specified. and the frequency distribution of a plurality of feature amounts forming the feature amount map of the predicted good image, a feature amount group representing factors of poor prediction is extracted.
  • FIG. 4 is a diagram plotting data of combinations of predicted values and actual values in Example 1.
  • FIG. 4 is a flowchart showing processing executed by the prediction system of the first embodiment;
  • FIG. 10 is a diagram plotting data of combinations of predicted values and measured values, showing an example in which a poorly predicted image and a good predicted image are specified;
  • SEM image prediction good image
  • FIG. 10 is a diagram showing a frequency distribution (histogram) of a plurality of feature amounts forming a feature amount map of a poorly predicted image and a frequency distribution (histogram) of a plurality of feature amounts forming a feature amount map of a good predicted image;
  • the prediction system 2 (apparatus) of the first embodiment uses the prediction model 21 to obtain the physical property value (for example, the adhesion strength) of the metal based on the image of the surface of the metal (copper) surface-treated with a chemical. to predict.
  • the learning system 1 (apparatus) constructs a prediction model 21 by machine learning using teacher data.
  • the prediction system 2 has an image acquisition unit 20 and a prediction unit 22.
  • the learning system 1 has teacher data D1 and a learning unit 10 for learning a prediction model 21 .
  • the teacher data D1 is stored in the memory 1b.
  • the learning unit 10 is realized by the processor 1a.
  • the image acquisition unit 20 and the prediction unit 22 are realized by the processor 2a.
  • processors 1a and 2a in one device implement each unit, but the present invention is not limited to this. For example, each processing may be distributed using a network, and a plurality of processors may be configured to execute the processing of each unit. That is, one or more processors perform processing.
  • the image acquisition unit 20 acquires an image G1 of the prediction target material.
  • the image acquisition unit 20 acquires an SEM image (grayscale image) obtained by imaging the surface of the surface-treated metal (copper) with an electron microscope.
  • An image G1 obtained by picking up a prediction target material is image data having the number of vertical pixels of h ⁇ the number of horizontal pixels of w.
  • the prediction model 21 uses teacher data D1 that associates an image (for example, an SEM image, a camera image) of a material with a physical property value (for example, adhesion strength) of the material, inputs the image as an explanatory variable, and calculates the physical properties of the material. It is a model built by machine learning to output a value.
  • the learning unit 10 of the learning system 1 updates the parameters of the prediction model 21 so that the prediction results and the measured values of the teacher data match.
  • the teacher data D1 consists of input images 1 to N (N indicates the number of learning images) and physical quantities (X 1 , X 2 , . . . , X N ) are associated with each other.
  • the prediction model 21 includes a feature map output unit 21a that outputs a feature map G2 from an input image, and a and a conversion unit 21b for converting into a value (Y).
  • the feature quantity map output unit 21a uses UNet.
  • UNet is a U-shaped Convolutional Neural Network (CNN) based learning model.
  • the converter 21b uses GAP (Global Average Pooling).
  • the feature map G2 is data having the number of pixels obtained by multiplying the number of pixels h' corresponding to the vertical pixels h of the input image G1 by the number of pixels w' corresponding to the horizontal pixels w of the input image. has a feature value related to the physical property value of the material.
  • the conversion unit 21b converts the feature quantity map G2 into a single physical quantity (Y).
  • “corresponding” includes the case where the feature map becomes an image of the same size as the original input image, or the case where the image has the same aspect ratio but has a different size from the original input image. It means that it is possible to match the size of the original input image by enlarging the map.
  • Example 1 is an example in which the input image G1 is an SEM image obtained by imaging a copper foil after chemical treatment with an electron microscope.
  • FIG. 2 shows an example of an SEM image.
  • the imaging conditions for the SEM image are a magnification of 3500 times and a tilt angle of 45 degrees.
  • the physical quantity was the adhesion strength [N/mm].
  • This is an example of treating a copper surface using chemical A.
  • 90 adhesion strengths were measured for 90 images. Half of the 90 data were used as learning data, and the remaining half were used for prediction. The mean square error between the measured adhesion strength and the predicted value was 0.0008.
  • the horizontal axis represents the measured adhesion strength and the vertical axis represents the predicted adhesion strength.
  • Example 2 In Example 2, as in Example 1, the SEM image was used as the input image G1. This is an example of treating a copper surface using chemical B. 72 adhesion strengths were measured for 72 images. Half of the 72 pieces were used as learning data, and the remaining half were used as prediction data. The mean square error between the measured adhesion strength and the predicted value was 0.0012. The SEM image capturing conditions are the same as in the first embodiment.
  • Example 3 In Example 3, as in Example 1, the SEM image was used as the input image G1. This is an example of treating a copper surface using chemical C. Thirty-nine adhesion strengths were measured for 39 images. Half of the 39 pieces were used as learning data, and the remaining half were used as prediction data. The mean square error between the measured adhesion strength and the predicted value was 0.0021.
  • the SEM image capturing conditions are the same as in the first embodiment.
  • Example 4 is an example in which the SEM image of Example 3 is used to estimate a plurality of physical property values from one SEM image. Specifically, by setting the output of one UNet to multiple classes, it becomes possible to output (calculate) multiple physical property values from the same UNet.
  • the multiple physical property values are adhesion strength and roughness parameters (Sdr, Sdq). It is a configuration in which a first UNet for predicting adhesion strength, a second UNet for predicting Sdr, and a third UNet for predicting Sdq are parallelized.
  • the mean square error of adhesion strength was 0.001
  • the mean square error of Sdr was 0.0003
  • the mean square error of Sdq was 0.0868.
  • Example 5 is an example in which the chemical D was used to treat the copper surface.
  • the input image G1 is not a SEM image but a camera image captured by an optical camera. The camera image is only processed to separate the black background.
  • the RGB components included in the camera image are divided into three monochromatic images, and the three monochromatic images are input to the prediction model 21 .
  • the physical property value was the surface roughness Ra (arithmetic average). 960 pairs of data are used, half of which are used as teacher data and the remaining half are used as prediction data.
  • the mean squared error was 0.0153. Note that it is also possible to convert a camera image having RGB components into a grayscale image and input the intensity (brightness) of the grayscale image to the prediction model 21 .
  • the RGB components were used because no noticeable difference was observed between the input of a grayscale image and the input of three single-color images for each RGB component.
  • Example 6 In Example 6, as in Example 5, the camera image is used as the input image G1. This is an example of treating a copper surface using chemical D.
  • the physical property value was CIE1976 lightness index L*. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 11.05. L* conforms to JISZ 8781-4.
  • the camera image is used as the input image G1.
  • This is an example of treating a copper surface using chemical D.
  • the physical property value was the color coordinate a* in the CIE1976 color space. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 0.0062. a* conforms to JISZ 8781-4.
  • the camera image is used as the input image G1.
  • This is an example of treating a copper surface using chemical D.
  • the physical property value was the color coordinate b* in the CIE1976 color space. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 0.1294. b* conforms to JISZ 8781-4.
  • step ST1 the image acquisition unit 20 acquires a prediction target image obtained by imaging a prediction target material.
  • SEM images or camera images are acquired.
  • the obtained prediction target image is input to the prediction model 21, and the physical property values regarding the material are output.
  • the feature map output unit 21a receives the prediction target image and outputs the feature map G2.
  • the conversion unit 21b converts the feature map G2 into physical property values relating to the material.
  • the prediction model 21 is composed of the feature map output unit 21a that outputs the feature map G2. It may be a model to be output.
  • ResNet which is a type of neural network, may be used.
  • any nonlinear model that can process images can be used.
  • the material to be predicted for which the physical property value is predicted is a metal (copper) surface-treated by a chemical reaction treatment with a chemical (etching agent, polishing liquid (chemical, electrolytic)) or the like.
  • a chemical reaction treatment with a chemical (etching agent, polishing liquid (chemical, electrolytic)) or the like.
  • the material has a uniform and fine surface shape.
  • it may be a metal surface that has been subjected to surface treatment by mechanical processing such as polishing, rolling, or laser that applies an external force.
  • It may be a coated surface of a paint in which various pigments are dispersed and mixed.
  • the properties of the paint (liquid, powder, etc.) in this case are not limited. It may be a metal surface plated by electrolytic plating, electroless plating, or the like.
  • It may be the surface of a film formed by adding and dispersing an additive. It may be a paper surface having a coating layer for receiving ink or a coating layer that imparts other functionality. Although the material is not limited, the surface of the material may be molded using calendaring, embossing, or the like.
  • adhesion strength is mentioned as a physical property value related to the material, but it is not limited to this.
  • physical properties related to adhesion, bonding, airtightness, water repellency, oil repellency, antifouling, slidability, surface properties (gloss, roughness), color tone, feel, thermophysical properties, antibacterial properties, and transmission loss may be.
  • images of metal surfaces obtained by SEM and camera are cited as the object of the material image, but the object is not limited to this.
  • Data that can be captured as images, such as waveforms, spectra, mapping images, numbers, etc., can also be targets. Examples include microspectroscopy (infrared, Raman, UV-Vis, etc.), energy-dispersive X-ray spectroscopy (SEM-EDX), and spectra and , and the like.
  • the physical property value prediction method of the first embodiment is a method executed by one or a plurality of processors. Predicting the physical property value (Y) of the material reflected in the prediction target image G1 by inputting the prediction target image G1 to the prediction model machine-learned to input as an explanatory variable and output the physical property value (Y) of the material. It may be output as a value.
  • the physical property values related to the material (metal) reflected in the prediction target image G1 can be predicted using the machine-learned prediction model 21. Therefore, compared to measuring the physical property values in a test or the like, money and time costs are reduced. can be reduced.
  • the prediction model 21 includes a feature map output unit 21a that outputs a feature map G2 from an input image G1, and a transform that converts the feature map G2 into a prediction value. and a portion 21b.
  • the prediction value can be obtained from the feature map G2, so that it is possible to try to explain the grounds for prediction by the prediction model 21 using the feature map G2.
  • the material to be imaged includes a surface-treated metal surface, a painted surface, a plated metal surface, a film surface, a paper surface, and a molded surface. It may be any of the processed material surfaces. This is a suitable example.
  • a system according to a first embodiment comprises one or more processors for performing the above method.
  • a program according to the first embodiment is a program that causes one or more processors to execute the above method. By executing these programs as well, it is possible to obtain the effects of the above method.
  • FIG. 5 is a block diagram showing the learning system 1 and the prediction system 2 of the second embodiment.
  • 2nd Embodiment differs in the structure of the prediction system 2 compared with 1st Embodiment.
  • the prediction system 2 of the second embodiment adds a specifying unit 23, an extraction unit 24, and a superimposed image output unit 25 to the prediction system 2 of the first embodiment.
  • the identifying unit 23, the extracting unit 24, and the superimposed image output unit 25 are implemented by the processor 2a.
  • the memory 2b stores a plurality of prediction target images and a physical quantity (X) that is a known actual measurement value of the material appearing in each prediction target image in association with each other.
  • the image acquisition unit 20 inputs a plurality of prediction target images stored in the memory 2b to the prediction model 21 (feature map output unit 21a and conversion unit 21b).
  • the predicted physical property value (Y) calculated by the prediction model 21 and the feature map output by the feature map output unit 21a are stored in the memory 2b in association with the prediction target image and the measured physical property value (X).
  • the specifying unit 23 shown in FIG. 5 specifies a poorly predicted image and a good predicted image from the prediction results of images having approximately the same measured physical property values among the plurality of prediction target images stored in the memory 2b.
  • a poorly predicted image is an image in which the error between the measured value and the predicted value is greater than or equal to the first threshold.
  • FIG. 6 is a diagram plotting data of combinations of predicted values and measured values of a prediction target image group different from the prediction target image group shown in FIG. The vertical axis is the predicted adhesion strength [N/mm]. As shown in FIG. 6, the locations where the predicted physical property value (predicted adhesion strength) and the measured physical property value (actual adhesion strength) match are indicated by diagonal lines.
  • Data (plotted points) far from the slanting lines are prediction failure images.
  • the prediction accuracy of the prediction target image can be expressed by the length of the perpendicular line from the plotted point to the oblique line. If the length of the vertical line is long, the difference between the predicted physical property value and the measured physical property value is large, and the image can be determined to be a poorly predicted image. can be determined.
  • a predicted good image that is relatively close to the slanted line and a prediction-unnecessary image that is relatively far from the slanted line may be selected by the human eye, but automatic selection by a program is also possible.
  • the identification unit 23 identifies an image having an error (perpendicular length) between the measured value and the predicted value equal to or greater than a first threshold as a poorly predicted image, and the error (perpendicular length) between the measured value and the predicted value is a second threshold. It is configured to be able to execute processing for identifying the following images as predicted good images.
  • the second threshold is less than the first threshold.
  • the first threshold and the second threshold may be fixed values or may be variable.
  • the first threshold and the second threshold may be set according to the maximum error between the measured value and the predicted value.
  • the first threshold may be set to 100% or less and 90% or more of the maximum error
  • the second threshold may be set to 0% or more and 10% or less of the maximum error.
  • an image with the largest error between the measured value and the predicted value may be identified as the poorly predicted image
  • an image with the smallest error between the measured value and the predicted value may be identified as the good predicted image.
  • FIG. 6 is a diagram plotting data of combinations of predicted values and measured values, and is a diagram showing an example of identifying a poorly predicted image G3 and a good predicted image G4.
  • the specifying unit 23 specifies, among the plurality of prediction target images, the image having the largest error between the measured value and the predicted value as the poor prediction image G3, among the images having approximately the same measured physical property values. , an image that can be regarded as having the smallest error between the measured value and the predicted value is specified as the predicted good image G4.
  • the fact that the measured physical property values are almost the same means that the measured physical property values are within a predetermined range even if they are not the same, as indicated by the gray color in FIG. 6 .
  • FIG. 7 shows a predicted failure image G3 (SEM image).
  • FIG. 8 shows a predicted good image G4 (SEM image).
  • FIG. 9 shows, as an image, a feature quantity map obtained from the poor prediction image G3 (SEM image).
  • FIG. 10 shows, as an image, a feature quantity map obtained from the predicted good image G4 (SEM image). 7 to 10, it is difficult for a person to understand the reason for the difference in prediction accuracy.
  • FIG. 11 shows the frequency distribution (histogram) of a plurality of feature amounts forming the feature amount map of the poorly predicted image G3 and the frequency distribution (histogram) of the plurality of feature amounts forming the feature amount map of the good predicted image G4.
  • FIG. 10 shows.
  • the horizontal axis in FIG. 11 indicates the feature amount, and the vertical axis in the figure indicates the number of pixels (that is, frequency).
  • the solid line in FIG. 11 is the histogram of the predicted poor image G3, and the dashed line in FIG. 11 is the histogram of the predicted good image G4.
  • the feature quantity distributions of both feature quantity maps are similar, and it can be thought that they show the characteristics of the SEM image of the copper surface, but there are some differences.
  • a large difference in the frequency distribution is seen in the range of the feature amount from -1 to 1.
  • These feature amount groups (feature amounts of -1 or more and 1 or less) were extracted as feature amount groups indicating factors of poor prediction. It should be noted that a feature amount group having a large difference as seen by human eyes may be extracted, or may be automatically extracted by a program. Specifically, it is conceivable to calculate an integral value of the difference between the two histograms for each closed region formed by two histograms, and extract a feature quantity group in the range with the largest integral value.
  • the extraction unit 24 extracts the frequency distribution (solid line in FIG. 11) of the plurality of feature amounts forming the feature amount map of the poorly predicted image G3, and the frequency distribution of the plurality of feature amounts forming the feature amount map of the good prediction image G4. Based on the difference from the distribution (broken line in FIG. 11), it is possible to extract a feature quantity group representing factors of poor prediction.
  • FIG. 12 is a diagram showing only the extracted feature amount group from the feature amount map of the poorly predicted image G3.
  • FIG. 13 is a diagram showing only the extracted feature amount group from the feature amount map of the predicted good image G4. In FIGS. 12 and 13, the extracted feature quantity portion is shown in black, and the rest is shown in color.
  • the feature map is an image of the same size as the original poor prediction image G3 and the original good prediction image G4, or often has the same aspect ratio. It can be understood that the positional relationship can be made to correspond, and the part of the original image where the extracted feature amount group exists affects the prediction accuracy. Therefore, by comparing FIGS. 12 and 13 with the original SEM images, it becomes possible to pursue the cause of the poor prediction, and it may be possible to explain the prediction accuracy.
  • the superimposed image output unit 25 outputs a superimposed image in which the position of the feature amount group extracted by the extraction unit 24 is superimposed on at least one of the predicted poor image G3 and the predicted good image G4.
  • FIG. 14 is a diagram showing an example of a superimposed image in which the position of the extracted feature amount group is superimposed on the predicted failure image G3 and displayed.
  • FIG. 15 is a diagram showing an example of a superimposed image in which the position of the extracted feature quantity group is superimposed on the good prediction image G4 and displayed.
  • the position of the feature amount group may be indicated by color or other marks. This makes it possible to visually recognize the positions of the prediction target image and the feature quantity group at once, which is useful.
  • step ST101 the prediction unit 22 inputs a plurality of prediction target images for which the measured physical property values of the materials are known, and predicts the material property values and the feature amount map of each of the plurality of prediction target images. to output
  • the specifying unit 23 selects a prediction failure image G3 having an error between the measured value and the predicted value equal to or larger than the first threshold from the prediction results of the images having approximately the same measured physical property values among the plurality of prediction target images.
  • a predicted good image G4 having an error between the measured value and the predicted value smaller than the first threshold and equal to or smaller than the second threshold.
  • the extraction unit 24 extracts the frequency distribution of a plurality of feature amounts forming the feature amount map of the poorly predicted image G3 and the frequency distribution of the plurality of feature amounts forming the feature amount map of the good predicted image G4. Based on the difference between , a feature quantity group representing factors of poor prediction is extracted.
  • the superimposed image output unit 25 outputs a superimposed image in which the position of the feature quantity group is superimposed on at least one of the predicted poor image G3 and the predicted good image G4.
  • the physical property value prediction method of the second embodiment is a method executed by one or a plurality of processors, and includes the feature map output unit 21a that outputs a feature map from an image of a material, the feature Actual measurement of physical property values for a predictive model 21 which has a conversion unit 21b for converting a quantity map into physical property values related to a material and is machine-learned so as to input an image of the material as an explanatory variable and output physical property values.
  • Input a plurality of prediction target images whose values are known, output prediction values and feature maps for each of the plurality of prediction target images, and predict images with similar measured physical property values among the plurality of prediction target images.
  • a predicted poor image G3 having an error between the measured value and the predicted value equal to or greater than a first threshold and a predicted good image G4 having an error between the measured value and the predicted value equal to or less than a second threshold smaller than the first threshold are specified.
  • a superimposed image may be output in which the position of the feature amount group is superimposed on at least one of the poorly predicted image G3 and the goodly predicted image G4. This is useful because the feature amount group can be visually superimposed on the poorly predicted image or the goodly predicted image.
  • the material to be imaged is any of a surface-treated metal surface, a painted paint surface, a plated metal surface, a film surface, and a paper surface. It may be This is a suitable example.
  • a system according to the second embodiment comprises one or more processors for performing the above method.
  • a program according to the second embodiment is a program that causes one or more processors to execute the above method. By executing these programs as well, it is possible to obtain the effects of the above method.
  • each part shown in FIG. 1 is realized by executing a predetermined program with one or more processors, but each part may be configured with a dedicated memory or a dedicated circuit.
  • each part is implemented in the processor 1a (2a) of one computer, but each part may be distributed and implemented in a plurality of computers or in the cloud. That is, the method may be performed by one or more processors.
  • the system 1 (2) includes a processor 1a (2a).
  • processor 1a (2a) may be a central processing unit (CPU), microprocessor, or other processing unit capable of executing computer-executable instructions.
  • System 1(2) also includes memory 1b(2b) for storing data for system 1(2).
  • memory 1b (2b) includes computer storage media including RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, DVD or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage. or other magnetic storage device, or any other medium that can be used to store desired data and that can be accessed by system 1 .
  • G1 Prediction target image
  • Image acquisition unit 21 Prediction model 21a
  • Feature amount map output unit 21b Feature amount map output unit 21b
  • Conversion unit 22 ...

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

物性値予測方法は、機械学習された予測モデル21に対して、物性値の実測値が既知である複数の予測対象画像を入力して、複数の予測対象画像それぞれの予測値及び特徴量マップを出力し、複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、実測値と前記予測値の誤差が第1閾値以上の予測不良画像G3と、実測値と予測値の誤差が第1閾値よりも小さい第2閾値以下の予測良好画像G4とを特定し、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布と、予測良好画像G4の特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する。

Description

物性値予測方法、及び物性値予測システム
 本開示は、機械学習を用いた物性値予測方法、及び物性値予測システムに関する。
 電子基板は銅などの金属と樹脂の積層構造であり、電子基板の品質は、金属と樹脂界面の密着度に対応する。薬品で表面処理を施して粗面化した金属表面の形状を評価することで、電子基板の金属の密着度の評価が可能となる。評価項目の一つとして、例えば密着強度を計測することが挙げられるが、工数がかかるという問題がある。
 例えば、特許文献1には、機械学習を用いてゴム材料の物性値を推定することが記載されている。
特開2021-60457号公報
 機械学習による物性値の予測は、ニューラルネットワーク等のブラックボックス型の予測モデルを用いた場合に、どのような根拠でどのように予測しているのか、予測精度の良否の原因について不明という問題がある。
 本開示は、機械学習を用いて素材の物性値を予測する予測モデルについて、予測精度に関する説明の可能性を提供する物性値予測方法、及び物性値予測システムを提供する。
 本開示の物性値予測方法は、素材を撮像した画像から特徴量マップを出力する特徴量マップ出力部と、前記特徴量マップを前記素材に関する物性値に変換する変換部とを有し前記素材を撮像した画像を説明変数として入力し前記物性値を出力するように機械学習された予測モデルに対して、前記物性値の実測値が既知である複数の予測対象画像を入力して、前記複数の予測対象画像それぞれの予測値及び特徴量マップを出力し、前記複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、前記実測値と前記予測値の誤差が第1閾値以上の予測不良画像と、前記実測値と前記予測値の誤差が前記第1閾値よりも小さい第2閾値以下の予測良好画像とを特定し、前記予測不良画像の前記特徴量マップを構成する複数の特徴量の頻度分布と、前記予測良好画像の前記特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する。
第1実施形態の予測システム及び学習システムを示すブロック図。 薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像の一例を示す図。 実施例1の予測値と実測値の組み合わせのデータをプロットした図。 第1実施形態の予測システムが実行する処理を示すフローチャート。 第2実施形態の学習システム1及び予測システム2を示すブロック図。 予測値と実測値の組み合わせのデータをプロットした図であり、予測不良画像及び予測良好画像を特定した例を示す図。 予測不良画像(SEM画像)を示す図。 予測良好画像(SEM画像)を示す図。 予測不良画像(SEM画像)から得た特徴量マップを画像として示す図。 予測良好画像(SEM画像)から得た特徴量マップを画像として示す図。 予測不良画像の特徴量マップを構成する複数の特徴量の頻度分布(ヒストグラム)と、予測良好画像の特徴量マップを構成する複数の特徴量の頻度分布(ヒストグラム)とを示す図。 予測不良画像の特徴量マップのうち、抽出した特徴量群のみを示す図。 予測良好画像の特徴量マップのうち、抽出した特徴量群のみを示す図。 予測不良画像に、抽出した特徴量群の位置を重ねて表示する重合画像の一例を示す図。 予測良好画像に、抽出した特徴量群の位置を重ねて表示する重合画像の一例を示す図。 第2実施形態の予測システムが実行する処理を示すフローチャート。
 <第1実施形態>
 以下、本開示の第1実施形態を、図面を参照して説明する。
 [学習システム、予測システム]
 第1実施形態の予測システム2(装置)は、予測モデル21を用いて、薬品で表面処理を施した金属(銅)の表面を撮像した画像に基づいて、金属の物性値(例えば密着強度)を予測する。学習システム1(装置)は、教師データを用いて予測モデル21を機械学習で構築する。
 図1に示すように、予測システム2は、画像取得部20と、予測部22と、を有する。学習システム1は、教師データD1と、予測モデル21を学習させる学習部10とを有する。教師データD1は、メモリ1bに記憶される。学習部10は、プロセッサ1aで実現される。画像取得部20及び予測部22は、プロセッサ2aで実現される。第1実施形態では、1つの装置におけるプロセッサ1a,2aが各部を実現しているが、これに限定されない。例えば、ネットワークを用いて各処理を分散させ、複数のプロセッサが各部の処理を実行するように構成してもよい。すなわち、1又は複数のプロセッサが処理を実行する。
 画像取得部20は、予測対象の素材を撮像した画像G1を取得する。第1実施形態では、画像取得部20は、表面処理した金属(銅)の表面を電子顕微鏡で撮像したSEM画像(グレースケール画像)を取得する。予測対象の素材を撮像した画像G1は、縦ピクセル数h×横ピクセル数wの画像データである。
 予測モデル21は、素材を撮像した画像(例えばSEM画像、カメラ画像)とその素材に関する物性値(例えば密着強度)とを関連付けた教師データD1を用いて、画像を説明変数として入力し素材に関する物性値を出力するように機械学習で構築されたモデルである。学習システム1の学習部10は、予測結果と教師データの実測値が一致するように、予測モデル21のパラメータを更新する。図1において、教師データD1は、入力画像1~N(Nは学習用画像の数を示す)と、各々の入力画像1~Nに対応する実測値である物理量(X,X,…,X)とが対応付けられている。
 予測モデル21は、種々のモデルが利用可能であるが、第1実施形態では、予測モデル21は、入力画像から特徴量マップG2を出力する特徴量マップ出力部21aと、特徴量マップG2を物性値(Y)に変換する変換部21bとを有する。第1実施形態では、特徴量マップ出力部21aは、UNetを用いている。UNetは、U字型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースの学習モデルである。変換部21bは、GAP(Global Average Pooling)を用いている。特徴量マップG2は、入力画像G1の縦ピクセルhに対応するピクセル数h’と、入力画像の横ピクセルwに対応するピクセル数w’とを乗算した数のピクセル数を有するデータであり、各々のピクセルが、素材に関する物性値に関する特徴量を有する。変換部21bは、特徴量マップG2を1つの数である物理量(Y)に変換する。ここで「対応する」は、特徴量マップが元の入力画像と同じサイズの画像になる場合や、元の入力画像とは異なるサイズであるもののアスペクト比が同じ画像になる場合を含み、特徴量マップを拡大処理することで元の入力画像のサイズに一致させることが可能なことを意味する。
 [実施例1]
 実施例1は、入力画像G1を、薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像とした例である。図2は、SEM画像の一例を示す。SEM画像の撮像条件は、倍率は3500倍、チルト角が45度である。物理量は、密着強度[N/mm]とした。薬品Aを用いて銅表面を処理した例である。90枚の画像に対して90個の密着強度を計測した。90個のデータのうちの半数を学習用データとして使用し、残り半数のデータを予測に用いた。実測密着強度と予測値の平均二乗誤差が0.0008であった。図3は、横軸が実測密着強度であり、縦軸が予測した密着強度であり、予測値と実測値の組み合わせのデータをプロットした図である。
 [実施例2]
 実施例2は、実施例1と同様にSEM画像を入力画像G1とした。薬品Bを用いて銅表面を処理した例である。72枚の画像に対して72個の密着強度を計測した。72個のうちの半数を学習用データとし、残り半数を予測用データとした。実測密着強度と予測値の平均二乗誤差が0.0012であった。SEM画像の撮像条件は実施例1と同じである。
 [実施例3]
 実施例3は、実施例1と同様にSEM画像を入力画像G1とした。薬品Cを用いて銅表面を処理した例である。39枚の画像に対して39個の密着強度を計測した。39個のうちの半数を学習用データとし、残り半数を予測用データとした。実測密着強度と予測値の平均二乗誤差が0.0021であった。SEM画像の撮像条件は実施例1と同じである。
 [実施例4]
 実施例4は、実施例3のSEM画像を用いて、1枚のSEM画像から複数の物性値を推測するようにした例である。具体的には、1つのUNetの出力を複数クラスに設定することで、同一のUNetから複数の物性値を出力(計算)可能となる。複数の物性値は、密着強度、粗さパラメータ(Sdr、Sdq)である。密着強度を予測するための第1のUNetと、Sdrを予測するための第2のUNetと、Sdqを予測するための第3のUNetとを並列化した構成である。密着強度の平均二乗誤差が0.001であり、Sdrの平均二乗誤差が0.0003であり、Sdqの平均二乗誤差が0.0868であった。
 [実施例5]
 実施例5は、薬品Dを用いて銅表面を処理した例である。入力画像G1が、SEM画像ではなく、光学カメラで撮像したカメラ画像である。カメラ画像は、黒色の背景を分離する処理のみを行っている。カメラ画像に含まれるRGB成分ごとに3つの単色画像に分け、3つの単色画像を予測モデル21に入力する。物性値は、表面粗さRa(算術平均)とした。960組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.0153であった。
 なお、RGB成分を有するカメラ画像をグレースケール画像に変換して、グレースケール画像の強度(明度)を予測モデル21に入力することも可能である。グレースケール画像を入力した場合と、RGB成分ごとに3つの単色画像を入力した場合に特筆すべき違いが見受けられなかったので、実施例5では、RGB成分の方を用いた。
 [実施例6]
 実施例6は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 明度指数L*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は11.05であった。L*は、JISZ 8781-4に準拠している。
 [実施例7]
 実施例7は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 色空間における色座標a*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.0062であった。a*は、JISZ 8781-4に準拠している。
 [実施例8]
 実施例8は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 色空間における色座標b*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.1294であった。b*は、JISZ 8781-4に準拠している。
 [素材の物性値の予測方法]
 上記予測システム2が実行する、素材の物性値の予測方法を、図4を用いて説明する。
 まず、ステップST1において、画像取得部20は、予測対象の素材を撮像した予測対象画像を取得する。第1実施形態では、SEM画像かカメラ画像を取得する。次のステップST2,3において、取得した予測対象画像を予測モデル21に入力して素材に関する物性値を出力する。具体的には、ステップST2において、特徴量マップ出力部21aは、予測対象画像が入力されて特徴量マップG2を出力する。ステップST3において、変換部21bは、特徴量マップG2を素材に関する物性値に変換する。
 <変形例>
 (1-1)図1に示す実施形態において、予測モデル21は、特徴量マップG2を出力する特徴量マップ出力部21aで構成されているが、特徴量マップを出力せずに、物性値を出力するモデルであってもよい。例えば、ニューラルネットワークの一種であるResNetを使用してもよい。もちろん、画像を処理可能な非線形モデルであれば利用可能である。
 (1-2)上記実施形態において、物性値を予測する予測対象の素材は、薬品(エッチング剤、研磨液(化学、電解))などによる化学的反応処理により表面処理を施した金属(銅)の表面であるが、均一で微細な表面形状を持つ素材であれば、これに限定されない。例えば、研磨や圧延、レーザーなどの外力を作用させる機械加工処理により表面処理を施した金属表面であってもよい。各種顔料を分散・混合した塗料の塗装面であってもよい。またこの場合の塗料の性状(液体、粉体等)は限定されない。電解メッキ、無電解メッキ等によりメッキ処理した金属の表面であってもよい。添加剤を添加・分散させて成形加工を行ったフィルムの表面であってもよい。インク受容のための塗工層やその他機能性を与える塗工層を有した紙表面であってもよい。素材は限定されないが、カレンダー成形やエンボス成形等を用いて成形加工された素材表面であってもよい。
 (1-3)上記実施形態において、素材に関する物性値として、密着強度を挙げているが、これに限定されない。例えば、密着性、接合性、気密性、撥水性、撥油性、防汚性、摺動性、表面性(光沢、粗度)、色調、感触、熱物性、抗菌性、伝送損失に関する物性値であってもよい。
 (1-4)上記実施形態において、素材画像の対象としてSEM及びカメラにより取得した金属表面の画像を挙げているが、これに限定されない。波形やスペクトル、マッピンク画像、数字等、画像として取り込めるデータも対象となりえる。例として、顕微分光法(赤外、ラマン、UV-Vis等)やエネルギー分散型X線分光法(SEM-EDX)、また、非破壊検査に使用するような超音波検査により得られるスペクトルやそれを用いたマッピング画像等が挙げられる。
 以上のように、第1実施形態の物性値予測方法は、1又は複数のプロセッサが実行する方法であって、予測対象の素材を撮像した予測対象画像G1を取得し、素材を撮像した画像を説明変数として入力し素材に関する物性値(Y)を出力するように機械学習された予測モデルに対して、予測対象画像G1を入力して予測対象画像G1に写る素材に関する物性値(Y)を予測値として出力する、としてもよい。
 このように、機械学習された予測モデル21を用いて予測対象画像G1に写る素材(金属)に関する物性値を予測できるので、試験などで物性値を計測する場合に比べて、金銭コストや時間コストを削減可能となる。
 特に限定されないが、第1実施形態のように、予測モデル21は、入力される画像G1から特徴量マップG2を出力する特徴量マップ出力部21aと、特徴量マップG2を予測値に変換する変換部21bと、を有する、としてもよい。
 これにより、特徴量マップG2から予測値が得られるので、予測モデル21が予測する根拠を特徴量マップG2で説明する試みが可能となる。
 特に限定されないが、第1実施形態のように、撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、としてもよい。好適な一例である。
 第1実施形態に係るシステムは、上記方法を実行する1又は複数のプロセッサを備える。
 第1実施形態に係るプログラムは、上記方法を1又は複数のプロセッサに実行させるプログラムである。
 これらプログラムを実行することによっても、上記方法の奏する作用効果を得ることが可能となる。
 以上、本開示の実施形態について図面に基づいて説明したが、具体的な構成は、これらの実施形態に限定されるものでないと考えられるべきである。本開示の範囲は、上記した実施形態の説明だけではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
 <第2実施形態>
 図5は、第2実施形態の学習システム1及び予測システム2を示すブロック図である。第2実施形態は、第1実施形態に比べて予測システム2の構成が異なっている。具体的には、第2実施形態の予測システム2は、第1実施形態の予測システム2に対して、特定部23、抽出部24及び重合画像出力部25を追加している。特定部23、抽出部24及び重合画像出力部25はプロセッサ2aにより実現される。
 図5に示すように、メモリ2bには、複数の予測対象画像と、各々の予測対象画像に写る素材の既知の実測値である物理量(X)とが関連付けられて記憶されている。画像取得部20は、メモリ2bに記憶されている複数の予測対象画像をそれぞれ予測モデル21(特徴量マップ出力部21a及び変換部21b)に入力する。予測モデル21が算出した予測物性値(Y)及び特徴量マップ出力部21aが出力した特徴量マップは、メモリ2bにおいて予測対象画像及び実測物性値(X)に関連付けて記憶される。
 図5に示す特定部23は、メモリ2bに記憶されている複数の予測対象画像のうち、実測物性値が同程度の画像についての予測結果から予測不良画像と予測良好画像とを特定する。予測不良画像は、実測値と予測値の誤差が第1閾値以上の画像である。図6は、図3に示す予測対象画像群とは異なる予測対象画像群の予測値と実測値の組み合わせのデータをプロットした図であり、横軸が実測密着強度[N/mm]であり、縦軸が予測した密着強度[N/mm]である。図6に示すように、予測物性値(予測密着強度)と実測物性値(実測密着強度)とが一致する箇所が斜線で示されており、斜線に近いデータ(プロット点)が予測良好画像であり、斜線から遠いデータ(プロット点)が予測不良画像である。予測対象画像の予測精度は、プロット点から斜線に対する垂線の長さで表現できる。垂線の長さが長ければ、予測物性値と実測物性値の差が大きく、予測不良画像と判定でき、垂線の長さが短ければ、予測物性値と実測物性値の差が小さく、予測良好画像と判定できる。人の目でみて、斜線に相対的に近い予測良好画像と、斜線から相対的に遠い予測不要画像とを選択してもよいが、プログラムで自動選択も可能である。特定部23は、実測値と予測値の誤差(垂線の長さ)が第1閾値以上の画像を予測不良画像と特定し、実測値と予測値の誤差(垂線の長さ)が第2閾値以下の画像を予測良好画像と特定する処理を実行可能に構成されている。第2閾値は第1閾値よりも小さい。第1閾値及び第2閾値は、固定値でもよいし、可変であってもよい。例えば、実測値と予測値の誤差の最大値に応じて第1閾値及び第2閾値を設定してもよい。第1閾値を最大誤差の100%以下且つ90%以上とし、第2閾値を最大誤差の0%以上且つ10%以下に設定してもよい。また、実測値と予測値の誤差が最大である画像を予測不良画像と特定し、実測値と予測値の誤差が最小である画像を予測良好画像としてもよい。
 図6は、予測値と実測値の組み合わせのデータをプロットした図であり、予測不良画像G3及び予測良好画像G4を特定した例を示す図である。図6に示すように、特定部23が、複数の予測対象画像のうち、実測物性値が同程度の画像について、実測値と予測値の誤差が最大となる画像を予測不良画像G3と特定し、実測値と予測値の誤差が最小とみなせる画像を予測良好画像G4と特定している。実測物性値が同程度とは、図6においてグレーで塗りつぶして示すように、実測物性値が同一でなくても、所定範囲内にあればよいことを意味する。所定範囲は、データの分散具合を考慮して適宜設定可能である。図7は、予測不良画像G3(SEM画像)を示す。図8は、予測良好画像G4(SEM画像)を示す。図9は、予測不良画像G3(SEM画像)から得た特徴量マップを画像として示す。図10は、予測良好画像G4(SEM画像)から得た特徴量マップを画像として示す。図7~図10を人が見ても、予測精度に差が生じた理由を理解することが難しい。
 図11は、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布(ヒストグラム)と、予測良好画像G4の特徴量マップを構成する複数の特徴量の頻度分布(ヒストグラム)とを示す図である。図11の横軸は特徴量を示し、同図の縦軸はピクセル数(つまり頻度)を示している。図11の実線が予測不良画像G3のヒストグラムであり、同図の破線が予測良好画像G4のヒストグラムである。図11を見ると、双方の特徴量マップの特徴量の分布が似ており、銅表面のSEM画像の特徴を示していると考えられるが、若干の相違がある。本実施例では、特徴量が-1以上且つ1以下の範囲に大きな頻度分布の差がみられる。これらの特徴量群(特徴量が-1以上且つ1以下)を予測不良の要因を示す特徴量群として抽出した。なお、人の目でみて相違が大きい特徴量群を抽出してもよいし、プログラムで自動的に抽出してもよい。具体的には、2つのヒストグラムで形成される閉領域毎に、2つのヒストグラムの差の積分値を算出し、最も積分値が大きい範囲の特徴量群を抽出することが考えられる。
 すなわち、抽出部24は、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布(図11の実線)と、予測良好画像G4の特徴量マップを構成する複数の特徴量の頻度分布(図11の破線)との差に基づいて、予測不良の要因を表す特徴量群を抽出可能である。図12は、予測不良画像G3の特徴量マップのうち、抽出した特徴量群のみを示す図である。図13は、予測良好画像G4の特徴量マップのうち、抽出した特徴量群のみを示す図である。図12及び図13では、抽出した特徴量部分を黒で示し、それ以外を色で示している。特徴量マップはそれぞれ元の予測不良画像G3及び予測良好画像G4と同じサイズの画像であるか、アスペクト比が同じであることが多く、特徴量マップをそのまま又は拡大処理することで元の画像と位置関係を対応させることができ、抽出した特徴量群が存在する元の画像の部分が予測精度に影響を与えていると理解できる。よって、図12,13と元のSEM画像を照らし合わせることで、予測不良の要因の追求に利用可能となり、予測精度に関する説明が可能になる場合がある。
 重合画像出力部25は、抽出部24が抽出した特徴量群の位置を、予測不良画像G3又は予測良好画像G4の少なくとも一方に重ねて表示する重合画像を出力する。図14は、予測不良画像G3に、抽出した特徴量群の位置を重ねて表示する重合画像の一例を示す図である。図15は、予測良好画像G4に、抽出した特徴量群の位置を重ねて表示する重合画像の一例を示す図である。特徴量群の位置は、色で示してもよいし、その他のマークで示してもよい。
 これにより、予測対象画像と特徴量群の位置を一度に視認可能となり、有用である。
 第2実施形態の上記予測システム2が実行する、素材の物性値の予測方法を、図16を用いて説明する。
 まず、ステップST101において、予測部22は、素材の物性値の実測値が既知である複数の予測対象画像を入力して、複数の予測対象画像それぞれの素材の物性値の予測値及び特徴量マップを出力する。
 次のステップST102において、特定部23は、複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、実測値と予測値の誤差が第1閾値以上の予測不良画像G3と、実測値と予測値の誤差が第1閾値よりも小さい第2閾値以下の予測良好画像G4とを特定する。
 次のステップST103において、抽出部24は、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布と、予測良好画像G4の特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する。
 次のステップST104において、重合画像出力部25は、特徴量群の位置を、予測不良画像G3又は予測良好画像G4の少なくとも一方に重ねて表示する重合画像を出力する。
 以上のように、第2実施形態の物性値予測方法は、1又は複数のプロセッサが実行する方法であって、素材を撮像した画像から特徴量マップを出力する特徴量マップ出力部21aと、特徴量マップを素材に関する物性値に変換する変換部21bとを有し素材を撮像した画像を説明変数として入力し物性値を出力するように機械学習された予測モデル21に対して、物性値の実測値が既知である複数の予測対象画像を入力して、複数の予測対象画像それぞれの予測値及び特徴量マップを出力し、複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、実測値と前記予測値の誤差が第1閾値以上の予測不良画像G3と、実測値と予測値の誤差が第1閾値よりも小さい第2閾値以下の予測良好画像G4とを特定し、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布と、予測良好画像G4の特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する、としてもよい。
 このようにすれば、予測不良画像G3の特徴量マップを構成する複数の特徴量の頻度分布と、前記予測良好画像の特徴量マップを構成する複数の特徴量の頻度分布との差が大きい特徴量群は、予測不良の要因を表す可能性が高いため、予測不良の要因の追求に利用可能となり、予測精度に関する説明を可能とする可能性を提供できる。
 特に限定されないが、第2実施形態のように、特徴量群の位置を、予測不良画像G3又は予測良好画像G4の少なくとも一方に重ねて表示する重合画像を出力する、としてもよい。
 このようにすれば、特徴量群を、予測不良画像又は予測良好画像に重ねて視認可能であるので、有用である。
 特に限定されないが、第2実施形態のように、撮像される前記素材は、表面処理を施した金属の表面、塗装した塗料の表面、メッキした金属の表面、フィルム表面、及び紙表面のいずれかである、としてもよい。好適な一例である。
 第2実施形態に係るシステムは、上記方法を実行する1又は複数のプロセッサを備える。
 第2実施形態に係るプログラムは、上記方法を1又は複数のプロセッサに実行させるプログラムである。
 これらプログラムを実行することによっても、上記方法の奏する作用効果を得ることが可能となる。
 [変形例]
 (2-1)第2実施形態では、重合画像出力部25が設けられているが、重合画像出力部25は省略可能である。
 (2-2)第2実施形態では、表面処理を施した銅表面を撮像したSEM画像と、密着強度を予測する例で説明しているが、撮像対象の素材は第1実施形態と同様に種々変更可能である。また、予測対象の物性値も第1実施形態と同様に種々変更可能である。
 上記の各実施形態で採用している構造を他の任意の実施形態に採用することは可能である。各部の具体的な構成は、上述した実施形態のみに限定されるものではなく、本開示の趣旨を逸脱しない範囲で種々変形が可能である。
 例えば、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現できる。特許請求の範囲、明細書、および図面中のフローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実行することが必須であることを意味するものではない。
 図1に示す各部は、所定プログラムを1又は複数のプロセッサで実行することで実現しているが、各部を専用メモリや専用回路で構成してもよい。上記実施形態のシステム1(2)は、一つのコンピュータのプロセッサ1a(2a)において各部が実装されているが、各部を分散させて、複数のコンピュータやクラウドで実装してもよい。すなわち、上記方法を1又は複数のプロセッサで実行してもよい。
 システム1(2)は、プロセッサ1a(2a)を含む。例えば、プロセッサ1a(2a)は、中央処理ユニット(CPU)、マイクロプロセッサ、またはコンピュータ実行可能命令の実行が可能なその他の処理ユニットとすることができる。また、システム1(2)は、システム1(2)のデータを格納するためのメモリ1b(2b)を含む。一例では、メモリ1b(2b)は、コンピュータ記憶媒体を含み、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD-ROM、DVDまたはその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたはその他の磁気記憶デバイス、あるいは所望のデータを格納するために用いることができ、そしてシステム1がアクセスすることができる任意の他の媒体を含む。
 G1…予測対象画像
 G2…特徴量マップ
 2…予測システム
 20…画像取得部
 21…予測モデル
 21a…特徴量マップ出力部
 21b…変換部
 22…予測部
 23…特定部
 24…抽出部
 25…重合画像出力部

Claims (6)

  1.  素材を撮像した画像から特徴量マップを出力する特徴量マップ出力部と、前記特徴量マップを前記素材に関する物性値に変換する変換部とを有し前記素材を撮像した画像を説明変数として入力し前記物性値を出力するように機械学習された予測モデルに対して、前記物性値の実測値が既知である複数の予測対象画像を入力して、前記複数の予測対象画像それぞれの予測値及び特徴量マップを出力し、
     前記複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、前記実測値と前記予測値の誤差が第1閾値以上の予測不良画像と、前記実測値と前記予測値の誤差が前記第1閾値よりも小さい第2閾値以下の予測良好画像とを特定し、
     前記予測不良画像の前記特徴量マップを構成する複数の特徴量の頻度分布と、前記予測良好画像の前記特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する、物性値予測方法。
  2.  前記特徴量群の位置を、前記予測不良画像又は前記予測良好画像の少なくとも一方に重ねて表示する重合画像を出力する、請求項1に記載の物性値予測方法。
  3.  撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、請求項1又は2に記載の物性値予測方法。
  4.  素材を撮像した画像から特徴量マップを出力する特徴量マップ出力部と、前記特徴量マップを前記素材に関する物性値に変換する変換部とを有し前記素材を撮像した画像を説明変数として入力し前記物性値を出力するように機械学習された予測モデルに対して、前記物性値の実測値が既知である複数の予測対象画像を入力して、前記複数の予測対象画像それぞれの予測値及び特徴量マップを出力する予測部と、
     前記複数の予測対象画像のうち、実測物性値が同程度の画像の予測結果から、前記実測値と前記予測値の誤差が第1閾値以上の予測不良画像と、前記実測値と前記予測値の誤差が前記第1閾値よりも小さい第2閾値以下の予測良好画像とを特定する特定部と、
     前記予測不良画像の前記特徴量マップを構成する複数の特徴量の頻度分布と、前記予測良好画像の前記特徴量マップを構成する複数の特徴量の頻度分布との差に基づいて、予測不良の要因を表す特徴量群を抽出する抽出部と、
     を備える、物性値予測システム。
  5.  前記特徴量群の位置を、前記予測不良画像又は前記予測良好画像の少なくとも一方に重ねて表示する重合画像を出力する重合画像出力部を備える、請求項4に記載の物性値予測システム。
  6.  撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、請求項4又は5に記載の物性値予測システム。
     
PCT/JP2022/043910 2021-12-21 2022-11-29 物性値予測方法、及び物性値予測システム WO2023120057A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021206969A JP7076867B1 (ja) 2021-12-21 2021-12-21 物性値予測方法、物性値予測システム及びプログラム
JP2021-206969 2021-12-21

Publications (1)

Publication Number Publication Date
WO2023120057A1 true WO2023120057A1 (ja) 2023-06-29

Family

ID=81801989

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043910 WO2023120057A1 (ja) 2021-12-21 2022-11-29 物性値予測方法、及び物性値予測システム

Country Status (3)

Country Link
JP (1) JP7076867B1 (ja)
TW (1) TW202332958A (ja)
WO (1) WO2023120057A1 (ja)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039504A (ja) * 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2018029568A (ja) * 2016-08-26 2018-03-01 国立大学法人静岡大学 萎れ具合予測システム及び萎れ具合予測方法
JP2018171039A (ja) * 2017-03-31 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
JP2019124539A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
US20190347526A1 (en) * 2018-05-09 2019-11-14 Adobe Inc. Extracting material properties from a single image
JP2020041290A (ja) * 2018-09-07 2020-03-19 学校法人金沢工業大学 コンクリートの最適締固め判定施工システム
WO2020116085A1 (ja) * 2018-12-05 2020-06-11 ソニー株式会社 推定装置、推定方法、及び推定プログラム
JP2020128900A (ja) * 2019-02-07 2020-08-27 国立大学法人北海道大学 ゴム材料の特性推定方法、システム及びプログラム
WO2020262615A1 (ja) * 2019-06-28 2020-12-30 関西ペイント株式会社 光輝性顔料判定方法、光輝性顔料判定装置および光輝性顔料判定プログラム
JP2021051380A (ja) * 2019-09-20 2021-04-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2021060457A (ja) * 2019-10-03 2021-04-15 国立大学法人北海道大学 ゴム材料の物性推定方法、システム及びプログラム
JP2021135199A (ja) * 2020-02-27 2021-09-13 太平洋セメント株式会社 骨材の品質推定方法およびコンクリート製造方法
JP2021144402A (ja) * 2020-03-11 2021-09-24 株式会社ジェイテクト 品質評価に用いられる学習モデルの製造方法、学習システム、品質評価システム、及び、品質評価方法
JP2021155984A (ja) * 2020-03-26 2021-10-07 前田道路株式会社 アスファルト混合物の成分情報推定システム、アスファルトプラント、及び、アスファルト混合物の成分情報推定方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039504A (ja) * 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2018029568A (ja) * 2016-08-26 2018-03-01 国立大学法人静岡大学 萎れ具合予測システム及び萎れ具合予測方法
JP2018171039A (ja) * 2017-03-31 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
JP2019124539A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
US20190347526A1 (en) * 2018-05-09 2019-11-14 Adobe Inc. Extracting material properties from a single image
JP2020041290A (ja) * 2018-09-07 2020-03-19 学校法人金沢工業大学 コンクリートの最適締固め判定施工システム
WO2020116085A1 (ja) * 2018-12-05 2020-06-11 ソニー株式会社 推定装置、推定方法、及び推定プログラム
JP2020128900A (ja) * 2019-02-07 2020-08-27 国立大学法人北海道大学 ゴム材料の特性推定方法、システム及びプログラム
WO2020262615A1 (ja) * 2019-06-28 2020-12-30 関西ペイント株式会社 光輝性顔料判定方法、光輝性顔料判定装置および光輝性顔料判定プログラム
JP2021051380A (ja) * 2019-09-20 2021-04-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2021060457A (ja) * 2019-10-03 2021-04-15 国立大学法人北海道大学 ゴム材料の物性推定方法、システム及びプログラム
JP2021135199A (ja) * 2020-02-27 2021-09-13 太平洋セメント株式会社 骨材の品質推定方法およびコンクリート製造方法
JP2021144402A (ja) * 2020-03-11 2021-09-24 株式会社ジェイテクト 品質評価に用いられる学習モデルの製造方法、学習システム、品質評価システム、及び、品質評価方法
JP2021155984A (ja) * 2020-03-26 2021-10-07 前田道路株式会社 アスファルト混合物の成分情報推定システム、アスファルトプラント、及び、アスファルト混合物の成分情報推定方法

Also Published As

Publication number Publication date
JP7076867B1 (ja) 2022-05-30
TW202332958A (zh) 2023-08-16
JP2023092019A (ja) 2023-07-03

Similar Documents

Publication Publication Date Title
Zhan et al. No-reference image sharpness assessment based on maximum gradient and variability of gradients
Bahrami et al. A fast approach for no-reference image sharpness assessment based on maximum local variation
Nafchi et al. Efficient no-reference quality assessment and classification model for contrast distorted images
JP5306519B2 (ja) 光輝性顔料の同定方法、同定システム、同定プログラム及びその記録媒体
JP5063076B2 (ja) 光輝性顔料の同定方法、同定システム、同定プログラム及びその記録媒体
Yang et al. Image quality assessment based on the space similarity decomposition model
CN110766657B (zh) 一种激光干扰图像质量评价方法
WO2023120057A1 (ja) 物性値予測方法、及び物性値予測システム
WO2023120061A1 (ja) 物性値予測方法、及び物性値予測システム
JP4534795B2 (ja) 塗膜評価装置及び方法
TW202305349A (zh) 評估方法、評估裝置及電腦程式
Fotos et al. Deep learning enhanced Watershed for microstructural analysis using a boundary class semantic segmentation
Temel et al. ReSIFT: Reliability-weighted sift-based image quality assessment
JP6034529B1 (ja) 表面状態診断装置
Tang et al. Feature comparison and analysis for new challenging research fields of image quality assessment
JP2022188504A (ja) 金属組織のセグメンテーション方法
CN113781375A (zh) 一种基于多曝光融合的车载视觉增强方法
CN112862066A (zh) 用于监控油漆的搅拌混合均匀性的神经网络的训练方法
JP5055404B2 (ja) 劣化診断方法、劣化診断装置及び劣化診断プログラム
Xing et al. Multi-exposure image fusion quality assessment using contrast information
Zhang et al. Using multiscale structural fusion for sonar image quality evaluation
Zhao et al. Nonuniform illumination correction for underwater images through a pseudo-siamese network
Kim et al. No-reference contrast measurement for color images based on visual stimulus
JP7372072B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、および画像検査システム
JP2021136024A (ja) 画像生成装置、ゴム組成物の配合推定装置及び学習装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22910775

Country of ref document: EP

Kind code of ref document: A1