WO2023120061A1 - 物性値予測方法、及び物性値予測システム - Google Patents

物性値予測方法、及び物性値予測システム Download PDF

Info

Publication number
WO2023120061A1
WO2023120061A1 PCT/JP2022/043940 JP2022043940W WO2023120061A1 WO 2023120061 A1 WO2023120061 A1 WO 2023120061A1 JP 2022043940 W JP2022043940 W JP 2022043940W WO 2023120061 A1 WO2023120061 A1 WO 2023120061A1
Authority
WO
WIPO (PCT)
Prior art keywords
physical property
prediction
property value
image
input
Prior art date
Application number
PCT/JP2022/043940
Other languages
English (en)
French (fr)
Inventor
雅子 赤木
トリスタン ハスコエ
セツコウ トウ
Original Assignee
メック株式会社
国立大学法人神戸大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メック株式会社, 国立大学法人神戸大学 filed Critical メック株式会社
Priority to CN202280084244.5A priority Critical patent/CN118742803A/zh
Priority to KR1020247019270A priority patent/KR20240127957A/ko
Publication of WO2023120061A1 publication Critical patent/WO2023120061A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • G01N2021/1776Colour camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/61Specific applications or type of materials thin films, coatings
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/30Prediction of properties of chemical compounds, compositions or mixtures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Definitions

  • the present disclosure relates to a physical property value prediction method and a physical property value prediction system using machine learning.
  • the electronic board has a laminated structure of metal such as copper and resin, and the quality of the electronic board corresponds to the degree of adhesion between the metal and the resin interface.
  • metal such as copper and resin
  • the quality of the electronic board corresponds to the degree of adhesion between the metal and the resin interface.
  • Patent Document 1 describes estimating physical property values of rubber materials using machine learning.
  • adhesion strength of surface-treated metal could be predicted by machine learning.
  • physical property values of the material can be predicted by machine learning, without being limited to the surface-treated metal or adhesion strength.
  • the present disclosure provides a physical property value prediction method and a physical property value prediction system that can predict physical property values of materials using machine learning.
  • the physical property value prediction method of the present disclosure obtains a prediction target image that captures a material to be predicted, inputs the captured image of the material as an explanatory variable, and outputs a physical property value related to the material.
  • a prediction model that has undergone machine learning. , the prediction target image is input, and the physical property value related to the material appearing in the prediction target image is output as a prediction value.
  • FIG. 4 is a diagram plotting data of combinations of predicted values and actual values in Example 1.
  • FIG. 4 is a flowchart showing processing executed by the prediction system of the first embodiment; An example of the SEM image which imaged the copper foil after chemical treatment with the electron microscope is shown. A feature map obtained using UNet based on the SEM image shown in FIG. 5 is shown as an image.
  • the prediction system 2 (apparatus) of the first embodiment uses the prediction model 21 to obtain the physical property value (for example, the adhesion strength) of the metal based on the image of the surface of the metal (copper) surface-treated with a chemical. to predict.
  • the learning system 1 (apparatus) constructs a prediction model 21 by machine learning using teacher data.
  • the prediction system 2 has an image acquisition unit 20 and a prediction unit 22.
  • the learning system 1 has teacher data D1 and a learning unit 10 for learning a prediction model 21 .
  • the teacher data D1 is stored in the memory 1b.
  • the learning unit 10 is realized by the processor 1a.
  • the image acquisition unit 20 and the prediction unit 22 are realized by the processor 2a.
  • processors 1a and 2a in one device implement each unit, but the present invention is not limited to this. For example, each processing may be distributed using a network, and a plurality of processors may be configured to execute the processing of each unit. That is, one or more processors perform processing.
  • the image acquisition unit 20 acquires an image G1 of the prediction target material.
  • the image acquisition unit 20 acquires an SEM image (grayscale image) obtained by imaging the surface of the surface-treated metal (copper) with an electron microscope.
  • An image G1 obtained by picking up a prediction target material is image data having the number of vertical pixels of h ⁇ the number of horizontal pixels of w.
  • the prediction model 21 uses teacher data D1 that associates an image (for example, an SEM image, a camera image) of a material with a physical property value (for example, adhesion strength) of the material, inputs the image as an explanatory variable, and calculates the physical properties of the material. It is a model built by machine learning to output a value.
  • the learning unit 10 of the learning system 1 updates the parameters of the prediction model 21 so that the prediction results and the measured values of the teacher data match.
  • the teacher data D1 consists of input images 1 to N (N indicates the number of learning images) and physical quantities (X 1 , X 2 , . . . , X N ) are associated with each other.
  • the prediction model 21 includes a feature map output unit 21a that outputs a feature map G2 from an input image, and a and a conversion unit 21b for converting into a value (Y).
  • the feature quantity map output unit 21a uses UNet.
  • UNet is a U-shaped Convolutional Neural Network (CNN) based learning model.
  • the converter 21b uses GAP (Global Average Pooling).
  • the feature map G2 is data having the number of pixels obtained by multiplying the number of pixels h' corresponding to the vertical pixels h of the input image G1 by the number of pixels w' corresponding to the horizontal pixels w of the input image. has a feature value related to the physical property value of the material.
  • the conversion unit 21b converts the feature quantity map G2 into a single physical quantity (Y).
  • "corresponding" includes the case where the feature map becomes an image of the same size as the original input image, or the case where the image has the same aspect ratio but has a different size from the original input image. It means that it is possible to match the size of the original input image by enlarging the map.
  • FIG. 5 shows an example of an SEM image of the copper foil after chemical treatment taken with an electron microscope.
  • FIG. 6 shows, as an image, a feature quantity map obtained using UNet based on the SEM image shown in FIG.
  • the example image shown in FIG. 6 is the same size as the input image shown in FIG.
  • the feature quantity map has a number of feature quantities corresponding to pixels in the vertical direction ⁇ pixels in the horizontal direction, and each of the feature quantities indicates a feature relating to the physical property value of the material.
  • Example 1 is an example in which the input image G1 is an SEM image obtained by imaging a copper foil after chemical treatment with an electron microscope.
  • FIG. 2 shows an example of an SEM image.
  • the imaging conditions for the SEM image are a magnification of 3500 times and a tilt angle of 45 degrees.
  • the physical quantity was the adhesion strength [N/mm].
  • This is an example of treating a copper surface using chemical A.
  • 90 adhesion strengths were measured for 90 images. Half of the 90 pieces of data were used as learning data, and the remaining half were used for prediction. The mean square error between the measured adhesion strength and the predicted value was 0.0008.
  • the horizontal axis represents the measured adhesion strength and the vertical axis represents the predicted adhesion strength.
  • Example 2 In Example 2, as in Example 1, the SEM image was used as the input image G1. This is an example of treating a copper surface using chemical B. 72 adhesion strengths were measured for 72 images. Half of the 72 pieces were used as learning data, and the remaining half were used as prediction data. The mean square error between the measured adhesion strength and the predicted value was 0.0012. The SEM image capturing conditions are the same as in the first embodiment.
  • Example 3 In Example 3, as in Example 1, the SEM image was used as the input image G1. This is an example of treating a copper surface using chemical C. Thirty-nine adhesion strengths were measured for 39 images. Half of the 39 pieces were used as learning data, and the remaining half were used as prediction data. The mean square error between the measured adhesion strength and the predicted value was 0.0021.
  • the SEM image capturing conditions are the same as in the first embodiment.
  • Example 4 is an example in which the SEM image of Example 3 is used to estimate a plurality of physical property values from one SEM image. Specifically, by setting the output of one UNet to multiple classes, it becomes possible to output (calculate) multiple physical property values from the same UNet.
  • the multiple physical property values are adhesion strength and roughness parameters (Sdr, Sdq). It is a configuration in which a first UNet for predicting adhesion strength, a second UNet for predicting Sdr, and a third UNet for predicting Sdq are parallelized.
  • the mean square error of adhesion strength was 0.001
  • the mean square error of Sdr was 0.0003
  • the mean square error of Sdq was 0.0868.
  • Example 5 is an example in which the chemical D was used to treat the copper surface.
  • the input image G1 is not a SEM image but a camera image captured by an optical camera. The camera image is only processed to separate the black background.
  • the RGB components included in the camera image are divided into three monochromatic images, and the three monochromatic images are input to the prediction model 21 .
  • the physical property value was the surface roughness Ra (arithmetic average). 960 pairs of data are used, half of which are used as teacher data and the remaining half are used as prediction data.
  • the mean squared error was 0.0153. Note that it is also possible to convert a camera image having RGB components into a grayscale image and input the intensity (brightness) of the grayscale image to the prediction model 21 .
  • the RGB components were used because no noticeable difference was observed between the input of a grayscale image and the input of three single-color images for each RGB component.
  • Example 6 In Example 6, as in Example 5, the camera image is used as the input image G1. This is an example of treating a copper surface using chemical D.
  • the physical property value was CIE1976 lightness index L*. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 11.05. L* conforms to JISZ 8781-4.
  • the camera image is used as the input image G1.
  • This is an example of treating a copper surface using chemical D.
  • the physical property value was the color coordinate a* in the CIE1976 color space. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 0.0062. a* conforms to JISZ 8781-4.
  • the camera image is used as the input image G1.
  • This is an example of treating a copper surface using chemical D.
  • the physical property value was the color coordinate b* in the CIE1976 color space. 320 sets of data are used, half of which are used as teacher data and the remaining half are used as prediction data. The mean squared error was 0.1294. b* conforms to JISZ 8781-4.
  • step ST1 the image acquisition unit 20 acquires a prediction target image obtained by imaging a prediction target material.
  • SEM images or camera images are acquired.
  • the obtained prediction target image is input to the prediction model 21, and the physical property values regarding the material are output.
  • the feature map output unit 21a receives the prediction target image and outputs the feature map G2.
  • the conversion unit 21b converts the feature map G2 into physical property values relating to the material.
  • the prediction model 21 is composed of the feature map output unit 21a that outputs the feature map G2. It may be a model to be output.
  • ResNet which is a type of neural network, may be used.
  • any nonlinear model that can process images can be used.
  • the material to be predicted for which the physical property value is predicted is a metal (copper) surface-treated by a chemical reaction treatment with a chemical (etching agent, polishing liquid (chemical, electrolytic)) or the like.
  • a chemical reaction treatment with a chemical (etching agent, polishing liquid (chemical, electrolytic)) or the like.
  • the material has a uniform and fine surface shape.
  • it may be a metal surface that has been surface-treated by a machining treatment that applies an external force, such as polishing, rolling, or laser.
  • It may be a coated surface of a paint in which various pigments are dispersed and mixed.
  • the properties of the paint (liquid, powder, etc.) in this case are not limited. It may be a metal surface plated by electrolytic plating, electroless plating, or the like.
  • It may be the surface of a film formed by adding and dispersing an additive. It may be a paper surface having a coating layer for receiving ink or a coating layer that imparts other functionality. Although the material is not limited, the surface of the material may be molded using calendar molding, embossing, or the like.
  • adhesion strength is mentioned as a physical property value related to the material, but it is not limited to this.
  • physical properties related to adhesion, bonding, airtightness, water repellency, oil repellency, antifouling, slidability, surface properties (gloss, roughness), color tone, feel, thermophysical properties, antibacterial properties, and transmission loss may be.
  • images of metal surfaces obtained by SEM and camera are cited as the object of the material image, but the object is not limited to this.
  • Data that can be captured as images, such as waveforms, spectra, mapping images, numbers, etc., can also be targets. Examples include microspectroscopy (infrared, Raman, UV-Vis, etc.), energy-dispersive X-ray spectroscopy (SEM-EDX), and spectra and , and the like.
  • the physical property value prediction method of the first embodiment is a method executed by one or a plurality of processors. Predicting the physical property value (Y) of the material reflected in the prediction target image G1 by inputting the prediction target image G1 to the prediction model machine-learned to input as an explanatory variable and output the physical property value (Y) of the material. It may be output as a value.
  • the physical property values related to the material (metal) reflected in the prediction target image G1 can be predicted using the machine-learned prediction model 21. Therefore, compared to measuring the physical property values in a test or the like, money and time costs are reduced. can be reduced.
  • the prediction model 21 includes, from the input image G1, a feature map output unit 21a that outputs a feature map G2 having feature values related to physical property values of materials, and a feature map output unit 21a that outputs a feature map G2 having feature values related to physical property values of materials. and a conversion unit 21b that converts the quantity map G2 into a predicted value.
  • the prediction value can be obtained from the feature map G2, so that it is possible to try to explain the grounds for prediction by the prediction model 21 using the feature map G2.
  • the material to be imaged includes a surface-treated metal surface, a painted surface, a plated metal surface, a film surface, a paper surface, and a molded surface. It may be any of the processed material surfaces. This is a suitable example.
  • a system according to a first embodiment comprises one or more processors for performing the above method.
  • a program according to the first embodiment is a program that causes one or more processors to execute the above method. By executing these programs as well, it is possible to obtain the effects of the above method.
  • each part shown in FIG. 1 is realized by executing a predetermined program with one or more processors, but each part may be configured with a dedicated memory or a dedicated circuit.
  • each part is implemented in the processor 1a (2a) of one computer, but each part may be distributed and implemented in a plurality of computers or in the cloud. That is, the method may be performed by one or more processors.
  • the system 1 (2) includes a processor 1a (2a).
  • processor 1a (2a) may be a central processing unit (CPU), microprocessor, or other processing unit capable of executing computer-executable instructions.
  • System 1(2) also includes memory 1b(2b) for storing data for system 1(2).
  • memory 1b (2b) includes computer storage media including RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, DVD or other optical disk storage, magnetic cassette, magnetic tape, magnetic disk storage. or other magnetic storage device, or any other medium that can be used to store desired data and that can be accessed by system 1 .
  • G1 Prediction target image
  • Image acquisition unit 21 Prediction model 21a
  • Feature amount map output unit 21b Feature amount map output unit 21b
  • Conversion unit 22 Prediction unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Processing (AREA)
  • Feedback Control In General (AREA)

Abstract

物性値予測方法は、予測対象の素材を撮像した予測対象画像G1を取得し、素材を撮像した画像を説明変数として入力し素材に関する物性値(Y)を出力するように機械学習された予測モデルに対して、予測対象画像G1を入力して予測対象画像G1に写る素材に関する物性値(Y)を予測値として出力する。

Description

物性値予測方法、及び物性値予測システム
 本開示は、機械学習を用いた物性値予測方法、及び物性値予測システムに関する。
 電子基板は銅などの金属と樹脂の積層構造であり、電子基板の品質は、金属と樹脂界面の密着度に対応する。薬品で表面処理を施して粗面化した金属表面の形状を評価することで、電子基板の金属の密着度の評価が可能となる。評価項目の一つとして、例えば密着強度を計測することが挙げられるが、工数がかかるという問題がある。
 例えば、特許文献1には、機械学習を用いてゴム材料の物性値を推定することが記載されている。
特開2021-60457号公報
 上記評価を簡素化するために、表面処理を施した金属の密着強度を機械学習により予測可能にできれば好ましいと考えられる。なお、表面処理を施した金属や密着強度に限定されず、素材の物性値を機械学習により予測可能にできれば好ましいと考えられる。
 本開示は、機械学習を用いて素材の物性値を予測可能な物性値予測方法、及び物性値予測システムを提供する。
 本開示の物性値予測方法は、予測対象の素材を撮像した予測対象画像を取得し、素材を撮像した画像を説明変数として入力し前記素材に関する物性値を出力するように機械学習された予測モデルに対して、前記予測対象画像を入力して前記予測対象画像に写る前記素材に関する物性値を予測値として出力する。
第1実施形態の予測システム及び学習システムを示すブロック図。 薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像の一例を示す図。 実施例1の予測値と実測値の組み合わせのデータをプロットした図。 第1実施形態の予測システムが実行する処理を示すフローチャート。 薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像の一例を示す。 図5に示すSEM画像に基づきUNetを用いて得た特徴量マップを画像として示す。
 <第1実施形態>
 以下、本開示の第1実施形態を、図面を参照して説明する。
 [学習システム、予測システム]
 第1実施形態の予測システム2(装置)は、予測モデル21を用いて、薬品で表面処理を施した金属(銅)の表面を撮像した画像に基づいて、金属の物性値(例えば密着強度)を予測する。学習システム1(装置)は、教師データを用いて予測モデル21を機械学習で構築する。
 図1に示すように、予測システム2は、画像取得部20と、予測部22と、を有する。学習システム1は、教師データD1と、予測モデル21を学習させる学習部10とを有する。教師データD1は、メモリ1bに記憶される。学習部10は、プロセッサ1aで実現される。画像取得部20及び予測部22は、プロセッサ2aで実現される。第1実施形態では、1つの装置におけるプロセッサ1a,2aが各部を実現しているが、これに限定されない。例えば、ネットワークを用いて各処理を分散させ、複数のプロセッサが各部の処理を実行するように構成してもよい。すなわち、1又は複数のプロセッサが処理を実行する。
 画像取得部20は、予測対象の素材を撮像した画像G1を取得する。第1実施形態では、画像取得部20は、表面処理した金属(銅)の表面を電子顕微鏡で撮像したSEM画像(グレースケール画像)を取得する。予測対象の素材を撮像した画像G1は、縦ピクセル数h×横ピクセル数wの画像データである。
 予測モデル21は、素材を撮像した画像(例えばSEM画像、カメラ画像)とその素材に関する物性値(例えば密着強度)とを関連付けた教師データD1を用いて、画像を説明変数として入力し素材に関する物性値を出力するように機械学習で構築されたモデルである。学習システム1の学習部10は、予測結果と教師データの実測値が一致するように、予測モデル21のパラメータを更新する。図1において、教師データD1は、入力画像1~N(Nは学習用画像の数を示す)と、各々の入力画像1~Nに対応する実測値である物理量(X,X,…,X)とが対応付けられている。
 予測モデル21は、種々のモデルが利用可能であるが、第1実施形態では、予測モデル21は、入力画像から特徴量マップG2を出力する特徴量マップ出力部21aと、特徴量マップG2を物性値(Y)に変換する変換部21bとを有する。第1実施形態では、特徴量マップ出力部21aは、UNetを用いている。UNetは、U字型の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)ベースの学習モデルである。変換部21bは、GAP(Global Average Pooling)を用いている。特徴量マップG2は、入力画像G1の縦ピクセルhに対応するピクセル数h’と、入力画像の横ピクセルwに対応するピクセル数w’とを乗算した数のピクセル数を有するデータであり、各々のピクセルが、素材に関する物性値に関する特徴量を有する。変換部21bは、特徴量マップG2を1つの数である物理量(Y)に変換する。ここで「対応する」は、特徴量マップが元の入力画像と同じサイズの画像になる場合や、元の入力画像とは異なるサイズであるもののアスペクト比が同じ画像になる場合を含み、特徴量マップを拡大処理することで元の入力画像のサイズに一致させることが可能なことを意味する。
 図5は、薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像の一例を示す。図6は、図5に示すSEM画像に基づきUNetを用いて得た特徴量マップを画像として示す。図6に示す例の画像は、図5に示す入力画像と同じサイズである。このように、特徴量マップは、縦ピクセル×横ピクセルに相当する数の特徴量を有し、各々の特徴量が素材の物性値に関する特徴を示している。
 [実施例1]
 実施例1は、入力画像G1を、薬品処理後の銅箔を電子顕微鏡で撮像したSEM画像とした例である。図2は、SEM画像の一例を示す。SEM画像の撮像条件は、倍率は3500倍、チルト角が45度である。物理量は、密着強度[N/mm]とした。薬品Aを用いて銅表面を処理した例である。90枚の画像に対して90個の密着強度を計測した。90個のデータのうちの半数を学習用データとして使用し、残り半数のデータを予測に用いた。実測密着強度と予測値の平均二乗誤差が0.0008であった。図3は、横軸が実測密着強度であり、縦軸が予測した密着強度であり、予測値と実測値の組み合わせのデータをプロットした図である。
 [実施例2]
 実施例2は、実施例1と同様にSEM画像を入力画像G1とした。薬品Bを用いて銅表面を処理した例である。72枚の画像に対して72個の密着強度を計測した。72個のうちの半数を学習用データとし、残り半数を予測用データとした。実測密着強度と予測値の平均二乗誤差が0.0012であった。SEM画像の撮像条件は実施例1と同じである。
 [実施例3]
 実施例3は、実施例1と同様にSEM画像を入力画像G1とした。薬品Cを用いて銅表面を処理した例である。39枚の画像に対して39個の密着強度を計測した。39個のうちの半数を学習用データとし、残り半数を予測用データとした。実測密着強度と予測値の平均二乗誤差が0.0021であった。SEM画像の撮像条件は実施例1と同じである。
 [実施例4]
 実施例4は、実施例3のSEM画像を用いて、1枚のSEM画像から複数の物性値を推測するようにした例である。具体的には、1つのUNetの出力を複数クラスに設定することで、同一のUNetから複数の物性値を出力(計算)可能となる。複数の物性値は、密着強度、粗さパラメータ(Sdr、Sdq)である。密着強度を予測するための第1のUNetと、Sdrを予測するための第2のUNetと、Sdqを予測するための第3のUNetとを並列化した構成である。密着強度の平均二乗誤差が0.001であり、Sdrの平均二乗誤差が0.0003であり、Sdqの平均二乗誤差が0.0868であった。
 [実施例5]
 実施例5は、薬品Dを用いて銅表面を処理した例である。入力画像G1が、SEM画像ではなく、光学カメラで撮像したカメラ画像である。カメラ画像は、黒色の背景を分離する処理のみを行っている。カメラ画像に含まれるRGB成分ごとに3つの単色画像に分け、3つの単色画像を予測モデル21に入力する。物性値は、表面粗さRa(算術平均)とした。960組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.0153であった。
 なお、RGB成分を有するカメラ画像をグレースケール画像に変換して、グレースケール画像の強度(明度)を予測モデル21に入力することも可能である。グレースケール画像を入力した場合と、RGB成分ごとに3つの単色画像を入力した場合に特筆すべき違いが見受けられなかったので、実施例5では、RGB成分の方を用いた。
 [実施例6]
 実施例6は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 明度指数L*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は11.05であった。L*は、JISZ 8781-4に準拠している。
 [実施例7]
 実施例7は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 色空間における色座標a*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.0062であった。a*は、JISZ 8781-4に準拠している。
 [実施例8]
 実施例8は、実施例5と同様にカメラ画像を入力画像G1としている。薬品Dを用いて銅表面を処理した例である。物性値は、CIE1976 色空間における色座標b*とした。320組のデータを用い、半数を教師データとし、残り半数を予測データに用いている。平均二乗誤差は0.1294であった。b*は、JISZ 8781-4に準拠している。
 [素材の物性値の予測方法]
 上記予測システム2が実行する、素材の物性値の予測方法を、図4を用いて説明する。
 まず、ステップST1において、画像取得部20は、予測対象の素材を撮像した予測対象画像を取得する。第1実施形態では、SEM画像かカメラ画像を取得する。次のステップST2,3において、取得した予測対象画像を予測モデル21に入力して素材に関する物性値を出力する。具体的には、ステップST2において、特徴量マップ出力部21aは、予測対象画像が入力されて特徴量マップG2を出力する。ステップST3において、変換部21bは、特徴量マップG2を素材に関する物性値に変換する。
 <変形例>
 (1-1)図1に示す実施形態において、予測モデル21は、特徴量マップG2を出力する特徴量マップ出力部21aで構成されているが、特徴量マップを出力せずに、物性値を出力するモデルであってもよい。例えば、ニューラルネットワークの一種であるResNetを使用してもよい。もちろん、画像を処理可能な非線形モデルであれば利用可能である。
 (1-2)上記実施形態において、物性値を予測する予測対象の素材は、薬品(エッチング剤、研磨液(化学、電解))などによる化学的反応処理により表面処理を施した金属(銅)の表面であるが、均一で微細な表面形状を持つ素材であれば、これに限定されない。例えば、研磨や圧延、レーザーなどの外力を作用させる機械加工処理により表面処理を施した金属表面であってもよい。各種顔料を分散・混合した塗料の塗装面であってもよい。またこの場合の塗料の性状(液体、粉体等)は限定されない。電解メッキ、無電解メッキ等によりメッキ処理した金属の表面であってもよい。添加剤を添加・分散させて成形加工を行ったフィルムの表面であってもよい。インク受容のための塗工層やその他機能性を与える塗工層を有した紙表面であってもよい。素材は限定されないが、カレンダー成形やエンボス成形等を用いて成形加工された素材表面であってもよい。
 (1-3)上記実施形態において、素材に関する物性値として、密着強度を挙げているが、これに限定されない。例えば、密着性、接合性、気密性、撥水性、撥油性、防汚性、摺動性、表面性(光沢、粗度)、色調、感触、熱物性、抗菌性、伝送損失に関する物性値であってもよい。
 (1-4)上記実施形態において、素材画像の対象としてSEM及びカメラにより取得した金属表面の画像を挙げているが、これに限定されない。波形やスペクトル、マッピンク画像、数字等、画像として取り込めるデータも対象となりえる。例として、顕微分光法(赤外、ラマン、UV-Vis等)やエネルギー分散型X線分光法(SEM-EDX)、また、非破壊検査に使用するような超音波検査により得られるスペクトルやそれを用いたマッピング画像等が挙げられる。
 以上のように、第1実施形態の物性値予測方法は、1又は複数のプロセッサが実行する方法であって、予測対象の素材を撮像した予測対象画像G1を取得し、素材を撮像した画像を説明変数として入力し素材に関する物性値(Y)を出力するように機械学習された予測モデルに対して、予測対象画像G1を入力して予測対象画像G1に写る素材に関する物性値(Y)を予測値として出力する、としてもよい。
 このように、機械学習された予測モデル21を用いて予測対象画像G1に写る素材(金属)に関する物性値を予測できるので、試験などで物性値を計測する場合に比べて、金銭コストや時間コストを削減可能となる。
 特に限定されないが、第1実施形態のように、予測モデル21は、入力される画像G1から、素材に関する物性値に関する特徴量を有する特徴量マップG2を出力する特徴量マップ出力部21aと、特徴量マップG2を予測値に変換する変換部21bと、を有する、としてもよい。
 これにより、特徴量マップG2から予測値が得られるので、予測モデル21が予測する根拠を特徴量マップG2で説明する試みが可能となる。
 特に限定されないが、第1実施形態のように、撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、としてもよい。好適な一例である。
 第1実施形態に係るシステムは、上記方法を実行する1又は複数のプロセッサを備える。
 第1実施形態に係るプログラムは、上記方法を1又は複数のプロセッサに実行させるプログラムである。
 これらプログラムを実行することによっても、上記方法の奏する作用効果を得ることが可能となる。
 以上、本開示の実施形態について図面に基づいて説明したが、具体的な構成は、これらの実施形態に限定されるものでないと考えられるべきである。本開示の範囲は、上記した実施形態の説明だけではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
 上記の各実施形態で採用している構造を他の任意の実施形態に採用することは可能である。各部の具体的な構成は、上述した実施形態のみに限定されるものではなく、本開示の趣旨を逸脱しない範囲で種々変形が可能である。
 例えば、特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現できる。特許請求の範囲、明細書、および図面中のフローに関して、便宜上「まず」、「次に」等を用いて説明したとしても、この順で実行することが必須であることを意味するものではない。
 図1に示す各部は、所定プログラムを1又は複数のプロセッサで実行することで実現しているが、各部を専用メモリや専用回路で構成してもよい。上記実施形態のシステム1(2)は、一つのコンピュータのプロセッサ1a(2a)において各部が実装されているが、各部を分散させて、複数のコンピュータやクラウドで実装してもよい。すなわち、上記方法を1又は複数のプロセッサで実行してもよい。
 システム1(2)は、プロセッサ1a(2a)を含む。例えば、プロセッサ1a(2a)は、中央処理ユニット(CPU)、マイクロプロセッサ、またはコンピュータ実行可能命令の実行が可能なその他の処理ユニットとすることができる。また、システム1(2)は、システム1(2)のデータを格納するためのメモリ1b(2b)を含む。一例では、メモリ1b(2b)は、コンピュータ記憶媒体を含み、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD-ROM、DVDまたはその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたはその他の磁気記憶デバイス、あるいは所望のデータを格納するために用いることができ、そしてシステム1がアクセスすることができる任意の他の媒体を含む。
 G1…予測対象画像
 G2…特徴量マップ
 2…予測システム
 20…画像取得部
 21…予測モデル
 21a…特徴量マップ出力部
 21b…変換部
 22…予測部

Claims (6)

  1.  予測対象の素材を撮像した予測対象画像を取得し、
     素材を撮像した画像を説明変数として入力し前記素材に関する物性値を出力するように機械学習された予測モデルに対して、前記予測対象画像を入力して前記予測対象画像に写る前記素材に関する物性値を予測値として出力する、物性値予測方法。
  2.  前記予測モデルは、入力される画像から、前記素材に関する物性値に関する特徴量を有する特徴量マップを出力する特徴量マップ出力部と、前記特徴量マップを前記予測値に変換する変換部と、を有する、請求項1に記載の物性値予測方法。
  3.  撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、請求項1又は2に記載の物性値予測方法。
  4.  予測対象の素材を撮像した予測対象画像を取得する画像取得部と、
     素材を撮像した画像を説明変数として入力し前記素材に関する物性値を出力するように機械学習された予測モデルに対して、前記予測対象画像を入力して前記予測対象画像に写る前記素材に関する物性値を予測値として出力する予測部と、
     を備える、物性値予測システム。
  5.  前記予測モデルは、入力される画像から、前記素材に関する物性値に関する特徴量を有する特徴量マップを出力する特徴量マップ出力部と、前記特徴量マップを前記予測値に変換する変換部と、を有する、請求項4に記載の物性値予測システム。
  6.  撮像される前記素材は、表面処理を施した金属の表面、塗料の塗装面、メッキ処理した金属の表面、フィルムの表面、紙表面、及び成形加工された素材表面のいずれかである、請求項4又は5に記載の物性値予測システム。
PCT/JP2022/043940 2021-12-21 2022-11-29 物性値予測方法、及び物性値予測システム WO2023120061A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280084244.5A CN118742803A (zh) 2021-12-21 2022-11-29 物性值预测方法及物性值预测系统
KR1020247019270A KR20240127957A (ko) 2021-12-21 2022-11-29 물성값 예측 방법 및 물성값 예측 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-206742 2021-12-21
JP2021206742A JP7078944B1 (ja) 2021-12-21 2021-12-21 物性値予測方法、物性値予測システム及びプログラム

Publications (1)

Publication Number Publication Date
WO2023120061A1 true WO2023120061A1 (ja) 2023-06-29

Family

ID=81845517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043940 WO2023120061A1 (ja) 2021-12-21 2022-11-29 物性値予測方法、及び物性値予測システム

Country Status (5)

Country Link
JP (1) JP7078944B1 (ja)
KR (1) KR20240127957A (ja)
CN (1) CN118742803A (ja)
TW (1) TW202332957A (ja)
WO (1) WO2023120061A1 (ja)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039504A (ja) * 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2018029568A (ja) * 2016-08-26 2018-03-01 国立大学法人静岡大学 萎れ具合予測システム及び萎れ具合予測方法
JP2018171039A (ja) * 2017-03-31 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
JP2019124539A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
US20190347526A1 (en) * 2018-05-09 2019-11-14 Adobe Inc. Extracting material properties from a single image
JP2020041290A (ja) * 2018-09-07 2020-03-19 学校法人金沢工業大学 コンクリートの最適締固め判定施工システム
WO2020116085A1 (ja) * 2018-12-05 2020-06-11 ソニー株式会社 推定装置、推定方法、及び推定プログラム
JP2020128900A (ja) * 2019-02-07 2020-08-27 国立大学法人北海道大学 ゴム材料の特性推定方法、システム及びプログラム
WO2020262615A1 (ja) * 2019-06-28 2020-12-30 関西ペイント株式会社 光輝性顔料判定方法、光輝性顔料判定装置および光輝性顔料判定プログラム
JP2021051380A (ja) * 2019-09-20 2021-04-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2021060457A (ja) 2019-10-03 2021-04-15 国立大学法人北海道大学 ゴム材料の物性推定方法、システム及びプログラム
JP2021135199A (ja) * 2020-02-27 2021-09-13 太平洋セメント株式会社 骨材の品質推定方法およびコンクリート製造方法
JP2021144402A (ja) * 2020-03-11 2021-09-24 株式会社ジェイテクト 品質評価に用いられる学習モデルの製造方法、学習システム、品質評価システム、及び、品質評価方法
JP2021155984A (ja) * 2020-03-26 2021-10-07 前田道路株式会社 アスファルト混合物の成分情報推定システム、アスファルトプラント、及び、アスファルト混合物の成分情報推定方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039504A (ja) * 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2018029568A (ja) * 2016-08-26 2018-03-01 国立大学法人静岡大学 萎れ具合予測システム及び萎れ具合予測方法
JP2018171039A (ja) * 2017-03-31 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム及び観察システム
JP2019124539A (ja) * 2018-01-15 2019-07-25 キヤノン株式会社 情報処理装置及びその制御方法及びプログラム
US20190347526A1 (en) * 2018-05-09 2019-11-14 Adobe Inc. Extracting material properties from a single image
JP2020041290A (ja) * 2018-09-07 2020-03-19 学校法人金沢工業大学 コンクリートの最適締固め判定施工システム
WO2020116085A1 (ja) * 2018-12-05 2020-06-11 ソニー株式会社 推定装置、推定方法、及び推定プログラム
JP2020128900A (ja) * 2019-02-07 2020-08-27 国立大学法人北海道大学 ゴム材料の特性推定方法、システム及びプログラム
WO2020262615A1 (ja) * 2019-06-28 2020-12-30 関西ペイント株式会社 光輝性顔料判定方法、光輝性顔料判定装置および光輝性顔料判定プログラム
JP2021051380A (ja) * 2019-09-20 2021-04-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2021060457A (ja) 2019-10-03 2021-04-15 国立大学法人北海道大学 ゴム材料の物性推定方法、システム及びプログラム
JP2021135199A (ja) * 2020-02-27 2021-09-13 太平洋セメント株式会社 骨材の品質推定方法およびコンクリート製造方法
JP2021144402A (ja) * 2020-03-11 2021-09-24 株式会社ジェイテクト 品質評価に用いられる学習モデルの製造方法、学習システム、品質評価システム、及び、品質評価方法
JP2021155984A (ja) * 2020-03-26 2021-10-07 前田道路株式会社 アスファルト混合物の成分情報推定システム、アスファルトプラント、及び、アスファルト混合物の成分情報推定方法

Also Published As

Publication number Publication date
JP7078944B1 (ja) 2022-06-01
JP2023091892A (ja) 2023-07-03
TW202332957A (zh) 2023-08-16
CN118742803A (zh) 2024-10-01
KR20240127957A (ko) 2024-08-23

Similar Documents

Publication Publication Date Title
JP2011506961A5 (ja)
CN108548834A (zh) 一种基于sem原位成像系统的应变测量方法
CN109808183A (zh) 基于神经网络的3d打印误差补偿方法、系统、装置
JP2019500588A (ja) 塗料表面の質感パラメータを決定するための方法
Ren et al. Fast defect inspection based on data-driven photometric stereo
JP7497086B2 (ja) 構造解析装置
Sur et al. Sensor noise modeling by stacking pseudo-periodic grid images affected by vibrations
WO2023120061A1 (ja) 物性値予測方法、及び物性値予測システム
WO2023120057A1 (ja) 物性値予測方法、及び物性値予測システム
CN112862066A (zh) 用于监控油漆的搅拌混合均匀性的神经网络的训练方法
CN110308117B (zh) 衍射距离校准方法及系统和图像重建方法及系统
JP2004301727A (ja) 塗膜ムラの算出式算出方法及び塗膜ムラの数値化方法
CN114689604A (zh) 具有光滑表面的待测物于光学检测上的影像处理方法及其检测系统
CN114071014B (zh) 一种提高ic载板线路图形成像精度的方法及系统
TW202305349A (zh) 評估方法、評估裝置及電腦程式
CN113870374A (zh) 一种自适应材料背景色的多尺度黑白散斑设计方法
Liu et al. AFM image processing for estimating the number and volume of nanoparticles on a rough surface
Ni et al. Misalignment-robust frequency distribution loss for image transformation
JP2024042521A (ja) 色情報推定方法および色情報推定装置
JP7128471B2 (ja) 塗色評価用の等色範囲設定方法及び等色範囲設定装置
US20240296597A1 (en) Pseudo vascular pattern generation device and method of generating pseudo vascular pattern
WO2022202365A1 (ja) 検査支援システム、検査支援方法、及びプログラム
JP2012002532A (ja) 劣化診断方法、劣化診断装置及び劣化診断プログラム
Vergara Villegas et al. Radial Basis Function Neural Network for the Evaluation of Image Color Quality Shown on Liquid Crystal Displays
JP2024038564A (ja) 塗膜の艶消し感定量評価方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22910779

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022910779

Country of ref document: EP

Effective date: 20240722