WO2021229745A1 - 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル - Google Patents

破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル Download PDF

Info

Publication number
WO2021229745A1
WO2021229745A1 PCT/JP2020/019243 JP2020019243W WO2021229745A1 WO 2021229745 A1 WO2021229745 A1 WO 2021229745A1 JP 2020019243 W JP2020019243 W JP 2020019243W WO 2021229745 A1 WO2021229745 A1 WO 2021229745A1
Authority
WO
WIPO (PCT)
Prior art keywords
fracture surface
cause
destruction
surface analysis
image
Prior art date
Application number
PCT/JP2020/019243
Other languages
English (en)
French (fr)
Inventor
修幸 山▲崎▼
Original Assignee
ポリプラスチックス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ポリプラスチックス株式会社 filed Critical ポリプラスチックス株式会社
Priority to JP2020545366A priority Critical patent/JP6789460B1/ja
Priority to PCT/JP2020/019243 priority patent/WO2021229745A1/ja
Publication of WO2021229745A1 publication Critical patent/WO2021229745A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N3/00Investigating strength properties of solid materials by application of mechanical stress

Definitions

  • the present invention relates to a technique for analyzing a fracture surface of a resin molded product.
  • Fracture surface analysis is performed to observe the fracture surface of the destroyed part and search for the cause of the destruction from the state.
  • Fracture surface analysis is a method widely used to estimate the fracture cause or fracture mechanism from the characteristics of fracture surface patterns, mainly in the field of metals. Similar to the metal material, the resin molded body also shows various fracture surface patterns depending on the cause of fracture, so that the same fracture surface analysis method is adopted.
  • Patent Document 1 In the case of a resin molded body, for example, the presence or absence of bleed-out substances, foreign substances, or deterioration products using a scanning electron microscope (SEM) to observe the surface microstructure of the fracture surface at high magnification and using chemical composition analysis. The cause of destruction is estimated by confirming (Patent Document 1).
  • the present invention has been made in view of the above problems, and an object of the present invention is to easily identify the cause of destruction from a fracture surface image.
  • the fracture surface analysis apparatus of the present invention has an acquisition unit that acquires an image of the fracture surface of the resin molded body to be analyzed, a fracture surface image, and a label that is the cause of destruction. It has an analysis unit for inputting the target fracture surface image into the trained model generated by machine learning as teacher data and identifying the cause of destruction of the resin molded body.
  • the learned model generation device of the present invention has an acquisition unit that acquires teacher data in which a fracture surface image of a fracture surface of a resin molded body is imaged and a label that is a cause of destruction of the resin molded body, and a teacher. It has a learning unit that generates a trained model for identifying the cause of destruction of the resin molded body by machine learning using data.
  • An analysis step of inputting the target fracture surface image into the trained model generated by machine learning to identify the cause of destruction of the resin molded body is performed.
  • the fracture surface analysis program of the present invention causes a computer to function as the fracture surface analysis device.
  • the trained model of the present invention is a trained model for making a computer function so as to identify the cause of destruction of the resin molded body based on an image of the fracture surface of the resin molded body to be analyzed. Then, when the pixel value of the fracture surface image is input to the input layer by machine learning using the teacher data in which the fracture surface image and the label that is the cause of destruction are associated with each other, the output layer determines the probability of the cause of destruction. The weighted value is learned so as to be output, and a calculation based on the learned weighted value is performed on the pixel value of the fracture surface image input to the input layer, and the cause of destruction is caused by the output layer. Make the computer work to output the probability.
  • the cause of destruction can be easily identified from the fracture surface image.
  • This is an example of a fracture surface image of fatigue fracture.
  • This is an example of a fracture surface image of ductile fracture.
  • This is an example of a fracture surface image of brittle fracture.
  • It is a flowchart of the generation process of a trained model.
  • It is an example of the trained model of the first embodiment.
  • It is a flowchart of a fracture surface analysis process.
  • It is a figure which shows the example of the teacher data.
  • It is a figure which shows the example of a resin database.
  • It is an example of the trained model of the second embodiment. It is an example of the fracture surface analysis screen of the second embodiment.
  • FIG. 1 is an overall configuration diagram of a fracture surface analysis system according to the first embodiment of the present invention.
  • the fracture surface analysis system of the present embodiment identifies the cause of fracture from the fracture surface image of the resin molded body (resin molded product).
  • the illustrated fracture surface analysis system includes a fracture surface analysis device 1, a model generation device 2, and a user terminal 3. These devices are connected to a network and can communicate with each other via the network.
  • the network is, for example, LAN, the Internet, or the like.
  • the user terminal 3 is a terminal device used by a user who requests fracture surface analysis.
  • the user terminal 3 receives the user's instruction and transmits an analysis request including a fracture surface image of the resin molded body acquired by the scanning electron microscope 4 (hereinafter referred to as “SEM”) to the fracture surface analysis device 1. do. Further, the user terminal 3 receives the cause of destruction from the fracture surface analysis device 1 as an analysis result.
  • the user stores the fracture surface image of the resin molded body imaged and output by the SEM 4 in a recording medium such as a USB memory, inputs the fracture surface image to the user terminal 3 using the recording medium, and inputs the fracture surface analysis device 1 to the user terminal 3. Send to.
  • the SEM 4 has a communication function
  • the SEM 4 may be used as the user terminal 3.
  • the SEM4 is not limited to a scanning electron microscope as long as the fracture surface of the resin molded body can be observed with a sufficient magnification and resolution for analysis, and is not limited to a scanning electron microscope, an optical microscope such as a stereoscopic microscope or a metallurgical microscope, or a high-magnification digital microscope. You can also use a camera.
  • the user terminal 3 may be a terminal installed on the same site as the fracture surface analysis device 1 (for example, a factory, a research institute, etc.) and used by an engineer on the site. Alternatively, the user terminal 3 is located at a location away from the fracture surface analysis device 1, and a processor that manufactures a resin molded product, a customer who purchased a resin molded product, a sales staff member who sells a resin material or a resin molded product, or the like It may be the terminal to be used.
  • the fracture surface analysis device 1 analyzes the fracture surface image of the resin molded body in response to the request from the user terminal 3 and identifies the cause of the destruction of the resin molded body.
  • the illustrated fracture surface analysis device 1 has an acquisition unit 11, a change unit 12, an analysis unit 13, an output unit 14, and a model storage unit 15.
  • the acquisition unit 11 acquires a fracture surface image (target fracture surface image) of the fracture surface of the resin molded body to be analyzed, which is transmitted from the user terminal 3.
  • the changing unit 12 resizes (resizes) the acquired fracture surface image to an image having a predetermined number of pixels.
  • the analysis unit 13 inputs the fracture surface image into the trained model generated by machine learning using the fracture surface image and the label that is the cause of the fracture as teacher data, and identifies the cause of the fracture of the resin molded body.
  • the output unit 14 outputs the cause of destruction specified by the analysis unit 13. Specifically, the output unit 14 transmits the specified cause of destruction to the user terminal 3.
  • the model storage unit 15 stores the trained model generated by the model generation device 2.
  • the trained model is a model trained to output the cause of destruction when a fracture surface image is input.
  • the trained model outputs each probability of a plurality of fracture causes such as fatigue fracture, brittle fracture, and ductile fracture.
  • the model generation device 2 includes a data acquisition unit 21, a learning unit 22, a data storage unit 23, and a model storage unit 24.
  • the data acquisition unit 21 acquires from the data storage unit 23 the teacher data in which the fracture surface image of the fracture surface of the resin molded body is imaged and the label that is the cause of the destruction of the resin molded body is associated with each other.
  • the learning unit 22 generates a trained model for identifying the cause of fracture of the resin molded body by machine learning using a plurality of teacher data.
  • the cause of destruction of the resin molded body will be described.
  • three types of fracture causes are assumed: “fatigue fracture”, “ductile fracture”, and “brittle fracture”.
  • the present invention is not limited to this, and other causes of destruction may be specified.
  • the condition of the fracture surface differs depending on the cause of fracture.
  • FIG. 2A is an example of a fracture surface image due to fatigue fracture.
  • Fatigue fracture is fracture caused by repeated loading.
  • a striped pattern (stration pattern) appears in the fracture surface image due to fatigue fracture.
  • the image on the right of FIG. 2A is an enlarged view of the area surrounded by the dotted line of the fracture surface image on the left.
  • FIG. 2B is an example of a fracture surface image due to ductile fracture.
  • Ductile fracture is fracture caused by a static load. When a load is applied at a low speed, the resin is plastically deformed with necking and whitening, resulting in fracture. Therefore, a portion where the resin is stretched appears in the fracture surface image.
  • the image on the right in FIG. 2B is an enlarged view of the area surrounded by the dotted line in the fracture surface image on the left.
  • FIG. 2C is an example of a fracture surface image due to brittle fracture.
  • Brittle fracture is fracture caused by impact force.
  • a pattern appears radially from the starting point of the rupture, and the cross section shows a scaly pattern.
  • the image on the right in FIG. 2C is an enlarged view of the area surrounded by the dotted line in the image of the fracture surface on the left.
  • FIG. 3 is a flowchart of the trained model generation process (machine learning process).
  • the data acquisition unit 21 acquires, as teacher data, teacher data in which the fracture surface image and the fracture cause (label) of the fracture image are associated with each other from the data storage unit 23 (S11). It is assumed that a plurality of teacher data are stored in the data storage unit 23 in advance.
  • the learning unit 22 performs machine learning using the acquired teacher data, and generates and updates a trained model for identifying the cause of destruction of the resin molded body (S12).
  • FIG. 4 shows an example of the trained model of this embodiment.
  • the trained model includes a neural network and parameters (weighted value, bias).
  • Machine learning is a process of optimizing the parameters of a neural network. Before learning, initial values are set for the parameters.
  • machine learning is performed by a neural network composed of a combination of neurons (perceptrons, nodes). Specifically, the pair of the fracture surface image data included in the teacher data and the label is given to the neural network, and the weighting value and bias of each neuron are set so that the output of the neural network becomes the same as the label. Repeat learning while making changes. In this way, the fracture surface image of the teacher data is trained, and a trained model for estimating the fracture cause from the fracture surface image is generated.
  • the illustrated neural network includes an input layer, an intermediate layer, and an output layer, and each layer is composed of neurons.
  • the intermediate layer is one layer, but it may be composed of a plurality of layers in order to perform advanced image recognition.
  • the pixel value of each pixel of the fracture surface image is input to each neuron in the input layer.
  • a fracture surface image of 150 ⁇ 150 pixels 22500 pixels
  • the number of neurons in the input layer is 22500.
  • the cause of fracture is any one of "fatigue fracture", “ductile fracture” and “brittle fracture”. Therefore, the illustrated output layer is composed of three neurons. The number of neurons in the output layer is set according to the number of possible causes of destruction.
  • each neuron is input to all neurons in the next layer.
  • the output value y of each neuron is expressed by the following equation.
  • Xn is an input value from the nth neuron in the previous layer, “wn” is a weighted value for xn, and “b” is a bias.
  • the learning unit 22 updates the weighted value wn and the bias b of each layer by machine learning by an error reverse propagation method or the like. Specifically, the learning unit 22 inputs each pixel value of the fracture surface image into the input layer of the neural network and performs an calculation, and the output value of each neuron in the output layer and the label corresponding to the fracture surface image are used. The error of is output, and the weighted value wn and the bias b of each layer are updated so that the error becomes small (approaches 0).
  • the learning unit 22 determines whether or not to end machine learning (S13).
  • a condition for ending machine learning for example, when machine learning is repeated with a preset number of teacher data, the learning unit 22 may end machine learning. For example, a predetermined number of teacher data (fracture surface images and labels) are prepared for each cause of destruction, and machine learning is repeated using the teacher data. Further, as an end condition, the learning unit 22 may end the machine learning when the error between the label and the output of the output layer becomes a predetermined value or less.
  • the model generation device 2 When it is determined that the machine learning is not completed (S13: NO), the model generation device 2 returns to S11 and repeats the subsequent processing. When it is determined that the machine learning is finished (S13: YES), the learning unit 22 outputs the generated learned model to the model storage unit 24 and stores it. Further, the learning unit 22 transmits the generated trained model to the fracture surface analysis device 1 via the network (S14). As a result, the trained model generated by the model generation device 2 is stored in the model storage unit 15 of the fracture surface analysis device 1.
  • the trained model of the present embodiment causes the computer to function so as to identify the cause of the destruction of the resin molded body based on the fracture surface image obtained by capturing the fracture surface of the resin molded body to be analyzed.
  • the output layer is destroyed.
  • the weighted value is learned so as to output the probability of the cause.
  • the pixel value of the fracture surface image input to the input layer is calculated based on the trained weighted value, and the fracture surface analysis is performed so that the probability of the cause of destruction is output from the output layer. Make device 1 function.
  • FIG. 5 is a flowchart of the fracture surface analysis process.
  • the acquisition unit 11 acquires a fracture surface image of the fracture surface of the resin molded product transmitted from the user terminal 3 (S21).
  • the changing unit 12 resizes the acquired fracture surface image (S22). Specifically, the changing unit 12 changes the size (size) of the acquired fracture surface image to be the same size (predetermined size) as the fracture surface image used in the teacher data of the trained model.
  • the trained model neural network (input layer) stored in the model storage unit 15 includes the same number of neurons as the number of pixels of the fracture surface image of the teacher data. Therefore, if a fracture surface image having a different number of pixels is input, it cannot be dealt with. Therefore, as a preprocessing, the changing unit 12 uses the acquired fracture surface image as the same number of pixels as the fracture surface image of the teacher data (for example, 150 ⁇ 150 pixels). ) To resize.
  • the changing unit 12 uses the average of the pixel values of the adjacent pixels, and when the acquired fracture surface image is smaller than the fracture surface image of the teacher data. Interpolates a new pixel between adjacent pixels to perform resizing. Also, even if the aspect ratio of the acquired fracture surface image is different from the aspect ratio of the fracture surface image of the teacher data, the acquired fracture surface image is resized so that the aspect ratio is the same as the fracture surface image of the teacher data. ..
  • the fracture surface analysis device 1 performs fracture surface analysis based on the fracture surface image. It can be performed. If the acquired fracture surface image and the fracture surface image of the teacher data have the same size, the resizing process is not performed.
  • the analysis unit 13 identifies (determines) the cause of destruction using the fracture surface image after resizing (S23). Specifically, the analysis unit 13 reads out the trained model (neural network and parameters) stored in the model storage unit 15, and inputs the n pixel values included in the resized fracture surface image to the neurons in the input layer, respectively. Enter and perform the operation of the trained model. That is, each pixel input to the input layer is output to the intermediate layer and the output layer while being calculated using the parameters of the trained model, and finally the identification result of the cause of destruction is output from each neuron in the output layer. NS. In the example shown in FIG.
  • the analysis unit 13 identifies the cause of destruction based on the probability of each cause of destruction output by the trained model. For example, the analysis unit 13 identifies the cause of destruction having the highest probability. Then, the output unit 14 transmits the cause of destruction specified by the analysis unit 13 to the user terminal 3 (S24).
  • FIG. 6 shows an example of a screen for fracture surface analysis displayed on the display of the user terminal 3.
  • one screen is used as an input screen and an output screen.
  • the user selects a desired fracture surface image (image file) from the data stored in the storage unit of the user terminal 3 by using the reference button 81 on the screen, and selects by clicking the upload button 82.
  • the fracture surface image is determined as the analysis target, and the analysis button 83 is clicked.
  • the user terminal 3 transmits a fracture surface analysis request including the fracture surface image selected by the user to the fracture surface analysis device 1.
  • the specified fracture cause (“brittle fracture” in the illustrated example) is displayed in 84 in the display area of the analysis result on the screen.
  • the analysis results can be sent to a separately specified address by e-mail etc. for confirmation from other terminals, or uploaded to a specified URL or SNS site etc. for viewing with a web browser or application. You may.
  • the fracture surface analysis device 1 of the present embodiment described above teaches the acquisition unit 11 that acquires the target fracture surface image of the fracture surface of the resin molded body to be analyzed, and the fracture surface image and the label that is the cause of the fracture. It has an analysis unit 13 for inputting the target fracture surface image into the trained model generated by machine learning as data and identifying the cause of destruction of the resin molded body.
  • the cause of the fracture can be easily identified in a short time and with high accuracy only by acquiring the fracture surface image of the fractured resin molded product. Can be (estimated). This makes it possible to improve the convenience of the user.
  • the fracture surface analysis system of the present embodiment includes a fracture surface analysis device 1, a model generation device 2, and a user terminal 3 as in the first embodiment shown in FIG.
  • the cause of fracture is identified from the fracture surface image, but in the second embodiment, in addition to the fracture surface image, peripheral information that causes the resin molded body to be destroyed is included in the teacher data.
  • the teacher data used by the model generator 2 of the present embodiment will be described below.
  • FIG. 7 is an example of teacher data of this embodiment.
  • the illustrated teacher data includes a label that is the cause of destruction, image data of a fracture surface image, and peripheral information.
  • the peripheral information is information about the resin molded body, and is information that causes the resin molded body to be destroyed.
  • the peripheral information is, for example, composition information (material), molding conditions, usage environment, shape, and the like.
  • composition information resin grade is used here.
  • FIG. 8 is an example of a resin grade DB (database).
  • the resin grade DB defines the type and ratio of the base resin and the type and ratio of at least one additive for each resin grade, and represents composition information of the resin molded product.
  • the teacher data of FIG. 7 and the resin grade DB of FIG. 8 are stored in the data storage unit 23 of the model generation device 2 of the present embodiment.
  • the data acquisition unit 21 acquires teacher data from the data storage unit 23 as teacher data (S11).
  • the data acquisition unit 21 converts the resin grade of the teacher data into the corresponding composition information by using the resin grade DB.
  • the learning unit 22 performs machine learning using the teacher data obtained by converting the resin grade into composition information, and generates and updates a trained model for identifying the cause of destruction of the resin molded body (S12).
  • FIG. 9 shows an example of the trained model of this embodiment.
  • the differences from the trained model (FIG. 4) of the first embodiment will be mainly described, and duplicate descriptions will be omitted.
  • the intermediate layer of the neural network is one layer, but it may be composed of a plurality of layers in order to perform advanced image recognition.
  • an input layer and an intermediate layer are formed for each data group of teacher data, the output of the intermediate layer for each data group is input to the output layer, and the output layer outputs the probability of the cause of destruction.
  • the parameters weighted value, bias
  • the data group is a data set for each category.
  • the data group includes a fracture surface image data group and a plurality of types of data groups included in peripheral information (for example, composition information data group, molding condition data group, usage environment data group, shape data group, etc.). There is.
  • the data group A is a data group of a fracture surface image, each pixel value of the fracture surface image is input to each neuron of the input layer, and a calculation result (output) using the parameters of each neuron is obtained. It is input to each neuron in the middle layer of the data group A.
  • the input layer and the intermediate layer of the data group A are the same as the trained model of the first embodiment.
  • the data group B is a data group of composition information, and each data of the composition information (ratio of each composition) is input to each neuron of the input layer, and the calculation result using the parameters of each neuron is the data group B. It is input to each neuron in the middle layer of. Then, the outputs of all the neurons in the intermediate layer for each data group are input to each neuron in the output layer through the calculation using the parameters, and each neuron in the output layer outputs the probability of the corresponding destruction cause.
  • the input layer and the intermediate layer for each data group By forming the input layer and the intermediate layer for each data group in this way, it is possible to generate a trained model according to the properties of the data, and it is possible to realize high analysis accuracy. That is, since the properties of data (quantitative data, categories) are different for each data group, high analysis accuracy can be realized by constructing and using an intermediate layer according to the properties of each data. Specifically, for the image data of the fracture surface image, an intermediate layer of a network structure suitable for image analysis is constructed, and for various data groups of peripheral information, an intermediate layer suitable for the properties of each data group is constructed. do. The number of layers constituting the intermediate layer may be different for each data group.
  • the learning unit 22 updates the parameters of each layer by machine learning by an error reversal propagation method or the like, as in the first embodiment. Then, the learning unit 22 determines whether or not to end machine learning (S13), and if it is determined not to end machine learning (S13: NO), returns to S11 and repeats the subsequent processing. When it is determined to end (S13: YES), the learning unit 22 stores the generated learned model in the model storage unit 24, and transmits the generated learned model to the fracture surface analysis device 1 (S14). As a result, the trained model is stored in the model storage unit 15 of the fracture surface analysis device 1.
  • the trained model of the present embodiment causes the computer to function so as to identify the cause of the destruction of the resin molded body based on the fracture surface image obtained by capturing the fracture surface of the resin molded body to be analyzed.
  • This is a trained model of the above, and is generated by machine learning using teacher data in which a plurality of data groups including a fracture surface image and peripheral information that causes destruction and a label that is the cause of destruction are associated with each other. Then, in the neural network of the trained model, an input layer and an intermediate layer are formed for each data group, the output of the intermediate layer for each data group is input to the output layer, and the output layer outputs the probability of the cause of destruction. The weighted value is learned. Further, in the trained model, the fracture surface analysis device 1 is used so as to perform an operation based on the trained weighted values on a plurality of data groups input to the input layer and output the probability of the cause of destruction from the output layer. Make it work.
  • the acquisition unit 11 acquires the fracture surface image and peripheral information of the fracture surface of the resin molded body transmitted from the user terminal 3 (S21).
  • FIG. 10 shows an example of a screen for fracture surface analysis displayed on the display of the user terminal 3.
  • the screen of the present embodiment is different from the screen of the first embodiment in that the input field (input area) 85 for peripheral information is set.
  • the user selects a desired fracture surface image (image file) from the data stored in the storage unit of the user terminal 3 by using the reference button 81 on the screen, and selects by clicking the upload button 82.
  • the fracture surface image is determined as the analysis target.
  • the user inputs the peripheral information of the resin molded product to be analyzed in each input field 85 of the peripheral information.
  • the resin grade is input for the composition information. As a result, it is possible to reduce the input load and input error of the user.
  • the user terminal 3 transmits a fracture surface analysis request including the fracture surface image and peripheral information selected by the user to the fracture surface analysis device 1, and the acquisition unit 11 of the fracture surface analysis device 1 transmits the fracture surface. Receive images and peripheral information.
  • the acquisition unit 11 converts the received peripheral information resin grade into composition information using the resin grade DB. It is assumed that the fracture surface analysis device 1 of the present embodiment stores the resin grade DB in a storage unit (not shown). Then, the changing unit 12 resizes the acquired fracture surface image (S22), and the analysis unit 13 identifies the cause of destruction using the ressized fracture surface image and peripheral information (S23).
  • the analysis unit 13 reads out the trained model (neural network and parameters) stored in the model storage unit 15, inputs each data group to the neurons in the input layer, and performs the calculation of the trained model. ..
  • the input layer and the intermediate layer are calculated for each data group, the intermediate layer for each data group is output to the output layer, and finally the identification result of the corresponding destruction cause is obtained from each neuron in the output layer. It is output.
  • the analysis unit 13 identifies the cause of destruction based on the probability of each cause of destruction output by the trained model. For example, the analysis unit 13 identifies the cause of destruction having the highest probability. Then, the output unit 14 transmits the cause of destruction specified by the analysis unit 13 to the user terminal 3 (S24).
  • the specified fracture cause (“brittle fracture” in the illustrated example) is displayed in 84 in the analysis result display area of the screen of the user terminal 3.
  • the specified fracture cause (“brittle fracture” in the illustrated example) is displayed in 84 in the analysis result display area of the screen of the user terminal 3.
  • one destruction cause with the maximum probability is displayed as the analysis result, but a plurality of destruction causes output by the trained model and their probabilities are also displayed as the analysis result. May be good.
  • the cause of fracture can be comprehensively analyzed by adding peripheral information such as the composition of the fractured resin molded body, and the cause of fracture can be determined with high accuracy. Can be identified.
  • the fracture surface analysis device 1 and the model generation device 2 described above are, for example, a CPU (Central Processing Unit, processor), a memory, a storage (HDD: Hard Disk Drive, SSD: Solid State Drive), and a communication device.
  • a general-purpose computer system including an input device and an output device can be used.
  • each function of each device is realized by executing a predetermined program loaded on the memory by the CPU.
  • the functions of the fracture surface analysis device 1 and the model generation device 2 are such that the CPU of the fracture surface analysis device 1 in the case of the program for the fracture surface analysis device 1 and the model generation device in the case of the program for the model generation device 2. It is realized by executing each of the two CPUs.
  • a general-purpose computer system for example, a PC or the like equipped with a CPU, a memory, a communication device, and the like can be used.
  • the program for the fracture surface analysis device 1 and the program for the model generation device 2 should be stored in a computer-readable recording medium such as an HDD, SSD, USB memory, CD-ROM, DVD-ROM, or MO. It can also be delivered via a network. Further, since the model generation device 2 has a large amount of machine learning calculation amount, it may be provided with a GPU (Graphics Processing Unit) and perform high-speed processing.
  • a computer-readable recording medium such as an HDD, SSD, USB memory, CD-ROM, DVD-ROM, or MO. It can also be delivered via a network.
  • the model generation device 2 since the model generation device 2 has a large amount of machine learning calculation amount, it may be provided with a GPU (Graphics Processing Unit) and perform high-speed processing.
  • GPU Graphics Processing Unit
  • the trained model is used to identify the cause of fracture from the fracture surface image, but template matching may be used to identify the cause of fracture from the fracture surface image.
  • the fracture surface analysis device instead of the trained model, stores a partial image showing a characteristic portion in the fracture surface image in the storage unit as a template image for each cause of destruction.
  • the template image for example, a partial image of a region surrounded by a dotted line of each fracture surface image shown in FIGS. 2A to 2C can be used.
  • the fracture surface analysis device 1 performs template matching with each of the plurality of template images stored in the storage unit for the fracture surface image transmitted from the user terminal 3 and calculates the degree of similarity.
  • template matching the degree of similarity between a part of the input image and the template image is calculated, the place having the highest degree of similarity is searched, and the degree of similarity (maximum degree of similarity) at the place is output.
  • Methods for calculating the similarity of template matching include SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), and NCC (Normalized Cross Correlation).
  • the fracture surface analysis device 1 identifies the cause of destruction according to the degree of similarity output for each template. That is, the fracture surface analysis device 1 identifies the cause of destruction corresponding to the template image having the highest degree of similarity as the cause of destruction of the received fracture surface image.
  • the fracture surface analysis device of the modified example 1 has a storage unit that stores a partial image showing a characteristic portion in the fracture surface image as a template image for each cause of destruction, and a resin molded body to be analyzed.
  • the degree of similarity for each template image is obtained by performing template matching with the acquisition unit that acquires the target fracture surface image obtained by imaging the fracture surface, the target fracture surface image, and each of the plurality of template images stored in the storage unit. It has an analysis unit which calculates and identifies the cause of destruction of the resin molded body based on the similarity. That is, in the fracture surface analysis device of the modification 2, instead of storing the learned model in the model storage unit 15 of the fracture surface analysis device 1 of FIG. 1, a template image for each cause of destruction is stored.
  • the fracture surface analysis system of the first and second embodiments receives the fracture surface image transmitted from the user terminal 3 via the network, and transmits the analysis result of the destruction cause to the user terminal 3. And said.
  • the user may directly input the fracture surface image to the fracture surface analysis device 1 using a recording medium such as a USB memory.
  • the analysis result may be transmitted to the user terminal 3 via the network, or may be output to an output device (display, printer, etc.) included in the fracture surface analysis device 1.
  • the user inputs a fracture surface image to the fracture surface analysis device 1 using a recording medium such as a USB memory.
  • the fracture surface analysis device 1 and the SEM4 may be integrally configured, and the fracture surface image of the resin molded body imaged and output by the SEM4 may be directly input to the fracture surface analysis device 1.
  • the analysis result may be transmitted to the user terminal 3 via the network as in the modification 2, or may be output to an output device (display, printer, etc.) included in the fracture surface analysis device 1. .. In the latter case, the movement of data via the recording medium and the transmission of data via the user terminal 3 can be omitted.
  • the user terminal 3 is connected to the user terminal 3 via a network as a configuration different from that of the fracture surface analysis device 1.
  • the user terminal 3 may be integrally incorporated in the same housing as the fracture surface analysis device 1 and / or the SEM4.
  • the acquisition unit 11 converts the received peripheral information resin grade into composition information using the resin grade DB.
  • composition information such as a base resin and additives may be input individually.
  • “composition information input” is set as one of the options (drop-down list). Then, when the user selects "composition information input", the composition information input field is displayed so that the composition information input by the user is transmitted to the fracture surface analysis device 1 as peripheral information. You just have to leave it.
  • the composition analyzer may be further provided integrally with or separately from any one or more of the SEM 4, the user terminal 3, and the fracture surface analysis apparatus 1.
  • the composition analyzer performs composition analysis of the resin molded body to be analyzed at the same time as and / or before and / or after imaging of the fracture surface, and the composition information obtained there is used as peripheral information for fracture surface analysis. It may be input to the device 1. In this case, the acquisition unit 11 of the fracture surface analysis device 1 acquires composition information using the analysis result of the composition analysis device.
  • composition analyzers examples include known composition analyzers such as an infrared spectroscopic analyzer, a nuclear magnetic resonance apparatus, a mass spectrometer, an X-ray diffractometer, a fluorescent X-ray analyzer, an atomic emission analyzer, and various types of chromatography.
  • One type or a combination of two or more types of the above can be used.
  • the teacher data including the data group of the composition information according to the composition analysis method of the apparatus to be used into the model generation apparatus 2 it is possible to generate the trained model according to the composition analysis method to be used. .. This enables more accurate analysis even in a resin molded product whose composition information is unclear.
  • the user selects a specific part of the fracture surface and captures the image data as the fracture surface image.
  • any one or more of the SEM4, the user terminal 3, and the fracture surface analysis device 1 is provided with a feature portion specifying function for specifying a characteristic portion of the fracture surface, and the fracture surface image of the portion is provided. It may be automatically acquired and input.
  • the fracture surface image of the characteristic portion may be obtained by selecting and enlarging a specific range from the image obtained by photographing the entire fracture surface of the resin molded body, or the fracture surface of the resin molded body is enlarged for each part.
  • a specific image may be selected and acquired from a plurality of images taken in the process.
  • the selection of the characteristic part in the characteristic part identification function may be specified by using a model generated by machine learning in the same manner as the identification of the cause of destruction, or the characteristic part stored in advance may be specified. It may be specified from the similarity with the template.
  • the image selected by the feature section specifying function may be used as it is, or the user may select and use an appropriate image from the images narrowed down by the feature section specifying function.
  • the image selected by the feature section specifying function from the images narrowed down by the user in the range and the number of sheets may be used.
  • Fracture surface analysis device 11 Acquisition unit 12: Change unit 13: Analysis unit 14: Output unit 15: Model storage unit 2: Model generation unit 21: Data acquisition unit 22: Learning unit 23: Data storage unit 24: Model storage Part 3: User terminal 4: SEM (scanning electron microscope)

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)

Abstract

樹脂成形体の破面画像から、当該樹脂成形体の破壊原因を容易に特定する。破面解析装置1であって、解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部11と、破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析部13と、を有する。

Description

破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル
 本発明は、樹脂成形体の破面を解析する技術に関する。
 破壊した箇所の破面を観察し、その様子から破壊の原因を探索する破面解析が行われている。破面解析は、金属の分野を中心に、破面模様の特徴から破壊原因あるいは破壊機構を推定するために広く用いられている手法である。樹脂成形体においても、金属材料と同様に破壊原因によって様々な破面模様が示されることから、同様の破面解析手法が取り入れられている。
 樹脂成形体の場合、例えば、走査型電子顕微鏡(SEM)により、破面の表面微細構造を高倍率で観察するとともに、化学組成分析を用いた、ブリードアウト物、異物、または劣化生成物の有無の確認を行うことで、破壊原因を推定する(特許文献1)。
特願2016-33494号公報
 破壊原因によって破面の状況が異なるものの、破面の表面微細構造を観察して破壊原因を特定することは、熟練した技術者でないと難しい技術である。例えば、破面の中でポイントとなる小さな特徴を見つけ出し、類似した破面の違いを区別するには、多くの破面を観察してきた経験と、知識(ある種のセンス)とが必要となる。
 本発明は、上記課題を鑑みてなされたものであり、本発明の目的は、破面画像から破壊原因を容易に特定することにある。
 上記目的を達成するため、本発明の破面解析装置は、解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部と、破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析部と、を有する。
 本発明の学習済みモデル生成装置は、樹脂成形体の破面を撮像した破面画像と、前記樹脂成形体の破壊原因であるラベルとを対応付けた教師データを取得する取得部と、前記教師データを用いた機械学習によって、前記樹脂成形体の破壊原因を特定するための学習済みモデルを生成する学習部と、を有する。
 本発明のコンピュータが行う破面解析方法は、解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得ステップと、破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析ステップと、を行う。
 本発明の破面解析プログラムは、上記破面解析装置として、コンピュータを機能させる。
 本発明の学習済みモデルは、解析対象の樹脂成形体の破面を撮像した破面画像に基づいて、前記樹脂成形体の破壊原因を特定するようにコンピュータを機能させるための学習済みモデルであって、破面画像と、破壊原因であるラベルとを対応付けた教師データを用いた機械学習により、前記破面画像の画素値が入力層に入力されると、出力層が破壊原因の確率を出力するように重み付け値が学習されたものであり、前記入力層に入力された前記破面画像の画素値に対し、学習された前記重み付け値に基づく演算を行い、前記出力層から破壊原因の確率を出力するようにコンピュータを機能させる。
 本発明によれば、破面画像から破壊原因を容易に特定することができる。
本発明の実施形態に係る破面解析システムの全体構成を示す図である。 疲労破壊の破面画像の例である。 延性破壊の破面画像の例である。 脆性破壊の破面画像の例である。 学習済みモデルの生成処理のフローチャートである。 第1の実施形態の学習済みモデルの例である。 破面解析処理のフローチャートである。 第1の実施形態の破面解析画面の例である。 教師データの例を示す図である。 樹脂データベース例を示す図である。 第2の実施形態の学習済みモデルの例である。 第2の実施形態の破面解析画面の例である。
 以下、本発明の実施の形態について、図面を参照して説明する。
 <第1の実施形態>
 図1は、本発明の第1の実施形態に係る破面解析システム全体構成図である。本実施形態の破面解析システムは、樹脂成形体(樹脂成型品)の破面画像から破壊原因を特定する。図示する破面解析システムは、破面解析装置1と、モデル生成装置2と、利用者端末3とを備える。これらの装置はネットワークに接続され、ネットワークを介して相互に通信を行うことができる。ネットワークは、例えばLAN、インターネット等である。
 利用者端末3は、破面解析を要求する利用者が使用する端末装置である。利用者端末3は、利用者の指示を受け付けて、走査型電子顕微鏡4(以下、「SEM」という)により取得した樹脂成形体の破面画像を含む解析要求を、破面解析装置1に送信する。また、利用者端末3は、解析結果として破壊原因を破面解析装置1から受信する。利用者は、SEM4が撮像および出力した樹脂成形体の破面画像を、例えばUSBメモリ等の記録媒体に格納し、当該記録媒体を用いて利用者端末3に入力して、破面解析装置1に送信する。SEM4が通信機能を有する場合は、SEM4を利用者端末3として用いてもよい。ここで、SEM4は、樹脂成形体の破面を解析に十分な倍率や分解能で観察できるものであれば走査型電子顕微鏡に限定されず、実体顕微鏡や金属顕微鏡といった光学顕微鏡、あるいは高倍率のデジタルカメラなども利用することができる。
 なお、利用者端末3は、破面解析装置1と同じ敷地(例えば、工場、研究所等)に設置され、前記敷地内の技術者が使用する端末であってもよい。あるいは、利用者端末3は、破面解析装置1から離れた場所にあり、樹脂成形体を製造する加工業者、樹脂成形体を購入した顧客、樹脂材料または樹脂成形体を販売する営業部員などが使用する端末であってもよい。
 破面解析装置1は、利用者端末3からの要求に応じて、樹脂成形体の破面画像を解析し、樹脂成形体の破壊原因を特定する。図示する破面解析装置1は、取得部11と、変更部12と、解析部13と、出力部14と、モデル記憶部15とを有する。
 取得部11は、利用者端末3から送信された、解析対象の樹脂成形体の破面を撮像した破面画像(対象破面画像)を取得する。変更部12は、取得した破面画像を、所定の画素数の画像にサイズ変更(リサイズ)する。解析部13は、破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、破面画像を入力して樹脂成形体の破壊原因を特定する。出力部14は、解析部13が特定した破壊原因を出力する。具体的には、出力部14は、特定した破壊原因を利用者端末3に送信する。
 モデル記憶部15には、モデル生成装置2により生成された学習済みモデルが記憶される。学習済みモデルは、破面画像が入力されると、破壊原因を出力するように学習されたモデルである。本実施形態では、学習済みモデルは、疲労破壊、脆性破壊、延性破壊などの複数の破壊原因の各確率を出力する。
 モデル生成装置2は、データ取得部21と、学習部22と、データ記憶部23と、モデル記憶部24とを備える。データ取得部21は、樹脂成形体の破面を撮像した破面画像と、当該樹脂成形体の破壊原因であるラベルとを対応付けた教師データを、データ記憶部23から取得する。学習部22は、複数の教師データを用いた機械学習によって、樹脂成形体の破壊原因を特定するための学習済みモデルを生成する。
 次に、樹脂成形体の破壊原因について説明する。本実施形態では、破壊原因として、「疲労破壊」、「延性破壊」、「脆性破壊」の3つの種類を想定する。ただし、本発明はこれに限定されるものではなく、これ以外の破壊原因を特定することとしてもよい。図2Aから図2Cに示すように、破壊原因によって破面の状況が異なる。
 図2Aは、疲労破壊による破面画像の例である。疲労破壊は、負荷の繰り返しにより生じる破壊である。疲労破壊による破面画像には、縞状の模様(ストライエーション・パターン)が現れている。図2Aの右の画像は、左の破面画像の点線で囲んだ領域を拡大した拡大図である。
 図2Bは、延性破壊による破面画像の例である。延性破壊は、静的な荷重によって生じる破壊である。低速で荷重をかけた場合、樹脂はネッキングや白化を伴いながら塑性変形して破壊に至るため、破面画像には、樹脂が伸びたような部分が現れている。図2Bの右の画像は、左の破面画像の点線で囲んだ領域を拡大した拡大図である。
 図2Cは、脆性破壊による破面画像の例である。脆性破壊は、衝撃的な力により生じる破壊である。破面画像には、破壊の起点から放射状に模様が現れており、断面はうろこ状の模様を示している。図2Cの右の画像は、左の破面画像の点線で囲んだ領域を拡大した拡大図である。
 次に、モデル生成装置2が行う学習済みモデルの生成処理について説明する。
 図3は、学習済みモデルの生成処理(機械学習処理)のフローチャートである。まず、データ取得部21は、教師データとして、破面画像と、当該破断画像の破断原因(ラベル)とを対応付けた教師データをデータ記憶部23から取得する(S11)。データ記憶部23には、あらかじめ複数の教師データが記憶されているものとする。学習部22は、取得した教師データを用いて機械学習を行い、樹脂成形体の破壊原因を特定するための学習済みモデルを生成および更新する(S12)。
 図4は、本実施形態の学習済みモデルの一例を示す。学習済みモデルは、ニューラルネットワークと、パラメータ(重み付け値、バイアス)とを含む。機械学習は、ニューラルネットワークのパラメータを最適化する処理である。学習前は、パラメータには、初期値が設定されている。本実施形態では、ニューロン(パーセプトロン、ノード)を組み合わせて構成したニューラルネットワークにより、機械学習を行う。具体的には、教師データに含まれる破面画像のデータと、ラベルとの組をニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じになるように、各ニューロンの重み付け値と、バイアスとを変更しながら学習を繰り返す。このようにして、教師データの破面画像を学習し、破面画像から破壊原因を推定するための学習済みモデルを生成する。
 図示するニューラルネットワークは、入力層と、中間層と、出力層とを備え、各層はニューロンにより構成される。なお、図示する例では、中間層は1層であるが、高度な画像認識を行うために複数の層で構成されていてもよい。
 入力層の各ニューロンには、破面画像の各画素の画素値が入力される。本実施形態では、150×150画素(22500画素)の破面画像を用いるものとする。この場合、入力層のニューロンの数は22500個である。また、本実施形態では、破壊原因は「疲労破壊」、「延性破壊」、「脆性破壊」のいずれかであると想定している。したがって、図示する出力層は、3つのニューロンから構成される。出力層のニューロンの数は、想定される破壊原因の数に応じて設定される。
 ニューラルネットワークでは、各ニューロンの出力は、次層の全てのニューロンへ入力される。各ニューロンの出力値yは、以下の式により表される。
 y=(x1×w1)+(x2×w2)+・・・+(xn×wn)+b
 「xn」は前の層のn番目のニューロンからの入力値、「wn」はxnに対する重み付け値、「b」はバイアスを示す。
 S12では、学習部22は、誤差逆転伝播法などによる機械学習により、各層の重み付け値wnとバイアスbとを更新する。具体的には、学習部22は、ニューラルネットワークの入力層に破面画像の各画素値を入力して演算を行い、出力層の各ニューロンの出力値と、当該破面画像に対応するラベルとの誤差を出力し、当該誤差が小さくなる(0に近づく)ように、各層の重み付け値wnとバイアスbとを更新する。
 そして、学習部22は、機械学習を終了するか否かを判定する(S13)。機械学習の終了条件としては、例えば、あらかじめ設定した数の教師データで機械学習を繰り返した場合に、学習部22は、機械学習を終了するようにしてもよい。例えば、破壊原因ごとに、所定の数の教師データ(破面画像およびラベル)を用意し、当該教師データを用いて機械学習を繰り返す。また、終了条件として、ラベルと出力層の出力との誤差が所定値以下になった場合に、学習部22は、機械学習を終了するようにしてもよい。
 機械学習を終了しないと判定した場合(S13:NO)は、モデル生成装置2は、S11に戻り、以降の処理を繰り返し行う。機械学習を終了すると判定した場合(S13:YES)は、学習部22は、生成した学習済みモデルをモデル記憶部24に出力して記憶する。また、学習部22は、生成した学習済みモデルを、ネットワークを介して破面解析装置1に送信する(S14)。これにより、破面解析装置1のモデル記憶部15には、モデル生成装置2が生成した学習済みモデルが記憶される。
 以上説明したように、本実施形態の学習済みモデルは、解析対象の樹脂成形体の破面を撮像した破面画像に基づいて、樹脂成形体の破壊原因を特定するようにコンピュータを機能させるための学習済みモデルであり、破面画像と、破壊原因であるラベルとを対応付けた教師データを用いた機械学習により、破面画像の画素値が入力層に入力されると、出力層が破壊原因の確率を出力するように重み付け値が学習されたものである。また、学習済みモデルは、入力層に入力された破面画像の画素値に対し、学習された前記重み付け値に基づく演算を行い、出力層から破壊原因の確率を出力するように、破面解析装置1を機能させる。
 次に、破面解析装置1が行う破面解析処理について説明する。
 図5は、破面解析処理のフローチャートである。取得部11は、利用者端末3から送信された、樹脂成形体の破面を撮像した破面画像を取得する(S21)。
 そして、変更部12は、取得した破面画像のリサイズを行う(S22)。具体的には、変更部12は、取得した破面画像の大きさ(サイズ)を学習済みモデルの教師データで用いた破面画像と同じ大きさ(所定のサイズ)となるように変更する。モデル記憶部15に記憶された学習済みモデルのニューラルネットワーク(入力層)は、教師データの破面画像の画素数と同じ数のニューロンを備える。そのため、画素数が異なる破面画像が入力されると対応できないため、変更部12は、前処理として、取得した破面画像を教師データの破面画像と同じ画素数(例えば、150×150画素)にリサイズする。
 例えば、変更部12は、取得した破面画像が教師データの破面画像より大きい場合は、隣接する画素の画素値の平均を用い、取得した破面画像が教師データの破面画像より小さい場合は、隣接する画素の間に新たな画素を補間して、リサイズを行う。また、取得した破面画像の縦横比が、教師データの破面画像の縦横比と異なる場合についても、教師データの破面画像と同じ縦横比となるように、取得した破面画像をリサイズする。
 これにより、利用者が、SEM4の仕様または設定により様々な画像サイズの破面画像を取得して送信した場合であっても、破面解析装置1は、当該破面画像に基づいた破面解析を行うことができる。なお、取得した破面画像と、教師データの破面画像とが同じ大きさの場合、リサイズ処理は行わない。
 そして、解析部13は、リサイズ後の破面画像を用いて、破壊原因を特定(判定)する(S23)。具体的には、解析部13は、モデル記憶部15に記憶された学習済みモデル(ニューラルネットワークおよびパラメータ)を読み出し、リサイズした破面画像に含まれるn個の画素値を入力層のニューロンにそれぞれ入力して、学習済みモデルの演算を行う。すなわち、入力層に入力された各画素が、学習済みモデルのパラメータを用いて演算されながら中間層および出力層へと出力され、最終的に出力層の各ニューロンから破壊原因の特定結果が出力される。図4に示す例では、疲労破壊の確率がm1%、脆性破壊の確率がm2%、延性破壊の確率がm3%で出力される。なお、m1%と、m2%と、m3%の合計は、100%である。解析部13は、学習済みモデルが出力した各破壊原因の確率に基づいて、破壊原因を特定する。例えば、解析部13は、最大の確率を有する破壊原因を特定する。そして、出力部14は、解析部13が特定した破壊原因を、利用者端末3に送信する(S24)。
 図6は、利用者端末3のディスプレイに表示される、破面解析用の画面の一例を示すものである。図示する例では、1つの画面を入力画面および出力画面として用いる。利用者は、画面の参照ボタン81を用いて利用者端末3の記憶部に格納されたデータの中から所望の破面画像(画像ファイル)を選択し、アップロードボタン82をクリックすることで選択した破面画像を解析対象として決定し、解析ボタン83をクリックする。これにより、利用者端末3は、利用者に選択された破面画像を含む破面解析要求を、破面解析装置1に送信する。
 そして、図5に示す破面解析処理が終了すると、画面の解析結果の表示領域に84に、特定した破壊原因(図示する例では、「脆性破壊」)が表示される。なお、図示する画面例では、解析結果として、最大の確率の破壊原因を1つ表示しているが、学習済みモデルが出力した複数の破壊原因とその確率を、解析結果としても表示してもよい。また、解析結果については、別途指定のアドレスに電子メール等で送信して他の端末から確認したり、指定のURLやSNSサイト等にアップロードしてウェブブラウザやアプリ等で閲覧したりできるようにしてもよい。
 以上説明した本実施形態の破面解析装置1は、解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部11と、破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析部13と、を有する。これにより、本実施形態では、経験および知識を有する熟練した技術者でなくても、破壊された樹脂成形体の破面画像を取得するだけで、容易に短時間で精度の高い破壊原因を特定(推定)することができる。これにより、利用者の利便性を向上することができる。
 <第2の実施形態>
 本実施形態の破面解析システムは、図1に示す第1の実施形態と同様に、破面解析装置1と、モデル生成装置2と、利用者端末3とを備える。第1の実施形態では破面画像から破壊原因を特定したが、第2の実施形態では、破面画像に加えて樹脂成形体が破壊する要因となる周辺情報を教師データに含める。以下に、本実施形態のモデル生成装置2が使用する教師データについて説明する。
 図7は、本実施形態の教師データの例である。図示する教師データは、破壊原因であるラベルと、破面画像の画像データと、周辺情報とを含む。周辺情報は、樹脂成形体に関する情報であり、樹脂成形体が破壊する要因となる情報である。具体的には、周辺情報は、例えば、組成情報(材質)、成形条件、使用環境、形状等である。組成情報については、ここでは樹脂グレードを用いる。
 図8は、樹脂グレードDB(データベース)の例である。樹脂グレードDBには、樹脂グレード毎に、ベース樹脂の種類と割合、少なくとも1つの添加剤などの種類と割合が規定され、樹脂成形体の組成情報を表すものである。本実施形態のモデル生成装置2のデータ記憶部23には、図7の教師データ、および、図8の樹脂グレードDBが記憶される。
 次に、図3を参照して、本実施形態のモデル生成装置2が行う学習済みモデルの生成処理について説明する。まず、データ取得部21は、教師データとして、データ記憶部23から教師データを取得する(S11)。本実施形態では、データ取得部21は、教師データの樹脂グレードを、樹脂グレードDBを用いて、対応する組成情報に変換する。そして、学習部22は、樹脂グレードを組成情報に変換した教師データを用いて機械学習を行い、樹脂成形体の破壊原因を特定するための学習済みモデルを生成および更新する(S12)。
 図9は、本実施形態の学習済みモデルの一例を示す。ここでは、第1の実施形態の学習済みモデル(図4)との相違点を中心に説明し、重複する記載は省略する。なお、図示する例では、ニューラルネットワークの中間層は1層であるが、高度な画像認識を行うために複数の層で構成されていてもよい。
 本実施形態のニューラルネットワークは、教師データのデータ群ごとに入力層と中間層とが形成され、データ群ごと中間層の出力が出力層に入力され、出力層が破壊原因の確率を出力するようにパラメータ(重み付け値、バイアス)が学習されたものである。データ群は、カテゴリー毎のデータ集合である。データ群には、破面画像のデータ群と、周辺情報に含まれる複数種類のデータ群(例えば、組成情報のデータ群、成形条件のデータ群、使用環境のデータ群、形状のデータ群等)とがある。
 図示する例では、データ群Aは破面画像のデータ群であって、破面画像の各画素値が入力層の各ニューロンに入力され、各ニューロンのパラメータを用いた演算結果(出力)が、データ群Aの中間層の各ニューロンに入力される。データ群Aの入力層および中間層は、第1の実施形態の学習済みモデルと同様である。データ群Bは組成情報のデータ群であって、組成情報の各データ(各組成物の割合)が、入力層の各ニューロンに入力され、各ニューロンのパラメータを用いた演算結果が、データ群Bの中間層の各ニューロンに入力される。そして、データ群ごとの中間層の全てのニューロンの出力が、パラメータを用いた演算を経て出力層の各ニューロンに入力され、出力層の各ニューロンが対応する破壊原因の確率を出力する。
 このように、データ群ごとに入力層と中間層とを形成することで、データの性質に応じた学習済みモデルを生成することができ、高い解析精度を実現することができる。すなわち、データ群ごとにデータの性質(量的データ、カテゴリ)が異なるため、それぞれのデータの性質に応じた中間層を構築し、利用することで、高い解析精度を実現することができる。具体的には、破面画像の画像データについては、画像解析に適したネットワーク構造の中間層を構築し、周辺情報の各種のデータ群についても、各データ群の性質に適した中間層を構築する。なお、データ群ごとに、中間層を構成する層の数が異なってもよい。
 学習部22は、第1の実施形態と同様に、誤差逆転伝播法などによる機械学習により、各層のパラメータを更新する。そして、学習部22は、機械学習を終了するか否かを判定し(S13)、機械学習を終了しないと判定した場合(S13:NO)は、S11に戻り以降の処理を繰り返し行う。終了すると判定した場合(S13:YES)は、学習部22は、生成した学習済みモデルをモデル記憶部24に記憶し、生成した学習済みモデルを破面解析装置1に送信する(S14)。これにより、破面解析装置1のモデル記憶部15には、学習済みモデルが記憶される。
 以上説明したように、本実施形態の学習済みモデルは、解析対象の樹脂成形体の破面を撮像した破面画像に基づいて、樹脂成形体の破壊原因を特定するようにコンピュータを機能させるための学習済みモデルであり、破面画像と、破壊の要因となる周辺情報とを含む複数のデータ群と、破壊原因であるラベルとを対応付けた教師データを用いた機械学習により生成される。そして、学習済みモデルのニューラルネットワークは、データ群ごとに入力層と中間層とが形成され、データ群ごとの中間層の出力が出力層に入力され、出力層が破壊原因の確率を出力するように重み付け値が学習されたものである。また、学習済みモデルは、入力層に入力された複数のデータ群に対し、学習された重み付け値に基づく演算を行い、出力層から破壊原因の確率を出力するように、破面解析装置1を機能させる。
 次に、図5を参照して、本実施形態の破面解析装置1が行う破面解析処理を説明する。ここでは、第1の実施形態の破面解析処理との違いを中心に説明する。取得部11は、利用者端末3から送信された、樹脂成形体の破面を撮像した破面画像および周辺情報を取得する(S21)。
 図10は、利用者端末3のディスプレイに表示される、破面解析用の画面の一例を示すものである。本実施形態の画面は、周辺情報の入力欄(入力領域)85が設定されている点において、第1の実施形態の画面と異なる。利用者は、画面の参照ボタン81を用いて利用者端末3の記憶部に格納されたデータの中から所望の破面画像(画像ファイル)を選択し、アップロードボタン82をクリックすることで選択した破面画像を解析対象として決定する。そして、利用者は、周辺情報の各入力欄85に、解析対象の樹脂成形体の周辺情報を入力する。なお、図示する例では、組成情報については樹脂グレードを入力する。これにより、利用者の入力負荷および入力ミスを軽減することができる。利用者は、破面画像の選択および周辺情報の入力後、解析ボタン83をクリックする。これにより、利用者端末3は、利用者に選択された破面画像および周辺情報を含む破面解析要求を、破面解析装置1に送信し、破面解析装置1の取得部11は破面画像および周辺情報を受信する。
 取得部11は、受信した周辺情報の樹脂グレードを、樹脂グレードDBを用いて組成情報に変換する。なお、本実施形態の破面解析装置1は、図示しない記憶部に樹脂グレードDBを記憶しているものとする。そして、変更部12は、取得した破面画像のリサイズを行い(S22)、解析部13は、リサイズ後の破面画像および周辺情報を用いて破壊原因を特定する(S23)。
 具体的には、解析部13は、モデル記憶部15に記憶された学習済みモデル(ニューラルネットワークおよびパラメータ)を読み出し、データ群ごとに入力層のニューロンに入力して、学習済みモデルの演算を行う。本実施形態では、入力層および中間層は、データ群ごとに演算され、データ群ごとの中間層が出力層へと出力され、最終的に出力層の各ニューロンから対応する破壊原因の特定結果が出力される。
 解析部13は、学習済みモデルが出力した各破壊原因の確率に基づいて、破壊原因を特定する。例えば、解析部13は、最大の確率を有する破壊原因を特定する。そして、出力部14は、解析部13が特定した破壊原因を、利用者端末3に送信する(S24)。
 これにより、利用者端末3の画面の解析結果の表示領域に84に、特定した破壊原因(図示する例では、「脆性破壊」)が表示される。なお、図10の画面例では、解析結果として、最大の確率の破壊原因を1つ表示しているが、学習済みモデルが出力した複数の破壊原因とその確率を、解析結果としても表示してもよい。
 以上説明した本実施形態の破面解析装置1では、解析対象の樹脂成形体の破面を撮像した対象破面画像および破壊の要因となる周辺情報を取得する取得部と、破面画像と周辺情報と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、対象破面画像および周辺情報を入力して樹脂成形体の破壊原因を特定する解析部と、を有する。これにより、本実施形態では、樹脂成形体の周辺情報を考慮したうえで、容易かつ短時間に高い精度で破壊原因を特定(推定)することができる。すなわち、破面画像だけでは破壊原因の判断が難しい場合であっても、破壊した樹脂成形体の組成などの周辺情報を加味することで、総合的に破壊原因を解析し、高い精度で破壊原因を特定することができる。
 なお、上記説明した破面解析装置1およびモデル生成装置2は、例えば、CPU(Central Processing Unit、プロセッサ)と、メモリと、ストレージ(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、破面解析装置1およびモデル生成装置2の各機能は、破面解析装置1用のプログラムの場合は破面解析装置1のCPUが、モデル生成装置2用のプログラムの場合はモデル生成装置2のCPUが、それぞれ実行することにより実現される。利用者端末3についても、CPU、メモリ、通信装置などを備える汎用的なコンピュータシステム(例えばPC等)を用いることができる。
 また、破面解析装置1用のプログラム、および、モデル生成装置2用のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。また、モデル生成装置2は、機械学習の演算量が多いためGPU(Graphics Processing Unit)を備え、高速処理を行うこととしてもよい。
 また、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。例えば、以下の変形例がある。
 <変形例1>
 上記第1の実施形態では、学習済みモデルを用いて、破面画像から破壊原因を特定することとしたが、テンプレートマッチングを用いて破面画像から破壊原因を特定してもよい。この場合、破面解析装置は、学習済みモデルの代わりに、破壊原因毎に、破面画像の中で特徴的な部分を示す部分画像を、テンプレート画像として記憶部に記憶する。テンプレート画像には、例えば、図2A~図2Cに示す、各破面画像の点線で囲んだ領域の部分画像を用いることができる。
 破面解析装置1は、利用者端末3から送信された破面画像を、記憶部に記憶された複数のテンプレート画像のそれぞれと、テンプレートマッチングを行い、類似度を算出する。テンプレートマッチングでは、入力された画像の一部分とテンプレート画像との類似度を算出し、類似度が最も大きい場所を探索し、当該箇所における類似度(最大類似度)を出力する。テンプレートマッチングの類似度の算出方法には、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross Correlation)などがある。
 そして、破面解析装置1は、テンプレートごとに出力された類似度に応じて破壊原因を特定する。すなわち、破面解析装置1は、類似度が最も高いテンプレート画像に対応する破壊原因を、受信した破面画像の破壊原因として特定する。
 このように、変形例1の破面解析装置は、破面画像の中で特徴的な部分を示す部分画像を、破壊原因毎にテンプレート画像として記憶する記憶部と、解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部と、前記対象破面画像と、前記記憶部に記憶された複数の前記テンプレート画像のそれぞれとテンプレートマッチングを行って前記テンプレート画像毎の類似度を算出し、前記類似度に基づいて前記樹脂成形体の破壊原因を特定する解析部と、を有する。すなわち、変形例2の破面解析装置は、図1の破面解析装置1のモデル記憶部15に学習済みモデルを記憶する代わりに、破壊原因毎のテンプレート画像が記憶されている。
 <変形例2>
 上記第1および第2の実施形態の破面解析システムは、ネットワークを介して利用者端末3から送信された破面画像を受信し、解析結果である破壊原因を利用者端末3に送信することとした。しかしながら、本発明は、利用者がUSBメモリ等の記録媒体等を用いて直接、破面解析装置1に破面画像を入力することとしてもよい。また、解析結果は、ネットワークを介して利用者端末3に送信してもよいし、破面解析装置1が備える出力装置(ディスプレイ、プリンタ等)に出力することとしてもよい。
 <変形例3>
 上記変形例2は、利用者がUSBメモリ等の記録媒体等を用いて、破面解析装置1に破面画像を入力することとした。しかしながら本発明では、破面解析装置1とSEM4を一体的に構成し、SEM4が撮像および出力した樹脂成形体の破面画像を、破面解析装置1に直接入力することとしてもよい。また、解析結果は、変形例2と同様にネットワークを介して利用者端末3に送信してもよいし、破面解析装置1が備える出力装置(ディスプレイ、プリンタ等)に出力することとしてもよい。後者の場合、記録媒体を介したデータの移動と、利用者端末3を介したデータの送信とを省略することができる。
 <変形例4>
 上記第1の実施形態、第2の実施形態および変形例1~3では、利用者端末3は、破面解析装置1とは別の構成としてネットワークを介して接続することとした。しかしながら本発明では、利用者端末3を破面解析装置1および/またはSEM4と同一の筐体に一体的に組み込むこととしてもよい。
 <変形例5>
 上記第2の実施形態では、取得部11は、受信した周辺情報の樹脂グレードを、樹脂グレードDBを用いて組成情報に変換することとした。しかしながら本発明では、ベース樹脂や添加剤などの組成情報を個々に入力してもよい。このためには例えば、図10に示す周辺情報の入力欄85の樹脂グレード欄において、選択肢(ドロップダウンリスト)の1つに「組成情報入力」を設定しておく。そして、ユーザが「組成情報入力」を選択すると、組成情報の入力欄が表示されるようにしておき、そこでユーザが入力した組成情報が、周辺情報として破面解析装置1に送信されるようにしておけばよい。このように利用者が個別に組成情報を入力することにより、樹脂グレードDBに登録のない樹脂形成体についても、周辺情報として組成情報を加味した解析が可能となる。
 <変形例6>
 上記変形例5では、あらかじめ把握済の組成情報を個々に入力することとした。しかしながら本発明では、SEM4、利用者端末3、破面解析装置1のいずれか1つ以上と一体で、またはそれらとは別で、組成分析装置をさらに備えることとしてもよい。組成分析装置は、解析対象の樹脂成形体の組成分析を、破面の撮像と同時および/または撮像の前および/または撮像の後に行い、そこで得られた組成情報を、周辺情報として破面解析装置1に入力するようにしてもよい。この場合、破面解析装置1の取得部11は、組成情報を組成分析装置の解析結果を用いて取得する。
 ここで用いる組成分析装置としては、例えば赤外分光分析装置、核磁気共鳴装置、質量分析装置、X線回折装置、蛍光X線分析装置、原子発光分析装置、各種クロマトグラフィ等、公知の組成分析装置の1種または2種以上を組み合わせて用いることができる。この場合、使用する装置の組成分析方法に応じた組成情報のデータ群を含む教師データをモデル生成装置2に入力することで、使用する組成分析方法に応じた学習済みモデルを生成することができる。これにより、組成情報が不明確な樹脂成形体においても、より精度の高い解析が可能となる。
 <変形例7>
 上記第1および第2の実施形態や変形例1~6では、利用者が破面の特定箇所を選択して撮影した画像データを破面画像として入力することとした。しかしながら本発明では、SEM4、利用者端末3、破面解析装置1のいずれか1つ以上において、破面の特徴的な部位を特定する特徴部特定機能を持たせ、当該箇所の破面画像が自動的に取得および入力されるようにしてもよい。特徴的な部位の破面画像は、樹脂成形体の破面全体を撮影した画像から、特定の範囲を選択および拡大して取得してもよいし、樹脂成形体の破面を部分ごとに拡大して撮影した複数枚の画像から、特定の画像を選択して取得してもよい。ここで、特徴部特定機能における特徴的な部位の選択については、破壊原因の特定と同様に、機械学習により生成したモデルを用いて特定させてもよいし、あらかじめ記憶させた特徴的な部位のテンプレートとの類似度から特定させてもよい。なお、入力する破面画像としては、特徴部特定機能が選択した画像をそのまま用いてもよいし、特徴部特定機能が絞り込んだ画像から適切な画像を利用者が選択して用いてもよいし、利用者が範囲や枚数を絞り込んだ画像から特徴部特定機能が選択した画像を用いてもよい。
 1 :破面解析装置
 11:取得部
 12:変更部
 13:解析部
 14:出力部
 15:モデル記憶部
 2 :モデル生成装置
 21:データ取得部
 22:学習部
 23:データ記憶部
 24:モデル記憶部
 3 :利用者端末
 4 :SEM(走査型電子顕微鏡)

Claims (17)

  1.  破面解析装置であって、
     解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部と、
     破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析部と、を有すること
     を特徴とする破面解析装置。
  2.  請求項1記載の破面解析装置であって、
     前記教師データは、破壊の要因となる周辺情報を含み、
     前記取得部は、前記樹脂成形体の前記周辺情報を取得し、
     前記解析部は、前記対象破面画像とともに前記周辺情報を前記学習済みモデルに入力して、前記樹脂成形体の破壊原因を特定すること
     を特徴とする破面解析装置。
  3.  請求項2記載の破面解析装置であって、
     前記周辺情報は、前記樹脂成形体の組成情報、成形条件、使用環境および形状の少なくとも1つを含むこと
     を特徴とする破面解析装置。
  4.  請求項3記載の破面解析装置であって、
     前記取得部は、前記組成情報を、樹脂グレードまたは組成分析装置の解析結果を用いて取得すること
     を特徴とする破面解析装置。
  5.  請求項3記載の破面解析装置であって、
     前記取得部は、利用者が個別に入力した前記組成情報を取得すること
     を特徴とする破面解析装置。
  6.  請求項1から5のいずれか1項に記載の破面解析装置であって、
     取得した前記対象破面画像を、所定の画素数の画像にサイズ変更する変更部を有すること
     を特徴とする破面解析装置。
  7.  請求項1から6のいずれか1項に記載の破面解析装置であって、
     前記取得部は、利用者端末から送信された前記対象破面画像を取得し、
     前記解析部が特定した破壊原因を、前記利用者端末に送信する出力部を有すること
     を特徴とする破面解析装置。
  8.  請求項1から7のいずれか1項に記載の破面解析装置であって、
     前記取得部は、記録媒体に格納された前記対象破面画像、または、走査型電子顕微鏡、実体顕微鏡、金属顕微鏡およびデジタルカメラからなる群より選択された1つから入力された前記対象破面画像を取得し、
     前記解析部が特定した破壊原因を、前記破面解析装置に出力する、または、利用者端末に送信する出力部を有すること
     を特徴とする破面解析装置。
  9.  請求項1から8のいずれか1項に記載の破面解析装置であって、
     前記学習済みモデルは、複数の破壊原因の各確率を出力し、
     前記解析部は、前記確率に基づいて、前記樹脂成形体の破壊原因を特定すること
     を特徴とする破面解析装置。
  10.  請求項1から9のいずれか1項に記載の破面解析装置であって、
     利用者端末および/または走査型電子顕微鏡と一体化した装置であること
     を特徴とする破面解析装置。
  11.  請求項1から10のいずれか1項に記載の破面解析装置であって、
     前記樹脂成形体の特徴的な部位を特定する特徴部位特定部を有すること
     を特徴とする破面解析装置。
  12.  破面解析装置であって、
     破面画像の中で特徴的な部分を示す部分画像を、破壊原因毎にテンプレート画像として記憶する記憶部と、
     解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得部と、
     前記対象破面画像と、前記記憶部に記憶された複数の前記テンプレート画像のそれぞれとテンプレートマッチングを行って前記テンプレート画像毎の類似度を算出し、前記類似度に基づいて前記樹脂成形体の破壊原因を特定する解析部と、を有すること
     を特徴とする破面解析装置。
  13.  学習済みモデル生成装置であって、
     樹脂成形体の破面を撮像した破面画像と、前記樹脂成形体の破壊原因であるラベルとを対応付けた教師データを取得する取得部と、
     前記教師データを用いた機械学習によって、前記樹脂成形体の破壊原因を特定するための学習済みモデルを生成する学習部と、を有すること
     を特徴とする学習済みモデル生成装置。
  14.  コンピュータが行う破面解析方法であって、
     解析対象の樹脂成形体の破面を撮像した対象破面画像を取得する取得ステップと、
     破面画像と破壊原因であるラベルとを教師データとする機械学習によって生成された学習済みモデルに、前記対象破面画像を入力して前記樹脂成形体の破壊原因を特定する解析ステップと、を行うこと
     を特徴とする破面解析方法。
  15.  請求項1から11のいずれか1項に記載の破面解析装置として、コンピュータを機能させることを特徴とする破面解析プログラム。
  16.  解析対象の樹脂成形体の破面を撮像した破面画像に基づいて、前記樹脂成形体の破壊原因を特定するようにコンピュータを機能させるための学習済みモデルであって、
     破面画像と、破壊原因であるラベルとを対応付けた教師データを用いた機械学習により、前記破面画像の画素値が入力層に入力されると、出力層が破壊原因の確率を出力するように重み付け値が学習されたものであり、
     前記入力層に入力された前記破面画像の画素値に対し、学習された前記重み付け値に基づく演算を行い、前記出力層から破壊原因の確率を出力するよう、コンピュータを機能させるための学習済みモデル。
  17.  請求項16記載の学習済みモデルであって、
     前記教師データは、破面画像と、破壊の要因となる周辺情報とを含む複数のデータ群と、破壊原因であるラベルとを対応付けたデータであり、
     前記学習済みモデルのニューラルネットワークは、前記データ群ごとに入力層と中間層とが形成され、前記データ群ごとの前記中間層の出力が出力層に入力され、前記出力層が破壊原因の確率を出力するように重み付け値が学習されたものであり、
     前記入力層に入力された前記複数のデータ群に対し、学習された前記重み付け値に基づく演算を行い、前記出力層から破壊原因の確率を出力するよう、コンピュータを機能させるための学習済みモデル。
PCT/JP2020/019243 2020-05-14 2020-05-14 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル WO2021229745A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020545366A JP6789460B1 (ja) 2020-05-14 2020-05-14 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル
PCT/JP2020/019243 WO2021229745A1 (ja) 2020-05-14 2020-05-14 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/019243 WO2021229745A1 (ja) 2020-05-14 2020-05-14 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル

Publications (1)

Publication Number Publication Date
WO2021229745A1 true WO2021229745A1 (ja) 2021-11-18

Family

ID=73455229

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/019243 WO2021229745A1 (ja) 2020-05-14 2020-05-14 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル

Country Status (2)

Country Link
JP (1) JP6789460B1 (ja)
WO (1) WO2021229745A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102489421B1 (ko) * 2021-03-10 2023-01-17 전북대학교산학협력단 비선형 고립파 기반 휴대용 비파괴검사장치

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0552729A (ja) * 1991-08-28 1993-03-02 Toyoda Gosei Co Ltd 疲労試験装置用画像処理装置
WO2011099270A1 (ja) * 2010-02-15 2011-08-18 株式会社 日立製作所 破面解析システム及び破面解析方法
JP2016033494A (ja) * 2014-07-31 2016-03-10 ポリプラスチックス株式会社 樹脂成形体の評価方法
US20170261414A1 (en) * 2014-10-03 2017-09-14 Stephane Vernede Method for characterizing the cracking mechanism of a material from the fracture surface thereof
JP2018195001A (ja) * 2017-05-16 2018-12-06 株式会社パスコ 線状図形抽出装置、線状図形抽出プログラム及びニューラルネットワークの学習方法
CN109993094A (zh) * 2019-03-26 2019-07-09 苏州富莱智能科技有限公司 基于机器视觉的材料缺陷智能检测系统及方法
WO2019159419A1 (ja) * 2018-02-16 2019-08-22 パナソニックIpマネジメント株式会社 処理方法およびそれを利用した処理装置
JP2019158423A (ja) * 2018-03-08 2019-09-19 三菱重工業株式会社 衝撃試験分析装置、衝撃試験分析システム、衝撃試験分析方法及びプログラム
KR20190141322A (ko) * 2018-06-14 2019-12-24 위프코 주식회사 신경회로망을 이용한 도로 노면의 크랙 검출 시스템 및 그 검출 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6396536A (ja) * 1986-10-14 1988-04-27 Nkk Corp シヤルピ−試験片の破面率測定装置
JP5220290B2 (ja) * 2006-08-21 2013-06-26 大塚化学株式会社 ポリマーアロイ用相溶化剤、ポリマーアロイ及びポリマーアロイ調製用マスターバッチ
JP5475400B2 (ja) * 2009-06-18 2014-04-16 ポリプラスチックス株式会社 局部応力測定方法及び樹脂材料の応力−歪み曲線を導出する方法ならびに樹脂成形品の寿命予測方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0552729A (ja) * 1991-08-28 1993-03-02 Toyoda Gosei Co Ltd 疲労試験装置用画像処理装置
WO2011099270A1 (ja) * 2010-02-15 2011-08-18 株式会社 日立製作所 破面解析システム及び破面解析方法
JP2016033494A (ja) * 2014-07-31 2016-03-10 ポリプラスチックス株式会社 樹脂成形体の評価方法
US20170261414A1 (en) * 2014-10-03 2017-09-14 Stephane Vernede Method for characterizing the cracking mechanism of a material from the fracture surface thereof
JP2018195001A (ja) * 2017-05-16 2018-12-06 株式会社パスコ 線状図形抽出装置、線状図形抽出プログラム及びニューラルネットワークの学習方法
WO2019159419A1 (ja) * 2018-02-16 2019-08-22 パナソニックIpマネジメント株式会社 処理方法およびそれを利用した処理装置
JP2019158423A (ja) * 2018-03-08 2019-09-19 三菱重工業株式会社 衝撃試験分析装置、衝撃試験分析システム、衝撃試験分析方法及びプログラム
KR20190141322A (ko) * 2018-06-14 2019-12-24 위프코 주식회사 신경회로망을 이용한 도로 노면의 크랙 검출 시스템 및 그 검출 방법
CN109993094A (zh) * 2019-03-26 2019-07-09 苏州富莱智能科技有限公司 基于机器视觉的材料缺陷智能检测系统及方法

Also Published As

Publication number Publication date
JP6789460B1 (ja) 2020-11-25
JPWO2021229745A1 (ja) 2021-11-18

Similar Documents

Publication Publication Date Title
JP4603512B2 (ja) 異常領域検出装置および異常領域検出方法
JP2017142739A (ja) 情報処理装置、情報処理方法及びプログラム
JP2015087903A (ja) 情報処理装置及び情報処理方法
JP4728444B2 (ja) 異常領域検出装置および異常領域検出方法
JP6390746B2 (ja) 診断支援装置、及び診断支援装置における画像処理方法、並びにプログラム
JP4982213B2 (ja) 欠陥検査装置及び欠陥検査方法
JP7391504B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2012174222A (ja) 画像認識プログラム、方法及び装置
CN108154153B (zh) 场景分析方法和系统、电子设备
WO2021229745A1 (ja) 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析プログラム、および、学習済みモデル
JP2020087570A (ja) 破面解析装置、学習済みモデル生成装置、破面解析方法、破面解析装置プログラム、および、学習済みモデル
US11263258B2 (en) Information processing method, information processing apparatus, and non-transitory computer-readable storage medium for storing information processing program of scoring with respect to combination of imaging method and trained model
CN113116377B (zh) 超声成像导航方法、超声设备及存储介质
US11501037B2 (en) Microstructures using generative adversarial networks
JP6988995B2 (ja) 画像生成装置、画像生成方法および画像生成プログラム
WO2021095509A1 (ja) 推定システム、推定装置および推定方法
JP2021177541A (ja) 試料の検査のためのアルゴリズムモジュールの自動選択
Mu et al. A radiographic image quality assessment algorithm based on network topology analysis
KR100837244B1 (ko) 자동차 번호판의 영상 인식 시스템 및 그 방법
JP2021039631A (ja) 情報処理方法、プログラム、及び情報処理装置
JP2001236508A (ja) 顕著性算出装置及び方法
JP7321452B2 (ja) プログラム、情報処理装置、情報処理方法及び学習済みモデルの生成方法
JP2009296140A (ja) 画像処理装置、プログラムおよび画像処理方法
CN113034420B (zh) 一种频率空间域特征的工业产品表面缺陷分割方法及系统
JP7309134B2 (ja) 可視化方法、これに用いるプログラム、および、可視化装置、並びに、これを備える判別装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2020545366

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20934914

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20934914

Country of ref document: EP

Kind code of ref document: A1