JP7473765B2 - Automatic region identification method for non-metallic inclusions and inclusion discrimination system incorporating the method - Google Patents

Automatic region identification method for non-metallic inclusions and inclusion discrimination system incorporating the method Download PDF

Info

Publication number
JP7473765B2
JP7473765B2 JP2023128161A JP2023128161A JP7473765B2 JP 7473765 B2 JP7473765 B2 JP 7473765B2 JP 2023128161 A JP2023128161 A JP 2023128161A JP 2023128161 A JP2023128161 A JP 2023128161A JP 7473765 B2 JP7473765 B2 JP 7473765B2
Authority
JP
Japan
Prior art keywords
inclusion
image
data
type
colored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023128161A
Other languages
Japanese (ja)
Other versions
JP2024050421A (en
Inventor
徳照 上杉
恭学 和田
威史 藤松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Special Steel Co Ltd
University Public Corporation Osaka
Original Assignee
Sanyo Special Steel Co Ltd
University Public Corporation Osaka
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Special Steel Co Ltd, University Public Corporation Osaka filed Critical Sanyo Special Steel Co Ltd
Publication of JP2024050421A publication Critical patent/JP2024050421A/en
Application granted granted Critical
Publication of JP7473765B2 publication Critical patent/JP7473765B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、鋼材中の非金属介在物の撮影画像についてAIの機械学習によって画像領域を自動分割することで非金属介在物を判別する方法及びシステムに関する。特に、本発明は、ディープラーニングにより各種介在物毎にその領域を分割識別することで非金属介在物を判別する方法に関する。 The present invention relates to a method and system for identifying nonmetallic inclusions in steel materials by automatically dividing image regions using AI machine learning for images of nonmetallic inclusions. In particular, the present invention relates to a method for identifying nonmetallic inclusions by dividing and identifying the regions for each type of inclusion using deep learning.

近年、自動運転技術や医療用画像処理技術、工業用検査方法などの様々な分野で、AI(人工知能)、特にディープラーニング(深層学習)を用いたセマンティックセグメンテーション(Semantic Segmentation)が利用されている。ディープラーニングを用いて画像領域を分割する手法としては、畳み込みニューラルネットワーク(Convolutional Neural Network、以下「CNN」という。)が広く利用されるようになってきている。CNNは畳み込み層とプーリング層と全結合層を有することで、画像領域の分割に有効な手段であるが、画像を細かな領域に分割する作業には向いておらず、基本的に空間分解能は低い。 In recent years, AI (artificial intelligence), especially semantic segmentation using deep learning, has been used in various fields such as autonomous driving technology, medical image processing technology, and industrial inspection methods. Convolutional Neural Networks (CNN) have become widely used as a method for dividing image regions using deep learning. CNNs are an effective means for dividing image regions because they have a convolutional layer, a pooling layer, and a fully connected layer, but they are not suitable for dividing images into small regions and generally have low spatial resolution.

そこで最近は、全結合層を全層畳み込み層とすることで、セグメンテーションだけに特化する全層畳み込みニューラルネットワーク(Fully Convolutional Network、以下「FCN」という。)が提案されている。しかし、FCNにおいても空間分解能が低い問題は解決されていない。そこでさらに、この空間分解能の低さを解決するため、畳み込み時の画像の情報を逆畳み込み時の画像に反映させることで空間分解能を高めることを特徴とするU-Netの応用が近年進んでいる(非特許文献1)。 Recently, a fully convolutional neural network (FCN) has been proposed, which specializes in segmentation by making all fully connected layers convolutional layers. However, the problem of low spatial resolution remains unresolved even in FCN. To address this issue, the application of U-Net, which is characterized by increasing spatial resolution by reflecting image information at the time of convolution in the image at the time of deconvolution, has been progressing in recent years (Non-Patent Document 1).

ところで、鋼には、その製造過程を通じて生成される非金属介在物と称される微小な異物が除去しきれずに残留している。軸受鋼などの高強度部品として使用される場面では、使用につれてそれらの非金属介在物に応力が繰り返し集中することでき裂が生じ、それを起点として疲労破壊を生じる場合があることも知られている。 However, in steel, tiny foreign bodies called nonmetallic inclusions are generated during the manufacturing process and cannot be completely removed, remaining in the material. When steel is used for high-strength parts such as bearing steel, it is known that repeated stress concentration on these nonmetallic inclusions during use can cause cracks, which can then become the starting point for fatigue failure.

これまでに、鋼中の非金属介在物を評価する方法として様々な方法が提案されており、日本産業規格JIS G 0555やASTM E45等で規定されているように、光学顕微鏡を用いて鏡面研磨された鋼試料を観察することによって行われる顕微鏡法などが知られている。 Various methods have been proposed to evaluate nonmetallic inclusions in steel, including the microscopy method, which involves observing mirror-polished steel samples with an optical microscope, as specified in Japanese Industrial Standards JIS G 0555 and ASTM E45.

また、鋼中の非金属介在物を評価する方法として、光学顕微鏡による介在物の観察と、検査基準面積内において観察された介在物の大きさデータをもとにした極値統計評価によって基準体積内の最大介在物径を予測する方法が提案されている(非特許文献2参照)。 In addition, a method has been proposed for evaluating nonmetallic inclusions in steel, which involves observing the inclusions with an optical microscope and predicting the maximum inclusion diameter within a standard volume through extreme value statistical evaluation based on the size data of the inclusions observed within a standard inspection area (see Non-Patent Document 2).

また、非金属介在物と非金属介在物誤認要因を自動的に分別するべく、撮像された画像中から対象物の特徴量を算出し、金属材料中に存在する非金属介在物と、被検面に存在する塵埃やしみ等のように非金属介在物ではないものの非金属介在物と誤認される可能性があるもの(非金属介在物誤認要因)とを判定する検査装置が提案されている(特許文献1参照)。 In addition, in order to automatically distinguish between nonmetallic inclusions and factors that could be mistaken for nonmetallic inclusions, an inspection device has been proposed that calculates the features of the object from the captured image and distinguishes between nonmetallic inclusions present in metallic materials and things that are not nonmetallic inclusions but could be mistaken for nonmetallic inclusions (factors that could be mistaken for nonmetallic inclusions), such as dust particles or stains present on the test surface (see Patent Document 1).

特開平10-62357号公報Japanese Patent Application Laid-Open No. 10-62357

Olaf Ronneberger他著「U-net: Convolutional Networks for Biomedical Image Segmentation」MICCAI,234ー241頁(2015)Olaf Ronneberger et al., "U-net: Convolutional Networks for Biomedical Image Segmentation," MICCAI, pp. 234-241 (2015) 「金属疲労 微小欠陥と介在物の影響」養賢堂、村上敬宜著(1993)"Metal Fatigue: Effects of Micro Defects and Inclusions" Yokendou, by Takayoshi Murakami (1993)

さて、非金属介在物の周辺への応力集中が影響する範囲は、非金属介在物の大きさと相関すると考えられる。そこで、軸受の寿命を想定する上で、鋼中の非金属介在物の大きさを評価し、把握することは重要である。そして、非金属介在物の中でも、特に大きい非金属介在物の径(最大介在物径)を把握することは、鋼の信頼性を確保する観点から重視される。 Now, the range affected by stress concentration around nonmetallic inclusions is thought to correlate with the size of the nonmetallic inclusions. Therefore, when estimating the lifespan of a bearing, it is important to evaluate and understand the size of nonmetallic inclusions in steel. Furthermore, from the perspective of ensuring the reliability of the steel, it is important to understand the diameter of particularly large nonmetallic inclusions (maximum inclusion diameter).

さらに、評価者がその介在物の見え方(色調や形状)の違いをもとに、介在物の種類が酸化物、硫化物、その他の介在物かを判断して分類している。それら介在物のうち特に寿命に大きく関わると考えられるのは、酸化物系介在物であるから、酸化物系の介在物の清浄度を適切に評価できることは重要である。 Furthermore, based on the appearance of the inclusions (color tone and shape), the evaluator judges and classifies the type of inclusion as oxide, sulfide, or other inclusion. Of these inclusions, oxide-based inclusions are thought to have a particularly large effect on the service life, so it is important to be able to properly evaluate the cleanliness of oxide-based inclusions.

もっとも、特許文献1に記載の方法は、非金属介在物と、非金属介在物誤認要因である塵埃やしみを自動的に判別するものであって、非金属介在物自体をさらに分別するものではないので、各種非金属介在物の種類を判別するためのものとはいえず、酸化物や硫化物、その他の各種介在物毎に領域をそれぞれ特定して介在物種の判別をすることには対応していなかった。そこで、介在物種を適切に判別して、介在物種毎に介在物径を測定して評価する効率的な手段が求められている。 However, the method described in Patent Document 1 automatically distinguishes between nonmetallic inclusions and dust and stains that can lead to misidentification of nonmetallic inclusions, but does not further separate the nonmetallic inclusions themselves, so it cannot be said to be for distinguishing the types of nonmetallic inclusions, and does not address the identification of the types of inclusions by identifying regions for each of the oxides, sulfides, and other types of inclusions. Therefore, there is a demand for an efficient means for appropriately distinguishing the types of inclusions and measuring and evaluating the inclusion diameter for each type of inclusion.

ところで、極値統計評価で算出された介在物予測径(√areamax)は、製鋼精錬の良し悪しの指標ともなる。極値統計評価では、まず評価者が光学顕微鏡を用いて鏡面状態に仕上げられた鋼材を観察し、所定の基準観察面積内の最大介在物を特定して、その画像を撮影することとなる。同様の作業を複数の基準面積に対して行い、複数の介在物の大きさデータを取得する。続いて、得られた複数の基準面積内の最大介在物の大きさデータをもとにして、極値統計法の適用により介在物径を予測する方法で介在物径を予測している。 Incidentally, the predicted inclusion diameter (√area max ) calculated by the extreme value statistical evaluation is also an index of the quality of steel refining. In the extreme value statistical evaluation, an evaluator first observes a steel material that has been finished to a mirror finish using an optical microscope, identifies the largest inclusion within a specified reference observation area, and takes a picture of it. The same procedure is performed for a plurality of reference areas to obtain size data for a plurality of inclusions. Next, based on the obtained size data for the largest inclusion within the plurality of reference areas, the inclusion diameter is predicted by a method of predicting the inclusion diameter by applying the extreme value statistical method.

もっとも、このような手法での各種介在物毎の領域の特定は、介在物種の判別とサイズの把握のいずれも評価者の技量を前提としている。すると、評価者の熟練度に大きく左右されるものであるから、手法は同じであっても、その精度は評価者の知識や経験に負うところが大きい。介在物種の判別も経験が必要だが、極値統計評価の介在物のサイズや形状の把握自体も容易ではない。鋼中の介在物の形状は、単純な円形とは限らず、細長い島のような形状であることも多いからである。さらに断続的に連続して島状に点在している形状の場合には、それらを一体の介在物として把握すべき解釈を要するので、習熟を要する。そこで、こうした介在物の形状把握やサイズの特定は、評価者によってバラツキやすく、結果として、同じ手法で評価しても、求まる結果にばらつきが生じ得る評価方法となってしまっている。加えて、熟練者を育成するには時間を要し人材育成や確保は容易とはいえない。 However, the identification of the regions of each type of inclusion using this method presupposes the skill of the evaluator, both in identifying the type of inclusion and grasping the size. This means that it is highly dependent on the skill of the evaluator, so even if the method is the same, the accuracy depends largely on the knowledge and experience of the evaluator. Although experience is required to identify the type of inclusion, grasping the size and shape of the inclusions in extreme value statistical evaluation is not easy. This is because the shape of inclusions in steel is not always simple circular, but is often shaped like elongated islands. Furthermore, when the inclusions are intermittently and continuously scattered like islands, they must be interpreted as a single inclusion, so they require skill. Therefore, the identification of the shape and size of such inclusions is prone to variation depending on the evaluator, and as a result, even if the evaluation is performed using the same method, the results obtained may vary. In addition, it takes time to train skilled personnel, and it is not easy to train and secure human resources.

そこで、本発明が解決しようとする課題は、非金属介在物の大きさ評価に関するこれらの課題を解決するべく、鋼中に非金属介在物が含まれている画像を元に極値統計法の処理に供するために必要な介在物種毎の最大大きさを適切かつ安定的に計測するために、各種介在物毎の領域範囲をディープラーニングを用いて精度よく推定し、画像から自動分割して判別するための手段を提供することである。 The problem that the present invention aims to solve is to provide a means for accurately estimating the range of each type of inclusion using deep learning and automatically dividing and discriminating from an image in order to appropriately and stably measure the maximum size of each type of inclusion, which is necessary for processing the extreme value statistics method based on an image containing nonmetallic inclusions in steel, in order to solve these problems related to the evaluation of the size of nonmetallic inclusions.

上述した課題を解決するため、出願人らは、生データである判別対象の非金属介在物が含まれる鋼材の光学顕微鏡画像と、この判別対象となる介在物が各種介在物系毎に塗り分けされた正解データである着色画像とのデータ対を複数対備えた一群の学習データセットに基づいた教師データを用いて電子計算機に機械学習で生成させた学習モデルを用いて、介在物の領域が未識別(未知)の鋼材の光学顕微鏡画像が照会されたときにその入力画像の特徴量を抽出し、介在物系を判別し、介在物系毎に塗り分けることを行なう、非金属介在物の画像について各種介在物系毎の領域に自動で分割識別する介在物判別方法を得た。 In order to solve the above-mentioned problems, the applicants have obtained an inclusion discrimination method that automatically divides and identifies an image of a nonmetallic inclusion into regions of various inclusion types by using a learning model generated by a computer through machine learning using training data based on a group of learning data sets that include multiple data pairs of optical microscope images of steel material containing nonmetallic inclusions to be discriminated, which are raw data, and colored images, which are correct answer data in which the inclusions to be discriminated are colored according to their various inclusion types. When an optical microscope image of a steel material in which inclusion regions are unidentified (unknown) is queried, the feature amounts of the input image are extracted, the inclusion types are discriminated, and the inclusions are colored according to their inclusion types.

すなわち、評価鋼材における判別対象とする非金属介在物を含む光学顕微鏡画像データ(生データ)と、この判別対象とする介在物の画像領域が介在物の種別毎に塗り分けされた着色画像データ(正解データ)からなるデータ対を複数対備えた、一群の学習データセットを教師データとして電子計算機に機械学習させる工程(モデルの学習工程)と、未知、すなわち介在物の領域が未特定の光学顕微鏡画像が照会されたときに機械学習に基づきその入力画像の特徴量を抽出する工程(特徴抽出工程)と、機械学習に基づき介在物種別を判別する工程(介在物判別工程)と、介在物種別ごとに塗り分けされた判別済画像として推論結果を出力する工程(判別済画像出力工程)とを順に含み、非金属介在物の画像領域をAIにより自動的に判別させて各種介在物の領域に分割識別することを特徴としている。 That is, the method includes the steps of, in order, having a computer learn by machine learning a set of learning data sets, which are teacher data, and which include a plurality of data pairs consisting of optical microscope image data (raw data) including nonmetallic inclusions to be identified in the steel material to be evaluated and colored image data (ground truth data) in which the image regions of the inclusions to be identified are colored according to the type of inclusion (model learning step), a step of extracting the feature values of the input image based on machine learning when an unknown optical microscope image, i.e., an inclusion region is not yet identified (feature extraction step), a step of identifying the inclusion type based on machine learning (inclusion identification step), and a step of outputting the inference result as a identified image colored according to the type of inclusion (identified image output step), and is characterized in that the image regions of nonmetallic inclusions are automatically identified by AI and divided and identified into various inclusion regions.

学習済モデルの生成のための機械学習の工程では、生データとなる光学顕微鏡画像にはグレースケールの高解像度画像を使用し、特性X線分析による化学組成分析結果に基づき画像編集ソフト上で各種介在物系毎の塗り分けを行った着色画像とを対データとする教師データとして多数用意し、学習済みモデルの生成に供する。 In the machine learning process for generating trained models, high-resolution grayscale images are used as raw data from optical microscope images, and a large number of colored images, which are colored by type of inclusion using image editing software based on the results of chemical composition analysis using characteristic X-ray analysis, are prepared as paired training data and used to generate trained models.

さらに、このようにして得られる正確なデータセットは、その作成作業が煩雑で作業負担が大きいことから、大量かつ簡易的に取得することができないものである。そこで、教師データ画像の反転、切り抜き、拡大、回転といった幾何学的操作を行うことや、明るさ、コントラスト、ノイズ付加といった操作を行うことでデータ拡張を施すことにより、教師データ量を増加させるようにしてもよい。 Furthermore, the accurate data set obtained in this way cannot be obtained in large quantities or easily because the creation process is complicated and requires a large workload. Therefore, the amount of training data can be increased by performing data expansion such as performing geometric operations on the training data image, such as inverting, cropping, enlarging, and rotating, or performing operations such as brightness, contrast, and adding noise.

また、学習済モデル生成のための機械学習の手法としては、U-Netおよびその派生手法を利用することができる。そして、学習のための生データであるグレースケール画像に対し、U-Netにおいて精度の高い学習を行うための3チャンネルRGBカラーでのデータ入力とするために疑似カラーの導入を行う。また、損失関数として、領域識別の精度が重視される介在物系に対して重みを設定することが可能な調整重み付き交差エントロピー損失関数を採用すると良い。これを損失関数として用いることで、モデルの学習時に推論結果と、正解とが損失関数に入力され、両者の誤差が小さくなるようにパラメータが調整されることでより正解に近い推論結果を得ることができる。 As a machine learning method for generating a trained model, U-Net and its derived methods can be used. Then, pseudocolor is introduced to grayscale images, which are raw data for training, to input data in three-channel RGB color for high-precision training in U-Net. As a loss function, it is advisable to adopt an adjusted weighted cross-entropy loss function, which allows weighting to be set for inclusion systems, for which accuracy in area identification is important. By using this as a loss function, the inference result and the correct answer are input to the loss function during model training, and the parameters are adjusted so that the error between the two is reduced, thereby making it possible to obtain an inference result closer to the correct answer.

すなわち、本発明の課題を解決するための第1の手段は、判別対象の非金属介在物を含む鋼材の光学顕微鏡画像データと、当該光学顕微鏡画像データに対応する判別対象の非金属介在物の画像領域を介在物種別毎に異なる色で塗り分けた着色画像データと、からなるデータ対を複数対備えた一群の学習データセットに基づいて得られた教師データを用いて、電子計算機に機械学習させることで学習済みモデルを生成し、電子計算機によって、当該学習済みモデルに基づいて入力された鋼材の光学顕微鏡画像(照会画像)に関する特徴量を抽出する工程と、当該学習済みモデルに基づいて介在物の種類を判別する工程と、判別結果に基づいて介在物系毎に塗り分けた着色済画像データを取得する工程と、を順に含む、非金属介在物を含む画像に対して電子計算機が介在物系毎の画像領域を機械学習により自動で分割識別する介在物系の判別方法である。 That is, the first means for solving the problem of the present invention is a method for discriminating inclusion types, which includes, in order, a step of generating a trained model by machine learning using training data obtained based on a group of learning data sets including a plurality of data pairs each consisting of optical microscope image data of a steel material containing a nonmetallic inclusion to be discriminated and colored image data in which the image regions of the nonmetallic inclusions to be discriminated corresponding to the optical microscope image data are colored in different colors for each inclusion type by using an electronic computer, and a step of extracting feature amounts related to an optical microscope image (query image) of the steel material input based on the trained model by the electronic computer, a step of discriminating the type of inclusion based on the trained model, and a step of acquiring colored image data in which the image regions are colored in different colors for each inclusion type based on the discrimination result.

その第2の手段は、教師データには、学習データセットのデータ対に基づいてデータ拡張で生成されたデータ対を含むこと、を特徴とする第1の手段に記載の介在物系の判別方法である。 The second means is the method for identifying an inclusion system described in the first means, characterized in that the teacher data includes data pairs generated by data expansion based on the data pairs of the learning data set.

その第3の手段は、光学顕微鏡画像データは、グレースケール画像であって、当該光学顕微鏡画像を3チャンネルのRGBカラー画像に変換した疑似カラー変換画像とした後、データ対の着色画像データとともに機械学習に供することで学習済みモデルを生成させることを特徴とする、第1又は第2の手段に記載の介在物径の判別方法である。 The third means is a method for determining the diameter of an inclusion as described in the first or second means, characterized in that the optical microscope image data is a grayscale image, and the optical microscope image is converted into a pseudo-color converted image of a three-channel RGB color image, and then the pseudo-color converted image is subjected to machine learning together with the colored image data of the data pair to generate a trained model.

その第4の手段は、教師データのデータ対に用いる介在物種別毎に異なる色で塗り分けた着色画像データは、介在物の光学顕微鏡画像から色反転処理された画像に基づいて介在物種別毎に異なる色で塗り分けた着色画像データであることを特徴とする、第1~第3のいずれか1の手段に記載の介在物系の判別方法である。 The fourth means is a method for distinguishing inclusion types described in any one of the first to third means, characterized in that the colored image data in which different colors are used for the data pairs of the training data and in which different colors are used for each inclusion type based on an optical microscope image of the inclusion that has been subjected to color inversion processing is used to color image data in which different colors are used for each inclusion type.

その第5の手段は、学習済みモデルは、全層畳み込みニューラルネットワークのU-Netを用いて機械学習させることで生成されるものであることを特徴とする第1~第4のいずれか1の手段に記載の介在物系の判別方法である。 The fifth means is a method for discriminating inclusion systems described in any one of the first to fourth means, characterized in that the trained model is generated by machine learning using a U-Net full-layer convolutional neural network.

その第6の手段は、学習済みモデルは、損失関数に重み付き交差エントロピー誤差を使用して判別対象とする種類の介在物の重みが大きくなるように調整して機械学習させることで生成されるものであることを特徴とする第1~第5のいずれか1の手段に記載の介在物系の判別方法である。 The sixth means is a method for discriminating an inclusion system according to any one of the first to fifth means, characterized in that the trained model is generated by machine learning using a weighted cross-entropy error as a loss function, adjusting the weight of the type of inclusion to be discriminated so that it is large.

その第7の手段は、判別結果に基づいて介在物系毎に塗り分けた着色済画像に基づき、評価対象とする介在物系の長径と短径を計測して介在物の大きさを算出する工程を含むことを特徴とする第1~第6のいずれか1の手段に記載の介在物系の判別方法である。 The seventh means is a method for distinguishing inclusion types described in any one of the first to sixth means, characterized in that it includes a step of measuring the major and minor diameters of the inclusion types to be evaluated and calculating the size of the inclusions based on a colored image in which the inclusion types are colored differently based on the discrimination results.

その第8の手段は、判別結果に基づいて介在物系毎に塗り分けた着色済画像に基づき、評価対象とする介在物系の長径と短径を計測して介在物の大きさを算出し、観察面積の鋼材中の最大介在物を選別して最大介在物の大きさ√areaを出力する工程を含むことを特徴とする、第1~第7のいずれか1の手段に記載の介在物の判別方法である。 The eighth means is a method for discriminating inclusions according to any one of the first to seventh means, characterized in that it includes a step of measuring the major and minor axes of the inclusion system to be evaluated based on a colored image in which each inclusion system is colored differently based on the discrimination result, calculating the size of the inclusion, selecting the largest inclusion in the steel material in the observed area, and outputting the size √area of the largest inclusion.

その第9の手段は、所定の観察面積を有する複数の試験片の各々に対して最大介在物の大きさ√areaの算出を行い、得られた複数の最大介在物の大きさデータに基づいて極値統計法を利用して評価鋼材の所定の予測面積における介在物予測径(√areamax)を算出する工程を含むこと、を特徴とする第8の手段に記載の介在物系の判別方法である。 The ninth means is a method for discriminating inclusion types according to the eighth means, characterized in that it includes a step of calculating the maximum inclusion size √area for each of a plurality of test pieces having a predetermined observation area, and calculating the predicted inclusion diameter (√area max ) in a predetermined predicted area of the evaluation steel material using extreme value statistics based on the obtained data on the sizes of the plurality of maximum inclusions.

その第10の手段は、第1~第9のいずれか1に記載の介在物系の判別方法を備えた介在物判別システムである。 The tenth means is an inclusion discrimination system equipped with the inclusion discrimination method described in any one of the first to ninth means.

その他の手段は、判別結果に基づいて介在物系毎に塗り分けた着色済画像に基づき、評価対象とする介在物系の長径を計測して介在物の大きさを算出する工程を含むことを特徴とする第1~第6のいずれか1の手段に記載の介在物系の判別方法である。 The other means is a method for distinguishing inclusion types described in any one of the first to sixth means, characterized in that it includes a step of measuring the major axis of the inclusion type to be evaluated and calculating the size of the inclusion based on a colored image in which the inclusion type is colored according to the discrimination result.

本発明に係る方法により、照会対象となる未知の介在物等を含む光学顕微鏡画像に対して、生成した学習済モデルに基づいて画像中から介在物種の領域を適切に判別し、その介在物の画像領域を介在物種別毎に塗り分け表示することが可能となる。 The method according to the present invention makes it possible to appropriately distinguish the inclusion type area from within an optical microscope image that contains unknown inclusions, etc., that are the subject of a query, based on the generated trained model, and to display the image area of the inclusions in a different color for each type of inclusion.

本発明の実施工程の概略を示したフローチャートである。1 is a flow chart showing an outline of the steps of carrying out the present invention. 光学顕微鏡で撮像した介在物画像である。1 is an image of an inclusion taken with an optical microscope. 学習モデルに用いたU-Netの構造を示した図である。A diagram showing the structure of U-Net used in the learning model. 各種介在物系ごとの塗り分け画像の作成手順を示した拡大画像である。(a)は光学顕微鏡でグリーンフィルターを通して撮影したカラー画像、(b)は介在物の輪郭を強調した強調加工画像、(c)は各種介在物系ごとに塗り分けした塗り分け画像である(なお、図4の原図はカラー画像である。)。4 is an enlarged image showing the procedure for creating images with different colors for each type of inclusion. (a) is a color image taken with an optical microscope through a green filter, (b) is an enhanced image in which the contours of the inclusions are emphasized, and (c) is an image with different colors for each type of inclusion (note that the original image of FIG. 4 is a color image). 光学顕微鏡で撮像した介在物画像と介在物種別が塗り分けされた推論後の着色画像の拡大図である(グレースケールで示すが、原図はカラー画像である。)。This is an enlarged view of an inclusion image captured by an optical microscope and a colored image after inference in which the inclusion type is colored differently (shown in grayscale, but the original is a color image). 酸化物の領域判定の違いと、それに基づく酸化物の大きさ(√area:介在物の短径と長径の積の平方根)の測定結果の違いを示す図である。(a)は従来手法で光学顕微鏡写真のモノクロ画像に基づいて人が判別したものであり、硫化物系を含めて領域判定してしまっている例である。(b)は酸化物のサイズを正しく判定している例である。This figure shows the difference in oxide area determination and the difference in the measurement results of the oxide size (√area: square root of the product of the minor axis and major axis of the inclusion) based on that. (a) is an example of a conventional method in which a person determined the area based on a monochrome image of an optical microscope photograph, and the area was determined to include sulfides. (b) is an example in which the size of the oxide was correctly determined. 極値統計法に基づきプロットした複数の酸化物径を、正解データを基準に整理した図である。●の記号で示すプロットは本発明の方法のAIに基づいた予測であり、○の記号で示すプロットは従来の手法による人の測定に基づいた予測の例である。This is a diagram in which multiple oxide diameters plotted based on extreme value statistics are organized based on the correct data. The plots indicated with a black circle symbol are predictions based on the AI of the method of the present invention, and the plots indicated with a circle symbol are examples of predictions based on human measurements using the conventional method.

以下、本発明の介在物の画像領域を自動分割するAIについて、すなわち、介在物系毎の画像領域を機械学習により自動で分割識別して出力するまでを、図1のフローチャートに沿って説明する。また、以下の実施例では代表して主たる判別対象として酸化物に着目して説明を加えているが、酸化物に限らずに硫化物についても同様のアプローチによって、生成した学習モデルに基づいて未知の介在物等を含む光学顕微鏡画像に対して介在物種毎の形状やサイズを適切に捕捉することができる。 The AI that automatically divides the image region of inclusions according to the present invention, that is, the process of automatically dividing and identifying the image region for each inclusion type by machine learning and outputting it, will be described below with reference to the flowchart in Figure 1. Also, in the following examples, the explanation focuses on oxides as a representative main discrimination target, but a similar approach can be used for sulfides as well as oxides, and the shape and size of each inclusion type can be appropriately captured based on the generated learning model for optical microscope images that contain unknown inclusions, etc.

(工程A:試験片の採取について)
極値統計評価に用いる試験片の作製にあたっては、評価対象の鋼材に対して、切断や切削が容易に行えるように必要に応じて適切な熱処理を実施した後、鋼材から所定の観察面積が得られるように試験片を切り出す。なお、後工程での仕上げ研磨の際に介在物の脱落が生じやすい場合や、研磨キズが残りやすい場合は、研磨条件を調整する以外に鋼材の硬さを上げることで改善する場合があるため、必要に応じて熱処理を行って硬さを調整してもよい。続いて、試験片のまま、あるいは必要に応じてそれらの試験片を樹脂に埋設したのち、試料の観察面に対して仕上げ研磨を施して光学顕微鏡観察用の試験片を作製する。このような試験片を複数個作製する。
(Step A: Collecting test pieces)
In preparing the test pieces for use in extreme value statistical evaluation, the steel material to be evaluated is subjected to an appropriate heat treatment as necessary so that cutting and cutting can be easily performed, and then the test pieces are cut out from the steel material so that a predetermined observation area can be obtained. In addition to adjusting the polishing conditions, if inclusions are likely to fall off during finish polishing in the subsequent process, or if polishing scratches are likely to remain, the hardness of the steel material may be increased to improve the situation, so the hardness may be adjusted by heat treatment as necessary. Next, the test pieces are left as they are, or if necessary, the test pieces are embedded in resin, and then the observation surface of the sample is subjected to finish polishing to prepare test pieces for optical microscope observation. A plurality of such test pieces are prepared.

(工程A:具体例)
実施例ではJISのSUJ2鋼を評価対象の鋼材として、φ65mmに熱間鍛伸されたSUJ2鋼製の丸棒の中周付近から、極値統計評価を行うための試験片形状、ここでは10mm×10mm×8mmのサイズの複数の試験片を採取した。このときの観察面の面積は100mm2である。なお、この実施例では介在物評価を鋼材の中周部付近から行うため、その箇所からの試験片の採取を行っているが、鋼材の表面付近や中心付近で介在物評価を行いたい場合にはその箇所から採取を行えばよい。なお、試験片は圧延方向と平行な面が試料の観察面となるように採取した。そして、採取した試験片を樹脂に埋設した後、自動の湿式研磨装置もしくは手動の湿式研磨機を使用して研磨したのち、最終的にダイヤモンド砥粒を使ったバフ研磨仕上げを行って鏡面状態に加工した。なお、バフ研磨に続いて、コロイダルシリカ溶液を用いた仕上げ研磨を行ってもよい。
(Step A: Specific Example)
In the examples, JIS SUJ2 steel was used as the steel material to be evaluated, and a plurality of test pieces having a size of 10 mm x 10 mm x 8 mm were taken from the vicinity of the middle circumference of a round bar made of SUJ2 steel that had been hot-forged to φ65 mm in order to perform extreme value statistical evaluation. The area of the observation surface at this time was 100 mm2 . In this example, the inclusion evaluation was performed from the vicinity of the middle circumference of the steel material, so the test pieces were taken from that location, but if it is desired to perform inclusion evaluation near the surface or center of the steel material, it is sufficient to take the test pieces from that location. The test pieces were taken so that the surface parallel to the rolling direction was the observation surface of the sample. Then, the taken test pieces were embedded in resin, and then polished using an automatic wet polishing device or a manual wet polishing machine, and finally buffed using diamond abrasive grains to process into a mirror state. Note that, following the buffing, finishing polishing using a colloidal silica solution may be performed.

(工程B:非金属介在物の撮像について)
工程Aにて得られた各試験片における評価対象の介在物について、介在物の大きさである√area(介在物の短径と長径の積の平方根)が最大の介在物を特定する。もし、最大の介在物が複合介在物(異なる化学組成の複数の介在物から構成される介在物)の場合は、後述の介在物の領域識別の結果として評価対象の介在物として最大の大きさとはならない場合もあり得ることから、その次点となる大きさの介在物や、必要に応じてさらにその次点となる大きさの介在物も評価対象として特定しておくとよい。続いて介在物(単一組成の介在物、複合介在物、さらに断続的に連続して島状に点在する形状のような一体的に取り扱うべき場合がある介在物が存在しうる)について、その精細な形状や色調の違いを認識可能な程度に光学顕微鏡の観察倍率を高倍率に設定したうえで、評価対象の介在物画像を撮影する。このとき、画像サイズおよびファイルの保存形式は解像度が十分に高いものを選択することが好ましい。
(Step B: Imaging of non-metallic inclusions)
For the inclusions to be evaluated in each test piece obtained in step A, the inclusion with the largest inclusion size √area (the square root of the product of the short diameter and the long diameter of the inclusion) is identified. If the largest inclusion is a composite inclusion (an inclusion composed of multiple inclusions with different chemical compositions), it may not be the largest inclusion to be evaluated as a result of the inclusion area identification described below, so it is advisable to identify the next largest inclusion and, if necessary, the next largest inclusion as an evaluation target. Next, for the inclusions (single composition inclusions, composite inclusions, and inclusions that may be treated as a single entity such as inclusions with a shape that is intermittently and continuously scattered like islands), the observation magnification of the optical microscope is set to a high magnification so that the fine shape and color difference can be recognized, and then an image of the inclusion to be evaluated is taken. At this time, it is preferable to select an image size and file saving format with sufficiently high resolution.

(工程B:具体例)
図2に光学顕微鏡で撮像した介在物画像を示す。画像は、グレースケールで、後工程Cにて教師データとするために観察倍率は400倍で統一し、画像の解像度が十分高くなるように、画像サイズを4080×3072ピクセルとし、ファイルの保存形式はBMP形式を選択した。撮影の倍率は、介在物の大きさに応じて全体が画像内に収まるように調整してもよい。また、撮影画像の画像サイズおよび保存形式は、機械学習の精度の低下を招かない範囲で、より低解像度のものが選択されてもよい。
(Process B: Specific Example)
FIG. 2 shows an image of an inclusion captured by an optical microscope. The image is in grayscale, and the observation magnification is unified at 400 times to be used as training data in the subsequent process C. In order to ensure that the image resolution is sufficiently high, the image size is set to 4080 x 3072 pixels, and the file storage format is selected to be the BMP format. The magnification of the image may be adjusted so that the entire inclusion fits within the image depending on the size of the inclusion. In addition, the image size and storage format of the captured image may be selected to be lower in resolution as long as they do not cause a decrease in the accuracy of machine learning.

(工程C:教師データの作成について)
学習モデルを作成するための教師データとして、工程Bにより得られる介在物画像(生データ)と、生データに対し介在物の化学組成分析結果に基づき画像編集ソフトを使用して介在物の種類ごとに介在物を塗り分けた着色画像(正解データ)と、を一対とするデータ対を複数対揃えたデータセット用の画像(学習データセット)を用意する。また、少ないデータセットで効率的に高精度な学習を行うためのデータ拡張を実施して教師データを得てもよい。
(Process C: Creating teacher data)
As training data for creating a learning model, images for a data set (learning data set) are prepared, which are a set of data pairs each consisting of an inclusion image (raw data) obtained in step B and a colored image (correct answer data) in which the raw data is colored according to the type of inclusion based on the results of the chemical composition analysis of the inclusions using image editing software. In addition, training data may be obtained by implementing data expansion to efficiently perform highly accurate learning with a small data set.

(工程C:具体例)
学習データセットにおける正解データとして用いる介在物の種類ごとに介在物を塗り分けた着色画像は、エネルギー分散型X線分光器(EDS)や、電子プローブマイクロアナライザー(EPMA)により得られた特性X線に基づく組成分析の結果から介在物種を判別し、市販されている一般的な画像編集ソフトを使用して、生データの撮影画像をベース画像にして介在物種別毎に色を塗り分けることにより作成した。図4に示すように、酸化物と硫化物、コンタミ等の介在物系が識別され、塗り分けられている。
(Step C: Specific Example)
The colored images in which the inclusions are colored according to their type and used as the correct answer data in the learning data set were created by determining the inclusion types from the results of composition analysis based on characteristic X-rays obtained by an energy dispersive X-ray spectrometer (EDS) or an electron probe microanalyzer (EPMA), and then coloring the inclusions by type using a commercially available general image editing software, using a photographed image of the raw data as a base image. As shown in Figure 4, inclusion types such as oxides, sulfides, and contaminants are identified and colored differently.

なお、本発明でいう塗り分けとは、電子計算機が判別・認識できるものであれば足りることから、異なる色とは必ずしも人の視覚的に色合いの差異が明確であることまでは要しない。すなわち、具体的には異なる色の塗り分けとは、介在物種毎に赤、緑と大きく色合いを変えて塗り分ける以外にも、薄灰と濃灰などの濃淡による差異や、赤系の色であっても彩度の違いで差異を示したものであったものでもよく、元画像の上に介在物種毎に半透明の色画像を重ねて着色して差異を設けたものも含まれ、元画像にレイヤーを用いて介在物種毎に色を合成表示させている画像データなども、ここでいう塗り分けに該たる。 In addition, the different colors referred to in this invention are sufficient if they can be distinguished and recognized by a computer, and therefore the different colors do not necessarily need to have clear differences in color to the human eye. In other words, specifically, the different colors may be used to paint in different hues, such as red and green, for each type of inclusion, or may be differences in shades such as light gray and dark gray, or differences in saturation for red-based colors. Also included are images in which a translucent color image is overlaid on top of the original image for each type of inclusion to create differences, and image data in which a layer is used on the original image to compositely display colors for each type of inclusion are also included in the different colors referred to here.

教師データの作成に際しては、たとえば以下のような工夫をすることで、教師データ自体の介在物種判別精度を高めることができるので、機械学習結果をより良好なものとすることが容易となる。 When creating training data, for example, the accuracy of inclusion type discrimination in the training data itself can be improved by taking the following measures, making it easier to obtain better machine learning results.

まず、光学顕微鏡写真のデータ対に用いるグレースケール画像の他に、併せて単色の有色透明カラーフィルターを介した介在物画像も撮影する。カラーフィルターとして、たとえばグリーンフィルターを用いることができるが、これのみに限定はされない。次いで、各種介在物系ごとの輪郭のコントラストがより強調されるように、市販の画像編集ソフト(たとえばアドビ社製のフォトショップ(登録商標)など)を使用して、ソフトに実装されているカラーカーブの補正機能でソラリゼーション処理(色反転処理)をすることによって色調や階調の操作などの、介在物を強調させるための画像加工を施す。また、適宜、中間調の明るさを最大にし、一方で中間調のコントラストを最小にする変換処理を実施する。 First, in addition to the grayscale image used for the data pair of the optical microscope photograph, an image of the inclusions is also taken through a single-color transparent color filter. As the color filter, for example, a green filter can be used, but it is not limited to this. Next, in order to further emphasize the contrast of the contours of each type of inclusion, a commercially available image editing software (such as Adobe Photoshop (registered trademark)) is used to perform image processing to emphasize the inclusions, such as manipulating the color tone and gradation by performing a solarization process (color inversion process) using the color curve correction function implemented in the software. In addition, a conversion process is appropriately performed to maximize the brightness of the midtones while minimizing the contrast of the midtones.

以上のように画像加工して得られたカラー画像をもとに、介在物の領域を適切に把握し、その後、評価対象の介在物の組織観察をして塗り分ける色を決定する。組織観察には、走査電子顕微鏡(SEM)を用いた。SEMで適切な倍率での介在物の反射電子像を取得し、EDSで介在物種を確認した。通常のSEM観察で利用されている二次電子像に代えて、あえて反射電子像を用いるのは、化学成分に応じたコントラストが得られること、電気絶縁性の高い介在物におけるSEM観察中のチャージアップの影響が出にくいことなど、有用性が高いからである。この画像と対照しつつ、EDSで介在物種や代表組成を把握することで、画像加工したカラー画像における介在物種毎の領域を特定し、酸化物系、硫化物系といった介在物種毎に色分け作業を行い、着色画像データを得た。以上の光学顕微鏡による介在物のグレースケール画像と、作成した介在物種毎に色分けされた着色画像データを、データ対とした。そして、それらのデータ対を多数作成することで、データセットを得た。 Based on the color image obtained by the image processing as described above, the inclusion area is appropriately identified, and then the texture of the inclusion to be evaluated is observed to determine the color to be painted. A scanning electron microscope (SEM) was used for the texture observation. A backscattered electron image of the inclusion was obtained at an appropriate magnification with the SEM, and the inclusion type was confirmed with EDS. The reason why the backscattered electron image is used instead of the secondary electron image used in normal SEM observation is that it is highly useful, such as obtaining contrast according to the chemical composition and being less susceptible to the effects of charge-up during SEM observation in inclusions with high electrical insulation. By comparing this image and understanding the inclusion type and representative composition with EDS, the area of each inclusion type in the processed color image was identified, and color-coded by inclusion type such as oxide-based and sulfide-based inclusions, and colored image data was obtained. The above grayscale image of the inclusion taken by the optical microscope and the colored image data created by color-coding by inclusion type were made into data pairs. A large number of such data pairs were created to obtain a data set.

これら手順により得られるデータセットは、そのデータ数が多いほどディープラーニングの精度を高めることに有利に働くといえる。もっとも、正解データの判定作業は作業負担が大きく、また作業自体にも習熟を要することからも、マンパワーを単純に増やすだけで大量かつ簡易的に取得できるようなデータとはいえない。そこで、これらのデータセットのみを教師データとする以外に、データセットに基づいて、次のようなデータ拡張をして、教師データをさらに充実させてもよい。 The dataset obtained through these procedures can be said to be more advantageous in improving the accuracy of deep learning, the more data there is in the dataset. However, since the task of determining correct data is a heavy workload and the task itself requires skill, it cannot be said that this data can be obtained in large quantities and easily by simply increasing manpower. Therefore, in addition to using only these datasets as training data, the training data can be further enriched by expanding the data based on the dataset as follows:

(データ拡張について)
用意したデータセットに対し、反転、切り抜き、拡大、回転といった幾何学的操作を行い、加えて明るさ、コントラスト、ノイズ付加といった色空間操作などをすることで、学習に供するデータ数を拡張することによって、少ないデータセットでも、より高精度な学習を行うことが可能である。そこで、作成したデータセットに基づいて、データ拡張を実施した。データ拡張には、オフライン拡張により決められた処理を事前に行う大規模なデータセットを用意してもよいが、電子計算機の記憶装置の使用量を削減するため、本発明においては、1つのミニバッチに対して、オンザフライ拡張(オンライン拡張)により、直前にランダムに選んだ幾何学的操作および色空間操作でデータ拡張を行い、逐次に以降に示した工程Dの機械学習を行うということを繰り返した。エポック(1つの訓練データの繰り返し学習の数)を複数にして学習をすれば、同じミニバッチからランダムに異なる画像が使用されるので、記憶容量を圧迫することなく実施できる。
(About data expansion)
By performing geometric operations such as inversion, cropping, enlargement, and rotation on the prepared data set, and also performing color space operations such as brightness, contrast, and noise addition, the number of data used for learning can be expanded, making it possible to perform more accurate learning even with a small data set. Therefore, data expansion was performed based on the created data set. For data expansion, a large data set may be prepared in advance for processing determined by offline expansion, but in order to reduce the amount of storage used by the electronic computer, in the present invention, data expansion is performed on one mini-batch by on-the-fly expansion (online expansion) using geometric operations and color space operations randomly selected just before, and the machine learning of the step D shown below is performed sequentially. If multiple epochs (the number of repeated learning of one training data) are used for learning, different images are randomly used from the same mini-batch, so it can be performed without putting pressure on the storage capacity.

具体的には、864枚の光学顕微鏡画像を準備した。まず、これら画像のうち、724枚を訓練用、70枚を検証用、70枚を評価用に無作為に振り分けるなどする。1エポックで訓練データ全ての学習を行い、エポックごとにデータ拡張の操作はランダムに選択する。最終的に100エポックの学習を行うことで、訓練データは72400枚に拡張される。また、さらに一部の教師データを半教師あり学習により作成して機械学習に用いてもよい。 Specifically, 864 optical microscope images were prepared. First, these images were randomly assigned: 724 for training, 70 for validation, and 70 for evaluation. All training data was learned in one epoch, and the data expansion operation for each epoch was selected randomly. Finally, after 100 epochs of learning, the training data was expanded to 72,400 images. Furthermore, some training data may be created by semi-supervised learning and used for machine learning.

(工程D:モデルの学習および評価について)
電子計算機による機械学習のディープラーニングには、たとえば、U-Netの畳み込み層に対して、畳み込みニューラルネットワーク(CNN)を取り入れたImageNetのpre-trainedモデル(学習済みモデル)を転移学習に活用して非金属介在物のデータセットを学習させる。これらの学習の後、複数のモデルの妥当性を検証するために検証データで精度評価を行う。検証データでの精度評価を基に、最も優れたモデルを決定し、評価データを用いて最終評価を行う。
(Step D: Model learning and evaluation)
In deep learning, a machine learning technique using a computer, for example, a pre-trained model (pre-trained model) of ImageNet incorporating a convolutional neural network (CNN) is used for transfer learning in the convolutional layer of U-Net to learn a data set of non-metallic inclusions. After these learning steps, accuracy evaluation is performed using validation data to verify the validity of multiple models. Based on the accuracy evaluation using the validation data, the best model is determined, and a final evaluation is performed using the evaluation data.

ここで、転移学習について簡単に説明する。転移学習とは、ある領域の知識を別の領域の学習に適用させる技術であり、上述のような学習済みモデルを転用することで、大量のデータ取得と学習にかかる時間を削減することを可能とする機械学習の手法の一つである。このため、転移学習を用いれば、教師データが少ない場合であっても高精度に対象画像の判別を行うことができるメリットがある。 Here, we briefly explain transfer learning. Transfer learning is a technique that applies knowledge from one domain to the learning of another domain, and is one of the machine learning techniques that makes it possible to reduce the time required to acquire large amounts of data and to learn by repurposing trained models such as those described above. Therefore, the use of transfer learning has the advantage that it allows target images to be identified with high accuracy even when there is little training data.

(工程D:具体例)
図3は、ディープラーニングに用いたニューラルネットワークモデルのU-Netの構造を示した図である。U-Netは、畳み込み時の情報を逆畳み込み時の画像に反映させることにより空間分解能を高めることを特徴としたニューラルネットワークモデルである。同モデルにおいて、畳み込み層(エンコーダ)では入力された画像を複数回にわたって畳み込みを行いながら、画像に含まれる特徴量を抽出していき、一方で逆畳み込み層(デコーダ)では、畳み込み時と逆の処理を行うことにより、入力画像と同サイズ(同解像度)の画像データを出力する。ここで、エンコーダでの特徴量抽出において、大規模教師ラベル付き画像データセットであるImageNetを用いたpre-trainedモデルを転移学習させて、そのまま活用することが可能となっているため、実施例では後述するモデルの精度評価指標において最も優れた結果が得られている19層の畳み込み層を持つ畳み込みニューラルネットワークVGG19を転移学習に活用した。
(Step D: Specific Example)
FIG. 3 is a diagram showing the structure of the U-Net neural network model used in deep learning. U-Net is a neural network model characterized by enhancing spatial resolution by reflecting information at the time of convolution in the image at the time of deconvolution. In this model, the convolution layer (encoder) convolves the input image multiple times while extracting features contained in the image, while the deconvolution layer (decoder) performs the reverse process to that at the time of convolution to output image data of the same size (same resolution) as the input image. Here, in the feature extraction in the encoder, a pre-trained model using ImageNet, which is a large-scale teacher-labeled image dataset, can be transferred and used as is, so in the embodiment, the convolution neural network VGG19 with 19 convolution layers, which has the best results in the model accuracy evaluation index described later, was used for transfer learning.

本発明では、推論された出力画像を入力画像と同サイズで比較を行えるようにするため、エンコーダ側の畳み込み層は、フィルターサイズを3×3、ストライドを1、パディングを1、max(最大値)プーリングは2×2のフィルターにより行い、デコーダ側の畳み込み層はフィルターサイズを3×3、ストライドを1、パディングを1とし、プーリングの逆としてBilinear Interporation(バイリニア補間)のアップサンプリングを2×2のフィルターで行った。なお、プーリングの方式にはaverage(平均)プーリング、アップサンプリングの方式にはNearest Neighbor Interporation(最近傍補間)が選択されてもよい。また、ニューラルネットワークの出力を決定する活性化関数にはディープラーニングにおいてよく利用されており、画像データと相性のよいReLUを採用した。なお、活性化関数には、ReLUに代えて、LeakyReLU、PReLU、ELUが選択されてもよい。 In the present invention, in order to compare the inferred output image with the input image at the same size, the convolutional layer on the encoder side has a filter size of 3×3, a stride of 1, a padding of 1, and max (maximum value) pooling is performed using a 2×2 filter, while the convolutional layer on the decoder side has a filter size of 3×3, a stride of 1, a padding of 1, and upsampling of bilinear interpolation is performed using a 2×2 filter as the inverse of pooling. Note that average pooling may be selected as the pooling method, and Nearest Neighbor Interpolation may be selected as the upsampling method. In addition, ReLU, which is often used in deep learning and is compatible with image data, is adopted as the activation function that determines the output of the neural network. Note that LeakyReLU, PReLU, or ELU may be selected as the activation function instead of ReLU.

畳み込みニューラルネットワーク(CNN)の実装にあたり、深層学習フレームワークであるTensorFlow(tensorflow-gpu 2.4.0)をバックエンドとしたKerasを利用し、電子計算機の動作環境としては、OSはWindows10Pro、CPUはCorei7-9700K、GPUはRTX3090を用いた。もちろんこれらの仕様は一例であり、本発明の実施において適宜に変更されてもよい。 To implement the convolutional neural network (CNN), Keras was used with the deep learning framework TensorFlow (tensorflow-gpu 2.4.0) as the backend, and the computer operating environment was Windows 10 Pro OS, Corei 7-9700K CPU, and RTX 3090 GPU. Of course, these specifications are just examples and may be changed as appropriate when implementing the present invention.

学習に関し、工程Cにより得た介在物の教師データに対し、学習速度を速めるために画像のサイズを2040×1536ピクセルへと縮小した。さらに光学顕微鏡で撮影した画像の大部分は背景であり、対象となる介在物は画像領域の中心に存在することから、余分な学習を防ぐために、入力画像を512×512ピクセルのサイズに分割を行い、介在物が存在しない画像は除去した。さらに学習の安定化と汎化性能の向上のために画像の正規化を行った。また、ディープラーニングを行う前の前処理として、疑似カラーの導入を行った。疑似カラーの導入を行うと、重視する介在物種を強調することができ、識別精度が向上するので、効率的な学習が可能となる。なお、疑似カラーに必要な画像処理にはコンピュータビジョン(人間の視覚系が行うことができるタスクを機械で自動化するための研究分野)用の無償ライブラリであるOpenCVを用いた。 Regarding learning, the image size of the training data of inclusions obtained in step C was reduced to 2040 x 1536 pixels to speed up the learning speed. Furthermore, since most of the image taken with an optical microscope is the background and the target inclusion is located in the center of the image area, the input image was divided into 512 x 512 pixels in size to prevent excessive learning, and images without inclusions were removed. Furthermore, images were normalized to stabilize learning and improve generalization performance. In addition, pseudocolor was introduced as a preprocessing before deep learning. By introducing pseudocolor, it is possible to emphasize the type of inclusion that is important, improving the identification accuracy and enabling efficient learning. For the image processing required for pseudocolor, OpenCV, a free library for computer vision (a research field for automating tasks that the human visual system can perform with machines), was used.

512×512ピクセルのサイズに分割された画像は、推論を行った後にsoft-voting(重複部分の予測確率の平均)を行って2040×1536ピクセルの画像サイズに統合する。この時、分割された画像のサイズはU-Netの入力画像サイズである512×512ピクセルに等しい。また、推論を行った後のU-Netの出力画像サイズである512×512ピクセルにも等しい。出力画像は256ピクセルずつ上下左右にずらしてオーバーラップさせて統合させることで、2560×2048ピクセルの統合画像を得る。画像統合時に生じた片側256ピクセル分の余白は削除し、2040×1536ピクセルの画像サイズに統合した。 After inference, the images divided into 512 x 512 pixel pieces are soft-voted (average of predicted probability of overlapping parts) and merged to an image size of 2040 x 1536 pixels. At this time, the size of the divided images is equal to the U-Net's input image size of 512 x 512 pixels. It is also equal to the U-Net's output image size of 512 x 512 pixels after inference. The output images are shifted by 256 pixels up, down, left, and right, and then merged with overlap to obtain a merged image of 2560 x 2048 pixels. The 256 pixel margin on one side that was generated during image merger was deleted, and the images were merged to a size of 2040 x 1536 pixels.

次に疑似カラーを導入する理由について詳述する。U-Netなどのディープラーニングによるセマンティックセグメンテーションでは、エンコーダでの特徴量抽出において、カラー写真の教師ラベル付き画像の大規模データベースであるImageNetを用いたpre-trainedモデルの転移学習が可能である。そのため、U-Netなどのセマンティックセグメンテーションを用いて今回のような光学顕微鏡画像のディープラーニングを行うためには、学習に利用する先のような画像データベースのカラー画像の形状やデータ構造に合うように光学顕微鏡画像に前処理を施しておくことが望ましい。
そこで、光学顕微鏡画像として多用されている1チャンネルのグレースケール画像の場合、一般的な前処理として1チャンネルのグレースケール画像を3チャンネル分重ね合わせた画像とすることで、3チャンネルのRGBカラー画像に変換する。
もっとも、変換された3チャンネル画像には本来のRGBのカラー情報は含まれていない。そのため、U-Netなどにおける入力層に近い畳み込み層では大部分のフィルターが重複してしまうことになり、3チャンネルの情報が生かせず効率的な学習ができない。
Next, we will explain the reason for introducing pseudocolor in detail. In semantic segmentation using deep learning such as U-Net, it is possible to transfer learn a pre-trained model using ImageNet, which is a large-scale database of teacher-labeled images of color photographs, in feature extraction in the encoder. Therefore, in order to perform deep learning of optical microscope images such as this one using semantic segmentation such as U-Net, it is desirable to preprocess the optical microscope images so that they match the shape and data structure of the color images in the image database to be used for learning.
Therefore, in the case of one-channel grayscale images, which are often used as optical microscope images, a common preprocessing step is to convert the one-channel grayscale image into a three-channel RGB color image by superimposing the three channels.
However, the converted three-channel image does not contain the original RGB color information, so most of the filters in the convolution layer close to the input layer in U-Net and other systems overlap, making it impossible to make effective use of the three-channel information and learning.

そこで、本発明では、1チャンネルのグレースケール画像に適切な変換マップを当てはめることにより、3チャンネルのRGBカラー画像に変換する疑似カラー変換を前処理に用いる。望ましい変換マップには、識別において重視される酸化物などが強調されやすいものがよく、例えばJetと呼ばれるグレースケールを虹色に変換可能なカラーマップが利用できる。 Therefore, in the present invention, pseudocolor conversion is used for preprocessing, which converts a one-channel grayscale image into a three-channel RGB color image by applying an appropriate conversion map. A desirable conversion map is one that easily emphasizes oxides and other elements that are important for identification, such as a color map called Jet that can convert grayscale into rainbow colors.

疑似カラーの導入により、光学顕微鏡で撮影したグレースケール画像のみでディープラーニングを行った場合の識別結果と比較して、各種介在物系の識別精度が向上した。
なお、擬似カラー変換の前処理をして学習モデルを作成する場合と同様に、未知の光学顕微鏡画像中の介在物種を判別する際にも、グレースケール画像を擬似カラー化させた後に特徴量を抽出させることで、照会画像の介在物種を学習済モデルを用いて電子計算機により判別させるようにすることができる。
The introduction of pseudocolor improved the accuracy of identifying various inclusion types compared to the results of deep learning using only grayscale images taken with an optical microscope.
In addition, just as in the case of creating a learning model by performing preprocessing using pseudo-color conversion, when identifying the type of inclusion in an unknown optical microscope image, the grayscale image can be pseudo-colorized and then features can be extracted, allowing the inclusion type in the query image to be identified by a computer using the learned model.

さらに、U-Netなどのディープラーニングを行う際、出力された推論結果と教師データにおける正解データとの違いを評価して、それによってニューラルネットワークの重み付けを変化させる損失関数を採用する。この損失関数については様々な選択肢を取りうるが、本発明は各種介在物系毎に画像領域を分割して識別することが目的であるため、調整重み付き交差エントロピー損失関数を採用することとする。これは、鏡面研磨された鋼中に疎らに存在する非金属介在物を撮影した光学顕微鏡画像において特有の介在物以外の鋼の部分(光学顕微鏡像では白く撮像される、いわば背景とも言える部分であり、介在物の画像領域の識別に関与しない)が画像の大部分を占める問題(class imbalanceと呼ばれる問題)を、背景の重みを調整することで解決するものである。重みは背景や介在物といった各画像領域の画素数の合計を算出し、その逆数を基準値とし、基準値をもとに調整した。 Furthermore, when performing deep learning such as U-Net, a loss function is adopted that evaluates the difference between the output inference result and the correct answer data in the training data and changes the weighting of the neural network accordingly. There are various options for this loss function, but since the purpose of the present invention is to divide and identify the image region for each type of inclusion system, an adjusted weighted cross entropy loss function is adopted. This solves the problem (called class imbalance) of an optical microscope image of non-metallic inclusions sparsely present in mirror-polished steel, where the steel parts other than the specific inclusions (which are imaged as white in the optical microscope image, and can be considered as the background, and are not involved in identifying the image region of the inclusions) occupy most of the image by adjusting the weight of the background. The weights were calculated by calculating the total number of pixels in each image region, such as the background and inclusions, and the reciprocal of this was used as a reference value, and were adjusted based on the reference value.

ディープラーニングの精度評価指標にはmIoU(mean Intersection over Union)という指標を用いた。これは推論結果が正解にどのくらい近いのかを示す指標で、推論された各種介在物系の領域と正解画像での各種介在物系の領域とを重ね合わせた領域に対する、正しく判定された領域の割合を評価するものであるため、画像全体に占める介在物の大きさの割合(割合は小さいことが多い)に影響を受けずに推論結果の正解の度合いを評価することが可能である。
なお、同じくセグメンテーションの精度評価指標として比較的多く利用されるPixel Accuracyを精度評価に用いる場合には、画像全体の画素数に対して、上述したように背景が大部分を占めることでclass imbalanceを伴う介在物の撮影画像の場合、少ないクラス(ここでは介在物を指す)における予測誤差の影響は多いクラス(ここでは背景を指す)に対して相対的に小さいものとなるので、結果としてPixel Accuracyが高い、すなわち推論の精度が高いとみなされやすくなり、モデルのチューニングによる精度の変化を把握することには不向きである。そこで、検証では主としてmIoUの指標に着目した。
As an accuracy evaluation index for deep learning, an index called mIoU (mean Intersection over Union) was used. This is an index showing how close the inference result is to the correct answer, and evaluates the ratio of correctly determined areas to the area where the inferred inclusion system area and the inclusion system area in the correct answer image are superimposed, so it is possible to evaluate the degree of accuracy of the inference result without being affected by the ratio of the size of the inclusions to the entire image (which is often a small ratio).
In addition, when using Pixel Accuracy, which is also relatively often used as an accuracy evaluation index for segmentation, for accuracy evaluation, in the case of a photographed image of an inclusion with class imbalance, in which the background occupies the majority of the pixels in the entire image as described above, the influence of prediction error in a small class (here, referring to inclusions) is relatively small compared to a large class (here, referring to the background), so that as a result, it is easy to consider that Pixel Accuracy is high, that is, the accuracy of inference is high, and it is not suitable for grasping the change in accuracy due to model tuning. Therefore, in the verification, we mainly focused on the mIoU index.

表1は、検証データにおける各モデルのPixel AccuracyとmIoUによる評価結果をそれぞれ示す。表1において、TLは転移学習を行ったことを示し、FTは既存のモデルの一部に調整を加えたファインチューニングを行ったことを示す。Pixel Accuracyにほとんど変化が見られない場合でもmioUには変化が認められることが分かる。太字の下線付きで示すオリジナルのU-Net(表1の上から10番目のモデル)の学習結果のmIoUが0.682であるのに比べて、U-NetにVGG19を転移学習させたモデル(表1の1段目のモデル)のmIoUは0.745となり、実に6%以上もの大きなmIoUの向上が見られた。そこで、このモデルをベースにさらなるチューニングを行った。 Table 1 shows the evaluation results of each model in terms of Pixel Accuracy and mIoU on the validation data. In Table 1, TL indicates that transfer learning was performed, and FT indicates that fine-tuning was performed by making partial adjustments to the existing model. It can be seen that even when there is almost no change in Pixel Accuracy, there is a change in mioU. The mIoU of the learning result of the original U-Net (the 10th model from the top in Table 1), shown in bold and underlined, is 0.682, while the mIoU of the model in which VGG19 was transferred to U-Net and learned (the model in the first row in Table 1) is 0.745, which is a significant improvement of more than 6% in mIoU. Therefore, further tuning was performed based on this model.

Figure 0007473765000001
Figure 0007473765000001

このU-NetにVGG19を転移学習させたモデルに対し、上述の調整重み付き交差エントロピー損失関数を採用し、介在物種別毎の重みをチューニングすることで、mIoUはさらに0.81程度にまで上昇した。 By using the above-mentioned adjusted weighted cross entropy loss function for a model in which VGG19 was transferred to U-Net and the weights for each type of inclusion were tuned, the mIoU was further increased to approximately 0.81.

(工程E:介在物の種類が未識別(未知)の入力画像に対する各種介在物系の判別について)
工程Dにより得られる学習モデルに対して、光学顕微鏡で撮影した介在物領域が未識別(未知)の介在物画像(生データ)を入力し、各種介在物系毎に塗り分けがなされた着色画像を推論結果として出力する。なお、ここでいう塗り分けとは、電子計算機が判別・認識できるものであれば足りることから、異なる色とは必ずしも人の視覚的に色合いの差異が明確であることまでは要しない。
(Step E: Discrimination of various inclusion types for input images in which the type of inclusion is unidentified (unknown))
An inclusion image (raw data) in which the inclusion region is unidentified (unknown) photographed by an optical microscope is input to the learning model obtained by the process D, and a colored image in which various inclusion types are colored differently is output as an inference result. Note that, since the coloring here means that it is sufficient for an electronic computer to distinguish and recognize the different colors, it is not necessarily required that the difference in color tone is clearly visible to the human eye.

(工程E:具体例)
図5に光学顕微鏡で撮像した画像と塗り分けされた推論後の着色画像の拡大図をそれぞれ示す。ここでは、光学顕微鏡で撮影したディープラーニングには用いていない介在物領域が未識別(未知)の1チャンネルのグレースケール画像を、学習モデルを作成する場合と同様に、3チャンネルのRGBカラー画像に変換する疑似カラー変換を前処理に用いた上で今回発明のモデルに入力することで、画像に含まれる酸化物、硫化物、コンタミをそれぞれ識別し、自動的に塗り分けすることが可能になる。
実施例では一例として、酸化物を赤色、硫化物を青色、コンタミを緑色にそれぞれ塗り分けた。なお、画像サイズは4080×3072ピクセル、ファイルの保存形式はBMP形式としたが、画像サイズやファイルの保存形式は、状況に応じて変更してもよい。
(Step E: Specific Example)
An image captured by an optical microscope and an enlarged view of the colored image after inference are shown in Figure 5. Here, a one-channel grayscale image captured by an optical microscope, in which the inclusion region is unidentified (unknown) and not used in deep learning, is converted into a three-channel RGB color image using pseudo-color conversion as a preprocessing step, as in the case of creating a learning model, and then input into the model of the present invention, making it possible to identify the oxides, sulfides, and contaminants contained in the image and automatically color them differently.
In the embodiment, oxides are colored red, sulfides are colored blue, and contaminants are colored green. Note that the image size is 4080 x 3072 pixels, and the file is saved in BMP format, but the image size and file save format may be changed depending on the situation.

工程A~Eにおける本発明に係る方法により、介在物の種類が未識別(未知)の光学顕微鏡画像から、介在物の画像領域を各種介在物系毎に精度良く識別し、自動的に塗り分けることができ、極値統計法における介在物の大きさ評価を人手を介することなくAIによって行うことが可能となる。
図4の教師データ作成の手順のように、これまで機器を組み合わせて手作業での判別を経て色分け画像を作成していたものが、本発明で生成された学習済みモデルを用いると、自動的に介在物種を識別して対象の画像領域を適切に塗り分けた画像データを取得することができ、図4(c)のような着色画像が自動的に得られることとなる。
The method according to the present invention in steps A to E makes it possible to accurately identify image regions of inclusions according to various inclusion types from optical microscope images in which the types of inclusions are unidentified (unknown) and to automatically color them differently, thereby making it possible to evaluate the size of inclusions using the extreme value statistics method by AI without human intervention.
As shown in the procedure for creating training data in Figure 4, in the past, color-coded images were created by combining equipment and manually distinguishing between them. However, by using the trained model generated by the present invention, it is possible to automatically identify the type of inclusion and obtain image data in which the target image area is appropriately colored, and a colored image like that shown in Figure 4(c) can be automatically obtained.

光学顕微鏡画像70枚について、単に介在物を捕捉するだけではなく、さらに介在物中における介在物種まで適切に判別できるかを、次のとおり検証した。
まず、あらかじめ介在物種が判明している介在物を含む光学顕微鏡で撮像された70枚の画像を用意し、本発明の学習済みモデルを用いて判別させた。
対象となった70枚の画像の異物の内訳は、最大面積の異物(介在物)が酸化物:33枚、硫化物:19枚、介在物以外の異物:18枚である。
結果:本発明の学習済みモデルを用いてこれらの画像を判別させると、介在物の領域中における介在物種についてはいずれも適切に識別できており、最大面積の介在物種について、酸化物:33枚、硫化物:19枚、介在物以外の異物:18枚と判定し正答した。すなわち、学習済みモデルを用いると、最大介在物の領域の介在物種について適切に識別できた。
このように本発明の深層学習による機械学習モデルを用いることで、熟練者による作業を要さずとも、光学顕微鏡画像内の介在物中における介在物種を適切に識別できることが確認された。
The 70 optical microscope images were examined as follows to see whether they could not only capture inclusions but also properly distinguish the types of inclusions within the inclusions.
First, 70 images captured by an optical microscope containing inclusions whose inclusion types were previously identified were prepared and were classified using the trained model of the present invention.
The breakdown of the foreign matter in the 70 images was as follows: the foreign matter (inclusion) with the largest area was oxide: 33 images, sulfide: 19 images, and foreign matter other than inclusion: 18 images.
Results: When these images were discriminated using the trained model of the present invention, all of the inclusion types in the inclusion region were properly identified, and the inclusion types with the largest area were correctly determined to be oxides: 33 images, sulfides: 19 images, and foreign matter other than inclusions: 18 images. In other words, when the trained model was used, the inclusion types in the region with the largest inclusions were properly identified.
In this way, it was confirmed that by using the deep learning machine learning model of the present invention, it is possible to properly identify the type of inclusions among inclusions in an optical microscope image without the need for work by an expert.

(工程F:極値統計法の実施について)
評価鋼材から採取された複数の試験片について、上記の工程を経て得られる介在物の塗り分け画像(介在物種別毎の領域を識別した着色画像)を元に、各試験片における介在物の最大大きさとして√area(介在物の短径と長径の積の平方根)を算出する。
なお、以下の実施例では、介在物の大きさを算出するに際して、√areaを用いた例で説明している。もっとも、介在物の大きさは、√areaに代えて、介在物の長径(最大長)のみを用いて介在物の大きさを評価するといった介在物系を判別評価することであってもよい。
(Process F: Implementation of extreme value statistics)
For multiple test pieces taken from the steel material to be evaluated, the maximum size of the inclusion in each test piece is calculated as √area (the square root of the product of the minor axis and major axis of the inclusion) based on the color-coded images of the inclusions obtained through the above process (colored images in which the areas of each inclusion type are identified).
In the following examples, the area is used to calculate the size of the inclusions. However, the size of the inclusions may be evaluated by discriminating the inclusion system by using only the major axis (maximum length) of the inclusions instead of the area.

さて、得られた最大介在物の大きさデータをもとに極値統計法を用いた評価を行い、鋼材の任意の予測体積中に含まれうる最大介在物径√areamaxの予測を行う。 Based on the obtained data on the size of the largest inclusion, an evaluation is performed using extreme value statistics to predict the maximum inclusion diameter √area max that can be contained in any predicted volume of the steel material.

なお、介在物種を正しく判別できていなければ、図6(a)のように酸化物と硫化物が区別されないものとなるので、√areaの認定が不適切となる。図6(b)のように、酸化物の√areaを求める場合は、硫化物を除外したうえで、識別する必要がある。もっとも、図6のようなグレースケールの画像のみから人が判別することは容易ではない。本発明の手順で自動的に適切に介在物種を判別した画像を用いれば、√areaを適切に測定することができる。 If the inclusion type cannot be correctly identified, oxides and sulfides will not be distinguished as in Figure 6(a), and the determination of √area will be inappropriate. When determining the √area of oxides, as in Figure 6(b), it is necessary to exclude sulfides before identifying them. However, it is not easy for a person to distinguish between them from a grayscale image such as that in Figure 6. By using an image in which the inclusion type has been automatically and appropriately identified using the procedure of the present invention, the √area can be measured appropriately.

(工程F:具体例)
工程Eにて介在物系毎に塗り分けされた着色画像をもとに、√areaの測定を行い、極値統計法を実施した。
(Process F: Specific Example)
Based on the colored images colored for each inclusion type in step E, √area was measured and the extreme value statistics method was performed.

ここで、介在物系毎に塗り分けされた着色画像の√area測定はOpenCV等を使用したルールベースのAIを学習モデルに組み込むことによって行ってもよい。 Here, the √area measurement of the colored images colored for each inclusion type may be performed by incorporating rule-based AI using OpenCV or the like into the learning model.

介在物径の予測に用いる極値統計法について説明する。この場合の極値統計法とは、ある母集団から複数個の試験片(j=1,n)を採取し、個々の試験片の所定の観察範囲内に存在する最大介在物を光学顕微鏡で撮影したのちに、それらの各試験片の最大介在物の大きさを極値統計グラフ上に小さいものから順にプロットし、それらのプロットの近似直線に基づき、予測しようとする任意の面積中の最大介在物径(√areamax)を予測するものである。求めた√areamaxは、製品品質の検査に用いたり、評価鋼材同士の介在物清浄度の比較指標として用いたり、製鋼精錬方法の改良による清浄度向上の指標として利用したりすることができる。 The extreme value statistics method used to predict the inclusion diameter will be described. In this case, the extreme value statistics method involves taking a plurality of test pieces (j=1, n) from a certain population, photographing the largest inclusion present within a predetermined observation range of each test piece with an optical microscope, plotting the size of the largest inclusion in each test piece in ascending order of size on an extreme value statistics graph, and predicting the maximum inclusion diameter (√area max ) in any area to be predicted based on an approximation line of the plots. The obtained √area max can be used for product quality inspection, as a comparative index for the inclusion cleanliness of steels to be evaluated, or as an index for improving cleanliness by improving the steel refining method.

極値統計グラフにおいて縦軸に示される累積分布関数F(単位:%)の値はFj=j/(n+1)×100の式から求めることができる。ここでnは√areaを評価した試験片の総個数、jは√areaの小さいものから順に並べたときのj番目であることを示している。ただし、この場合に縦軸のプロット位置を決定するためには確率紙を用いる必要がある。そこで、Fに代わって、基準化変数yとしてyj=-ln[-ln{j/(n+1)}]の式から求めたyjの値を使って縦軸を表してもよい。
プロットの仕方としては、観察視野における最大介在物の大きさ√areaの小さいものから順に、横軸の値を√areaとして、縦軸の値をj番目に対応する基準化変数yjとして順次プロットを行うものとする。
次に、任意面積中に存在しうる最大介在物径(√areamax)を予測するために、予測を行いたい面積における累積分布関数Fと基準化変数yを再帰期間Tから求める。このときTは予測面積Sと個々の試験片の観察面積S0を用いてT=(S+S0)/S0の式で求められ、このTを用いて累積分布関数FをF=(T-1)/T×100の式から求めることができる。また、基準化変数yとしてy=-ln[-ln{(T-1)/T}]の式から求めたyの値を使って縦軸を表しても良い。また、S≫S0の場合には、y=lnT、T=S/S0が成り立ち、計算を容易化することができる。
The value of the cumulative distribution function F (unit: %) shown on the vertical axis in the extreme value statistics graph can be obtained from the formula F j = j/(n+1) × 100. Here, n indicates the total number of test pieces for which √area was evaluated, and j indicates the jth test piece when arranged in ascending order of √area. However, in this case, it is necessary to use a probability paper to determine the plot position on the vertical axis. Therefore, instead of F, the vertical axis may be represented by using the value of y j obtained from the formula y j = -ln [-ln {j/(n+1)}] as the standardized variable y.
The plotting method is to plot in ascending order of the maximum inclusion size √area in the observation field, with the horizontal axis value being √area and the vertical axis value being the normalized variable y j corresponding to the jth inclusion.
Next, in order to predict the maximum inclusion diameter (√area max ) that can be present in an arbitrary area, the cumulative distribution function F and normalized variable y in the area to be predicted are obtained from the recursion period T. In this case, T is obtained from the predicted area S and the observation area S 0 of each test piece by the formula T=(S+S 0 )/S 0 , and the cumulative distribution function F can be obtained from the formula F=(T-1)/T×100 using this T. Also, the vertical axis may be represented by the value of y obtained from the formula y=-ln[-ln{(T-1)/T}] as the normalized variable y. Furthermore, when S>>S 0 , y=lnT and T=S/S 0 hold, which makes it possible to simplify the calculation.

そこで、一例として30個の試験片について、所定の観察範囲内に存在する最大介在物を光学顕微鏡で観察した画像を取り込み、工程A~Dを経て生成した学習済みモデルを用いて、それぞれの画像の介在物種を判別し、塗り分けされた識別済の画像を得た後、得られた画像に基づいて測定された酸化物の介在物の最大介在物径√areaの各測定結果を用いて極値統計処理することで、任意面積中における最大介在物径√areamaxを求めた。 Thus, as an example, for 30 test pieces, images of the largest inclusions present within a predetermined observation range were captured using an optical microscope, and the trained model generated through steps A to D was used to identify the inclusion type in each image to obtain identified images with different colors. After that, the maximum inclusion diameter √area max in an arbitrary area was determined by performing extreme value statistical processing using each measurement result of the maximum inclusion diameter √area of the oxide inclusions measured based on the obtained images.

さらに、本発明のAIによる方法に基づいて得られた極値統計結果、および従来の通常手順で人(評価者)による手作業での判定に基づいて得られた極値統計結果に対し、正解データを基準として整理した図を図7に示す。今回の結果では、酸化物の一体化判定を伴う高度な判定において、人による従前の手作業による評価に比べてAIが正解データにより近い結果を導いていると評価でき、習熟者による場合と同等かそれ以上の判別を自動の判別システムを用いて判断することができることが確認された。 Furthermore, Figure 7 shows a diagram in which the extreme value statistical results obtained based on the AI method of the present invention and the extreme value statistical results obtained based on manual judgment by a person (evaluator) using conventional normal procedures are organized using the correct data as the standard. The results show that in advanced judgment involving oxide integration judgment, AI has led to results that are closer to the correct data than the previous manual judgment by a person, and it has been confirmed that an automatic judgment system can be used to make judgments that are equal to or better than those made by an experienced person.

本発明の手法によれば、自動で判別された介在物種毎に√areaを求めることができるので、これらの値を利用してさらに極値統計法による√areamaxを求めることができる。介在物種ごとの√areaを把握できるので、予測精度を向上させることができ、介在物種の判別を手作業に頼る場合のような作業者の習熟具合でのブレも生じないこととなる。 According to the method of the present invention, √area can be calculated for each automatically determined inclusion type, and these values can be used to further calculate √area max by the extreme value statistics method. Since √area for each inclusion type can be grasped, prediction accuracy can be improved and there is no variation due to the level of skill of the operator, as occurs when the inclusion type is determined manually.

介在物種毎の√areaおよびこれらに基づいて算出された√areamaxは、それぞれcsv形式ファイルなどのデータとして出力しておくことであってもよい。 The √area for each type of inclusion and the √area max calculated based on it may be output as data such as a CSV file.

以上のとおり、工程A~Eにおける本発明に係る方法により、生成された学習済みモデルを用いて、介在物の種類が未識別(未知)の光学顕微鏡画像から介在物の画像領域を介在物種別毎に精度良く識別し、自動的に塗り分け可能に領域を捕捉することができる。そして、これらの工程を複数の試験片について行い、さらに工程Fを組み合わせて極値統計評価を行うことで最大介在物径の予測結果を得ることができる。 As described above, the method according to the present invention in steps A to E uses the generated trained model to accurately identify image regions of inclusions by type from optical microscope images in which the type of inclusion is unidentified (unknown), and captures the regions so that they can be automatically colored. These steps are then performed on multiple test pieces, and by combining them with step F to perform extreme value statistical evaluation, a prediction result for the maximum inclusion diameter can be obtained.

本発明によると、こうした一連の手順を、AIを用いて極めて効率的に的確に実施することができるので、従来のような習熟者による手作業の判定をせずとも、学習済みの電子計算機に観察対象の鋼材から光学顕微鏡画像を取り込んで照会すれば、介在物種を判別でき、熟練者とほぼ同等の精度で速やかに判別結果を得ることができる。そして、複数の試験片について所望の介在物種についての最大介在物径√areaを求めれば、それらの値をもとに極値統計法を用いて、最大介在物径√areamaxの予測することができるので、極めて効率よく精度よい予測が可能となる。 According to the present invention, such a series of procedures can be carried out extremely efficiently and accurately using AI, so that the inclusion type can be identified by importing and referencing optical microscope images from the steel material to be observed into a trained electronic computer without the need for manual judgment by a skilled person as in the past, and identification results can be obtained quickly with almost the same accuracy as that of a skilled person. Then, if the maximum inclusion diameter √area for a desired inclusion type is obtained for a plurality of test pieces, the maximum inclusion diameter √area max can be predicted using extreme value statistics based on these values, making it possible to make an extremely efficient and accurate prediction.

Claims (10)

判別対象の非金属介在物を含む鋼材の光学顕微鏡画像データと、当該光学顕微鏡画像データに対応する判別対象の非金属介在物の画像領域を介在物種別毎に異なる色で塗り分けた着色画像データと、からなるデータ対を複数対備えた一群の学習データセットに基づいて得られた教師データを用いて、電子計算機に機械学習させることで学習済みモデルを生成し、
入力され、照会された鋼材の光学顕微鏡画像に関する特徴量を当該学習済みモデルに基づいて電子計算機によって抽出する工程と、
当該学習済みモデルに基づいて介在物の種類を判別する工程と、
判別結果に基づいて介在物系毎に塗り分けた着色済画像データを取得する工程と、
を順に含む、非金属介在物を含む画像に対して電子計算機が介在物系毎の画像領域を機械学習により自動で分割識別する介在物系の判別方法であって
該学習済みモデルの生成に用いる光学顕微鏡画像データは、グレースケール画像であって、
当該光学顕微鏡画像を3チャンネルのRGBカラー画像に変換した疑似カラー変換画像とした後、データ対の着色画像データとともに機械学習に供することで学習済みモデルを生成したものであることを特徴とする、非金属介在物を含む画像に対して電子計算機が介在物系毎の画像領域を機械学習により自動で分割識別する介在物系の判別方法。
generating a trained model by machine learning a computer using training data obtained based on a group of learning data sets including a plurality of data pairs each including optical microscope image data of a steel material including a non-metallic inclusion to be discriminated and colored image data in which an image region of the non-metallic inclusion to be discriminated corresponding to the optical microscope image data is colored in a different color for each type of inclusion;
A step of extracting feature quantities related to the input and referenced optical microscope image of the steel material by a computer based on the trained model;
A step of identifying the type of inclusion based on the trained model;
acquiring colored image data that is colored for each inclusion type based on the discrimination result;
A method for identifying inclusion types, in which an image including nonmetallic inclusions is automatically divided and identified by machine learning into image regions for each inclusion type by a computer.
The optical microscope image data used to generate the trained model is a grayscale image,
The optical microscope image is converted into a three-channel RGB color image to create a pseudo-color converted image, and then the pseudo-color converted image is subjected to machine learning together with the colored image data of the data pair to generate a trained model. This is a method for discriminating inclusion types in an image containing non-metallic inclusions, in which an electronic computer uses machine learning to automatically divide and identify image regions for each inclusion type.
判別対象の非金属介在物を含む鋼材の光学顕微鏡画像データと、当該光学顕微鏡画像データに対応する判別対象の非金属介在物の画像領域を介在物種別毎に異なる色で塗り分けた着色画像データと、からなるデータ対を複数対備えた一群の学習データセットに基づいて得られた教師データを用いて、電子計算機に機械学習させることで学習済みモデルを生成し、
入力され、照会された鋼材の光学顕微鏡画像に関する特徴量を当該学習済みモデルに基づいて電子計算機によって抽出する工程と、
当該学習済みモデルに基づいて介在物の種類を判別する工程と、
判別結果に基づいて介在物系毎に塗り分けた着色済画像データを取得する工程と、
を順に含む、非金属介在物を含む画像に対して電子計算機が介在物系毎の画像領域を機械学習により自動で分割識別する介在物系の判別方法であって
該学習済みモデルの生成に用いる教師データのデータ対に用いる介在物種別毎に異なる色で塗り分けた着色画像データは、色反転処理された画像に基づいて介在物種別毎に異なる色で塗り分けた着色画像データであることを特徴とする、非金属介在物を含む画像に対して電子計算機が介在物系毎の画像領域を機械学習により自動で分割識別する介在物系の判別方法。
generating a trained model by machine learning a computer using training data obtained based on a group of learning data sets including a plurality of data pairs each including optical microscope image data of a steel material including a non-metallic inclusion to be discriminated and colored image data in which an image region of the non-metallic inclusion to be discriminated corresponding to the optical microscope image data is colored in a different color for each type of inclusion;
A step of extracting feature quantities related to the input and referenced optical microscope image of the steel material by a computer based on the trained model;
A step of identifying the type of inclusion based on the trained model;
acquiring colored image data that is colored for each inclusion type based on the discrimination result;
A method for identifying inclusion types, in which an image including nonmetallic inclusions is automatically divided and identified by machine learning into image regions for each inclusion type by a computer.
A method for discriminating inclusion types in which a computer automatically divides and identifies image regions for each inclusion type using machine learning for an image containing non-metallic inclusions, characterized in that the colored image data in which each inclusion type is painted in a different color and used in the data pairs of training data used to generate the trained model is colored image data in which each inclusion type is painted in a different color based on an image that has been color-reversed.
教師データには、学習データセットのデータ対を元にしてデータ拡張により生成されたデータ対を含むこと、を特徴とする請求項1又は2に記載の介在物系の判別方法。 3. The method for discriminating inclusion systems according to claim 1 or 2 , wherein the teacher data includes data pairs generated by data expansion based on the data pairs of the learning data set. 教師データのデータ対に用いる介在物種別毎に異なる色で塗り分けた着色画像データは、色反転処理された画像に基づいて介在物種別毎に異なる色で塗り分けた着色画像データであることを特徴とする、請求項1に記載の介在物系の判別方法。 The method for determining an inclusion system according to claim 1, characterized in that the colored image data in which different colors are used for the data pairs of the training data and in which different colors are used for each inclusion type are colored image data in which different colors are used for each inclusion type based on an image that has been subjected to color inversion processing. 学習済みモデルは、全層畳み込みニューラルネットワークのU-Netを用いて機械学習させることで生成されるものであることを特徴とする請求項1又は2に記載の介在物系の判別方法。 The method for discriminating inclusion systems according to claim 1 or 2 , characterized in that the trained model is generated by machine learning using a U-Net full-layer convolutional neural network. 学習済みモデルは、損失関数に重み付き交差エントロピー誤差を使用して判別対象とする種類の介在物の重みが大きくなるように調整して機械学習させることで生成されるものであることを特徴とする請求項1又は2に記載の介在物系の判別方法。 The method for discriminating inclusion systems according to claim 1 or 2, characterized in that the trained model is generated by machine learning using a weighted cross-entropy error as a loss function, adjusting the weight of the type of inclusion to be discriminated so that it is large . 判別結果に基づいて介在物系毎に塗り分けた着色済画像に基づき、評価対象とする介在物系の長径と短径を計測して介在物の大きさを算出する工程を含むことを特徴とする請求項1又は2に記載の介在物系の判別方法。 3. The method for identifying inclusion types according to claim 1 or 2, further comprising a step of measuring the major axis and minor axis of the inclusion type to be evaluated based on a colored image which is colored differently for each inclusion type based on the identification result, and calculating the size of the inclusion. 判別結果に基づいて介在物系毎に塗り分けた着色済画像に基づき、評価対象とする介在物系の長径と短径を計測して介在物の大きさを算出し、観察面積の鋼材中の最大介在物を選別して最大介在物の大きさ√areaを出力する工程を含むことを特徴とする、請求項1又は2に記載の介在物系の判別方法。 3. The method for discriminating inclusion types according to claim 1 or 2, characterized in comprising a step of measuring the major axis and minor axis of the inclusion type to be evaluated based on a colored image which is colored according to the discrimination result, calculating the size of the inclusion, selecting the largest inclusion in the steel material within the observed area, and outputting the size √area of the largest inclusion . 所定の観察面積を有する複数の試験片の各々に対して最大介在物の大きさ√areaの算出を行い、得られた複数の最大介在物の大きさデータに基づいて極値統計法を利用して評価鋼材の所定の予測面積における介在物予測径(√areamax)を算出する工程を含むこと、を特徴とする請求項8に記載の介在物系の判別方法。 9. The method for discriminating inclusion types according to claim 8, further comprising the steps of: calculating the maximum inclusion size √area for each of a plurality of test pieces having a predetermined observation area; and calculating a predicted inclusion diameter (√area max ) in a predetermined predicted area of the evaluation steel material using extreme value statistics based on the obtained data on the sizes of the plurality of maximum inclusions. 請求項1、2、4のいずれか1項に記載の介在物系の判別方法を備えた介在物判別システム。 An inclusion discrimination system comprising the inclusion discrimination method according to any one of claims 1 to 4.
JP2023128161A 2022-09-29 2023-08-04 Automatic region identification method for non-metallic inclusions and inclusion discrimination system incorporating the method Active JP7473765B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022157152 2022-09-29
JP2022157152 2022-09-29

Publications (2)

Publication Number Publication Date
JP2024050421A JP2024050421A (en) 2024-04-10
JP7473765B2 true JP7473765B2 (en) 2024-04-24

Family

ID=90622039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023128161A Active JP7473765B2 (en) 2022-09-29 2023-08-04 Automatic region identification method for non-metallic inclusions and inclusion discrimination system incorporating the method

Country Status (1)

Country Link
JP (1) JP7473765B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014005520A (en) 2012-06-27 2014-01-16 Nippon Steel & Sumitomo Metal Method of manufacturing carburizing bearing steel material
JP2015138018A (en) 2014-01-24 2015-07-30 日本精工株式会社 Use limit stress estimation method of component for roll support device and power transmission device, and fatigue life estimation method for component
JP2020140466A (en) 2019-02-28 2020-09-03 富士通株式会社 Training data expansion apparatus, method, and program
JP2021092887A (en) 2019-12-09 2021-06-17 コニカミノルタ株式会社 Visual inspection device, visual inspection system, feature quantity estimation device, and visual inspection program
JP7036485B1 (en) 2021-10-18 2022-03-15 株式会社Anamorphosis Networks Defect detection method, defect detection system, and defect detection program
JP2022524878A (en) 2019-03-28 2022-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Image analysis method, device, program
CN114694144A (en) 2022-06-01 2022-07-01 南京航空航天大学 Intelligent identification and rating method for non-metallic inclusions in steel based on deep learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014005520A (en) 2012-06-27 2014-01-16 Nippon Steel & Sumitomo Metal Method of manufacturing carburizing bearing steel material
JP2015138018A (en) 2014-01-24 2015-07-30 日本精工株式会社 Use limit stress estimation method of component for roll support device and power transmission device, and fatigue life estimation method for component
JP2020140466A (en) 2019-02-28 2020-09-03 富士通株式会社 Training data expansion apparatus, method, and program
JP2022524878A (en) 2019-03-28 2022-05-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Image analysis method, device, program
JP2021092887A (en) 2019-12-09 2021-06-17 コニカミノルタ株式会社 Visual inspection device, visual inspection system, feature quantity estimation device, and visual inspection program
JP7036485B1 (en) 2021-10-18 2022-03-15 株式会社Anamorphosis Networks Defect detection method, defect detection system, and defect detection program
CN114694144A (en) 2022-06-01 2022-07-01 南京航空航天大学 Intelligent identification and rating method for non-metallic inclusions in steel based on deep learning

Also Published As

Publication number Publication date
JP2024050421A (en) 2024-04-10

Similar Documents

Publication Publication Date Title
US11842556B2 (en) Image analysis method, apparatus, program, and learned deep learning algorithm
CN114549522B (en) Textile quality detection method based on target detection
CN113450307B (en) Product edge defect detection method
CN109903284B (en) HER2 immunohistochemical image automatic discrimination method and system
CN107665492B (en) Colorectal panoramic digital pathological image tissue segmentation method based on depth network
CN104933709B (en) Random walk CT lung tissue image automatic segmentation methods based on prior information
CN112733950A (en) Power equipment fault diagnosis method based on combination of image fusion and target detection
KR20080016847A (en) Methods of chromogen separation-based image analysis
EP3140778B1 (en) Method and apparatus for image scoring and analysis
CN110796661B (en) Fungal microscopic image segmentation detection method and system based on convolutional neural network
CN111242185A (en) Defect rapid preliminary screening method and system based on deep learning
CN115578374A (en) Mechanical part casting quality evaluation method and system
CN111079620A (en) Leukocyte image detection and identification model construction method based on transfer learning and application
CN113706434B (en) Post-processing method for chest enhancement CT image based on deep learning
CN112396619A (en) Small particle segmentation method based on semantic segmentation and internally complex composition
CN115038965A (en) Method for classifying phase of metallographic structure, apparatus for classifying phase of metallographic structure, method for learning phase of metallographic structure, apparatus for learning phase of metallographic structure, method for predicting material characteristics of metal material, and apparatus for predicting material characteristics of metal material
CN116012291A (en) Industrial part image defect detection method and system, electronic equipment and storage medium
CN113450305A (en) Medical image processing method, system, equipment and readable storage medium
JP7473765B2 (en) Automatic region identification method for non-metallic inclusions and inclusion discrimination system incorporating the method
CN106127738B (en) agglutination test interpretation method
US20230154158A1 (en) Method and system for enhancing online reflected light ferrograph image
JP2001305067A (en) Method of evaluating service life of material
CN113920087A (en) Micro component defect detection system and method based on deep learning
CN113177499A (en) Tongue crack shape identification method and system based on computer vision
CN117474915B (en) Abnormality detection method, electronic equipment and storage medium

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20230822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230825

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230825

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240318