JP2016191556A - Image processing method, method of evaluating life of object, and image processing system - Google Patents

Image processing method, method of evaluating life of object, and image processing system Download PDF

Info

Publication number
JP2016191556A
JP2016191556A JP2015070190A JP2015070190A JP2016191556A JP 2016191556 A JP2016191556 A JP 2016191556A JP 2015070190 A JP2015070190 A JP 2015070190A JP 2015070190 A JP2015070190 A JP 2015070190A JP 2016191556 A JP2016191556 A JP 2016191556A
Authority
JP
Japan
Prior art keywords
image
gradation
precipitate
noise
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015070190A
Other languages
Japanese (ja)
Other versions
JP5864005B1 (en
Inventor
政司 尾崎
Masashi Ozaki
政司 尾崎
和彦 坂上
Kazuhiko Sakagami
和彦 坂上
宣哉 吉本
Nobuya Yoshimoto
宣哉 吉本
青木 清隆
Kiyotaka Aoki
清隆 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Power Ltd
Original Assignee
Mitsubishi Hitachi Power Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Hitachi Power Systems Ltd filed Critical Mitsubishi Hitachi Power Systems Ltd
Priority to JP2015070190A priority Critical patent/JP5864005B1/en
Application granted granted Critical
Publication of JP5864005B1 publication Critical patent/JP5864005B1/en
Publication of JP2016191556A publication Critical patent/JP2016191556A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress a reduction in detection accuracy while reducing a time required for detection of a deposit.SOLUTION: The present image processing method is an image processing method of extracting a deposit included in an image of a tissue of a material of an object, ferrite heat-resistant steel. The method includes: an imaging step of photographing the tissue of a material of the object with an electron microscope to create a photographed image; a noise removal step of removing a noise component from the photographed image to create a noise-removed image; a binarization step of performing binarization processing, which is processing of converting an image with a plurality of gradations into an image with two gradations, on the noise-removed image to create a binarized image; and a deposit image extraction step of determining, from an area including one of the gradations of the binarized image, an area in a predetermined shape as an image of a deposit, and removing an area in a shape other than the predetermined shape to extract the image of the deposit.SELECTED DRAWING: Figure 4

Description

本発明は、対象物であるフェライト系耐熱鋼の寿命評価を行うための材料組織の画像から析出物を抽出する画像処理方法及び、対象物の寿命評価方法及び画像処理システムに関する。   The present invention relates to an image processing method for extracting precipitates from an image of a material structure for performing life evaluation of a ferritic heat resistant steel as an object, an object life evaluation method, and an image processing system.

例えばボイラなどに使用されるフェライト系耐熱鋼は、高温下で長時間使用されるため、その寿命評価を行うことが必要とされている。フェライト系耐熱鋼の寿命評価には、クリープ寿命に関する評価がある。クリープ寿命は、フェライト系耐熱鋼に含まれる析出物同士の間隔に影響されることが分かっている。従って、クリープ寿命の評価には、フェライト系耐熱鋼の金属組織を観察して、析出物同士の間隔を計測する方法が採られる場合がある。フェライト系耐熱鋼の金属組織の表面には、析出物に加え、金属組織の凹凸面や表面の傷なども観察されるため、金属組織の表面から析出物を同定することは困難な場合がある。従って、析出物同士の間隔を計測する際には、一般的に、専門家が金属組織を観察して、析出物を検出していた。   For example, ferritic heat-resistant steel used for boilers and the like is used for a long time at a high temperature, and therefore it is necessary to evaluate its life. Life evaluation of ferritic heat resistant steel includes evaluation related to creep life. It has been found that the creep life is affected by the spacing between precipitates contained in the ferritic heat resistant steel. Accordingly, the creep life may be evaluated by observing the metal structure of the ferritic heat resistant steel and measuring the distance between the precipitates. In addition to precipitates, irregularities and scratches on the surface of the metal structure are also observed on the surface of the metal structure of ferritic heat-resistant steel, so it may be difficult to identify the precipitate from the surface of the metal structure. . Therefore, when measuring the distance between the precipitates, an expert generally observes the metal structure and detects the precipitate.

フェライト系耐熱鋼の金属組織の観察には、例えば特許文献1に示すように、対象物の金属組織をレプリカに転写して、そのレプリカを電子顕微鏡で観察する手法が取られる場合がある。また、特許文献2には、金属組織を撮像した画像を処理して寿命評価を行う旨の技術が記載されている。   In order to observe the metal structure of the ferritic heat resistant steel, for example, as shown in Patent Document 1, there is a case in which the metal structure of an object is transferred to a replica and the replica is observed with an electron microscope. Japanese Patent Application Laid-Open No. H10-228561 describes a technique for performing life evaluation by processing an image obtained by imaging a metal structure.

特許第3015599号公報Japanese Patent No. 3015599 特許第4153675号公報Japanese Patent No. 4153675

しかし、析出物の検出を専門家が行う場合、人手による解析であるため、検出に時間を有するおそれがある。また、専門家以外の作業者が検出を行う場合、例えば析出物と金属組織の凹凸面とを混同し、正確に析出物を検出できないおそれもある。例えば特許文献1では、レプリカによる金属組織の写真を生成するものであるが、析出物の検出についての工夫について記載されていない。また、特許文献2では、画像処理により材料の寿命評価を短時間で行うシステムについて記載されているが、析出物の検出精度については改善の余地がある。   However, when an expert performs the detection of the precipitate, since it is a manual analysis, there is a possibility that the detection may take time. In addition, when an operator other than an expert performs detection, for example, the precipitate may be confused with the uneven surface of the metal structure, and the precipitate may not be detected accurately. For example, Patent Document 1 generates a photograph of a metal structure by a replica, but does not describe a device for detecting precipitates. Further, Patent Document 2 describes a system that performs material life evaluation in a short time by image processing, but there is room for improvement in the detection accuracy of precipitates.

上記課題を解決するため、本発明は、析出物の検出に要する時間を削減しつつ、検出精度の低下を抑制する画像処理方法、対象物の寿命評価方法及び画像処理システムを提供することを目的とする。   In order to solve the above-described problems, the present invention aims to provide an image processing method, a life evaluation method for an object, and an image processing system that suppress a decrease in detection accuracy while reducing the time required to detect precipitates. And

上述した課題を解決し、目的を達成するために、本発明の画像処理方法は、対象物であるフェライト系耐熱鋼の材料組織の画像に含まれる析出物を抽出する画像処理方法であって、前記対象物の材料組織を電子顕微鏡で撮像して撮像画像を生成する撮像ステップと、前記撮像画像からノイズ成分を除去してノイズ除去画像を生成するノイズ除去ステップと、前記ノイズ除去画像に対して、複数階調を有する画像を2階調に変換する処理である2値化処理を行って、2値化画像を生成する2値化ステップと、前記2値化画像の一方の階調を有する領域のうち、所定の形状の領域を前記析出物の画像であると判断し、前記所定の形状以外の領域を除去することにより、前記析出物の画像を抽出する、析出物画像抽出ステップと、を有する。   In order to solve the above-described problems and achieve the object, the image processing method of the present invention is an image processing method for extracting precipitates contained in an image of a material structure of a ferritic heat-resistant steel as an object, An imaging step of capturing the material structure of the object with an electron microscope to generate a captured image, a noise removing step of generating a noise-removed image by removing a noise component from the captured image, and the noise-removed image A binarization step of generating a binarized image by performing binarization processing that is a process of converting an image having a plurality of gradations into two gradations, and having one gradation of the binarized image Of the regions, a region having a predetermined shape is determined to be an image of the precipitate, and a region other than the predetermined shape is removed to extract the image of the precipitate. Have

この画像処理方法は、析出物でないと判断された領域の画像を除去して、析出物の画像を抽出する。また、この画像処理方法は、予め定められたアルゴリズムに従って、析出物の画像を抽出する。従って、この画像処理方法は、析出物の検出精度の低下を抑制しつつ、検出速度を向上させることができる。   In this image processing method, an image of an area determined not to be a precipitate is removed, and an image of the precipitate is extracted. Further, this image processing method extracts an image of a precipitate according to a predetermined algorithm. Therefore, this image processing method can improve the detection speed while suppressing a decrease in the detection accuracy of precipitates.

前記画像処理方法において、前記ノイズ除去ステップは、前記撮像画像から、周囲の画素の階調に対して階調が特異である特異点を除去して特異点除去画像を生成する特異点除去ステップと、前記特異点除去画像から画素間の階調変化が大きい領域を抽出して、前記ノイズ除去画像を生成する階調変化抽出ステップと、を有することが好ましい。この画像処理方法は、撮像画像から適切にノイズを除去できるため、析出物の検出精度の低下をより好適に抑制することができる。   In the image processing method, the noise removal step includes a singular point removal step of generating a singular point removal image by removing a singular point whose gradation is singular with respect to the gradation of surrounding pixels from the captured image. It is preferable that the method further includes a gradation change extraction step of extracting a region having a large gradation change between pixels from the singular point removed image and generating the noise-removed image. Since this image processing method can appropriately remove noise from the captured image, it is possible to more suitably suppress a decrease in the detection accuracy of precipitates.

前記画像処理方法において、前記ノイズ除去ステップは、前記特異点除去ステップにおいて、中央値フィルタ処理又は平均値フィルタ処理を行い、前記階調変化抽出ステップにおいて、前記特異点除去画像に対して最大値フィルタ処理を行い、その後最小値フィルタ処理を行うことにより、低周波画像を生成し、前記特異点除去画像から前記低周波画像の画像成分を除去することで、前記ノイズ除去画像を生成することが好ましい。この画像処理方法は、撮像画像から適切にノイズを除去できるため、析出物の検出精度の低下をより好適に抑制することができる。   In the image processing method, the noise removing step performs a median value filtering process or an average value filtering process in the singular point removing step, and a maximum value filter is applied to the singular point removed image in the gradation change extracting step. It is preferable to generate a low-frequency image by performing processing, and then performing minimum value filtering, and generate the noise-removed image by removing image components of the low-frequency image from the singular point-removed image. . Since this image processing method can appropriately remove noise from the captured image, it is possible to more suitably suppress a decrease in the detection accuracy of precipitates.

前記画像処理方法において、前記ノイズ除去ステップは、前記階調変化抽出ステップの前に、前記特異点除去画像の外周に沿って、階調値がゼロであるゼロ画像を付加することが好ましい。この画像処理方法は、ゼロ画像を付加することにより、最大値フィルタ処理及び最小値フィルタ処理を行っても、画像サイズが小さくなることを抑制することができる。   In the image processing method, it is preferable that the noise removal step adds a zero image having a gradation value of zero along the outer periphery of the singular point removal image before the gradation change extraction step. In this image processing method, by adding a zero image, it is possible to suppress the image size from being reduced even when the maximum value filter processing and the minimum value filter processing are performed.

前記画像処理方法において、前記2値化ステップは、前記ノイズ除去画像中の画素を高階調画素と低階調画素とに区分した場合に、前記高階調画素数の割合が所定の比率以上となる階調を閾値とし、前記閾値以上の階調を有する画素を前記2階調のうち1つの階調とし、前記閾値より小さい階調を有する画素を前記2階調のうち他の1つの階調とするPタイル処理を行うことが好ましい。この画像処理方法は、例えば画像の種類が変わっても、析出物の検出精度の低下を好適に抑制することができる。   In the image processing method, in the binarization step, when the pixels in the noise-removed image are divided into high gradation pixels and low gradation pixels, the ratio of the number of high gradation pixels is equal to or higher than a predetermined ratio. A pixel having a gray level as a threshold, a pixel having a gray level equal to or higher than the threshold value as one gray level, and a pixel having a gray level smaller than the threshold value as another gray level P tile processing is preferably performed. With this image processing method, for example, even if the type of image changes, it is possible to suitably suppress a decrease in the detection accuracy of precipitates.

前記画像処理方法において、前記2値化ステップは、さらに、前記Pタイル処理を行った前記ノイズ除去画像に対して最大値フィルタ処理を行い、その後最小値フィルタ処理を行うことが好ましい。この画像処理方法は、2値化処理後の画像中のノイズを除去することができるため、析出物の検出精度の低下を好適に抑制することができる。   In the image processing method, it is preferable that the binarization step further performs a maximum value filter process on the noise-removed image subjected to the P tile process, and then performs a minimum value filter process. Since this image processing method can remove noise in the image after the binarization processing, it is possible to suitably suppress a decrease in the detection accuracy of precipitates.

前記画像処理方法において、前記析出物画像抽出ステップは、前記2値化画像の一方の階調の領域のうち、所定長より長さが短く、又は、所定面積より面積が小さく、又は、所定の円形度よりも円形度が小さい領域を、前記所定の形状以外の画像であるとして除去することが好ましい。この画像処理方法は、析出物の検出精度の低下を好適に抑制することができる。   In the image processing method, the precipitate image extraction step includes a length shorter than a predetermined length, or an area smaller than a predetermined area, or a predetermined area of one gradation region of the binarized image. It is preferable to remove an area having a circularity smaller than the circularity as an image other than the predetermined shape. This image processing method can suitably suppress a decrease in detection accuracy of precipitates.

前記画像処理方法において、前記析出物画像抽出ステップは、さらに、前記2値化画像の一方の階調の領域のうち、前記所定面積より面積が大きい充填面積よりも面積が小さく、かつ、領域の外接矩形の面積に対する自身の面積の割合を示す充填率が、所定値よりも小さい領域を、前記所定の形状以外の画像であるとして除去することが好ましい。この画像処理方法は、析出物の検出精度の低下を好適に抑制することができる。   In the image processing method, the precipitate image extraction step further includes, in one of the gradation regions of the binarized image, an area smaller than a filling area having an area larger than the predetermined area, and It is preferable to remove an area having a filling rate indicating a ratio of its own area to the area of the circumscribed rectangle smaller than a predetermined value as an image other than the predetermined shape. This image processing method can suitably suppress a decrease in detection accuracy of precipitates.

前記画像処理方法において、前記撮像ステップは、前記対象物の材料組織を転写したレプリカを前記電子顕微鏡で撮像した前記撮像画像を取得することが好ましい。この画像処理方法によると、対象物の寿命評価を非破壊で行うことができる。   In the image processing method, it is preferable that the imaging step obtains the captured image obtained by imaging the replica obtained by transferring the material structure of the object with the electron microscope. According to this image processing method, the life of the object can be evaluated nondestructively.

前記画像処理方法は、さらに、前記析出物の画像同士の距離を算出する析出物間距離算出ステップを有することが好ましい。この画像処理方法によると、析出物間の距離を算出するため、寿命評価を適切に行うことができる。   It is preferable that the image processing method further includes an inter-precipitate distance calculation step of calculating a distance between the images of the precipitates. According to this image processing method, since the distance between the precipitates is calculated, the life evaluation can be appropriately performed.

上述した課題を解決し、目的を達成するために、本発明の対象物の寿命評価方法は、前記画像処理方法により抽出した前記析出物に基づき、前記対象物の寿命評価を行う。この対象物の寿命評価方法によると、抽出した析出物の画像を用いるため、寿命評価を適切に行うことができる。   In order to solve the above-described problems and achieve the object, the object life evaluation method of the present invention performs life evaluation of the object based on the precipitate extracted by the image processing method. According to this method for evaluating the lifetime of an object, since an image of the extracted precipitate is used, the lifetime evaluation can be appropriately performed.

上述した課題を解決し、目的を達成するために、本発明の画像処理システムは、対象物であるフェライト系耐熱鋼の材料組織の画像に含まれる析出物を抽出する画像処理システムであって、前記対象物の材料組織の撮像画像を取得する撮像画像取得部と、前記撮像画像からノイズ成分を除去してノイズ除去画像を生成するノイズ除去部と、前記ノイズ除去画像に対して、複数階調を有する画像を2階調に変換する処理である2値化処理を行って、2値化画像を生成する2値化処理部と、前記2値化画像の一方の階調の画像のうち、所定の形状である領域を前記析出物の画像であると判断して、前記所定の形状以外の領域を除去することにより、前記析出物の画像を抽出する析出物画像抽出部と、を有する。この画像処理システムによると、析出物の検出精度の低下を抑制しつつ、検出速度を向上させることができる。   In order to solve the above-described problems and achieve the object, the image processing system of the present invention is an image processing system for extracting precipitates contained in an image of a material structure of a ferritic heat-resistant steel as an object, A captured image acquisition unit that acquires a captured image of a material tissue of the object, a noise removal unit that generates a noise-removed image by removing a noise component from the captured image, and a plurality of gradations with respect to the noise-removed image A binarization processing unit that generates a binarized image by performing a binarization process that is a process of converting an image having two gradations, and among the images of one gradation of the binarized image, And determining a region having a predetermined shape as an image of the precipitate, and removing a region other than the predetermined shape to extract the image of the precipitate. According to this image processing system, it is possible to improve the detection speed while suppressing a decrease in the detection accuracy of precipitates.

本発明によれば、析出物の検出に要する時間を削減しつつ、検出精度の低下を抑制することができる。   ADVANTAGE OF THE INVENTION According to this invention, the fall of detection accuracy can be suppressed, reducing the time which detection of a deposit requires.

図1は、対象物の使用前の金属組織の一例を示す図である。FIG. 1 is a diagram illustrating an example of a metal structure before use of an object. 図2は、対象物の使用後の金属組織の一例を示す図である。FIG. 2 is a diagram illustrating an example of a metal structure after the object is used. 図3は、本実施形態に係る寿命評価装置の構成を示す模式図である。FIG. 3 is a schematic diagram showing the configuration of the life evaluation apparatus according to the present embodiment. 図4は、制御部の構成を模式的に示すブロック図である。FIG. 4 is a block diagram schematically showing the configuration of the control unit. 図5は、画像へのフィルタ処理を説明するための説明図である。FIG. 5 is an explanatory diagram for describing filter processing on an image. 図6は、画像へのフィルタ処理を説明するための説明図である。FIG. 6 is an explanatory diagram for explaining the filtering process on an image. 図7は、ゼロ画像を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining a zero image. 図8は、Pタイル処理を説明するための一例を示すグラフである。FIG. 8 is a graph illustrating an example for explaining the P tile processing. 図9は、Pタイル処理を説明するための一例を示すグラフである。FIG. 9 is a graph illustrating an example for explaining the P tile processing. 図10は、析出物候補領域を説明するための説明図である。FIG. 10 is an explanatory diagram for explaining a precipitate candidate region. 図11は、析出物領域を説明するための説明図である。FIG. 11 is an explanatory diagram for explaining the precipitate region. 図12は、充填率を説明するための図である。FIG. 12 is a diagram for explaining the filling rate. 図13は、本実施形態に係る画像処理を説明するフローチャートである。FIG. 13 is a flowchart for describing image processing according to the present embodiment. 図14は、ノイズ除去処理を説明するフローチャートである。FIG. 14 is a flowchart illustrating the noise removal process. 図15は、2値化処理を説明するフローチャートである。FIG. 15 is a flowchart for explaining binarization processing. 図16は、析出物画像抽出処理を説明するフローチャートである。FIG. 16 is a flowchart for explaining the precipitate image extraction process. 図17は、撮像画像の一例を示す図である。FIG. 17 is a diagram illustrating an example of a captured image. 図18は、対象物評価用画像の一例を示す図である。FIG. 18 is a diagram illustrating an example of an object evaluation image. 図19は、比較例に係る評価画像の一例を示す図である。FIG. 19 is a diagram illustrating an example of an evaluation image according to a comparative example. 図20は、本実施形態に係る画像処理システムを作動させた場合の画面遷移を説明した説明図である。FIG. 20 is an explanatory diagram illustrating screen transitions when the image processing system according to the present embodiment is operated. 図21は、メイン画面の一例を示す図である。FIG. 21 is a diagram illustrating an example of a main screen. 図22は、パラメータ設定ダイアログの一例を示す図である。FIG. 22 is a diagram illustrating an example of a parameter setting dialog. 図23は、ミクロンバー計測ダイアログの一例を示す図である。FIG. 23 is a diagram illustrating an example of a micron bar measurement dialog. 図24は、連続実行結果ダイアログの一例を示す図である。FIG. 24 is a diagram illustrating an example of a continuous execution result dialog.

以下に添付図面を参照して、本発明の好適な実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施例を組み合わせて構成するものも含むものである。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment, Moreover, when there are two or more embodiments, what comprises a combination of each Example is also included.

図1は、対象物の使用前の金属組織の一例を示す図である。図2は、対象物の使用後の金属組織の一例を示す図である。フェライト系耐熱鋼は、添加物を含んだ鋼の一種であり、金属組織中で、添加物が析出物として点在している。例えば図1に示すように、フェライト系耐熱鋼の金属組織は、フェライト系耐熱鋼の鋼(フェライト)成分の領域である鋼領域S中に、複数の析出物Dが点在している。フェライト系耐熱鋼は、高温での長時間使用に伴い、析出物が凝集粗大化し、析出物間同士の間隔が広くなることが分かっている。フェライト系耐熱鋼は、例えば図2に示すように、高温での長時間使用した場合、図1の析出物Dが凝集し、析出物Dを形成する。析出物D間の距離は、析出物D間の距離より長くなっている。ここで、析出物間の距離は、クリープ寿命に影響することが分かっており、析出物間の距離が長くなると、クリープ寿命は低下する。従って、フェライト系耐熱鋼の寿命評価においては、析出物間の距離を検出することが重要となる。本実施形態に係る寿命評価システムは、フェライト系耐熱鋼を対象物1として、対象物1の寿命評価を行うものである。なお、対象物1であるフェライト系耐熱鋼は、添加物(析出物)としてクロムを含むものであるが、これに限られず、所定の添加物を含むフェライト鋼であれば、その成分は任意である。 FIG. 1 is a diagram illustrating an example of a metal structure before use of an object. FIG. 2 is a diagram illustrating an example of a metal structure after the object is used. Ferritic heat resistant steel is a kind of steel containing additives, and the additives are scattered as precipitates in the metal structure. For example, as shown in FIG. 1, the metal structure of the heat resistant ferritic steel, in steel region S is an area of the steel (ferrite) components of ferritic heat-resistant steel, a plurality of deposit D 1 are scattered. It has been found that the ferritic heat-resisting steel has a precipitate aggregated and coarsened with use at a high temperature for a long time, and the interval between the precipitates becomes wide. For example, as shown in FIG. 2, when the ferritic heat resistant steel is used for a long time at a high temperature, the precipitate D 1 in FIG. 1 aggregates to form a precipitate D 2 . The distance between the deposit D 2 is longer than the distance between the deposit D 1. Here, it is known that the distance between the precipitates affects the creep life, and the creep life decreases as the distance between the precipitates increases. Therefore, it is important to detect the distance between precipitates in the life evaluation of ferritic heat resistant steel. The life evaluation system according to the present embodiment performs life evaluation of the object 1 using the ferritic heat resistant steel as the object 1. In addition, although the ferritic heat-resistant steel which is the target object 1 contains chromium as an additive (precipitate), it is not limited thereto, and any component can be used as long as it is a ferritic steel containing a predetermined additive.

図3は、本実施形態に係る寿命評価装置の構成を示す模式図である。図3に示すように、寿命評価装置10は、制御部20と、ディスプレイ22と、入力部24と、記憶部26とを有する。寿命評価装置10は、コンピュータである。制御部20は、演算を行うものであり、例えばCPU(Central Processing Unit)及びメモリである。ディスプレイ22は、制御部20の制御により所定の画像を表示するディスプレイである。入力部24は、例えばキーボード及びマウスによって構成されており、操作者が各種情報を入力するものである。操作者が入力する情報としては、制御部20が行う処理に関するパラメータの設定値、及び処理の実行指示等が含まれる。記憶部26は、例えばRAM(Random Access Memory)又はROM(Read Only Memory)等の記憶装置である。記憶部26は、対象物1の材料組織の画像や、制御部20が行う処理に関するパラメータの設定値等を記憶する。また、寿命評価装置10は、電子顕微鏡170からのデータを取得し、記憶部26に保存させることができる。   FIG. 3 is a schematic diagram showing the configuration of the life evaluation apparatus according to the present embodiment. As shown in FIG. 3, the life evaluation apparatus 10 includes a control unit 20, a display 22, an input unit 24, and a storage unit 26. The life evaluation apparatus 10 is a computer. The control unit 20 performs computation, and is, for example, a CPU (Central Processing Unit) and a memory. The display 22 is a display that displays a predetermined image under the control of the control unit 20. The input unit 24 includes, for example, a keyboard and a mouse, and is used by an operator to input various information. Information input by the operator includes setting values of parameters related to processing performed by the control unit 20 and instructions for executing the processing. The storage unit 26 is a storage device such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The storage unit 26 stores an image of the material structure of the object 1, parameter setting values related to processing performed by the control unit 20, and the like. In addition, the life evaluation apparatus 10 can acquire data from the electron microscope 170 and store it in the storage unit 26.

電子顕微鏡170は、走査型電子顕微鏡である。対象物1の寿命評価を行う場合、作業者が、対象物1の材料組織を転写したレプリカ2を作成し、レプリカ2を電子顕微鏡170で撮像し、撮像画像100を作成する。具体的には、作業者は、対象物1の観察部位を研磨し、研磨面を化学腐食又は電解腐食法などで腐食させる。そして、作業者は、その腐食面にレプリカ2を塗布して、レプリカ2に腐食面における金属組織(の凹凸)を転写する。作業者は、金属組織が転写されたレプリカ2を電子顕微鏡170で観察し、レプリカ2に転写された対象物1の金属組織を撮像した撮像画像100を作成する。電子顕微鏡170により撮像された撮像画像100は、寿命評価装置10の記憶部26に保存される。なお、本実施形態では、寿命評価装置10が電子顕微鏡170と電気的に接続されており、電子顕微鏡170から撮像画像100が直接入力されるものであるが、これに限られず、寿命評価装置10は電子顕微鏡170と電気的に接続されていなくてもよい。この場合、電子顕微鏡170からの撮像画像100は、例えば外部記憶装置を介して寿命評価装置10の記憶部26に記憶される。   The electron microscope 170 is a scanning electron microscope. When evaluating the life of the object 1, an operator creates a replica 2 to which the material structure of the object 1 is transferred, images the replica 2 with an electron microscope 170, and creates a captured image 100. Specifically, the operator polishes the observation site of the object 1 and corrodes the polished surface by chemical corrosion or electrolytic corrosion. Then, the operator applies the replica 2 to the corroded surface, and transfers the metal structure (irregularities) on the corroded surface to the replica 2. The operator observes the replica 2 to which the metal structure has been transferred with the electron microscope 170 and creates a captured image 100 in which the metal structure of the object 1 transferred to the replica 2 is imaged. The captured image 100 captured by the electron microscope 170 is stored in the storage unit 26 of the lifetime evaluation apparatus 10. In the present embodiment, the life evaluation apparatus 10 is electrically connected to the electron microscope 170, and the captured image 100 is directly input from the electron microscope 170. However, the present invention is not limited to this, and the life evaluation apparatus 10 May not be electrically connected to the electron microscope 170. In this case, the captured image 100 from the electron microscope 170 is stored in the storage unit 26 of the life evaluation apparatus 10 via, for example, an external storage device.

次に、制御部20について詳細に説明する。制御部20は、対象物1の材料組織の画像に含まれる析出物を抽出する画像処理を行う。より具体的には、制御部20は、画像処理により対象物評価用画像を生成し、対象物評価用画像に基づき、対象物1の寿命評価を行う。図4は、制御部の構成を模式的に示すブロック図である。図4に示すように、制御部20は、撮像画像取得部32と、パラメータ取得部33と、ノイズ除去部34と、2値化処理部36と、析出物画像抽出部37と、析出物間距離算出部38とを有する。制御部20の以上の各部は、互いに共通するソフトウェアであるが、これに限られず、例えば互いに独立したソフトウェアであってもよい。なお、撮像画像取得部32と、パラメータ取得部33と、ノイズ除去部34と、2値化処理部36と、析出物画像抽出部37と、析出物間距離算出部38とが、対象物の材料組織に含まれる析出物を抽出する画像処理システムに含まれる。また、この画像処理システムと寿命評価部39とが、対象物の寿命評価システムに含まれる。   Next, the control unit 20 will be described in detail. The control unit 20 performs image processing for extracting precipitates included in the material structure image of the object 1. More specifically, the control unit 20 generates an object evaluation image by image processing, and performs a life evaluation of the object 1 based on the object evaluation image. FIG. 4 is a block diagram schematically showing the configuration of the control unit. As shown in FIG. 4, the control unit 20 includes a captured image acquisition unit 32, a parameter acquisition unit 33, a noise removal unit 34, a binarization processing unit 36, a precipitate image extraction unit 37, and an inter-precipitate space. A distance calculation unit 38. The above units of the control unit 20 are software common to each other, but are not limited thereto, and may be software independent of each other, for example. The captured image acquisition unit 32, the parameter acquisition unit 33, the noise removal unit 34, the binarization processing unit 36, the precipitate image extraction unit 37, and the inter-precipitate distance calculation unit 38 include The present invention is included in an image processing system that extracts precipitates contained in a material structure. Further, the image processing system and the life evaluation unit 39 are included in the life evaluation system for the object.

撮像画像取得部32は、記憶部26から撮像画像100を取得する。パラメータ取得部33は、記憶部26から、制御部20の各部が行う処理のパラメータを取得する。   The captured image acquisition unit 32 acquires the captured image 100 from the storage unit 26. The parameter acquisition unit 33 acquires parameters of processing performed by each unit of the control unit 20 from the storage unit 26.

ノイズ除去部34は、撮像画像取得部32から撮像画像100を取得し、パラメータ取得部33からノイズ除去部34が実行する処理に関連するパラメータを取得する。ノイズ除去部34は、撮像画像100からノイズ成分を除去して、ノイズ除去画像102を生成するものである。具体的には、ノイズ除去部34は、図4に示すように、特異点除去部42と、ゼロ画像付加部44と、階調変化抽出部46とを有する。   The noise removal unit 34 acquires the captured image 100 from the captured image acquisition unit 32, and acquires parameters related to processing executed by the noise removal unit 34 from the parameter acquisition unit 33. The noise removal unit 34 removes noise components from the captured image 100 to generate the noise removal image 102. Specifically, as shown in FIG. 4, the noise removal unit 34 includes a singular point removal unit 42, a zero image addition unit 44, and a gradation change extraction unit 46.

図5及び図6は、画像へのフィルタ処理を説明するための説明図である。特異点除去部42は、撮像画像100に対し中央値フィルタ(メディアンフィルタ)処理を行って、特異点除去画像100aを生成する。中央値フィルタ処理とは、撮像画像100の対象画素における階調値(輝度)を、対象画素の周辺領域内の画素における階調値のなかの中間値で置き換える処理である。具体的には、特異点除去部42は、図5に示すように、撮像画像100から、複数の画素を含む撮像画像100の一部の領域であるカーネルCを選択する。図6に示すように、カーネルCは、第1方向に3個の画素、第1方向と直交する第2方向に3個の画素を有する3×3の画素を含む領域であるが、これに限られず、カーネルCに含まれる画素数は任意である。カーネルCは、領域の中央にある画素Pと、画素Pの周囲にある画素P、P、P、P、P、P、P、Pを有する。ここで、画素P、P、P、P、P、P、P、P、Pの撮像画像100における階調値(輝度)をそれぞれL、L、L、L、L、L、L、L、Lとする。特異点除去部42は、中央値フィルタ処理により、画素Pの階調値を、L、L、L、L、L、L、L、L、Lのうちの中央値(値が大きい順から並べて真中(ここでは5番目)の画素が有する階調値)に変換する。特異点除去部42は、この中央値フィルタ処理を、撮像画像100中の全ての画素について実行する。特異点除去部42は、中央値フィルタ処理を行うことにより、周辺領域の画素の階調値に対して特異な階調値を有する画素(特異点)の階調値を平滑化し、特異点を除去した特異点除去画像100aを生成する。 5 and 6 are explanatory diagrams for explaining filter processing on an image. The singularity removal unit 42 performs a median filter (median filter) process on the captured image 100 to generate a singularity removal image 100a. The median filter process is a process of replacing the gradation value (luminance) in the target pixel of the captured image 100 with an intermediate value among the gradation values in the pixels in the peripheral area of the target pixel. Specifically, as illustrated in FIG. 5, the singularity removal unit 42 selects a kernel C 1 that is a partial region of the captured image 100 including a plurality of pixels from the captured image 100. As shown in FIG. 6, the kernel C 1 is a region including 3 × 3 pixels having three pixels in the first direction and three pixels in the second direction orthogonal to the first direction. not limited to, the number of pixels included in the kernel C 1 is arbitrary. The kernel C 1 has a pixel P 1 at the center of the region and pixels P 2 , P 3 , P 4 , P 5 , P 6 , P 7 , P 8 , P 9 around the pixel P 1 . Here, the gradation values (luminances) in the captured image 100 of the pixels P 1 , P 2 , P 3 , P 4 , P 5 , P 6 , P 7 , P 8 , P 9 are set to L 1 , L 2 , L, respectively. 3 , L 4 , L 5 , L 6 , L 7 , L 8 , and L 9 . The singularity removal unit 42 converts the gradation value of the pixel P 1 from among L 1 , L 2 , L 3 , L 4 , L 5 , L 6 , L 7 , L 8 , and L 9 by median filtering. (The tone value of the middle (here, the fifth) pixel arranged in descending order). The singularity removal unit 42 performs this median filtering process on all the pixels in the captured image 100. The singularity removal unit 42 performs the median value filter process to smooth the gradation value of a pixel (singularity) having a specific gradation value with respect to the gradation value of the pixel in the peripheral region, The removed singularity removed image 100a is generated.

なお、特異点除去部42は、周囲の画素の階調に対して階調が特異である特異点を除去するものであれば、中央値フィルタ処理を行うことに限られない。特異点除去部42は、例えば平均値フィルタ処理を行うものであってもよい。平均値フィルタ処理は、対象画素における階調値(輝度)を、対象画素の周辺領域内の画素における階調値の平均値で置き換える処理である。   Note that the singular point removing unit 42 is not limited to performing the median filter process as long as it removes singular points whose gradation is singular with respect to the gradation of surrounding pixels. The singularity removal unit 42 may perform, for example, average value filtering. The average value filter process is a process of replacing the gradation value (luminance) in the target pixel with the average value of the gradation values in the pixels in the peripheral area of the target pixel.

図7は、ゼロ画像を説明するための説明図である。ゼロ画像付加部44は、特異点除去画像100aの外周に沿って、階調値(輝度)がゼロであるゼロ画像101を付加して、ゼロ付加画像100bを生成する。図7に示すように、ゼロ画像101は、特異点除去画像100aの外周に沿った枠状に画素が分布する画像である。また、ゼロ画像101の各画素は、階調値がゼロとなっている。ゼロ画像付加部44は、特異点除去画像100aの外周にこのゼロ画像101を付加し、最外周の画素の階調値がゼロであり(ゼロ画像の画素)、その内側が特異点除去画像100aであるゼロ付加画像100bを生成する。なお、ゼロ画像101は、1つの画素が枠状に整列している画像であるため、図7に示すように、各辺の幅がカーネルCよりも小さくなっている。ただし、ゼロ画像101は、2つ以上の画素が枠状に整列しているものであってもよい。 FIG. 7 is an explanatory diagram for explaining a zero image. The zero image adding unit 44 adds the zero image 101 having a gradation value (luminance) of zero along the outer periphery of the singular point removed image 100a to generate a zero added image 100b. As shown in FIG. 7, the zero image 101 is an image in which pixels are distributed in a frame shape along the outer periphery of the singular point removal image 100a. Each pixel of the zero image 101 has a gradation value of zero. The zero image adding unit 44 adds the zero image 101 to the outer periphery of the singular point removed image 100a, the gradation value of the outermost pixel is zero (the pixel of the zero image), and the inner side is the singular point removed image 100a. A zero addition image 100b is generated. Incidentally, the zero image 101, since one pixel is an image are aligned in a frame shape, as shown in FIG. 7, the width of each side is smaller than the kernel C 1. However, the zero image 101 may have two or more pixels arranged in a frame shape.

階調変化抽出部46は、ゼロ付加画像100bから画素間の階調変化が大きい領域を抽出して、ノイズ除去画像102を生成する。具体的には、階調変化抽出部46は、図4に示すように、最大値フィルタ部50と、最小値フィルタ部52と、低周波画像除去部54とを有する。   The gradation change extraction unit 46 extracts a region where the gradation change between pixels is large from the zero-added image 100b, and generates the noise-removed image 102. Specifically, the gradation change extraction unit 46 includes a maximum value filter unit 50, a minimum value filter unit 52, and a low frequency image removal unit 54, as shown in FIG.

最大値フィルタ部50は、ゼロ付加画像100bに対して、最大値フィルタ処理を行うものである。最大値フィルタ処理とは、撮像画像100の対象画素における階調値(輝度)を、対象画素の周辺領域内の画素における階調値のなかの最大値で置き換える処理である。最大値フィルタ部50は、カーネルCを選択し、カーネルC中の画素に基づき最大値フィルタ処理を行う。カーネルCは、第1方向に30個の画素、第2方向に30個の画素を有する30×30個の画素を含む領域であるが、これに限られず任意に設定可能である。カーネルサイズは低周波成分を抽出できるサイズに調整することが必要で、カーネルCは、例えば9×9個の画素を含む領域以上の比較的大きなエリアを見ることが好ましい。 The maximum value filter unit 50 performs maximum value filtering on the zero-added image 100b. The maximum value filtering process is a process of replacing the gradation value (luminance) in the target pixel of the captured image 100 with the maximum value among the gradation values in the pixels in the peripheral area of the target pixel. Maximum value filter unit 50 selects the kernel C 2, performs the maximum value filtering based on the pixel in the kernel C 2. The kernel C 2 is an area including 30 × 30 pixels having 30 pixels in the first direction and 30 pixels in the second direction, but is not limited thereto and can be arbitrarily set. Kernel size is necessary to adjust the size that can extract low-frequency components, the kernel C 2, it is preferable to see a relatively large area over a region including the 9 × 9 pixels, for example.

最小値フィルタ部52は、最大値フィルタ処理を行ったゼロ付加画像100bに対して、最小値フィルタ処理を行って、低周波画像100cを生成する。最小値フィルタ処理とは、撮像画像100の対象画素における階調値(輝度)を、対象画素の周辺領域内の画素における階調値のなかの最小値で置き換える処理である。最小値フィルタ部52は、カーネルCを選択し、カーネルC中の画素に基づき最小値フィルタ処理を行う。 The minimum value filter unit 52 performs a minimum value filter process on the zero-added image 100b that has been subjected to the maximum value filter process, and generates a low-frequency image 100c. The minimum value filtering process is a process of replacing the gradation value (luminance) in the target pixel of the captured image 100 with the minimum value among the gradation values in the pixels in the peripheral area of the target pixel. The minimum value filtering unit 52 selects the kernel C 2, performs the minimum value filtering processing based on the pixel in the kernel C 2.

このように、最大値フィルタ部50及び最小値フィルタ部52は、ゼロ付加画像100bに対して、最大値フィルタ処理と最小値フィルタ処理をこの順で行うことにより、低周波画像100cを生成する。低周波画像100cは、画像中の画素同士の階調値の変化の周波数が低い画像(近隣画素間で階調値の変化がなだらかな画像)であるということができる。すなわち、低周波画像100cは、ゼロ付加画像100bから、画素間の階調変化が大きい領域が除去された画像である。   As described above, the maximum value filter unit 50 and the minimum value filter unit 52 perform the maximum value filter processing and the minimum value filter processing in this order on the zero-added image 100b, thereby generating the low-frequency image 100c. It can be said that the low-frequency image 100c is an image having a low frequency of change in gradation value between pixels in the image (an image in which change in gradation value is gentle between neighboring pixels). That is, the low-frequency image 100c is an image obtained by removing an area having a large gradation change between pixels from the zero addition image 100b.

低周波画像除去部54は、ゼロ付加画像100b及び低周波画像100cを取得する。低周波画像除去部54は、ゼロ付加画像100bから、低周波画像100cの画像成分を除去することにより、高周波画像100dを生成する。具体的には、低周波画像除去部54は、ゼロ付加画像100bの各画素の階調値から、低周波画像100cの各画素の階調値をそれぞれ差し引く。低周波画像除去部54は、これにより、ゼロ付加画像100bから、画素同士の階調値の変化の周波数が低い画像成分を除去し、画素同士の階調値の変化の周波数が高い画像成分(近隣画素間で階調値の変化が大きい画像)を抽出する。すなわち、最大値フィルタ部50と、最小値フィルタ部52と、低周波画像除去部54とは、ゼロ付加画像100bから、画素間の階調変化が大きい領域を抽出した高周波画像100dを生成する。例えば、光学特性やレンズ特性によって画像の一部の領域(例えば中央部)が明るく(あるいは暗く)、画像の他の一部の領域(例えば周端部)が暗い(あるいは明るい)撮像画像が取得される可能性がある。撮像画像をマクロに見た低周波画像100cを作成し、低周波画像100cと撮像画像の差分をとり、高周波画像100dを生成することで、照明や顕微鏡特性の影響を除去することができる。低周波画像除去部54は、高周波画像100dから、ゼロ画像101に対応する最外周の枠状の画像(階調値がゼロ)を除去して、ノイズ除去画像102を生成する。   The low frequency image removing unit 54 acquires the zero addition image 100b and the low frequency image 100c. The low frequency image removing unit 54 generates the high frequency image 100d by removing the image component of the low frequency image 100c from the zero addition image 100b. Specifically, the low frequency image removing unit 54 subtracts the gradation value of each pixel of the low frequency image 100c from the gradation value of each pixel of the zero addition image 100b. Thus, the low-frequency image removing unit 54 removes an image component having a low frequency of change in tone value between pixels from the zero-added image 100b, and an image component having a high frequency of change in tone value between pixels ( An image having a large change in gradation value between neighboring pixels) is extracted. That is, the maximum value filter unit 50, the minimum value filter unit 52, and the low-frequency image removal unit 54 generate a high-frequency image 100d obtained by extracting a region having a large gradation change between pixels from the zero-added image 100b. For example, a captured image in which a part of an image (for example, the central part) is bright (or dark) and another part of the image (for example, a peripheral part) is dark (or bright) is acquired according to optical characteristics or lens characteristics. There is a possibility that. By creating a low-frequency image 100c in which the captured image is viewed as a macro, taking a difference between the low-frequency image 100c and the captured image, and generating a high-frequency image 100d, the influence of illumination and microscope characteristics can be removed. The low-frequency image removing unit 54 removes the outermost frame-like image (the gradation value is zero) corresponding to the zero image 101 from the high-frequency image 100d to generate the noise-removed image 102.

なお、階調変化抽出部46は、画素間の階調変化が大きい領域を抽出するものであれば、以上のような最大値フィルタ部50と、最小値フィルタ部52と、低周波画像除去部54とを有する構成に限られない。   As long as the gradation change extraction unit 46 extracts a region where the gradation change between pixels is large, the maximum value filter unit 50, the minimum value filter unit 52, and the low-frequency image removal unit as described above. 54 is not limited thereto.

以上のように、ノイズ除去部34は、撮像画像100からノイズ成分を除去して、ノイズ除去画像102を生成する。なお、ノイズ除去部34は、ゼロ画像付加部44を有さずに、階調変化抽出部46が、特異点除去画像100aから直接ノイズ除去画像102を生成してもよい。   As described above, the noise removing unit 34 removes the noise component from the captured image 100 to generate the noise removed image 102. In addition, the noise removal part 34 does not have the zero image addition part 44, but the gradation change extraction part 46 may produce | generate the noise removal image 102 directly from the singular point removal image 100a.

2値化処理部36は、ノイズ除去部34からノイズ除去画像102を取得し、パラメータ取得部33から自身が実行する処理に関連するパラメータを取得する。2値化処理部36は、ノイズ除去画像102に対して、複数階調からなる画像を2階調からなる画像に変換する処理である2値化処理を行って、2種類の階調のみからなる画像である2値化画像104を生成する。具体的には、2値化処理部36は、図4に示すように、Pタイル部60と、最小値フィルタ部62と、最大値フィルタ部64とを有する。   The binarization processing unit 36 acquires the noise-removed image 102 from the noise removing unit 34, and acquires parameters related to the process executed by itself from the parameter acquiring unit 33. The binarization processing unit 36 performs a binarization process, which is a process of converting an image composed of a plurality of gradations into an image composed of two gradations, on the noise-removed image 102, and uses only two kinds of gradations. A binarized image 104 that is an image to be generated is generated. Specifically, the binarization processing unit 36 includes a P tile unit 60, a minimum value filter unit 62, and a maximum value filter unit 64, as shown in FIG.

Pタイル部60は、ノイズ除去画像102に対し、2値化処理としてのPタイル処理を行って、Pタイル画像102aを生成する。図8及び図9は、Pタイル処理を説明するための一例を示すグラフである。Pタイル処理は、ノイズ除去画像102中の各画素を高階調画素と低階調画素との2つに区分した場合に、高階調画素の数の割合が所定の比率以上となる階調値を閾値とし、閾値以上の階調値を有する画素の階調値を第1階調とし、閾値より小さい階調値を有する画素の階調値を第2階調とする処理である。   The P tile unit 60 performs P tile processing as binarization processing on the noise-removed image 102 to generate a P tile image 102a. 8 and 9 are graphs showing an example for explaining the P tile processing. In the P tile processing, when each pixel in the noise-removed image 102 is divided into two, a high gradation pixel and a low gradation pixel, a gradation value in which the ratio of the number of high gradation pixels is equal to or higher than a predetermined ratio is obtained. This is a process of setting a threshold value, a gradation value of a pixel having a gradation value equal to or higher than the threshold value as a first gradation, and a gradation value of a pixel having a gradation value smaller than the threshold value as a second gradation.

Pタイル処理の一例を、図8及び図9により説明する。図8の横軸は、所定の画像における各画素の階調値(輝度)であり、縦軸は、階調値毎の画素数である。図9の横軸は、所定の画像における各画素の階調値(輝度)であり、縦軸は、階調値毎の積算画素数の全体画素数に占める割合(画素数の積算値)である。画像中の各画素の階調値が図8に示す分布である場合、積算画素数は、図9のようになる。図9に示す所定の階調値における積算画素数は、言い換えれば、その所定の階調値以下の階調値を有する画素の総数が、全体に占める割合である。Pタイル部60は、積算画素数が所定の積算画素数A(%)である場合の階調値Bを検出し、階調値Bを閾値に設定する。なお、積算画素数A(%)の値は、パラメータ設定により予め設定されたものである。Pタイル部60は、ノイズ除去画像102中の階調値B以上の階調値を有する画素の階調値を第1階調とし、階調値Bより小さい階調値を有する画素の階調値を第2階調として、Pタイル画像102aを生成する。Pタイル画像102aは、第1階調と第2階調の2種類の階調のみを有する画像である。なお、第1階調は、第2階調より階調値が大きい。第1階調は、例えば輝度を最大とする値であり、第2階調は輝度を最小とする値である。ただし、第1階調と第2階調は、互いに値が異なるものであれば、任意に設定することができる。   An example of P tile processing will be described with reference to FIGS. The horizontal axis of FIG. 8 is the gradation value (luminance) of each pixel in a predetermined image, and the vertical axis is the number of pixels for each gradation value. The horizontal axis of FIG. 9 is the gradation value (luminance) of each pixel in a predetermined image, and the vertical axis is the ratio of the total number of pixels for each gradation value to the total number of pixels (the integrated value of the number of pixels). is there. When the gradation value of each pixel in the image has the distribution shown in FIG. 8, the cumulative number of pixels is as shown in FIG. In other words, the total number of pixels in the predetermined gradation value shown in FIG. 9 is the ratio of the total number of pixels having gradation values equal to or lower than the predetermined gradation value to the whole. The P tile unit 60 detects the gradation value B when the integrated pixel number is a predetermined integrated pixel number A (%), and sets the gradation value B as a threshold value. Note that the value of the cumulative pixel number A (%) is preset by parameter setting. The P tile unit 60 sets the gradation value of a pixel having a gradation value equal to or higher than the gradation value B in the noise-removed image 102 as the first gradation, and the gradation of the pixel having a gradation value smaller than the gradation value B. The P tile image 102a is generated with the value as the second gradation. The P tile image 102a is an image having only two types of gradations, a first gradation and a second gradation. The first gradation has a larger gradation value than the second gradation. The first gradation is, for example, a value that maximizes the luminance, and the second gradation is a value that minimizes the luminance. However, the first gradation and the second gradation can be arbitrarily set as long as they have different values.

最小値フィルタ部62は、Pタイル画像102aに対し、最小値フィルタ処理を行う。最小値フィルタ部62は、カーネルCを選択し、カーネルC中の画素に基づき最小値フィルタ処理を行う。最大値フィルタ部64は、最小値フィルタ処理を行ったPタイル画像102aに対し、最大値フィルタ処理を行う。最大値フィルタ部64は、カーネルCを選択し、カーネルC中の画素に基づき最大値フィルタ処理を行い、2値化画像104を生成する。 The minimum value filter unit 62 performs minimum value filtering on the P tile image 102a. The minimum value filtering unit 62 selects the kernel C 3, performs the minimum value filtering processing based on the pixel in the kernel C 3. The maximum value filter unit 64 performs maximum value filtering on the P tile image 102a that has been subjected to minimum value filtering. Maximum value filter unit 64 selects the kernel C 3, performs the maximum value filtering based on the pixel in the kernel C 3, and generates a binarized image 104.

最小値フィルタ部62及び最大値フィルタ部64は、Pタイル画像102aに対し、最小値フィルタ処理及び最大値フィルタ処理をこの順で行うことにより、近接画素間の階調変化が大きい領域が除去された画像を生成し、異なる階調値を有する画素間の形状を整形する。なお、カーネルCは、第1方向に3個の画素、第2方向に3個の画素を有する3×3個の画素を含む領域であるが、これに限られず任意に設定可能である。 The minimum value filter unit 62 and the maximum value filter unit 64 perform the minimum value filter processing and the maximum value filter processing on the P tile image 102a in this order, thereby removing a region where the gradation change between adjacent pixels is large. Images are generated and shapes between pixels having different gradation values are shaped. The kernel C 3 is an area including 3 × 3 pixels having three pixels in the first direction and three pixels in the second direction, but is not limited thereto and can be arbitrarily set.

析出物画像抽出部37は、2値化処理部36から2値化画像104を取得し、パラメータ取得部33から自身が実行する処理に関連するパラメータを取得する。析出物画像抽出部37は、2値化画像104の一方の階調の画像のうち、所定の形状の画像を析出物Dの画像であると判断し、所定の形状以外の画像を除去することにより、析出物Dの画像を抽出した対象物評価用画像106を生成する。析出物Dは、対象物1の鋼領域Sに点在する析出物である。具体的には、析出物画像抽出部37は、析出物候補画像抽出部66と、他成分画像除去部68とを有する。   The precipitate image extraction unit 37 acquires the binarized image 104 from the binarization processing unit 36, and acquires parameters related to processing executed by the parameter acquisition unit 33. The precipitate image extraction unit 37 determines that an image having a predetermined shape is an image of the precipitate D among images of one gradation of the binarized image 104, and removes an image other than the predetermined shape. Thus, the object evaluation image 106 from which the image of the precipitate D is extracted is generated. The precipitate D is a precipitate scattered in the steel region S of the object 1. Specifically, the precipitate image extraction unit 37 includes a precipitate candidate image extraction unit 66 and an other component image removal unit 68.

析出物候補画像抽出部66は、2値化画像104から、析出物Dの画像の候補となる画像を抽出するものである。析出物候補画像抽出部66は、2値化画像104中の第1階調である画素からなる領域を、析出物候補領域Xとして選択する。析出物候補領域Xは、析出物候補画像抽出部66により析出物Dの画像であると推定された領域である。図10は、析出物候補領域を説明するための説明図である。図10に示すように、析出物候補領域Xは、少なくとも1つの画素からなる領域Xが、2値化画像104内に複数点在する。なお、図10は、析出物候補領域Xを示す一例である。 The precipitate candidate image extraction unit 66 extracts images that are candidates for the image of the precipitate D from the binarized image 104. The precipitate candidate image extraction unit 66 selects, as the precipitate candidate region X, an area composed of pixels having the first gradation in the binarized image 104. The precipitate candidate region X is a region estimated by the precipitate candidate image extraction unit 66 as an image of the precipitate D. FIG. 10 is an explanatory diagram for explaining a precipitate candidate region. As shown in FIG. 10, in the precipitate candidate area X, a plurality of areas X 1 including at least one pixel are scattered in the binarized image 104. FIG. 10 is an example showing the precipitate candidate region X.

他成分画像除去部68は、析出物候補領域Xが有する領域Xのうち、所定の形状を有する領域Xを、析出物Dの画像であると判断する。そして、他成分画像除去部68は、析出物候補領域Xのうち、所定の形状を有さない領域Xを、析出物Dの画像ではないと判断して除去する。除去されずに残った領域Xは、析出物Dの画像であると判断された領域である析出物領域Yを形成する。他成分画像除去部68は、析出物候補領域Xから所定の形状を有さない領域Xを除去することにより、析出物領域Yを抽出した対象物評価用画像106を生成する。具体的には、他成分画像除去部68は、析出物候補領域Xのうち所定の形状を有さない領域Xの階調値を、第1階調から第2階調に置き換える。これにより、対象物評価用画像106は、析出物領域Yが第1階調であり、その他の領域が第2階調である画像となる。図11は、析出物領域を説明するための説明図である。図11は、図10に示す析出物候補領域Xから析出物領域Yを抽出した状態を示している。対象物評価用画像106中の析出物領域Yは、析出物候補領域X中の領域Xのうち、所定の形状を有する領域Xが除去されずに残されている。 The other component image removing unit 68 determines that the region X 1 having a predetermined shape among the regions X 1 included in the precipitate candidate region X is an image of the precipitate D. Then, the other component image removing unit 68 determines that the region X 1 having no predetermined shape from the precipitate candidate region X is not an image of the precipitate D and removes it. Region X 1 that remains without being removed, forms a region which is determined as an image which precipitates region Y of the deposit D. Other ingredients image removing unit 68, by removing the region X 1 from precipitation candidate region X having no predetermined shape to produce an object image for evaluation 106 obtained by extracting the precipitate region Y. Specifically, the other component image removing unit 68, the tone value of area X 1 without a predetermined shape of the precipitate candidate region X, replacing the first gradation into the second gradation. Accordingly, the object evaluation image 106 is an image in which the precipitate region Y has the first gradation and the other regions have the second gradation. FIG. 11 is an explanatory diagram for explaining the precipitate region. FIG. 11 shows a state where the precipitate region Y is extracted from the precipitate candidate region X shown in FIG. The precipitate region Y in the object evaluation image 106 is left without removing the region X 1 having a predetermined shape from the region X 1 in the precipitate candidate region X.

ここで、析出物領域Yであると判断されるための領域Xの所定の形状について説明する。他成分画像除去部68は、所定の形状を判定する上の要素として、領域の大きさと、形状とを用いる。他成分画像除去部68は、領域Xが所定の大きさより小さい場合に、析出物領域Yではないと判断する。また、他成分画像除去部68は、領域Xの形状が複雑である場合に、析出物領域Yではないと判断する。他成分画像除去部68は、例えば領域Xの面積に対して領域Xの周囲長さが所定の値以上である場合、領域の形状が複雑であるとして、その領域Xが析出物領域Yではないと判断する。 Here, the predetermined shape of the region X 1 to be determined as a precipitate area Y will be described. The other component image removal unit 68 uses the size and shape of the region as elements for determining a predetermined shape. Other ingredients image removing unit 68, when the region X 1 is smaller than a predetermined size, it is determined not to be a precipitation region Y. Also, another component image removal unit 68, when the shape of the region X 1 is complex, it is determined not to be a precipitation region Y. Other ingredients image removing unit 68, for example, if the perimeter of the area X 1 to the area of a region X 1 is a predetermined value or more, as the shape of the area is complicated, the area X 1 precipitates region It is determined that it is not Y.

具体的には、他成分画像除去部68は、第1方向における長さ、第2方向における長さ、面積、円形度、及び充填率を用いる。具体的には、他成分画像除去部68は、第1方向における長さが所定長J1より短い領域Xを、析出物領域Yではない(析出物Dの画像ではない)と判断して除去する。また、他成分画像除去部68は、第2方向における長さが所定長J2より短い領域Xを、析出物領域Yではないと判断して除去する。また、他成分画像除去部68は、面積が所定面積J3より小さい領域Xを、析出物領域Yではないと判断して除去する。また、他成分画像除去部68は、円形度が所定円形度J4より小さい領域Xを、析出物領域Yではないと判断して除去する。なお、円形度は、外周の形状の複雑さを示す指標であり、円形度をRoとしたとき、以下の式(1)により算出される。 Specifically, the other component image removing unit 68 uses the length in the first direction, the length in the second direction, the area, the circularity, and the filling rate. Specifically, the other component image removing unit 68, removed the length in the first direction a short region X 1 than the predetermined length J1, determines that not the precipitates region Y (not the image of the deposit D) To do. Also, another component image removing section 68, the length in the second direction a short region X 1 than the predetermined length J2, it is determined to remove is not the precipitates region Y. Also, other ingredients image removing unit 68, area a predetermined area J3 smaller area X 1, it is determined to remove is not the precipitates region Y. Also, other ingredients image removing unit 68, circularity a predetermined circularity J4 smaller area X 1, it is determined not to be a deposit area Y is removed. The circularity is an index indicating the complexity of the shape of the outer periphery, and is calculated by the following formula (1) when the circularity is Ro.

Ro=(4・π・A)/L ・・・(1) Ro = (4 · π · A r ) / L e 2 (1)

ここで、πは円周率であり、Aは領域Xの面積であり、Lは領域Xの周囲長さである。円形度Roは、1から値が小さくなるに従って、真円から遠ざかる形状となる。 Here, π is pi, A r is the area of region X 1, L e is the perimeter of the area X 1. The circularity Ro becomes a shape that moves away from a perfect circle as the value decreases from 1.

また、他成分画像除去部68は、面積が所定面積J5より小さく、かつ、充填率が所定充填率J6より小さい領域Xを、析出物領域Yではないと判断して除去する。所定面積J5は、所定面積J3より大きい値である。図12は、充填率を説明するための図である。充填率とは、図12に示すように、領域K1に外接する外接矩形K2の面積に対する領域K1の面積を示す値である。すなわち、充填率Mとは、次の式(2)で表される。 Also, other ingredients image removing unit 68, an area is smaller than the predetermined area J5, and the filling rate is a predetermined filling rate J6 smaller area X 1, it is determined to remove is not the precipitates region Y. The predetermined area J5 is larger than the predetermined area J3. FIG. 12 is a diagram for explaining the filling rate. The filling rate is a value indicating the area of the region K1 with respect to the area of the circumscribed rectangle K2 circumscribing the region K1, as shown in FIG. That is, the filling rate M is expressed by the following formula (2).

M=ArK1/ArK2 ・・・(2) M = Ar K1 / Ar K2 (2)

ここで、ArK1は領域K1の面積であり、ArK2は外接矩形K2の面積である。 Here, Ar K1 is the area of the region K1, and Ar K2 is the area of the circumscribed rectangle K2.

他成分画像除去部68は、以上のようにして、析出物候補領域Xから析出物Dの画像ではないと判断した領域Xを除去して析出物領域Yを抽出することにより、対象物評価用画像106を生成する。 Other ingredients image removing unit 68 by extracting the above manner, precipitate candidate region X from deposit (D) regions X 1 precipitation region Y by removing the determined not to be the image of the object evaluation A working image 106 is generated.

析出物間距離算出部38は、析出物画像抽出部37から対象物評価用画像106を取得し、パラメータ取得部33から自身が実行する処理に関連するパラメータを取得する。析出物間距離算出部38は、対象物評価用画像106中の析出物Dの画像同士の距離を算出する。具体的には、析出物間距離算出部38は、対象物評価用画像106から、析出物領域Yに含まれる領域X間の距離を測定する。析出物間距離算出部38は、領域X間の距離として、領域X同士の平均自由行程を算出する。析出物間距離算出部38は、析出物D間の距離を算出するための測定線を、対象物評価用画像106中に追加してもよい。 The inter-precipitate distance calculation unit 38 acquires the object evaluation image 106 from the precipitate image extraction unit 37, and acquires parameters related to processing executed by itself from the parameter acquisition unit 33. The inter-precipitate distance calculation unit 38 calculates the distance between the images of the precipitate D in the object evaluation image 106. Specifically, the inter-precipitate distance calculation unit 38 measures the distance between the regions X 1 included in the precipitate region Y from the object evaluation image 106. It precipitates distance calculation unit 38, as the distance between the regions X 1, calculates the mean free path between area X 1. The inter-precipitate distance calculation unit 38 may add a measurement line for calculating the distance between the precipitates D to the object evaluation image 106.

寿命評価部39は、析出物間距離算出部38から領域X間の距離の情報を取得する。寿命評価部39は、領域X間の距離情報に基づき、対象物1の寿命を算出する。上述のように、析出物D間の距離は、対象物1のクリープ寿命と関連する。析出物D間の距離が長いほど、クリープ寿命が短くなる。析出物領域Yに含まれる領域Xは、析出物Dの画像を示しているものなので、寿命評価部39は、領域X間の距離を析出物D間の距離として、クリープ寿命を算出する。 The life evaluation unit 39 acquires information on the distance between the regions X 1 from the inter-precipitate distance calculation unit 38. Life evaluating section 39, based on the distance information between the regions X 1, calculates the lifetime of the object 1. As described above, the distance between the precipitates D is related to the creep life of the object 1. The longer the distance between the precipitates D, the shorter the creep life. Since the region X 1 included in the precipitate region Y shows an image of the precipitate D, the life evaluation unit 39 calculates the creep life with the distance between the regions X 1 as the distance between the precipitates D. .

以上説明した制御部20の処理フローを、フローチャートに基づき説明する。図13は、本実施形態に係る画像処理を説明するフローチャートである。図13に示すように、制御部20は、本実施形態に係る画像処理を行う際、撮像画像取得部32により対象物1の撮像画像100を取得し(ステップS10)、パラメータ取得部33により、画像処理に必要な各種パラメータを取得する(ステップS12)。   The processing flow of the control part 20 demonstrated above is demonstrated based on a flowchart. FIG. 13 is a flowchart for describing image processing according to the present embodiment. As illustrated in FIG. 13, when performing the image processing according to the present embodiment, the control unit 20 acquires the captured image 100 of the target object 1 using the captured image acquisition unit 32 (step S10), and the parameter acquisition unit 33 Various parameters necessary for image processing are acquired (step S12).

制御部20は、撮像画像100及びパラメータを取得した後、ノイズ除去部34により、ノイズ除去処理を実行して(ステップS14)、ノイズ除去画像102を生成する。ノイズ除去処理の詳細な処理フローは後述する。ノイズ除去処理を実行した後、制御部20は、2値化処理部36により、2値化処理を実行して(ステップS16)、2値化画像104を生成する。2値化処理の詳細な処理フローは後述する。2値化処理を実行した後、制御部20は、析出物画像抽出部37により、析出物画像抽出処理を実行して(ステップS18)、対象物評価用画像106を生成する。析出物画像抽出処理の詳細な処理フローは後述する。   After acquiring the captured image 100 and parameters, the control unit 20 performs noise removal processing by the noise removal unit 34 (step S14) to generate the noise removal image 102. A detailed processing flow of the noise removal processing will be described later. After executing the noise removal processing, the control unit 20 executes the binarization processing by the binarization processing unit 36 (step S16) and generates the binarized image 104. A detailed processing flow of the binarization processing will be described later. After executing the binarization process, the control unit 20 causes the precipitate image extraction unit 37 to execute a precipitate image extraction process (step S18), and generates an object evaluation image 106. A detailed processing flow of the precipitate image extraction processing will be described later.

制御部20は、析出物画像抽出処理を実行した後、析出物間距離算出部38により、対象物評価用画像106から析出物距離算出処理を実行する(ステップS19)。具体的には、析出物間距離算出部38は、対象物評価用画像106中の析出物領域Yに含まれる領域X間の距離を測定することにより、析出物D間の距離を算出する。これにより、本実施形態に係る画像処理は終了する。制御部20は、その後、算出した析出物D間の距離の情報に基づき、寿命評価部39により、対象物1のクリープ寿命を算出する。 After executing the precipitate image extraction process, the control unit 20 causes the precipitate distance calculation unit 38 to execute a precipitate distance calculation process from the object evaluation image 106 (step S19). Specifically, it precipitates distance calculation unit 38, by measuring the distance between the regions X 1 contained in the precipitate region Y of the object in the image for evaluation 106 calculates the distance between the deposit (D) . Thereby, the image processing according to the present embodiment ends. Thereafter, the control unit 20 calculates the creep life of the object 1 by the life evaluation unit 39 based on the calculated distance information between the precipitates D.

次に、ノイズ除去処理の処理フローを説明する。図14は、ノイズ除去処理を説明するフローチャートである。図14に示すように、ノイズ除去処理を行う際、ノイズ除去部34は、特異点除去部42により、撮像画像100に対し特異点除去処理を行って(ステップS20)、特異点除去画像100aを生成する。特異点除去部42は、特異点除去処理として、中央値フィルタ処理を行う。特異点除去処理を行った後、ノイズ除去部34は、ゼロ画像付加部44により、特異点除去画像100aにゼロ画像101を付加して(ステップS22)、ゼロ付加画像100bを生成する。ゼロ画像101を付加した後、ノイズ除去部34は、最大値フィルタ部50及び最小値フィルタ部52により、ゼロ付加画像100bに最大値フィルタ処理及び最小値フィルタ処理を行い、低周波画像100cを生成する(ステップS24)。最大値フィルタ部50及び最小値フィルタ部52は、最大値フィルタ処理、最小値フィルタ処理を、この順で実行する。   Next, the processing flow of noise removal processing will be described. FIG. 14 is a flowchart illustrating the noise removal process. As shown in FIG. 14, when performing the noise removal process, the noise removal unit 34 performs the singular point removal process on the captured image 100 by the singular point removal unit 42 (step S20), and the singular point removal image 100a is obtained. Generate. The singularity removal unit 42 performs median filter processing as singularity removal processing. After performing the singularity removal processing, the noise removal unit 34 adds the zero image 101 to the singularity removal image 100a by the zero image addition unit 44 (step S22), and generates the zero addition image 100b. After adding the zero image 101, the noise removing unit 34 performs the maximum value filtering process and the minimum value filtering process on the zero added image 100b by the maximum value filter unit 50 and the minimum value filter unit 52, and generates the low frequency image 100c. (Step S24). The maximum value filter unit 50 and the minimum value filter unit 52 execute the maximum value filter processing and the minimum value filter processing in this order.

低周波画像100cを生成した後、ノイズ除去部34は、低周波画像除去部54により、特異点除去画像100aから低周波画像100cの画像成分を除去し(ステップS26)、ノイズ除去画像102を生成する。これにより、ノイズ除去処理は終了する。   After generating the low frequency image 100c, the noise removal unit 34 removes the image component of the low frequency image 100c from the singular point removal image 100a by the low frequency image removal unit 54 (step S26), and generates the noise removal image 102. To do. Thus, the noise removal process is finished.

次に、2値化処理の処理フローを説明する。図15は、2値化処理を説明するフローチャートである。図15に示すように、2値化処理を行う場合、2値化処理部36は、Pタイル部60により、ノイズ除去画像102に対しPタイル処理を実行し(ステップS30)、Pタイル画像102aを生成する。Pタイル処理を行った後、2値化処理部36は、最小値フィルタ部62により、Pタイル画像102aに対し最小値フィルタ処理を実行し(ステップS32)、その後最大値フィルタ部64により、最大値フィルタ処理を実行して(ステップS34)、2値化画像104を生成する。これにより、2値化処理は終了する。   Next, the processing flow of binarization processing will be described. FIG. 15 is a flowchart for explaining binarization processing. As shown in FIG. 15, when performing binarization processing, the binarization processing unit 36 performs P tile processing on the noise-removed image 102 by the P tile unit 60 (step S30), and the P tile image 102a. Is generated. After performing the P tile processing, the binarization processing unit 36 performs the minimum value filtering process on the P tile image 102a by the minimum value filter unit 62 (step S32), and then the maximum value filter unit 64 performs the maximum value processing. A value filter process is executed (step S34), and a binary image 104 is generated. Thereby, the binarization process ends.

次に、析出物画像抽出処理の処理フローを説明する。図16は、析出物画像抽出処理を説明するフローチャートである。図16に示すように、析出物画像抽出処理を行う場合、析出物画像抽出部37は、析出物候補画像抽出部66により、2値化画像104から、析出物候補領域Xを選択する(ステップS40)。析出物候補画像抽出部66は、2値化画像104中の第1階調である画素からなる領域を、析出物候補領域Xとして選択する。析出物候補領域Xを選択した後、析出物画像抽出部37は、他成分画像除去部68により、析出物候補領域Xから析出物領域Yを抽出して(ステップS42)、対象物評価用画像106を生成する。他成分画像除去部68は、析出物候補領域X中の領域Xのうち、所定の形状を有さない領域Xを除去し、所定の形状を有する領域Xを析出物Dの画像であると判断し、析出物領域Yとして抽出する。これにより、析出物画像抽出処理は終了する。 Next, the processing flow of the precipitate image extraction process will be described. FIG. 16 is a flowchart for explaining the precipitate image extraction process. As shown in FIG. 16, when performing the precipitate image extraction process, the precipitate image extraction unit 37 selects the precipitate candidate region X from the binarized image 104 by the precipitate candidate image extraction unit 66 (step S40). The precipitate candidate image extraction unit 66 selects, as the precipitate candidate region X, an area composed of pixels having the first gradation in the binarized image 104. After selecting the precipitate candidate region X, the precipitate image extracting unit 37 extracts the precipitate region Y from the precipitate candidate region X by the other component image removing unit 68 (step S42), and the object evaluation image. 106 is generated. Other ingredients image removing unit 68, among the precipitates candidate area region X 1 in X, to remove the region X 1 having no predetermined shape, the image of the deposit (D) a region X 1 having a predetermined shape It is judged that there is, and is extracted as a precipitate region Y. Thereby, the precipitate image extraction process ends.

以下に、本実施形態に係る画像処理システムによって生成された対象物評価用画像106の一例を示す。図17は、撮像画像の一例を示す図である。図18は、対象物評価用画像の一例を示す図である。図19は、比較例に係る評価画像の一例を示す図である。図17は、対象物1の撮像画像100の一例である撮像画像100Aであり、鋼領域S中に、析出物Dが点在している。図18は、図17の撮像画像100Aに基づき、本実施形態に係る画像処理システムによって生成した対象物評価用画像106Aを示している。図18に示すように、対象物評価用画像106Aは、析出物Dの画像が析出物領域Yとして第1階調となっており、その他の領域が鋼領域Sとして第2階調となっている。なお、図18では、対象物評価用画像106Aに対し、析出物間距離算出部38により析出物D間の距離を算出したものであり、析出物D間の距離を算出するための測定線が画像中に追加されている。図19は、図17の撮像画像100Aに基づき、作業者が析出物Dの画像を検出し、その検出した析出物Dの画像を抽出した評価用画像106Xを示している。評価用画像106Xは、作業者によって作成されたものであり、比較例に係る画像である。図19に示す評価用画像106Xも、図18に示す対象物評価用画像106Aと同様に、鋼領域S中に析出物Dが点在している画像となっている。図18及び図19によると、対象物評価用画像106Aは、作業者によって抽出された評価用画像106Xと、析出物Dの分布が同等であることがわかる。これらの図からも、本実施形態に係る画像処理システムは、析出物Dの検出精度の低下を抑制することがわかる。   An example of the object evaluation image 106 generated by the image processing system according to this embodiment is shown below. FIG. 17 is a diagram illustrating an example of a captured image. FIG. 18 is a diagram illustrating an example of an object evaluation image. FIG. 19 is a diagram illustrating an example of an evaluation image according to a comparative example. FIG. 17 is a captured image 100 </ b> A that is an example of the captured image 100 of the object 1, and precipitates D are scattered in the steel region S. FIG. 18 shows an object evaluation image 106A generated by the image processing system according to this embodiment based on the captured image 100A of FIG. As shown in FIG. 18, in the object evaluation image 106A, the image of the precipitate D has the first gradation as the precipitate area Y, and the other area has the second gradation as the steel area S. Yes. In FIG. 18, the distance between the precipitates D is calculated by the inter-precipitate distance calculation unit 38 for the object evaluation image 106 </ b> A, and a measurement line for calculating the distance between the precipitates D is shown. It has been added to the image. FIG. 19 shows an evaluation image 106X in which an operator detects an image of the precipitate D based on the captured image 100A of FIG. 17 and extracts the detected image of the precipitate D. The evaluation image 106X is created by an operator and is an image according to a comparative example. The evaluation image 106X shown in FIG. 19 is also an image in which the precipitates D are scattered in the steel region S, similarly to the object evaluation image 106A shown in FIG. 18 and 19, it can be seen that the object evaluation image 106A has the same distribution of precipitates D as the evaluation image 106X extracted by the operator. Also from these figures, it can be seen that the image processing system according to the present embodiment suppresses a decrease in the detection accuracy of the precipitate D.

表1は、本実施形態に係る対象物評価用画像に基づき算出された析出物間距離の算出結果と、比較例に係る評価用画像に基づき算出された析出物間距離の算出結果とを示している。表1での析出物間距離は、平均自由行程で示されており、μm及び画素の数(pixel)を単位としている。なお、画素の数とμmの関係は、画像の倍率に応じて変化する。   Table 1 shows the calculation result of the distance between precipitates calculated based on the object evaluation image according to the present embodiment, and the calculation result of the distance between precipitates calculated based on the evaluation image according to the comparative example. ing. The distance between precipitates in Table 1 is indicated by the mean free path, and is in units of μm and the number of pixels. Note that the relationship between the number of pixels and μm changes according to the magnification of the image.

表1に示すように、撮像画像100のサンプル1に基づく析出物間距離の算出結果は、本実施形態では1.53μm(211画素数)であり、比較例では1.93μm(266画素数)であった。また、撮像画像100のサンプル2に基づく析出物間距離の算出結果は、本実施形態では2.23μm(307画素数)であり、比較例では2.37μm(327画素数)であった。また、撮像画像100のサンプル3に基づく析出物間距離の算出結果は、本実施形態では1.94μm(268画素数)であり、比較例では1.92μm(264画素数)であった。また、撮像画像100のサンプル4に基づく析出物間距離の算出結果は、本実施形態では1.79μm(247画素数)であり、比較例では1.75μm(241画素数)であった。また、撮像画像100のサンプル5に基づく析出物間距離の算出結果は、本実施形態では2.20μm(303画素数)であり、比較例では2.66μm(367画素数)であった。   As shown in Table 1, the calculation result of the distance between precipitates based on the sample 1 of the captured image 100 is 1.53 μm (211 pixels) in the present embodiment, and 1.93 μm (266 pixels) in the comparative example. Met. Moreover, the calculation result of the distance between precipitates based on the sample 2 of the captured image 100 was 2.23 μm (307 pixels) in the present embodiment, and 2.37 μm (327 pixels) in the comparative example. In addition, the calculation result of the distance between the precipitates based on the sample 3 of the captured image 100 is 1.94 μm (268 pixels) in the present embodiment, and 1.92 μm (264 pixels) in the comparative example. Further, the calculation result of the distance between the precipitates based on the sample 4 of the captured image 100 is 1.79 μm (247 pixels) in the present embodiment, and 1.75 μm (241 pixels) in the comparative example. Moreover, the calculation result of the distance between the precipitates based on the sample 5 of the captured image 100 is 2.20 μm (the number of 303 pixels) in the present embodiment, and 2.66 μm (the number of 367 pixels) in the comparative example.

表1に示すように、本実施形態に係る対象物評価用画像に基づき算出された析出物間距離の算出結果は、比較例からの変化が小さく、析出物Dの検出精度の低下を抑制することがわかる。   As shown in Table 1, the calculation result of the inter-precipitate distance calculated based on the object evaluation image according to the present embodiment has a small change from the comparative example, and suppresses a decrease in the detection accuracy of the precipitate D. I understand that.

以上説明したように、本実施形態に係る制御部20が構成する画像処理システムは、対象物1の材料組織の画像に含まれる析出物Dを抽出する画像処理システムである。本実施形態に係る画像処理システムは、撮像画像取得部32と、ノイズ除去部34と、2値化処理部36と、析出物画像抽出部37と、を有する。撮像画像取得部32は、対象物1の材料組織の撮像画像100を取得する。ノイズ除去部34は、撮像画像100からノイズ成分を除去してノイズ除去画像102を生成する。2値化処理部36は、ノイズ除去画像102に対して2値化処理を行って、2値化画像104を生成する。析出物画像抽出部37は、2値化画像104の一方の階調の画像のうち、所定の形状である領域Xを析出物Dの画像であると判断して、所定の形状以外の領域Xを除去することにより、析出物Dの画像を抽出する。 As described above, the image processing system configured by the control unit 20 according to the present embodiment is an image processing system that extracts the precipitate D included in the image of the material structure of the object 1. The image processing system according to the present embodiment includes a captured image acquisition unit 32, a noise removal unit 34, a binarization processing unit 36, and a precipitate image extraction unit 37. The captured image acquisition unit 32 acquires a captured image 100 of the material tissue of the target 1. The noise removing unit 34 removes noise components from the captured image 100 to generate a noise removed image 102. The binarization processing unit 36 performs binarization processing on the noise-removed image 102 and generates a binarized image 104. Precipitates image extracting section 37, binarization of one gradation of the image of the image 104, it is determined that the image of the deposit (D) a region X 1 is a predetermined shape, a region other than a predetermined shape by removing X 1, extracts the image of the deposit D.

本実施形態に係る画像処理システムによると、対象物1の材料組織の画像を2値化処理して析出物Dの候補である領域(析出物候補領域X)を選択し、さらに、その析出物候補領域Xから、析出物Dでないと判断された領域の画像を除去して、析出物Dの画像を抽出する。本実施形態に係る画像処理システムは、予め定められたアルゴリズムに従って、析出物Dの画像を抽出するため、例えば作業者が手作業で析出物Dの画像を抽出するよりも、析出物Dの検出速度を向上させることができる。また、本実施形態に係る画像処理システムは、撮像画像100からノイズを除去し、その後2値化処理を行い、その後に析出物Dと判断される画像を抽出するという処理を行うため、析出物Dの検出精度の低下を抑制することができる。なお、本実施形態においては、撮像画像100に基づき対象物評価用画像106を生成するが、撮像画像100に基づき析出物Dの画像を抽出するものであれば、対象物評価用画像106を生成しなくてもよい。   According to the image processing system according to the present embodiment, the image of the material structure of the object 1 is binarized to select a region that is a candidate for the precipitate D (precipitate candidate region X), and the precipitate From the candidate region X, the image of the region determined not to be the precipitate D is removed, and the image of the precipitate D is extracted. Since the image processing system according to the present embodiment extracts the image of the precipitate D according to a predetermined algorithm, for example, the operator can detect the precipitate D rather than manually extracting the image of the precipitate D. Speed can be improved. In addition, the image processing system according to the present embodiment performs processing of removing noise from the captured image 100, performing binarization processing thereafter, and then extracting an image determined to be the precipitate D. A decrease in the detection accuracy of D can be suppressed. In the present embodiment, the object evaluation image 106 is generated based on the captured image 100, but if the image of the precipitate D is extracted based on the captured image 100, the object evaluation image 106 is generated. You don't have to.

また、ノイズ除去部34は、特異点除去部42と、階調変化抽出部46とを有する。特異点除去部42は、撮像画像100から、周囲の画素の階調に対して階調が特異である特異点を除去して特異点除去画像100aを生成する。階調変化抽出部46は、特異点除去画像100aから画素間の階調変化が大きい領域を抽出して、ノイズ除去画像102を生成する。ノイズ除去部34は、特異点を除去し、その後に画素間の階調変化が大きい領域を抽出する処理を行うため、撮像画像100から適切にノイズを除去できる。従って、この画像処理システムは、析出物Dの検出精度の低下をより好適に抑制することができる。   The noise removing unit 34 includes a singular point removing unit 42 and a gradation change extracting unit 46. The singular point removal unit 42 removes singular points whose gradation is singular with respect to the gradation of surrounding pixels from the captured image 100 to generate a singular point removed image 100a. The gradation change extraction unit 46 extracts a region where the gradation change between pixels is large from the singular point removal image 100 a to generate the noise removal image 102. The noise removing unit 34 removes singular points and then extracts a region having a large gradation change between pixels, so that noise can be removed appropriately from the captured image 100. Therefore, this image processing system can more suitably suppress a decrease in the detection accuracy of the precipitate D.

また、特異点除去部42は、中央値フィルタ処理又は平均値フィルタ処理を行い、階調変化抽出部46は、特異点除去画像100aに対して最大値フィルタ処理を行い、その後最小値フィルタ処理を行うことにより、低周波画像100cを生成し、特異点除去画像100aから低周波画像100cの画像成分を除去することで、ノイズ除去画像102を生成する。この画像処理システムは、中央値フィルタ処理又は平均値フィルタ処理を行った後で低周波画像100cを生成し、元の画像(特異点除去画像100a)から画像成分を除去する処理を行う。従って、この画像処理システムは、撮像画像100から適切にノイズを除去し、析出物Dの検出精度の低下をより好適に抑制することができる。   Further, the singularity removal unit 42 performs median value filtering processing or average value filtering processing, and the gradation change extraction unit 46 performs maximum value filtering processing on the singularity removal image 100a, and then performs minimum value filtering processing. By performing, the low frequency image 100c is produced | generated and the noise removal image 102 is produced | generated by removing the image component of the low frequency image 100c from the singular point removal image 100a. This image processing system generates a low-frequency image 100c after performing median filtering or average filtering, and performs processing to remove image components from the original image (singular point removed image 100a). Therefore, this image processing system can appropriately remove noise from the captured image 100 and more appropriately suppress a decrease in the detection accuracy of the precipitate D.

さらに、ノイズ除去部34は、階調変化抽出部46の処理の前に、ゼロ画像付加部44により、特異点除去画像100aの外周に沿ってゼロ画像を付加する。このゼロ画像付加部44は、階調変化抽出部46による最大値フィルタ及び最小値フィルタ処理の前に、画像の外周にゼロ画像を付加する。ゼロ画像を付加することにより、最大値フィルタ処理及び最小値フィルタ処理時の最外周の無効領域により、画像サイズが小さくなることを抑制することができる。   Further, the noise removing unit 34 adds a zero image along the outer periphery of the singular point removed image 100 a by the zero image adding unit 44 before the processing of the gradation change extracting unit 46. The zero image adding unit 44 adds a zero image to the outer periphery of the image before the maximum value filter and minimum value filter processing by the gradation change extracting unit 46. By adding the zero image, it is possible to prevent the image size from being reduced due to the invalid area on the outermost periphery during the maximum value filter processing and the minimum value filter processing.

また、2値化処理部36は、Pタイル部60によりPタイル処理を行う。2値化処理部36は、Pタイル処理により2値化処理における階調の閾値を決めることができるため、例えば画像の種類が変わっても、析出物Dの検出精度の低下を好適に抑制することができる。   Also, the binarization processing unit 36 performs P tile processing by the P tile unit 60. Since the binarization processing unit 36 can determine the threshold value of the gradation in the binarization process by the P tile process, for example, even if the type of the image changes, the decrease in the detection accuracy of the precipitate D is suitably suppressed. be able to.

また、2値化処理部36は、最小値フィルタ部62及び最大値フィルタ部64により、Pタイル処理を行った画像に対して、最小値フィルタ処理を行い、その後に最大値フィルタ処理を行う。2値化処理部36は、この処理により、2値化処理後の画像中のノイズを除去することができるため、析出物Dの検出精度の低下を好適に抑制することができる。   In addition, the binarization processing unit 36 performs the minimum value filtering process on the image that has been subjected to the P tile processing by the minimum value filtering unit 62 and the maximum value filtering unit 64, and then performs the maximum value filtering process. Since the binarization processing unit 36 can remove noise in the image after the binarization processing by this processing, it is possible to suitably suppress a decrease in the detection accuracy of the precipitate D.

また、析出物画像抽出部37は、2値化画像104の一方の階調の領域のうち、所定長J1(又はJ2)より長さが短く、又は、所定面積J3より面積が小さく、又は、所定円形度J4よりも円形度が小さい領域を、所定の形状以外の画像であるとして除去する。一般的に、析出物Dは、ある一定のサイズ以上であり、形状も複雑になり過ぎない。この析出物画像抽出部37は、サイズが小さすぎる領域や、形状が複雑な領域を析出部Dではないとして除去することが可能であるため、析出物Dの検出精度の低下を好適に抑制することができる。   Further, the precipitate image extraction unit 37 has a length shorter than the predetermined length J1 (or J2) in one gradation region of the binarized image 104, or an area smaller than the predetermined area J3, or An area having a circularity smaller than the predetermined circularity J4 is removed as an image other than the predetermined shape. In general, the precipitate D is not less than a certain size and the shape is not too complicated. Since the precipitate image extraction unit 37 can remove a region having a size that is too small or a region having a complicated shape as not being the precipitate unit D, it appropriately suppresses a decrease in the detection accuracy of the precipitate D. be able to.

また、析出物画像抽出部37は、2値化画像104の一方の階調の領域のうち、所定面積J5(充填面積)よりも面積が小さく、かつ、充填率が所定値よりも小さい領域を、所定の形状以外の画像であるとして除去する。この析出物画像抽出部37は、充填率が小さく形状が複雑すぎる領域を、析出部Dではないとして除去することが可能であるため、析出物Dの検出精度の低下を好適に抑制することができる。   In addition, the precipitate image extraction unit 37 has a region whose area is smaller than the predetermined area J5 (filling area) and whose filling rate is smaller than the predetermined value in one gradation area of the binarized image 104. Then, the image is removed as an image having a shape other than the predetermined shape. Since this deposit image extraction unit 37 can remove a region having a small filling rate and an excessively complicated shape as not being the precipitate portion D, it is possible to suitably suppress a decrease in the detection accuracy of the precipitate D. it can.

また、撮像画像取得部32は、対象物1の材料組織を転写したレプリカ2を電子顕微鏡170で撮像した撮像画像100を取得する。撮像画像100は、レプリカ2を撮像したものなので、対象物1の寿命評価を非破壊で行うことができる。   In addition, the captured image acquisition unit 32 acquires a captured image 100 obtained by capturing an image of the replica 2 to which the material structure of the target 1 is transferred with the electron microscope 170. Since the captured image 100 is an image of the replica 2, the life evaluation of the object 1 can be performed nondestructively.

また、本実施形態に係る画像処理システムは、析出物Dの画像同士の距離を算出する析出物間距離算出部38を有する。この画像処理システムは、析出物間距離算出部38により析出物D間の距離を算出するため、寿命評価を適切に行うことができる。   Further, the image processing system according to the present embodiment includes an inter-precipitate distance calculation unit 38 that calculates the distance between the images of the precipitate D. Since this image processing system calculates the distance between the precipitates D by the inter-precipitate distance calculation unit 38, the life evaluation can be appropriately performed.

以下、寿命評価装置10により本実施形態に係る画像処理システムを作動させた場合の、ディスプレイ22における画面構成について説明する。図20は、本実施形態に係る画像処理システムを作動させた場合の画面遷移を説明した説明図である。画像処理システムを作動させた場合、各操作画面がディスプレイ22に表示される。   Hereinafter, a screen configuration in the display 22 when the image processing system according to the present embodiment is operated by the life evaluation apparatus 10 will be described. FIG. 20 is an explanatory diagram illustrating screen transitions when the image processing system according to the present embodiment is operated. When the image processing system is operated, each operation screen is displayed on the display 22.

具体的には、図20に示すように、作業者が入力部24による本システムを起動させた場合、ディスプレイ22には、メイン画面110が表示される。作業者は、メイン画面110からファイル選択を行うことを決定すると、ファイル選択ダイアログ120が表示される。ここで、ファイルとは、対象物評価用画像106を生成するための撮像画像100が保存されているファイルであり、ファイル選択ダイアログ120には、撮像画像100が保存されているファイルが表示される。作業者が、ファイル選択ダイアログ120から、処理を行う撮像画像100のファイルを選択すると、メイン画面110に戻る。なお、ここで、作業者は、複数の撮像画像100を同時に選択し、複数の撮像画像100に対し、処理を連続実行することも可能である。また、作業者がファイル選択を取り消しても、メイン画面110に戻る。   Specifically, as shown in FIG. 20, when the operator activates the system by the input unit 24, the main screen 110 is displayed on the display 22. When the operator decides to select a file from the main screen 110, a file selection dialog 120 is displayed. Here, the file is a file in which the captured image 100 for generating the object evaluation image 106 is stored, and the file in which the captured image 100 is stored is displayed in the file selection dialog 120. . When the operator selects a file of the captured image 100 to be processed from the file selection dialog 120, the screen returns to the main screen 110. Here, the operator can simultaneously select a plurality of captured images 100 and continuously execute processing on the plurality of captured images 100. Even if the operator cancels the file selection, the screen returns to the main screen 110.

図20に示すように、ファイル選択後のメイン画面110において、作業者は、パラメータ設定を行うことを決定すると、パラメータ設定ダイアログ130が表示される。パラメータ設定ダイアログ130は、対象物評価用画像106の生成処理用の各種パラメータを設定する画面である。作業者が、パラメータ設定ダイアログ130からパラメータの設定を完了すると、メイン画面に戻る。また、作業者がパラメータ設定を取り消しても、メイン画面110に戻る。   As shown in FIG. 20, on the main screen 110 after file selection, when the operator decides to set parameters, a parameter setting dialog 130 is displayed. The parameter setting dialog 130 is a screen for setting various parameters for generating the object evaluation image 106. When the operator completes the parameter setting from the parameter setting dialog 130, the screen returns to the main screen. Even if the operator cancels the parameter setting, the screen returns to the main screen 110.

さらに、図20に示すように、パラメータ設定ダイアログ130において、作業者がミクロンバーで画像の各部の長さ計測を行うことを決定すると、ミクロンバー計測ダイアログ140が表示される。ミクロンバー計測ダイアログ140は、撮像画像100中にミクロンバーを表示させて、画像中でのミクロンバーの長さを調整する画面である。ミクロンバーは、画像中での基準寸法を示すバーである。作業者が、ミクロンバー計測ダイアログ140からミクロンバーの各種設定を完了すると、パラメータ設定ダイアログ130に戻る。また、作業者がミクロンバーの各種設定を取り消しても、パラメータ設定ダイアログ130に戻る。なお、このミクロンバーの設定は、行っても行わなくてもよい。   Further, as shown in FIG. 20, when the operator decides to measure the length of each part of the image with the micron bar in the parameter setting dialog 130, the micron bar measurement dialog 140 is displayed. The micron bar measurement dialog 140 is a screen for displaying a micron bar in the captured image 100 and adjusting the length of the micron bar in the image. A micron bar is a bar indicating a reference dimension in an image. When the operator completes various settings of the micron bar from the micron bar measurement dialog 140, the process returns to the parameter setting dialog 130. Even if the operator cancels various settings of the micron bar, the parameter setting dialog 130 is displayed again. The micron bar setting may or may not be performed.

図20のように、パラメータ設定後のメイン画面110において、作業者は、対象物評価用画像106の生成を連続実行することを選択すると、対象物評価用画像106が作成され、連続実行結果ダイアログ150が表示される。連続実行は、複数の撮像画像100に対し、処理を連続実行することであり、連続実行結果ダイアログ150は、それぞれの対象物評価用画像106に基づいた析出物D間の距離の情報が表示される。また、作業者が連続実行結果ダイアログ150において連続実行処理を終了すると、メイン画面110に戻る。   As shown in FIG. 20, on the main screen 110 after parameter setting, when the operator selects to continuously generate the object evaluation image 106, the object evaluation image 106 is created, and the continuous execution result dialog is displayed. 150 is displayed. Continuous execution is to continuously execute processing on a plurality of captured images 100, and the continuous execution result dialog 150 displays information on the distance between the precipitates D based on the respective object evaluation images 106. The When the operator finishes the continuous execution process in the continuous execution result dialog 150, the screen returns to the main screen 110.

以下、各画面の一例の詳細を説明する。図21は、メイン画面の一例を示す図である。図21に示すように、メイン画面110には、表示111、112、113、114、117と、処理コマンド部116、118とが表示される。表示111は、撮像画像100が表示される。表示112は、表示111の撮像画像100に基づき生成された対象物評価用画像106に、析出物D間の距離を算出するための測定線が追加された画像が表示される。表示113は、撮像画像100に、対象物評価用画像106が重ね合わせた画像が表示される。表示114は、表示111、112、113に対応する対象物評価用画像106に基づいた析出物D間の距離の情報が表示される。表示117は、表示111、112、113、114に表示されている画像のサイズが表示されている。表示111、112、113、114は、同一の画面で表示されることにより、それぞれの画像を対比させることができる。   Details of an example of each screen will be described below. FIG. 21 is a diagram illustrating an example of a main screen. As shown in FIG. 21, the main screen 110 displays displays 111, 112, 113, 114, 117 and process command units 116, 118. The display 111 displays the captured image 100. The display 112 displays an image in which a measurement line for calculating the distance between the precipitates D is added to the object evaluation image 106 generated based on the captured image 100 of the display 111. The display 113 displays an image obtained by superimposing the object evaluation image 106 on the captured image 100. The display 114 displays information on the distance between the precipitates D based on the object evaluation image 106 corresponding to the displays 111, 112, and 113. The display 117 displays the size of the image displayed on the displays 111, 112, 113, and 114. The displays 111, 112, 113, and 114 are displayed on the same screen, so that respective images can be compared.

処理コマンド部116は、本システムを終了させる終了コマンド、ファイル選択コマンド、パラメータ設定コマンド、連続実行コマンド、連続2値化コマンド、編集操作モード選択コマンド等を有し、各コマンドを選択することで、それらの処理を行うことが可能となる。処理コマンド部118は、編集操作モード選択コマンドを選択した際に使用するコマンドであり、撮像画像100又は対象物評価用画像106を、手動で編集するコマンドである。   The processing command unit 116 has an end command for terminating the system, a file selection command, a parameter setting command, a continuous execution command, a continuous binarization command, an editing operation mode selection command, and the like. By selecting each command, These processes can be performed. The processing command unit 118 is a command used when an edit operation mode selection command is selected, and is a command for manually editing the captured image 100 or the object evaluation image 106.

図22は、パラメータ設定ダイアログの一例を示す図である。図22に示すように、パラメータ設定ダイアログ130は、表示131、132、133、134、136と、処理コマンド部135が表示される。表示131は、パラメータ入力部131aに数値を入力することにより、各フィルタ処理におけるカーネルの大きさのパラメータを設定することができる表示である。表示132は、パラメータ入力部132aに数値を入力することにより、Pタイル処理におけるパラメータを設定する表示である。表示133は、析出物画像抽出におけるパラメータを設定する表示であり、パラメータ入力部133aに数値を入力することにより、析出物領域Yではないとして除去される領域を決定するための閾値を設定することができる。表示134は、パラメータ入力部134aに数値を入力することにより、析出物D間の距離算出方法を設定することができる。表示136は、表示される画像における基準長さと画素数との比が表示される。処理コマンド部135は、ミクロンバー計測コマンド、ファイルからパラメータを読み込むためのコマンド、パラメータをファイルに保存するためのコマンド等を有する。   FIG. 22 is a diagram illustrating an example of a parameter setting dialog. As shown in FIG. 22, the parameter setting dialog 130 displays displays 131, 132, 133, 134, 136, and a processing command unit 135. The display 131 is a display in which a kernel size parameter in each filter process can be set by inputting a numerical value to the parameter input unit 131a. The display 132 is a display for setting parameters in the P tile process by inputting a numerical value to the parameter input unit 132a. The display 133 is a display for setting a parameter in the precipitate image extraction, and a threshold value for determining an area to be removed as not the precipitate area Y is set by inputting a numerical value to the parameter input unit 133a. Can do. The display 134 can set the distance calculation method between the precipitates D by inputting a numerical value to the parameter input unit 134a. The display 136 displays the ratio between the reference length and the number of pixels in the displayed image. The processing command unit 135 includes a micron bar measurement command, a command for reading parameters from a file, a command for saving parameters in a file, and the like.

図23は、ミクロンバー計測ダイアログの一例を示す図である。図23に示すように、ミクロンバー計測ダイアログ140は、表示141、処理コマンド144、145、146が表示される。表示141は、撮像画像100と、ミクロンバー142が表示されている。処理コマンド144は、表示141に表示される画像を選択するコマンドである。処理コマンド145は、ミクロンバー142の長さを設定するコマンドである。処理コマンド146は、ミクロンバー142の設定及び取り消しを行うコマンドである。ミクロンバー142は、端部142a、142bと、端部142a、142bの間の線部142cとで構成されている。ここで、撮像画像100は、所定の倍率で拡大されている画像である。ミクロンバー142は、撮像画像100の実際の寸法を示すための基準寸法を示すバーである。ミクロンバー計測ダイアログ140では、処理コマンド145で設定変更することにより、クロンバー142の基準寸法と撮像画像100における画素数との関係、すなわち画像の倍率を変更することが可能となっている。また、ミクロンバー計測ダイアログ140では、端部142a、142bの位置を調整してミクロンバー142の撮像画像100に対する相対長さを変化させることによっても、画像の倍率を変更することが可能となっている。この場合、制御部20は、画像の倍率変更に伴い、パラメータ設定ダイアログ130で設定したパラメータも連動して変更することも可能である。すなわち、制御部20は、倍率を2倍に変更した際、例えば析出物領域Yであると判断する際に用いるパラメータである所定長さを、倍率変更前の2倍とし、所定面積を倍率変更前の4倍となる。   FIG. 23 is a diagram illustrating an example of a micron bar measurement dialog. As shown in FIG. 23, in the micron bar measurement dialog 140, a display 141 and processing commands 144, 145, and 146 are displayed. The display 141 displays a captured image 100 and a micron bar 142. The processing command 144 is a command for selecting an image displayed on the display 141. The processing command 145 is a command for setting the length of the micron bar 142. The processing command 146 is a command for setting and canceling the micron bar 142. The micron bar 142 includes end portions 142a and 142b and a line portion 142c between the end portions 142a and 142b. Here, the captured image 100 is an image enlarged at a predetermined magnification. The micron bar 142 is a bar indicating a reference dimension for indicating an actual dimension of the captured image 100. In the micron bar measurement dialog 140, by changing the setting with the processing command 145, it is possible to change the relationship between the reference dimension of the cron bar 142 and the number of pixels in the captured image 100, that is, the magnification of the image. In the micron bar measurement dialog 140, the magnification of the image can also be changed by adjusting the positions of the ends 142a and 142b to change the relative length of the micron bar 142 with respect to the captured image 100. Yes. In this case, the control unit 20 can also change the parameters set in the parameter setting dialog 130 in conjunction with the change in the image magnification. That is, when the magnification is changed to 2 times, the control unit 20 sets the predetermined length, which is a parameter used when determining the precipitate region Y, to be 2 times before the magnification change, and changes the predetermined area to the magnification. 4 times the previous time.

図24は、連続実行結果ダイアログの一例を示す図である。図24に示すように、連続実行結果ダイアログ150は、表示151、152、153、処理コマンド部154が表示される。表示151、152には、処理パラメータ等が表示されている。表示153は、対象物評価用画像106に基づいた析出物D間の距離の情報が複数表示される。処理コマンド部154は、本処理を終了するコマンド、結果を印刷するコマンドを有する。   FIG. 24 is a diagram illustrating an example of a continuous execution result dialog. As shown in FIG. 24, the continuous execution result dialog 150 displays displays 151, 152, 153, and a processing command section 154. In the displays 151 and 152, processing parameters and the like are displayed. The display 153 displays a plurality of information on the distance between the precipitates D based on the object evaluation image 106. The processing command unit 154 has a command for ending this processing and a command for printing the result.

以上、本発明の実施形態を説明したが、この実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。   As mentioned above, although embodiment of this invention was described, embodiment is not limited by the content of this embodiment. In addition, the above-described constituent elements include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range. Furthermore, the above-described components can be appropriately combined. Furthermore, various omissions, substitutions, or changes of the components can be made without departing from the spirit of the above-described embodiment.

1 対象物
2 レプリカ
10 寿命評価装置
20 制御部
22 ディスプレイ
24 入力部
26 記憶部
32 撮像画像取得部
33 パラメータ取得部
34 ノイズ除去部
36 2値化処理部
37 析出物画像抽出部
38 析出物間距離算出部
39 寿命評価部
42 特異点除去部
44 ゼロ画像付加部
46 階調変化抽出部
50、64 最大値フィルタ部
52、62 最小値フィルタ部
54 低周波画像除去部
60 Pタイル部
66 析出物候補画像抽出部
68 他成分画像除去部
100 撮像画像
100a 特異点除去画像
100b ゼロ付加画像
100c 低周波画像
100d 高周波画像
101 ゼロ画像
102 ノイズ除去画像
102a Pタイル画像
104 2値化画像
106 対象物評価用画像
170 電子顕微鏡
D 析出物
S 鋼領域
X 析出物候補領域
領域
Y 析出物領域
DESCRIPTION OF SYMBOLS 1 Object 2 Replica 10 Life evaluation apparatus 20 Control part 22 Display 24 Input part 26 Storage part 32 Captured image acquisition part 33 Parameter acquisition part 34 Noise removal part 36 Binarization process part 37 Precipitate image extraction part 38 Distance between precipitates Calculation unit 39 Life evaluation unit 42 Singular point removal unit 44 Zero image addition unit 46 Gradation change extraction unit 50, 64 Maximum value filter unit 52, 62 Minimum value filter unit 54 Low frequency image removal unit 60 P tile unit 66 Precipitate candidate Image extraction unit 68 Other component image removal unit 100 Captured image 100a Singularity removal image 100b Zero added image 100c Low frequency image 100d High frequency image 101 Zero image 102 Noise removal image 102a P tile image 104 Binary image 106 Image for object evaluation 170 Electron microscope D Precipitate S Steel region X Precipitate candidate region Area X 1 area Y Precipitate area

Claims (12)

対象物であるフェライト系耐熱鋼の材料組織の画像に含まれる析出物を抽出する画像処理方法であって、
前記対象物の材料組織を電子顕微鏡で撮像して撮像画像を生成する撮像ステップと、
前記撮像画像からノイズ成分を除去してノイズ除去画像を生成するノイズ除去ステップと、
前記ノイズ除去画像に対して、複数階調を有する画像を2階調に変換する処理である2値化処理を行って、2値化画像を生成する2値化ステップと、
前記2値化画像の一方の階調を有する領域のうち、所定の形状の領域を前記析出物の画像であると判断し、前記所定の形状以外の領域を除去することにより、前記析出物の画像を抽出する析出物画像抽出ステップと、
を有する、画像処理方法。
An image processing method for extracting precipitates contained in an image of a material structure of a ferritic heat resistant steel that is an object,
An imaging step of imaging the material structure of the object with an electron microscope to generate a captured image;
A noise removing step of removing a noise component from the captured image to generate a noise-removed image;
A binarization step of generating a binarized image by performing a binarization process that is a process of converting an image having a plurality of gradations into two gradations on the noise-removed image;
Of the region having one gradation of the binarized image, a region having a predetermined shape is determined to be an image of the precipitate, and by removing the region other than the predetermined shape, A precipitate image extracting step for extracting an image; and
An image processing method.
前記ノイズ除去ステップは、
前記撮像画像から、周囲の画素の階調に対して階調が特異である特異点を除去して特異点除去画像を生成する特異点除去ステップと、
前記特異点除去画像から画素間の階調変化が大きい領域を抽出して、前記ノイズ除去画像を生成する階調変化抽出ステップと、を有する、請求項1に記載の画像処理方法。
The noise removing step includes:
A singular point removal step of generating a singular point removal image by removing singular points whose gradation is singular with respect to the gradation of surrounding pixels from the captured image;
2. The image processing method according to claim 1, further comprising: a gradation change extraction step of extracting a region having a large gradation change between pixels from the singular point-removed image and generating the noise-removed image.
前記ノイズ除去ステップは、
前記特異点除去ステップにおいて、中央値フィルタ処理又は平均値フィルタ処理を行い、
前記階調変化抽出ステップにおいて、前記特異点除去画像に対して最大値フィルタ処理を行い、その後最小値フィルタ処理を行うことにより、低周波画像を生成し、前記特異点除去画像から前記低周波画像の画像成分を除去することで、前記ノイズ除去画像を生成する、請求項2に記載の画像処理方法。
The noise removing step includes:
In the singularity removal step, median filtering or average filtering is performed,
In the gradation change extracting step, a maximum value filtering process is performed on the singular point removal image, and then a minimum value filtering process is performed to generate a low frequency image, and the low frequency image is generated from the singular point removal image. The image processing method according to claim 2, wherein the noise-removed image is generated by removing the image component.
前記ノイズ除去ステップは、前記階調変化抽出ステップの前に、前記特異点除去画像の外周に沿って、階調値がゼロであるゼロ画像を付加する、請求項2又は請求項3に記載の画像処理方法。   The noise removal step adds a zero image having a gradation value of zero along the outer periphery of the singular point removal image before the gradation change extraction step. Image processing method. 前記2値化ステップは、前記ノイズ除去画像中の画素を高階調画素と低階調画素とに区分した場合に、前記高階調画素数の割合が所定の比率以上となる階調を閾値とし、前記閾値以上の階調を有する画素を前記2階調のうち1つの階調とし、前記閾値より小さい階調を有する画素を前記2階調のうち他の1つの階調とするPタイル処理を行う、請求項1から請求項4のいずれか1項に記載の画像処理方法。   In the binarization step, when pixels in the noise-removed image are divided into high gradation pixels and low gradation pixels, a gradation at which the ratio of the number of high gradation pixels is a predetermined ratio or more is set as a threshold value. P tile processing in which a pixel having a gradation equal to or higher than the threshold is set as one of the two gradations, and a pixel having a gradation smaller than the threshold is set as another of the two gradations. The image processing method according to claim 1, wherein the image processing method is performed. 前記2値化ステップは、さらに、前記Pタイル処理を行った前記ノイズ除去画像に対して最大値フィルタ処理を行い、その後最小値フィルタ処理を行う、請求項5に記載の画像処理方法。   6. The image processing method according to claim 5, wherein the binarization step further performs a maximum value filter process on the noise-removed image subjected to the P tile process, and then performs a minimum value filter process. 前記析出物画像抽出ステップは、前記2値化画像の一方の階調の領域のうち、所定長より長さが短く、又は、所定面積より面積が小さく、又は、所定の円形度よりも円形度が小さい領域を、前記所定の形状以外の画像であるとして除去する、請求項1から請求項6のいずれか1項に記載の画像処理方法。   In the precipitate image extraction step, the length of one gradation region of the binarized image is shorter than a predetermined length, or an area is smaller than a predetermined area, or the circularity is higher than a predetermined circularity. The image processing method according to any one of claims 1 to 6, wherein a region having a small size is removed as an image having a shape other than the predetermined shape. 前記析出物画像抽出ステップは、さらに、前記2値化画像の一方の階調の領域のうち、前記所定面積より面積が大きい充填面積よりも面積が小さく、かつ、領域の外接矩形の面積に対する自身の面積の割合を示す充填率が、所定値よりも小さい領域を、前記所定の形状以外の画像であるとして除去する、請求項7に記載の画像処理方法。   The precipitate image extraction step further includes a region having a smaller area than a filling area having an area larger than the predetermined area in one gradation region of the binarized image, and the area of a circumscribed rectangle of the region. The image processing method according to claim 7, wherein an area having a filling rate indicating a ratio of the area is smaller than a predetermined value is removed as an image other than the predetermined shape. 前記撮像ステップは、前記対象物の材料組織を転写したレプリカを前記電子顕微鏡で撮像した前記撮像画像を取得する、請求項1から請求項8のいずれか1項に記載の画像処理方法。   9. The image processing method according to claim 1, wherein the imaging step acquires the captured image obtained by imaging the replica obtained by transferring the material structure of the object with the electron microscope. さらに、前記析出物の画像同士の距離を算出する析出物間距離算出ステップを有する、請求項1から請求項9のいずれか1項に記載の画像処理方法。   Furthermore, the image processing method of any one of Claim 1 to 9 which has the distance calculation step between precipitates which calculates the distance between the images of the said precipitate. 請求項1から請求項10のいずれか1項に記載の画像処理方法により抽出した前記析出物に基づき、前記対象物の寿命評価を行う、対象物の寿命評価方法。   The life evaluation method of the target object which performs the life evaluation of the said target object based on the said deposit extracted by the image processing method of any one of Claims 1-10. 対象物であるフェライト系耐熱鋼の材料組織の画像に含まれる析出物を抽出する画像処理システムであって、
前記対象物の材料組織の撮像画像を取得する撮像画像取得部と、
前記撮像画像からノイズ成分を除去してノイズ除去画像を生成するノイズ除去部と、
前記ノイズ除去画像に対して、複数階調を有する画像を2階調に変換する処理である2値化処理を行って、2値化画像を生成する2値化処理部と、
前記2値化画像の一方の階調の画像のうち、所定の形状である領域を前記析出物の画像であると判断して、前記所定の形状以外の領域を除去することにより、前記析出物の画像を抽出する析出物画像抽出部と、
を有する、画像処理システム。
An image processing system for extracting precipitates contained in an image of a material structure of a ferritic heat resistant steel that is an object,
A captured image acquisition unit that acquires a captured image of the material tissue of the object;
A noise removing unit that removes a noise component from the captured image to generate a noise-removed image;
A binarization processing unit that generates a binarized image by performing binarization processing that is a process of converting an image having a plurality of gradations into two gradations on the noise-removed image;
By determining that a region having a predetermined shape is an image of the precipitate in one gradation image of the binarized image, and removing the region other than the predetermined shape, the precipitate A precipitate image extraction unit for extracting the image of
An image processing system.
JP2015070190A 2015-03-30 2015-03-30 Image processing method, object life evaluation method, and image processing system Active JP5864005B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015070190A JP5864005B1 (en) 2015-03-30 2015-03-30 Image processing method, object life evaluation method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015070190A JP5864005B1 (en) 2015-03-30 2015-03-30 Image processing method, object life evaluation method, and image processing system

Publications (2)

Publication Number Publication Date
JP5864005B1 JP5864005B1 (en) 2016-02-17
JP2016191556A true JP2016191556A (en) 2016-11-10

Family

ID=55346928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015070190A Active JP5864005B1 (en) 2015-03-30 2015-03-30 Image processing method, object life evaluation method, and image processing system

Country Status (1)

Country Link
JP (1) JP5864005B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194539A (en) * 2017-02-06 2018-12-06 Jfeスチール株式会社 Deposit particle size distribution evaluation method, and manufacturing method of steel plate
JP2020024188A (en) * 2018-08-03 2020-02-13 住友金属鉱山株式会社 Analysis method for powder shape, evaluation method for powder fluidity, and evaluation method for fluidity of resin with powder dispersed therein
CN111062309A (en) * 2019-12-13 2020-04-24 吉林大学 Method, storage medium and system for detecting traffic signs in rainy days

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110561662A (en) * 2019-08-27 2019-12-13 江苏睿博环保设备有限公司 Intelligent reclaimed rubber feeding method and device
CN112906639B (en) * 2021-03-19 2024-02-20 北京科技大学 Image recognition method and device for ferrite in chromium alloy steel

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3015599B2 (en) * 1992-08-25 2000-03-06 三菱重工業株式会社 Creep damage evaluation method for ferritic heat-resistant steel
JP4031608B2 (en) * 2000-04-18 2008-01-09 三菱重工業株式会社 Material life evaluation method
WO2012164655A1 (en) * 2011-05-28 2012-12-06 株式会社メガトレード Automatic inspection device and automatic inspection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018194539A (en) * 2017-02-06 2018-12-06 Jfeスチール株式会社 Deposit particle size distribution evaluation method, and manufacturing method of steel plate
JP2020024188A (en) * 2018-08-03 2020-02-13 住友金属鉱山株式会社 Analysis method for powder shape, evaluation method for powder fluidity, and evaluation method for fluidity of resin with powder dispersed therein
JP7205399B2 (en) 2018-08-03 2023-01-17 住友金属鉱山株式会社 Powder shape analysis method
CN111062309A (en) * 2019-12-13 2020-04-24 吉林大学 Method, storage medium and system for detecting traffic signs in rainy days
CN111062309B (en) * 2019-12-13 2022-12-30 吉林大学 Method, storage medium and system for detecting traffic signs in rainy days

Also Published As

Publication number Publication date
JP5864005B1 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5864005B1 (en) Image processing method, object life evaluation method, and image processing system
JP5080649B2 (en) Steel bridge coating film inspection system using image processing method and processing method thereof
JP4006007B2 (en) Crack detection method
JP5385593B2 (en) Crack detection method
JP5852919B2 (en) Crack detection method
JP5894012B2 (en) Method for detecting linear deformation on concrete surface
JP2014228357A (en) Crack detecting method
JP6811217B2 (en) Crack identification method, crack identification device, crack identification system and program on concrete surface
CN113469971B (en) Image matching method, detection device and storage medium
JP5812705B2 (en) Crack detection method
JP5705711B2 (en) Crack detection method
JP4870016B2 (en) Crack detection method
JP2012168013A (en) Defect detecting device, defect detecting method, and computer program
CN115311289A (en) Method for detecting oil stain defects of plain-color cloth
JP5088165B2 (en) Defect detection method and defect detection apparatus
WO2015115499A1 (en) Tool inspection method and tool inspection device
JP2011227748A (en) Image processing apparatus, image processing method, image processing program, and defect detection apparatus
JP2011008482A (en) Defect detection method, defect detection device and defect detection program
JP4743231B2 (en) Appearance inspection method and appearance inspection apparatus
JP2013200298A (en) Dispersion property evaluation method of island part in resin composition, and dispersion property evaluation device of island part in resin composition
JP4980739B2 (en) Crack detection method
JP4743230B2 (en) Appearance inspection method and appearance inspection apparatus
JPWO2018074459A1 (en) Image processing apparatus, image processing method, and image processing program
JP7356010B2 (en) Surface texture inspection device and surface texture inspection method
JP6114559B2 (en) Automatic unevenness detector for flat panel display

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151222

R150 Certificate of patent or registration of utility model

Ref document number: 5864005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350