JP2019007944A - Segregation detection method and segregation detection device - Google Patents

Segregation detection method and segregation detection device Download PDF

Info

Publication number
JP2019007944A
JP2019007944A JP2018078895A JP2018078895A JP2019007944A JP 2019007944 A JP2019007944 A JP 2019007944A JP 2018078895 A JP2018078895 A JP 2018078895A JP 2018078895 A JP2018078895 A JP 2018078895A JP 2019007944 A JP2019007944 A JP 2019007944A
Authority
JP
Japan
Prior art keywords
segregation
region
image
unknown
analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018078895A
Other languages
Japanese (ja)
Inventor
悠 浅井
Yu Asai
悠 浅井
尚和 迫田
Hisakazu Sakota
尚和 迫田
孝司 三宅
Koji Miyake
孝司 三宅
元樹 柿崎
Motoki Kakizaki
元樹 柿崎
研三 綾田
Kenzo Ayada
研三 綾田
和久 浜元
Kazuhisa Hamamoto
和久 浜元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Publication of JP2019007944A publication Critical patent/JP2019007944A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To detect a segregation area contained in a steel material cross-section with a high accuracy.SOLUTION: A segregation detection method acquires an image representing a transfer body of an etched steel material cross-section, and specifies a plurality of low brightness areas by a predetermined brightness in the image, calculates an image feature amount of each of the plurality of low brightness areas, creates classification data associated with a determination result of whether each of the plurality of low brightness areas is a segregation area by visual inspection and the image feature amount of each of the plurality of low brightness areas, defines the image feature amount contained in the classification data as an explanatory variable and defines the determination result as an objective variable, classifies whether each of a plurality of unknown low brightness areas is the segregation area by applying a model to the image feature amount of each of the plurality of unknown low brightness areas specified in the unknown image representing a transfer body for analysis after an analysis step of constructing the model of the explanatory variable for classifying the objective variable is completed, and detects each of the segregation areas classified as the segregation area.SELECTED DRAWING: Figure 3

Description

本発明は、エッチングされた鋼材断面の転写体を表す画像を用いて偏析領域を検出する技術に関するものである。   The present invention relates to a technique for detecting a segregation region using an image representing a transfer body of an etched steel cross section.

従来から、鋼材品質を評価するために、鋼材に発生している偏析の領域(以降、偏析領域)の面積や大きさを評価することが知られている。この偏析領域の面積や大きさを評価するために、EPMA(Electron Probe Micro Analyzer)によって、鋼材断面の成分分析を行うことが知られている。しかし、この成分分析は、評価対象となる偏析領域の面積が狭く、局所的であることや、分析結果を得るまで時間を要するため、操業へのフィードバックが遅れることが課題となっている。   Conventionally, in order to evaluate the quality of steel materials, it is known to evaluate the area and size of segregation regions (hereinafter referred to as segregation regions) occurring in steel materials. In order to evaluate the area and size of this segregation region, it is known to perform component analysis of a steel material cross section by EPMA (Electron Probe Micro Analyzer). However, this component analysis has a problem in that the area of the segregation region to be evaluated is narrow and local, and it takes time to obtain the analysis result, so that feedback to the operation is delayed.

そこで、迅速に偏析の状態を評価する方法として、例えば、特許文献1等に記載のように、エッチングされた鋼材断面の転写体を表す画像に対して二値化等の画像処理を行い、当該画像処理後の画像から、低輝度の領域を偏析領域として検出する方法が知られている。   Therefore, as a method for quickly evaluating the state of segregation, for example, as described in Patent Document 1, etc., image processing such as binarization is performed on an image representing a transfer body of an etched steel material cross section, A method of detecting a low luminance area as a segregation area from an image after image processing is known.

特開平1−167636号公報JP-A-1-167636

しかし、上記従来技術では、画像処理後の画像に、偏析以外のマクロ組織やエッチング時の加工痕等を表す画像が、偏析領域と同程度の低輝度な画像として含まれる虞があった。このため、偏析領域以外の領域を偏析領域として過剰に検出(以降、過検出)してしまい、偏析領域を高精度に検出できない虞があった。   However, in the above-described prior art, there is a possibility that the image after image processing includes an image representing a macro structure other than segregation, a processing mark at the time of etching, and the like as a low-luminance image similar to the segregation region. For this reason, an area other than the segregation area is excessively detected as a segregation area (hereinafter, overdetection), and the segregation area may not be detected with high accuracy.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、鋼材断面に含まれている偏析領域を高精度に検出することができる技術を提供することである。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a technique capable of detecting a segregation region included in a steel cross section with high accuracy.

本発明の一態様に係る偏析検出方法は、エッチングされた鋼材断面の転写体を表す画像を取得する画像取得ステップと、前記画像における所定輝度より低輝度な複数の低輝度領域を特定する画像処理ステップと、前記複数の低輝度領域其々の画像特徴量を算出する画像特徴量算出ステップと、前記複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と前記算出された前記複数の低輝度領域其々の画像特徴量とを対応付けた分類データを作成する分類データ作成ステップと、前記分類データに含まれている前記画像特徴量を説明変数とし、前記分類データに含まれている前記判別結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである分類モデルを構築する分類モデル構築ステップと、を順に実行する分析ステップと、前記分析ステップの終了後に、前記分析ステップで用いた前記転写体とは異なる解析用の前記転写体を用いて前記画像取得ステップと前記画像処理ステップと前記画像特徴量算出ステップとを順に実行した後、前記解析用の前記転写体を表す未知画像において特定された複数の未知低輝度領域其々の画像特徴量に対して、前記分類モデルを適用することによって、前記複数の未知低輝度領域其々が偏析領域であるか否かを分類する分類ステップと、前記複数の未知低輝度領域のうち、前記分類ステップによって偏析領域であると分類された其々を、偏析領域として検出する偏析検出ステップと、を順に実行する解析ステップと、を有することを特徴とする。   The segregation detection method according to one aspect of the present invention includes an image acquisition step of acquiring an image representing a transfer body of an etched steel cross section, and image processing for specifying a plurality of low-brightness regions having a lower brightness than a predetermined brightness in the image A step, an image feature amount calculating step for calculating an image feature amount for each of the plurality of low luminance regions, a determination result for visually determining whether each of the plurality of low luminance regions is a segregation region, and A classification data creating step for creating classification data in which the calculated image feature quantities of the plurality of low-luminance areas are associated with each other, and the image feature quantities included in the classification data are used as explanatory variables, and the classification A classification model construction step of constructing a classification model that is a model of the explanatory variable for classifying the objective variable, using the discrimination result included in the data as an objective variable, An analysis step to be executed, and after completion of the analysis step, the image acquisition step, the image processing step, and the image feature amount calculation using the transfer body for analysis different from the transfer body used in the analysis step. And sequentially executing the step, and applying the classification model to the image feature quantities of each of the plurality of unknown low-luminance regions specified in the unknown image representing the transfer body for analysis. A step of classifying whether each of the unknown low-intensity regions is a segregation region, and among the plurality of unknown low-intensity regions, each of the plurality of unknown low-intensity regions classified as a segregation region by the classification step And a segregation detection step for detecting as follows, and an analysis step for sequentially executing.

また、本発明の一態様に係る偏析検出装置は、エッチングされた鋼材断面の転写体を表す画像を取得する画像取得部と、前記画像における所定輝度より低輝度な複数の低輝度領域を特定する画像処理部と、前記複数の低輝度領域其々の画像特徴量を算出する画像特徴量算出部と、前記複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と前記算出された前記複数の低輝度領域其々の画像特徴量とを対応付けた分類データを作成する分類データ作成部と、前記分類データに含まれている前記画像特徴量を説明変数とし、前記分類データに含まれている前記判別結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである分類モデルを構築する分類モデル構築部と、前記画像取得部と、前記画像処理部と、前記画像特徴量算出部と、前記分類データ作成部と、前記分類モデル構築部と、を順に動作させる分析処理を行う分析部と、分類部と、偏析検出部と、前記分析部による前記分析処理の終了後に、前記分析処理で用いた前記転写体とは異なる解析用の前記転写体を用いて前記画像取得部と前記画像処理部と前記画像特徴量算出部とを順に動作させた後、前記分類部と前記偏析検出部とを順に動作させる解析処理を行う解析部と、を備え、前記解析処理において、前記分類部は、前記解析用の前記転写体を表す未知画像において特定された複数の未知低輝度領域其々の画像特徴量に対して、前記分類モデルを適用することによって、前記複数の未知低輝度領域其々が偏析領域であるか否かを分類し、前記偏析検出部は、前記複数の未知低輝度領域のうち、前記分類部によって偏析領域であると分類された其々を、偏析領域として検出することを特徴とする。   In addition, the segregation detection apparatus according to an aspect of the present invention specifies an image acquisition unit that acquires an image representing a transfer body of an etched steel material cross section, and a plurality of low-brightness regions that have lower brightness than a predetermined brightness in the image. An image processing unit, an image feature amount calculating unit that calculates an image feature amount of each of the plurality of low-luminance regions, and a discrimination result that visually discriminates whether or not each of the plurality of low-luminance regions is a segregation region And a classification data creation unit that creates classification data that associates the calculated image feature amounts of the plurality of low-luminance regions with each other, and the image feature amount included in the classification data as an explanatory variable, A classification model construction unit that constructs a classification model that is a model of the explanatory variable for classifying the objective variable, the classification result included in the classification data as an objective variable, the image acquisition unit, and the image An analysis unit that performs an analysis process for sequentially operating a processing unit, the image feature amount calculation unit, the classification data creation unit, and the classification model construction unit, a classification unit, a segregation detection unit, and the analysis unit After completion of the analysis processing by the above, the image acquisition unit, the image processing unit, and the image feature amount calculation unit are operated in order using the transfer body for analysis different from the transfer body used in the analysis processing. And an analysis unit that performs an analysis process that sequentially operates the classification unit and the segregation detection unit. In the analysis process, the classification unit is identified in an unknown image that represents the transfer body for analysis. By applying the classification model to the image feature quantities of the plurality of unknown low-luminance regions, the plurality of unknown low-luminance regions are classified as segregation regions, and the segregation The detection unit is configured to detect the plurality of unread Of the low luminance area, a 其 people that have been classified as segregation area by the classifying unit, and detects as the segregation area.

これらの構成によれば、前記転写体を表す画像において特定された複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果を目的変数とし、当該複数の低輝度領域其々の画像特徴量を説明変数として、目的変数を分類するための説明変数のモデルである分類モデルが構築される。そして、解析用の転写体を表す未知画像において特定された未知低輝度領域其々の画像特徴量に対して前記分類モデルを適用することによって、未知低輝度領域が偏析領域であるか否かが分類される。   According to these configurations, the plurality of low-luminance areas are determined by using, as objective variables, the determination results obtained by visually determining whether or not each of the plurality of low-luminance areas specified in the image representing the transfer body is a segregation area. Using each image feature amount as an explanatory variable, a classification model that is a model of explanatory variables for classifying objective variables is constructed. Then, by applying the classification model to the image feature amount of each unknown low-brightness area specified in the unknown image representing the analysis transfer body, it is determined whether or not the unknown low-brightness area is a segregation area. being classified.

このため、従来技術のように低輝度な領域であるか否かを考慮するだけでなく、前記分類モデルを用いて、未知低輝度領域の画像特徴量が、目視によって偏析領域と判別された低輝度領域の画像特徴量に該当するか否かを更に考慮して、より精度良く、未知低輝度領域が偏析領域であるか否かを分類することができる。その結果、高精度に偏析領域を検出することができる。   For this reason, not only whether or not it is a low-luminance region as in the prior art, but also using the classification model, the image feature amount of the unknown low-luminance region is visually identified as a segregation region. It is possible to classify whether or not the unknown low luminance region is a segregation region with higher accuracy by further considering whether or not the image feature amount corresponds to the luminance region. As a result, the segregation region can be detected with high accuracy.

また、前記分類データ作成ステップにおいて、前記複数の低輝度領域のうち、前記画像における所定の第一領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第一分類データと、前記複数の低輝度領域のうち、前記画像における前記第一領域とは異なる第二領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第二分類データと、を個別に作成し、前記分類モデル構築ステップにおいて、前記第一分類データを用いて第一分類モデルを構築し、前記第二分類データを用いて第二分類モデルを構築し、前記分類ステップにおいて、前記複数の未知低輝度領域のうち、前記未知画像における前記第一領域に対応する第一対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第一分類モデルを適用することによって、前記第一対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類し、前記複数の未知低輝度領域のうち、前記未知画像における前記第二領域に対応する第二対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第二分類モデルを適用することによって、前記第二対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類することが好ましい。   Further, in the classification data creation step, the discrimination result and the image feature amount for each of the low luminance areas included in the predetermined first area of the image among the plurality of low luminance areas are associated with each other. The classification result and the image feature amount are associated with one classification data and the low luminance areas included in the second area different from the first area in the image among the plurality of low luminance areas. Second classification data individually, and in the classification model construction step, a first classification model is constructed using the first classification data, and a second classification model is constructed using the second classification data. In the classification step, among the plurality of unknown low-brightness areas, the image feature amount of each unknown low-brightness area included in the first corresponding area corresponding to the first area in the unknown image On the other hand, by applying the first classification model, to classify whether or not each unknown low luminance region included in the first corresponding region is a segregation region, among the plurality of unknown low luminance regions, Included in the second corresponding region by applying the second classification model to the image feature amount of each unknown low-luminance region included in the second corresponding region corresponding to the second region in the unknown image It is preferable to classify whether or not each unknown low-luminance region is a segregation region.

本構成によれば、前記転写材を表す画像における第一領域に含まれる低輝度領域の画像特徴量に基づく第一分類モデルと、当該画像における第二領域に含まれる低輝度領域の画像特徴量に基づく第二分類モデルと、が個別に構築される。   According to this configuration, the first classification model based on the image feature amount of the low brightness area included in the first area in the image representing the transfer material, and the image feature amount of the low brightness area included in the second area of the image And a second classification model based on

このため、分類ステップにおいて、未知画像における、第一領域に対応する第一対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、第一分類モデルを適用することによって、第一領域に含まれる目視によって偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、当該未知低輝度領域其々が偏析領域であるか否かをより精度良く分類することができる。これと同様に、第二領域に含まれる目視によって偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、第二対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かをより精度良く分類することができる。   For this reason, in the classification step, the first classification model is applied to the image feature amount of each unknown low-luminance area included in the first corresponding area corresponding to the first area in the unknown image. It is possible to classify whether or not each of the unknown low-luminance areas is a segregation area with higher accuracy in consideration of an image feature amount specific to the low-luminance area that is discriminated as a segregation area by visual inspection. Similarly, each of the unknown low-luminance regions included in the second corresponding region is a segregation region in consideration of the image feature amount peculiar to the low-luminance region determined as a segregation region by visual observation included in the second region. It is possible to classify whether or not.

また、前記鋼材断面は、鋳片を鋳造方向と平行に切断したときの断面であり、前記第一領域は、前記画像における垂直方向の中心付近において水平方向に延びる中心偏析解析領域であってもよい。   The steel material cross section is a cross section when the slab is cut in parallel to the casting direction, and the first area is a central segregation analysis area extending in the horizontal direction in the vicinity of the vertical center in the image. Good.

鋳片には、垂直方向の中心付近において、中心偏析と呼ばれる、鋳造方向に対して水平に連なる偏析が発生する。一方、鋳片の垂直方向の中心以外には、V偏析と呼ばれる、鋳片表面から垂直方向の中心部に向かって鋳造方向に対して斜めに連なる偏析が発生する。   In the slab, in the vicinity of the center in the vertical direction, segregation, which is called center segregation, continues in a horizontal direction with respect to the casting direction. On the other hand, in addition to the center of the slab in the vertical direction, segregation called V segregation occurs obliquely with respect to the casting direction from the slab surface toward the center in the vertical direction.

したがって、本構成によれば、第一領域である中心偏析解析領域に含まれる、目視によって中心偏析の偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、未知画像における中心偏析解析領域に対応する第一対応領域に含まれる未知低輝度領域其々が、中心偏析の偏析領域であるか否かをより精度良く分類することができる。これと同様に、中心偏析解析領域とは異なる第二領域に含まれる、目視によって偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、第二対応領域に含まれる未知低輝度領域其々が、V偏析の偏析領域であるか否かをより精度良く分類することができる。   Therefore, according to this configuration, the center segregation in the unknown image is considered in consideration of the image feature amount peculiar to the low luminance area that is visually identified as the center segregation segregation area included in the center segregation analysis area that is the first area. It is possible to classify more accurately whether each unknown low-luminance region included in the first corresponding region corresponding to the analysis region is a segregation region of central segregation. Similarly, the unknown low luminance included in the second corresponding region is considered in consideration of the image features specific to the low luminance region included in the second region different from the central segregation analysis region and visually identified as the segregation region. Whether each region is a segregation region of V segregation can be classified with higher accuracy.

また、前記分類データ作成ステップにおいて、前記複数の低輝度領域のうち、前記第二領域における、前記中心偏析解析領域よりも垂直方向上方側の第三領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第三分類データと、前記複数の低輝度領域のうち、前記第二領域における、前記中心偏析解析領域よりも垂直方向下方側の第四領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第四分類データと、を個別に作成し、前記分類モデル構築ステップにおいて、前記第三分類データを用いて第三分類モデルを構築し、前記第四分類データを用いて第四分類モデルを構築し、前記分類ステップにおいて、前記複数の未知低輝度領域のうち、前記未知画像における前記第三領域に対応する第三対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第三分類モデルを適用することによって、前記第三対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類し、前記複数の未知低輝度領域のうち、前記未知画像における前記第四領域に対応する第四対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第四分類モデルを適用することによって、前記第四対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類することが好ましい。   Further, in the classification data creation step, among the plurality of low luminance regions, in the second region, the low luminance regions each included in a third region vertically above the central segregation analysis region. Included in the fourth region of the second region, which is the lower side of the center segregation analysis region in the second region, among the plurality of low luminance regions, the third classification data in which the discrimination result and the image feature amount are associated Fourth classification data in which the discrimination result and the image feature amount for each low-luminance region to be associated are individually created, and in the classification model construction step, the third classification data is used to generate a third classification data. Constructing a classification model, constructing a fourth classification model using the fourth classification data, and in the classification step, out of the plurality of unknown low-luminance regions, the second in the unknown image. By applying the third classification model to the image features of the unknown low-brightness areas included in the third corresponding areas corresponding to the areas, the unknown low-luminance areas included in the third corresponding areas, respectively. Is a segregation area, and among the plurality of unknown low-brightness areas, the image feature amount of each unknown low-brightness area included in the fourth corresponding area corresponding to the fourth area in the unknown image On the other hand, it is preferable to classify whether or not each unknown low-luminance region included in the fourth corresponding region is a segregation region by applying the fourth classification model.

鋳片の垂直方向の中心部より垂直方向上方側の領域に発生するV偏析(以降、第一V偏析)及び鋳片の垂直方向の中心部より垂直方向下方側の領域に発生するV偏析(以降、第二V偏析)は、鋳片の垂直方向の中心部を軸として互いに垂直方向の上下に反転した特性を有する。つまり、前記転写材を表す画像から得られる第一V偏析の偏析領域の画像特徴量と、前記断面の転写材を表す画像から得られる第二V偏析の偏析領域の同画像特徴量とは、互いに異なる特性を有する。   V segregation (hereinafter referred to as first V segregation) occurring in a region vertically above the center of the slab in the vertical direction and V segregation occurring in regions vertically below the center of the slab in the vertical direction ( Hereinafter, the second V segregation) has a characteristic in which the vertical center of the slab is inverted up and down in the vertical direction. That is, the image feature amount of the segregation region of the first V segregation obtained from the image representing the transfer material and the image feature amount of the segregation region of the second V segregation obtained from the image representing the transfer material of the cross section are: Have different characteristics.

したがって、本構成によれば、中心偏析解析領域よりも垂直方向上方側の第三領域に含まれる、目視によって第一V偏析の偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、未知画像における第三領域に対応する第三対応領域に含まれる未知低輝度領域其々が、第一V偏析の偏析領域であるか否かをより精度良く分類することができる。これと同様に、中心偏析解析領域よりも垂直方向下方側の第四領域に含まれる、目視によって第二V偏析の偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、第四対応領域に含まれる未知低輝度領域其々が、第二V偏析の偏析領域であるか否かをより精度良く分類することができる。   Therefore, according to the present configuration, the image feature amount peculiar to the low-luminance region, which is visually identified as the segregation region of the first V segregation, is included in the third region vertically above the center segregation analysis region. Thus, it is possible to classify more accurately whether or not each unknown low-luminance region included in the third corresponding region corresponding to the third region in the unknown image is a segregation region of the first V segregation. Similarly, in consideration of the image feature amount peculiar to the low luminance region, which is visually identified as the second V segregation segregation region, which is included in the fourth region vertically below the center segregation analysis region, Whether or not each unknown low-luminance region included in the four corresponding regions is a segregation region of the second V segregation can be classified with higher accuracy.

また、前記画像処理ステップにおいて、前記画像に対して二値化処理を行い、当該二値化処理後の前記画像における低い側の輝度の領域を、前記複数の低輝度領域として特定することが好ましい。   Preferably, in the image processing step, binarization processing is performed on the image, and low-side luminance regions in the image after the binarization processing are specified as the plurality of low-luminance regions. .

本構成によれば、二値化処理後の未知画像における低い側の輝度の領域を未知低輝度領域として特定し、当該特定した未知低輝度領域が偏析領域であるか否かを精度良く分類することができる。   According to this configuration, the low-luminance area in the unknown image after binarization processing is identified as the unknown low-luminance area, and whether or not the identified unknown low-luminance area is a segregation area is classified with high accuracy. be able to.

また、前記分類モデル構築ステップにおいて、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて分類モデルを構築することが好ましい。   In the classification model construction step, it is preferable to construct a classification model using one or a plurality of statistical methods of decision trees, logistic regression, nearest neighbor methods, neural networks, support vector machines, and random forests.

本構成によれば、一般的な機械学習で用いられている、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて、分類モデルを構築することができる。   According to this configuration, using one or more statistical methods of decision tree, logistic regression, nearest neighbor method, neural network, support vector machine, and random forest used in general machine learning, A classification model can be built.

また、前記解析ステップの終了後に、前記偏析検出ステップにおいて検出された偏析領域其々の画像特徴量に基づき、前記未知画像の偏析領域に関する特徴量を導出する導出ステップと、前記未知画像の目視によって前記未知画像に対応する未知鋼材の品質が良好であるか否かを判定した判定結果と前記未知画像の前記特徴量とを対応付けた判定データを作成する判定データ作成ステップと、前記判定データに含まれている前記特徴量を説明変数とし、前記判定データに含まれている前記判定結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである判定モデルを構築する判定モデル構築ステップと、を順に実行する品質分析ステップと、前記品質分析ステップの終了後に、前記解析用の前記転写体とは異なる評価対象用の前記転写体を用いて前記解析ステップと前記導出ステップとを順に実行した後、前記評価対象用の前記転写体を表す未評価画像の前記特徴量に対して、前記判定モデルを適用することによって、前記未評価画像に対応する未評価鋼材の品質が良好であるか否かを判定する品質判定ステップと、を更に有してもよい。   Further, after the analysis step is completed, a derivation step for deriving a feature amount related to the segregation region of the unknown image based on the image feature amount of each segregation region detected in the segregation detection step, and visual inspection of the unknown image A determination data creating step for creating determination data in which the determination result for determining whether or not the quality of the unknown steel corresponding to the unknown image is good and the feature amount of the unknown image; and the determination data A determination model that builds a determination model that is a model of the explanatory variable for classifying the objective variable by using the feature amount included as an explanatory variable, the determination result included in the determination data as an objective variable, A quality analysis step for sequentially executing a construction step, and an evaluation pair different from the transcript for analysis after the quality analysis step is completed. Applying the determination model to the feature quantity of the unevaluated image representing the transfer body for the evaluation object after sequentially executing the analysis step and the derivation step using the transfer body for May further include a quality determination step of determining whether or not the quality of the unevaluated steel material corresponding to the unevaluated image is good.

鋼材の品質が良好であるか否かを鋼材断面の目視だけで判定する場合、判定が属人的になり、判定結果にばらつきが生じる虞がある。また、鋼材断面の偏析領域に関する特徴量の把握に時間を要し、鋼材の品質が良好であるか否かを迅速に判定できない虞がある。   When determining whether the quality of the steel material is good or not only by visually observing the cross section of the steel material, the determination becomes personal and there is a possibility that the determination result may vary. In addition, it takes time to grasp the feature amount related to the segregation region of the steel material cross section, and it may not be possible to quickly determine whether or not the quality of the steel material is good.

しかし、本構成によれば、未知画像の目視によって未知鋼材の品質が良好であるか否かを判定した判定結果を目的変数とし、未知画像の偏析領域に関する特徴量を説明変数として、目的変数を分類するための説明変数のモデルである判定モデルが構築される。その後、評価対象用の転写体を用いて導出ステップが行われ、当該転写体を表す未評価画像の偏析領域に関する特徴量が導出される。そして、当該特徴量に対して、前記判定モデルを適用することによって、未評価画像に対応する未評価鋼材の品質が良好であるか否かが判定される。   However, according to this configuration, the determination result that determines whether the quality of the unknown steel material is good or not by visual observation of the unknown image is the objective variable, and the characteristic amount related to the segregation region of the unknown image is the explanatory variable, and the objective variable is A determination model that is an explanatory variable model for classification is constructed. Thereafter, a derivation step is performed using the transfer body for evaluation, and a feature amount related to the segregated region of the unevaluated image representing the transfer body is derived. Then, by applying the determination model to the feature amount, it is determined whether or not the quality of the unevaluated steel material corresponding to the unevaluated image is good.

このため、目視によって未評価画像の偏析領域に関する特徴量を把握する手間をかけずに、導出ステップによって導出された当該特徴量を用いて、未評価鋼材の品質が良好であるか否かを迅速に判定することができる。また、未評価画像の偏析領域に関する特徴量を考慮するだけでなく、前記判定モデルを用いて、当該特徴量が、過去に品質が良好であると判定された鋼材に対応する画像の偏析領域に関する特徴量に該当するか否かを更に考慮して、より精度良く、未評価鋼材の品質が良好であるか否かを判定することができる。   For this reason, it is possible to quickly determine whether or not the quality of the unevaluated steel is good by using the feature amount derived by the derivation step without taking time and effort to grasp the feature amount regarding the segregation region of the unevaluated image. Can be determined. Further, not only the feature quantity related to the segregation area of the unevaluated image is considered, but also using the determination model, the feature quantity relates to the segregation area of the image corresponding to the steel material determined to have good quality in the past. It is possible to determine whether or not the quality of the unevaluated steel material is good with higher accuracy by further considering whether or not the feature amount is satisfied.

また、前記導出ステップにおいて、前記未知画像における所定の第一未知領域の前記特徴量と、前記未知画像における前記第一未知領域とは異なる第二未知領域の前記特徴量と、を個別に導出し、前記判定データ作成ステップにおいて、前記第一未知領域の目視によって前記未知鋼材における前記第一未知領域に対応する第一未知鋼材領域の品質が良好であるか否かを判定した判定結果と前記第一未知領域の前記特徴量とを対応付けた第一判定データと、前記第二未知領域の目視によって前記未知鋼材における前記第二未知領域に対応する第二未知鋼材領域の品質が良好であるか否かを判定した判定結果と前記第二未知領域の前記特徴量とを対応付けた第二判定データと、を個別に作成し、前記判定モデル構築ステップにおいて、前記第一判定データを用いて第一判定モデルを構築し、前記第二判定データを用いて第二判定モデルを構築し、前記品質判定ステップにおいて、前記未評価画像における前記第一未知領域に対応する第一未評価領域の前記特徴量に対して、前記第一判定モデルを適用することによって、前記未評価鋼材における前記第一未評価領域に対応する第一鋼材領域の品質が良好であるか否かを判定し、前記未評価画像における前記第二未知領域に対応する第二未評価領域の前記特徴量に対して、前記第二判定モデルを適用することによって、前記未評価鋼材における前記第二未評価領域に対応する第二鋼材領域の品質が良好であるか否かを判定してもよい。   In the deriving step, the feature amount of the predetermined first unknown region in the unknown image and the feature amount of the second unknown region different from the first unknown region in the unknown image are individually derived. In the determination data creation step, the determination result obtained by determining whether or not the quality of the first unknown steel material region corresponding to the first unknown region in the unknown steel material is good by visual observation of the first unknown region and the first Whether the quality of the second unknown steel region corresponding to the second unknown region in the unknown steel is good by visual inspection of the second unknown region and the first determination data in which the feature amount of the one unknown region is associated Second determination data in which the determination result for determining whether or not the feature amount of the second unknown region is associated with each other is created individually, and in the determination model construction step, the first determination A first judgment model is constructed using data, a second judgment model is constructed using the second judgment data, and in the quality judgment step, the first judgment model corresponding to the first unknown area in the unevaluated image is constructed. By applying the first determination model to the feature amount of the evaluation region, it is determined whether or not the quality of the first steel material region corresponding to the first unevaluated region in the unevaluated steel material is good. And applying the second determination model to the feature quantity of the second unevaluated area corresponding to the second unknown area in the unevaluated image, thereby providing the second unevaluated area in the unevaluated steel material. It may be determined whether or not the quality of the second steel material region corresponding to is good.

本構成によれば、未知画像における第一未知領域の偏析領域に関する特徴量に基づく第一判定モデルと、当該未知画像における第二未知領域の偏析領域に関する特徴量に基づく第二判定モデルと、が個別に構築される。   According to this configuration, the first determination model based on the feature amount related to the segregation region of the first unknown region in the unknown image and the second determination model based on the feature amount related to the segregation region of the second unknown region in the unknown image include: Built individually.

このため、品質判定ステップにおいて、未評価画像における第一未知領域に対応する第一未評価領域の偏析領域に関する特徴量に対して、第一判定モデルを適用することによって、第一未評価領域の偏析領域に関する特徴量を考慮して、未評価鋼材における第一未評価領域に対応する第一鋼材領域の品質が、良好であるか否かをより精度良く且つ迅速に判定することができる。これと同様に、第二未評価領域の偏析領域に関する特徴量を考慮して、未評価鋼材における第二未評価領域に対応する第二鋼材領域の品質が、良好であるか否かをより精度良く且つ迅速に判定することができる。   For this reason, in the quality determination step, by applying the first determination model to the feature amount related to the segregation region of the first unevaluated region corresponding to the first unknown region in the unevaluated image, In consideration of the characteristic amount related to the segregation region, it is possible to more accurately and quickly determine whether or not the quality of the first steel material region corresponding to the first unevaluated region in the unevaluated steel material is good. In the same manner, considering the feature amount related to the segregation region of the second unevaluated region, it is more accurate whether the quality of the second steel region corresponding to the second unevaluated region in the unevaluated steel is good or not. A good and quick decision can be made.

また、前記鋼材断面は、鋳片を鋳造方向と平行に切断したときの断面であり、前記第一未知領域は、前記未知画像における垂直方向の中心付近において水平方向に延びる中心偏析解析領域であってもよい。   The steel material cross section is a cross section when the slab is cut in parallel with the casting direction, and the first unknown area is a central segregation analysis area extending in the horizontal direction near the center in the vertical direction in the unknown image. May be.

鋳片には、垂直方向の中心付近において、中心偏析と呼ばれる、鋳造方向に対して水平に連なる偏析が発生する。一方、鋳片の垂直方向の中心以外には、V偏析と呼ばれる、鋳片表面から垂直方向の中心部に向かって鋳造方向に対して斜めに連なる偏析が発生する。   In the slab, in the vicinity of the center in the vertical direction, segregation, which is called center segregation, continues in a horizontal direction with respect to the casting direction. On the other hand, in addition to the center of the slab in the vertical direction, segregation called V segregation occurs obliquely with respect to the casting direction from the slab surface toward the center in the vertical direction.

したがって、本構成によれば、未評価画像における垂直方向の中心付近において水平方向に延びる第一未評価領域に含まれる中心偏析の偏析領域に関する特徴量を考慮して、未評価鋼材における垂直方向の中心付近において水平方向に延びる第一鋼材領域の品質が良好であるか否かをより精度良く且つ迅速に判定することができる。これと同様に、未評価画像における第一未評価領域とは異なる第二未評価領域に含まれるV偏析の偏析領域に関する特徴量を考慮して、未評価鋼材における第一鋼材領域とは異なる第二鋼材領域の品質が良好であるか否かをより精度良く且つ迅速に判定することができる。   Therefore, according to the present configuration, in consideration of the feature amount related to the segregation region of the center segregation included in the first unevaluated region extending in the horizontal direction near the center in the vertical direction in the unevaluated image, Whether or not the quality of the first steel material region extending in the horizontal direction in the vicinity of the center is good can be determined more accurately and quickly. Similarly, in consideration of the feature amount related to the segregation region of V segregation included in the second unevaluated region different from the first unevaluated region in the unevaluated image, the first different region from the first steel region in the unevaluated steel material. Whether or not the quality of the two-steel material region is good can be determined more accurately and quickly.

また、前記判定モデル構築ステップにおいて、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて判定モデルを構築することが好ましい。   In the determination model construction step, it is preferable to construct a determination model using one or more statistical methods of decision tree, logistic regression, nearest neighbor method, neural network, support vector machine, and random forest.

本構成によれば、一般的な機械学習で用いられている、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて、判定モデルを構築することができる。   According to this configuration, using one or more statistical methods of decision tree, logistic regression, nearest neighbor method, neural network, support vector machine, and random forest used in general machine learning, A decision model can be constructed.

本発明によれば、鋼材断面に含まれている偏析領域を高精度に検出することができる。   ADVANTAGE OF THE INVENTION According to this invention, the segregation area | region contained in the steel material cross section can be detected with high precision.

偏析検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of a segregation detection apparatus. 転写画像の一例を示す図である。It is a figure which shows an example of a transfer image. 分析処理の一例を示すフローチャートである。It is a flowchart which shows an example of an analysis process. 解析処理の一例を示すフローチャートである。It is a flowchart which shows an example of an analysis process. 分析処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of an analysis process. 解析処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of an analysis process. 分析処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of an analysis process. 解析処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of an analysis process. 制御部の構成の他の一例を示すブロック図である。It is a block diagram which shows another example of a structure of a control part. 品質分析処理の一例を示すフローチャートである。It is a flowchart which shows an example of a quality analysis process. 鋼材品質判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of steel material quality determination processing. 品質分析処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of a quality analysis process. 鋼材品質判定処理の他の一例を示すフローチャートである。It is a flowchart which shows another example of steel material quality determination processing.

(第一実施形態)
以下、本発明に係る第一実施形態について説明する。尚、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。
(First embodiment)
Hereinafter, a first embodiment according to the present invention will be described. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably.

図1は、偏析検出装置1の構成を示すブロック図である。図1に示すように、本発明の実施形態に係る偏析検出装置1は、撮影部30と、入力部50と、表示部60と、通信部70と、記憶部90と、制御部10と、を備えている。   FIG. 1 is a block diagram showing the configuration of the segregation detection apparatus 1. As shown in FIG. 1, the segregation detection apparatus 1 according to the embodiment of the present invention includes an imaging unit 30, an input unit 50, a display unit 60, a communication unit 70, a storage unit 90, a control unit 10, It has.

撮影部30は、例えばカメラによって構成され、被写体を撮影して得られた画像を制御部10へ出力する。   The photographing unit 30 is configured by a camera, for example, and outputs an image obtained by photographing a subject to the control unit 10.

入力部50は、キーボード及びマウスやタッチパネル等の入力装置によって構成され、ユーザーが当該入力装置を用いて入力した各種操作指示や情報を制御部10へ出力する。   The input unit 50 includes an input device such as a keyboard, a mouse, and a touch panel, and outputs various operation instructions and information input by the user using the input device to the control unit 10.

表示部60は、液晶ディスプレイ等の表示装置によって構成され、制御部10による制御の下、指示された情報を表示する。   The display unit 60 is configured by a display device such as a liquid crystal display, and displays instructed information under the control of the control unit 10.

通信部70は、不図示のネットワークに接続され、ネットワークに接続されたパソコン等の外部装置との間で通信を行う。   The communication unit 70 is connected to a network (not shown) and performs communication with an external device such as a personal computer connected to the network.

記憶部90は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置によって構成される。記憶部90には、制御部10の制御に用いられる情報が予め記憶されている。また、記憶部90には、制御部10による制御の下、各種情報が記憶される。   The storage unit 90 is configured by a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). Information used for control of the control unit 10 is stored in the storage unit 90 in advance. The storage unit 90 stores various types of information under the control of the control unit 10.

制御部10は、偏析検出装置1全体の制御を司る。具体的には、制御部10は、CPU、RAM、ROM等を備えたマイクロコンピューターで構成される。前記CPUが前記ROMに記憶された制御プログラムを実行することによって、制御部10は、例えば、画像取得部101、画像処理部102、画像特徴量算出部103、分類データ作成部104、分類モデル構築部105、分析部106、解析部107、分類部108及び偏析検出部109として機能する。   The control unit 10 controls the entire segregation detection apparatus 1. Specifically, the control unit 10 includes a microcomputer provided with a CPU, RAM, ROM, and the like. When the CPU executes a control program stored in the ROM, the control unit 10 may, for example, include an image acquisition unit 101, an image processing unit 102, an image feature amount calculation unit 103, a classification data creation unit 104, and a classification model construction. Functions as a unit 105, an analysis unit 106, an analysis unit 107, a classification unit 108, and a segregation detection unit 109.

画像取得部101は、エッチングされた鋼材断面の転写体を表す画像を取得する。具体的には、画像取得部101は、撮影部30が前記転写体を被写体として撮影したときに制御部10へ出力した画像を、前記転写体を表す画像として取得する。これに限らず、画像取得部101が、通信部70が外部装置から受信した、前記転写体を表す画像を取得するようにしてもよい。   The image acquisition unit 101 acquires an image representing a transfer body of an etched steel section. Specifically, the image acquisition unit 101 acquires an image output to the control unit 10 when the imaging unit 30 images the transfer body as a subject as an image representing the transfer body. Not limited to this, the image acquisition unit 101 may acquire an image representing the transfer body received by the communication unit 70 from an external device.

以降、鋼材断面は、連続鋳造によって生成された板状の鋳片を、鋳造方向と平行に切断したときの断面であるとする。また、エッチングされた鋼材断面の転写体は、例えば、以下のようにして作成される。鋼材断面をピクリン酸系腐食液でエッチングした後、水洗、乾燥させる。その後、グリース等の高粘液状物質を鋼材断面に塗布して、エメリー紙で軽く鋼材断面を研磨し、鋼材断面の表面の高粘液状物質を拭き取る。続いて、腐食部に残った高粘液状物質をセロテープ(登録商標)等の片面に接着材が糊付されている透明な薄膜に転写させる。つまり、当該薄膜が前記転写体として作成される。   Hereinafter, it is assumed that the steel material cross section is a cross section when a plate-shaped slab generated by continuous casting is cut in parallel to the casting direction. In addition, a transfer body having an etched steel cross section is produced, for example, as follows. After etching the steel section with a picric acid-based corrosive solution, it is washed with water and dried. Thereafter, a highly viscous liquid substance such as grease is applied to the steel cross section, the steel cross section is lightly polished with emery paper, and the highly viscous liquid substance on the surface of the steel cross section is wiped off. Subsequently, the highly viscous liquid material remaining in the corroded portion is transferred to a transparent thin film in which an adhesive is glued on one side such as cello tape (registered trademark). That is, the thin film is produced as the transfer body.

画像処理部102は、画像取得部101が取得した前記転写体を表す画像(以降、転写画像)における所定輝度より低輝度な複数の低輝度領域を特定する。具体的には、画像処理部102は、転写画像に対して二値化処理を行う。当該二値化処理で用いる閾値は、複数の転写画像を目視することによって、偏析の領域(以降、偏析領域)であると判断した全ての領域の輝度値が、二値のうちの低い側の輝度値に変換されるよう、前記全ての領域の輝度値の最高値よりも高い輝度値に定められている。   The image processing unit 102 specifies a plurality of low-brightness areas having lower luminance than a predetermined luminance in an image representing the transfer body acquired by the image acquisition unit 101 (hereinafter, transfer image). Specifically, the image processing unit 102 performs binarization processing on the transferred image. The threshold value used in the binarization processing is such that the luminance values of all the areas determined to be segregation areas (hereinafter referred to as segregation areas) by visually observing a plurality of transfer images are lower on the lower side of the binary values. The brightness value is determined to be higher than the highest value of the brightness values of all the regions so as to be converted into the brightness value.

したがって、画像処理部102は、上記閾値を用いた二値化処理を転写画像に対して行うことにより、当該転写画像に含まれる上記閾値よりも低い輝度値を、二値のうちの低い側の輝度値に変換する。そして、画像処理部102は、当該二値化処理後の転写画像において、輝度値が上記低い側の輝度値となっている複数の領域を、前記閾値が表す所定輝度よりも低輝度な複数の低輝度領域として特定する。当該特定された複数の低輝度領域には、偏析領域だけでなく、偏析以外のマクロ組織やエッチング時の加工痕等の領域が含まれている可能性がある。   Therefore, the image processing unit 102 performs a binarization process using the threshold value on the transfer image, thereby obtaining a luminance value lower than the threshold value included in the transfer image on the lower side of the binary values. Convert to luminance value. Then, the image processing unit 102, in the transfer image after the binarization processing, displays a plurality of regions whose luminance values are the lower luminance values as a plurality of luminances lower than the predetermined luminance represented by the threshold value. Identified as a low brightness area. The plurality of identified low-luminance regions may include not only segregation regions but also regions such as macrostructures other than segregation and processing marks during etching.

尚、画像処理部102が、転写画像に対して二値化処理を行う直前に、当該転写画像に対して、例えば、ノイズを除去する処理や、濃度ムラを除去する処理等の画質を向上させるための公知の画像処理を行うようにしてもよい。   Immediately before the image processing unit 102 performs binarization processing on the transfer image, the image quality of the transfer image is improved, for example, noise removal processing or density unevenness removal processing. For this purpose, known image processing may be performed.

具体的には、画像処理部102が、ノイズを除去する処理として、平滑化フィルタ、メディアンフィルタ、膨張フィルタ、収縮フィルタ、ガウシアンフィルタ及び倍リテラルフィルタ等を用いた公知のフィルタ処理を行うようにしてもよい。また、画像処理部102が、濃度ムラを除去する処理として、所定周波数以上の周波数成分を除外するハイパスフィルタを用いたフィルタ処理を行うようにしてもよい。当該所定周波数は、実験値等に基づき、最も濃度ムラを軽減できると考えられる周波数に定めればよい。また、画像処理部102が、転写画像に対して二値化処理を行う直前に、当該転写画像に対して、ノイズと濃度ムラを同時に除去するバンドパスフィルタを用いたフィルタ処理を行うようにしてもよい。バンドパスフィルタを適用する際に用いる閾値も、実験値等に基づきノイズ及び濃度ムラを最も軽減できると考えられる値に定めればよい。   Specifically, the image processing unit 102 performs a known filter process using a smoothing filter, a median filter, an expansion filter, a contraction filter, a Gaussian filter, a double literal filter, or the like as a process for removing noise. Also good. Further, the image processing unit 102 may perform filter processing using a high-pass filter that excludes frequency components of a predetermined frequency or higher as processing for removing density unevenness. The predetermined frequency may be set to a frequency that is considered to most reduce density unevenness based on experimental values and the like. Further, immediately before the image processing unit 102 performs binarization processing on the transfer image, the transfer processing is performed on the transfer image using a bandpass filter that simultaneously removes noise and density unevenness. Also good. The threshold used when applying the bandpass filter may be set to a value that is considered to be able to most reduce noise and density unevenness based on experimental values and the like.

また、画像処理部102が、転写画像において複数の低輝度領域を特定する方法は、上記に限らない。例えば、画像処理部102が、二値化処理等の画像処理を行わずに、転写画像において所定輝度より低輝度な複数の領域を直接的に特定する公知の画像処理を行うようにしてもよい。   Further, the method by which the image processing unit 102 specifies a plurality of low luminance areas in the transfer image is not limited to the above. For example, the image processing unit 102 may perform known image processing that directly specifies a plurality of regions having a luminance lower than a predetermined luminance in the transferred image without performing image processing such as binarization processing. .

画像特徴量算出部103は、画像処理部102によって特定された複数の低輝度領域其々の画像特徴量を算出する。画像特徴量には、例えば、複数の低輝度領域其々についての、面積、輝度値の平均値、輝度値の標準偏差、周囲長、矩形度、真円度(中心からの最大距離から求まる真円面積に対する実面積の割合)、コンパクト性(面積から求まる真円の周囲長に対する実周囲長の割合)、凸面度、かさばり率(近似楕円面積に対する実面積の割合)、ホール(領域内にみられる穴状(高輝度)の領域)数、及びホールの総面積等が含まれる。   The image feature amount calculation unit 103 calculates an image feature amount for each of the plurality of low luminance regions specified by the image processing unit 102. The image feature amount includes, for example, an area, an average value of luminance values, a standard deviation of luminance values, a perimeter length, a rectangularity, and a roundness (a true value obtained from the maximum distance from the center) for each of a plurality of low luminance areas. Ratio of actual area to circle area), compactness (ratio of actual circumference to the circumference of a perfect circle obtained from the area), convexity, bulkiness ratio (ratio of actual area to approximate elliptical area), hole (only in the region) Number of hole-like (high luminance) regions), the total area of holes, and the like.

図2は、転写画像の一例を示す図である。また、図2に示すように、画像特徴量には、例えば、複数の低輝度領域其々の中心位置を示す情報(例:x1、y1)や、転写画像における垂直方向(高さ方向)の中心位置Ycから、複数の低輝度領域其々の中心位置までの距離(例:a1)及び方向(例:下方)が含まれる。また、画像特徴量には、複数の低輝度領域其々に外接する、軸に平行な外接矩形の幅(例:w1)・高さ(例:h1)や、当該外接矩形の幅(例:w1)と高さ(例:h1)の比(アスペクト比)(例えば、w1:h1)、任意の二軸に平行な外接矩形の幅(例:wa1)・高さ(例:ha1)が含まれてもよい。また、画像特徴量には、複数の低輝度領域其々の近似楕円の幅・高さ・長軸の鋳造方向に対する傾き角度θが含まれてもよい。   FIG. 2 is a diagram illustrating an example of a transfer image. As shown in FIG. 2, the image feature amount includes, for example, information (for example, x1, y1) indicating the center position of each of a plurality of low-luminance areas and the vertical direction (height direction) in the transferred image. The distance (example: a1) and direction (example: downward) from the center position Yc to the center position of each of the plurality of low-luminance regions are included. The image feature amount includes a width (for example, w1) and a height (for example: h1) of a circumscribed rectangle parallel to the axis that circumscribes each of the plurality of low-luminance regions, and a width of the circumscribed rectangle (for example: w1) and height (example: h1) ratio (aspect ratio) (for example, w1: h1), width (example: wa1) and height (example: ha1) of a circumscribed rectangle parallel to any two axes May be. In addition, the image feature amount may include a width / height of the approximate ellipse of each of the plurality of low luminance regions, and an inclination angle θ with respect to the casting direction of the long axis.

図1に参照を戻す。分類データ作成部104は、画像処理部102によって特定された複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、画像特徴量算出部103によって算出された複数の低輝度領域其々の画像特徴量と、を対応付けた分類データを作成する。   Returning to FIG. The classification data creation unit 104 visually determines whether or not each of the plurality of low-brightness areas specified by the image processing unit 102 is a segregation area, and the plurality of pieces calculated by the image feature amount calculation unit 103. Classification data in which the image feature amounts of the low-luminance regions are associated with each other is created.

例えば、分類データ作成部104は、画像処理部102による二値化処理後の転写画像を表示部60に表示させる。表示部60に表示された転写画像を目視したユーザは、入力部50を用いて、当該転写画像に含まれている、画像処理部102によって特定された複数の低輝度領域其々を選択し、当該選択した低輝度領域が偏析領域であるか否かの判別結果を入力する。分類データ作成部104は、当該入力された複数の低輝度領域其々が偏析領域であるか否かの判別結果と、画像特徴量算出部103によって算出された、当該複数の低輝度領域其々の画像特徴量と、を対応付けた分類データを作成する。   For example, the classification data creation unit 104 causes the display unit 60 to display a transfer image after the binarization processing by the image processing unit 102. The user who has visually observed the transfer image displayed on the display unit 60 uses the input unit 50 to select each of a plurality of low-luminance regions specified by the image processing unit 102 included in the transfer image. A determination result as to whether or not the selected low luminance region is a segregation region is input. The classification data creation unit 104 determines whether each of the plurality of input low-brightness areas is a segregation area and the plurality of low-brightness areas calculated by the image feature amount calculation unit 103. The classification data in which the image feature amounts are associated with each other is created.

分類モデル構築部105は、分類データ作成部104によって作成された分類データに含まれている画像特徴量を説明変数とし、当該分類データに含まれている判別結果を目的変数とし、当該目的変数を分類するための当該説明変数のモデル(以降、分類モデル)を公知の統計的手法を用いて構築する。   The classification model construction unit 105 uses the image feature amount included in the classification data created by the classification data creation unit 104 as an explanatory variable, uses the determination result contained in the classification data as an objective variable, and sets the objective variable as the objective variable. A model of the explanatory variables for classification (hereinafter referred to as a classification model) is constructed using a known statistical method.

上記統計的手法には、例えば、目的変数(複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果)の純度が高まるように、説明変数(複数の低輝度領域其々の画像特徴量)とその閾値とを樹木状に組み合わせたルール(分類モデル)を構築する決定木分析や、目的変数及び説明変数を含むロジスティック曲線への回帰式(分類モデル)を求めるロジスティック回帰分析等の一般的な機械学習で用いられる手法が適用可能である。また、上記統計的手法には、例えば、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレスト等の一般的な機械学習で用いられる手法も適用可能である。または、分類モデル構築部105が、上記の統計的手法のうちの複数の手法を用いて、分類モデルを構築するようにしてもよい。   The statistical method includes, for example, an explanatory variable (a plurality of low-luminance regions) so that the purity of the objective variable (a discrimination result obtained by visually determining whether each of the plurality of low-luminance regions is a segregation region) is increased. Logistics that determine decision tree analysis that builds a rule (classification model) that combines tree features of each image feature) and its threshold value, and a regression equation (classification model) to a logistic curve that includes objective variables and explanatory variables Techniques used in general machine learning such as regression analysis can be applied. For the statistical method, for example, a method used in general machine learning such as nearest neighbor method, neural network, support vector machine, and random forest can be applied. Alternatively, the classification model construction unit 105 may construct a classification model using a plurality of methods among the statistical methods described above.

分析部106は、画像取得部101と、画像処理部102と、画像特徴量算出部103と、分類データ作成部104と、分類モデル構築部105と、を順に動作させる分析処理(分析ステップ)を行う。   The analysis unit 106 performs an analysis process (analysis step) that sequentially operates the image acquisition unit 101, the image processing unit 102, the image feature amount calculation unit 103, the classification data creation unit 104, and the classification model construction unit 105. Do.

図3は、分析処理の一例を示すフローチャートである。具体的には、入力部50によって分析処理の開始指示が入力されると、分析部106は、分析処理を開始する。図3に示すように、分析部106は、分析処理を開始すると、先ず、画像取得部101を動作させ、エッチングされた鋼材断面の転写体を表す画像(以降、教示画像)を取得させる(S11(画像取得ステップ))。   FIG. 3 is a flowchart illustrating an example of analysis processing. Specifically, when an analysis process start instruction is input by the input unit 50, the analysis unit 106 starts the analysis process. As shown in FIG. 3, when the analysis unit 106 starts the analysis process, first, the image acquisition unit 101 is operated to acquire an image (hereinafter referred to as a teaching image) representing a transfer body of the etched steel cross section (S11). (Image acquisition step)).

次に、分析部106は、画像処理部102を動作させ、教示画像における所定輝度より低輝度な複数の低輝度領域を特定させる(S12(画像処理ステップ))。次に、分析部106は、画像特徴量算出部103を動作させ、教示画像において特定された複数の低輝度領域其々の画像特徴量を算出させる(S13(画像特徴量算出ステップ))。   Next, the analysis unit 106 operates the image processing unit 102 to specify a plurality of low-brightness areas having lower luminance than the predetermined luminance in the teaching image (S12 (image processing step)). Next, the analysis unit 106 operates the image feature amount calculation unit 103 to calculate the image feature amount of each of the plurality of low luminance regions specified in the teaching image (S13 (image feature amount calculation step)).

次に、分析部106は、分類データ作成部104を動作させ、教示画像において特定された複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、S13で算出された当該複数の低輝度領域其々の画像特徴量とを対応付けた分類データを作成させる(S14(分類データ作成ステップ))。   Next, the analysis unit 106 operates the classification data creation unit 104 to determine whether or not each of the plurality of low-brightness areas specified in the teaching image is a segregation area, and the calculation result in S13. Classification data in which the image feature quantities of the plurality of low-luminance areas are associated with each other is created (S14 (classification data creation step)).

そして、分析部106は、分類モデル構築部105を動作させ、S14で作成された分類データに含まれている画像特徴量を説明変数とし、当該分類データに含まれている判別結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである分類モデルを構築させる(S15(分類モデル構築ステップ))。   Then, the analysis unit 106 operates the classification model construction unit 105 to use the image feature amount included in the classification data created in S14 as an explanatory variable, and the determination result included in the classification data as an objective variable. Then, a classification model that is a model of the explanatory variable for classifying the objective variable is constructed (S15 (classification model construction step)).

図1に参照を戻す。解析部107は、分析部106による分析処理の終了後、解析用の転写体を用いて、画像取得部101と画像処理部102と画像特徴量算出部103とを順に動作させた後、後述の分類部108と偏析検出部109とを順に動作させる解析処理(解析ステップ)を行う。   Returning to FIG. After the analysis processing by the analysis unit 106 is completed, the analysis unit 107 operates the image acquisition unit 101, the image processing unit 102, and the image feature amount calculation unit 103 in order using an analysis transfer body, and then described later. An analysis process (analysis step) for sequentially operating the classification unit 108 and the segregation detection unit 109 is performed.

ここで、解析用の転写体とは、分析部106が分析処理において画像取得部101を動作させる際に用いた、分析対象の鋼材断面を転写した転写体とは異なる転写体である。具体的には、解析用の転写体は、上記分析対象の鋼材断面を転写した転写体と同様、解析対象の鋼材断面がエッチングされた後、上記薄膜に転写されることによって作成される。   Here, the transfer body for analysis is a transfer body that is different from the transfer body that is used when the analysis unit 106 operates the image acquisition unit 101 in the analysis process and that transfers the cross section of the steel material to be analyzed. Specifically, the transfer body for analysis is created by transferring the cross section of the steel material to be analyzed to the thin film after etching the cross section of the steel material to be analyzed, similarly to the transfer body having transferred the cross section of the steel material to be analyzed.

図4は、解析処理の一例を示すフローチャートである。具体的には、分析部106による分析処理の終了後、入力部50によって解析処理の開始指示が入力されると、解析部107は、解析処理を開始する。図4に示すように、解析部107は、解析処理を開始すると、先ず、画像取得部101を動作させ、解析用の転写体を表す画像(以降、未知画像)を取得させる(S21(画像取得ステップ))。   FIG. 4 is a flowchart illustrating an example of the analysis process. Specifically, after the analysis process by the analysis unit 106 is completed, when an analysis process start instruction is input by the input unit 50, the analysis unit 107 starts the analysis process. As shown in FIG. 4, when the analysis unit 107 starts the analysis process, first, the image acquisition unit 101 is operated to acquire an image representing an analysis transfer body (hereinafter, unknown image) (S21 (image acquisition). Step)).

次に、解析部107は、画像処理部102を動作させ、未知画像における所定輝度より低輝度な複数の低輝度領域(以降、未知低輝度領域)を特定させる(S22(画像処理ステップ))。次に、解析部107は、画像特徴量算出部103を動作させ、未知画像において特定された複数の未知低輝度領域其々の画像特徴量を算出させる(S23(画像特徴量算出ステップ))。   Next, the analysis unit 107 operates the image processing unit 102 to specify a plurality of low luminance regions (hereinafter, unknown low luminance regions) having a luminance lower than a predetermined luminance in the unknown image (S22 (image processing step)). Next, the analysis unit 107 operates the image feature amount calculation unit 103 to calculate the image feature amount of each of the plurality of unknown low luminance areas specified in the unknown image (S23 (image feature amount calculation step)).

そして、解析部107は、分類部108を動作させた後(S24(分類ステップ))、偏析検出部109を動作させ(S25(偏析検出ステップ))、解析処理を終了する。   The analysis unit 107 operates the classification unit 108 (S24 (classification step)), operates the segregation detection unit 109 (S25 (segregation detection step)), and ends the analysis process.

以下、S24及びS25の詳細について説明する。当該説明の中で、分類部108(図1)及び偏析検出部109(図1)の詳細について説明する。   Details of S24 and S25 will be described below. In the description, details of the classification unit 108 (FIG. 1) and the segregation detection unit 109 (FIG. 1) will be described.

S24において、分類部108は、S23で算出された複数の未知低輝度領域其々の画像特徴量に対して、S15(図3)で構築された分類モデルを適用することにより、複数の未知低輝度領域其々が偏析領域であるか否かを分類する。   In S24, the classification unit 108 applies the classification model constructed in S15 (FIG. 3) to the image feature amounts of the plurality of unknown low-luminance regions calculated in S23, so that a plurality of unknown low-levels are obtained. It classifies whether each brightness | luminance area | region is a segregation area | region.

例えば、S15(図3)において、決定木分析手法で分類モデルが構築されたとする。つまり、分類モデルが目的変数(複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果)の純度が高まるように、説明変数(複数の低輝度領域其々の画像特徴量)とその閾値とを樹木状に組み合わせたルールであるとする。この場合、S24(図4)において、分類部108は、複数の未知低輝度領域其々の画像特徴量のうち、分類モデルにおいて説明変数として含まれている画像特徴量と、分類モデルにおいて定められている当該画像特徴量の閾値と、の対比結果によって、複数の未知低輝度領域其々が偏析領域であるか否かを分類する。   For example, it is assumed that a classification model is constructed by a decision tree analysis method in S15 (FIG. 3). In other words, the explanatory variable (the image of each of the plurality of low-luminance regions is increased) so that the purity of the objective variable (the determination result obtained by visually determining whether or not each of the plurality of low-luminance regions is a segregation region) increases. It is assumed that the rule is a combination of a feature amount and a threshold value in a tree shape. In this case, in S24 (FIG. 4), the classification unit 108 determines the image feature amount included as the explanatory variable in the classification model among the image feature amounts of the plurality of unknown low-luminance regions, and the classification model. Whether or not each of the plurality of unknown low-luminance regions is a segregation region is classified according to the comparison result with the threshold value of the image feature amount.

または、S15(図3)において、ロジスティック回帰析手法で分類モデルが構築されたとする。つまり、分類モデルが、ロジスティック回帰分析によって構築された目的変数(複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果)及び説明変数(複数の低輝度領域其々の画像特徴量)を含むロジスティック曲線への回帰式であるとする。この場合、S24(図4)において、分類部108は、複数の未知低輝度領域其々の画像特徴量のうち、分類モデルが示す回帰式に説明変数として含まれている画像特徴量を、当該回帰式に代入した結果によって、複数の未知低輝度領域其々が偏析領域であるか否かを分類する。   Alternatively, it is assumed that a classification model is constructed by a logistic regression analysis method in S15 (FIG. 3). That is, the classification model is an objective variable constructed by logistic regression analysis (discrimination result obtained by visually determining whether or not each of the plurality of low-luminance regions is a segregation region) and an explanatory variable (each of the plurality of low-luminance regions). It is assumed that this is a regression equation to a logistic curve including the image feature amount. In this case, in S24 (FIG. 4), the classification unit 108 selects the image feature amount included as the explanatory variable in the regression equation indicated by the classification model among the image feature amounts of the plurality of unknown low-luminance regions. Whether or not each of the plurality of unknown low-brightness areas is a segregation area is classified according to the result substituted into the regression equation.

S25(図4)では、偏析検出部109は、複数の未知低輝度領域のうち、S24で偏析領域であると分類された其々を偏析領域として検出する。   In S25 (FIG. 4), the segregation detection unit 109 detects each of the plurality of unknown low-luminance regions classified as the segregation region in S24 as a segregation region.

したがって、第一実施形態の構成によれば、従来技術のように低輝度な領域であるか否かを考慮するだけでなく、分類モデルを用いて、未知低輝度領域の画像特徴量が、目視によって偏析領域と判別された低輝度領域の画像特徴量に該当するか否かを更に考慮して、より精度良く、未知低輝度領域が偏析領域であるか否かを分類することができる。その結果、高精度に偏析領域を検出することができる。   Therefore, according to the configuration of the first embodiment, not only whether or not it is a low-luminance region as in the prior art, but also using the classification model, the image feature amount of the unknown low-luminance region is visually It is possible to classify whether or not the unknown low-brightness area is the segregation area with higher accuracy by further considering whether or not the image feature amount of the low-brightness area determined as the segregation area is obtained. As a result, the segregation region can be detected with high accuracy.

(第二実施形態)
以下、本発明に係る第二実施形態について説明する。第一実施形態の構成では、教示画像に含まれる複数の低輝度領域其々の画像特徴量に基づき、分類データを作成し、当該分類データを用いて分類モデルを構築していた。そして、当該分類モデルを用いて未知画像に含まれる複数の未知低輝度領域其々が偏析領域であるか否かを分類することで、偏析領域を検出していた。
(Second embodiment)
Hereinafter, a second embodiment according to the present invention will be described. In the configuration of the first embodiment, classification data is created based on the image feature amounts of a plurality of low-luminance areas included in the teaching image, and a classification model is constructed using the classification data. And the segregation area | region was detected by classifying whether the some unknown low-intensity area | region contained in an unknown image is a segregation area | region using the said classification model.

しかし、第二実施形態の構成では、第一実施形態の構成とは異なり、教示画像に含まれる二個の領域其々に含まれる複数の低輝度領域其々の画像特徴量に基づき、当該二個の領域の其々に対応する分類データを作成する。そして、当該作成した二個の分類データを用いて、当該二個の領域の其々に対応する二個の分類モデルを個別に構築する。また、当該構築した二個の分類モデルを用いて、未知画像における上記二個の領域に対応する二個の領域其々に含まれる複数の未知低輝度領域其々が偏析領域であるか否かを分類することで、偏析領域を検出する。   However, in the configuration of the second embodiment, unlike the configuration of the first embodiment, the second embodiment is based on the image feature amounts of the plurality of low luminance regions included in the two regions included in the teaching image. Classification data corresponding to each of the regions is created. Then, using the created two classification data, two classification models corresponding to the two areas are individually constructed. Whether or not each of the plurality of unknown low-luminance regions included in the two regions corresponding to the two regions in the unknown image is a segregation region using the two classification models constructed. By segregating, segregation regions are detected.

以下、第二実施形態の構成を想起した理由について説明する。連続鋳造によって生成された板状の鋳片の品質に対して有害な偏析は、一般的に中心偏析とV偏析とに分類される。図2に示すように、中心偏析とは、鋳片の断面の垂直方向(高さ方向)の中心位置Yc付近において、鋳造方向に対して水平に連なって発生する偏析である。V偏析とは、鋳片の外周から前記中心位置Ycに向かって角度を持って連なり発生する偏析である。   Hereinafter, the reason for recalling the configuration of the second embodiment will be described. Segregation that is harmful to the quality of a plate-shaped slab produced by continuous casting is generally classified into center segregation and V segregation. As shown in FIG. 2, the center segregation is segregation that occurs in a row in the vicinity of the center position Yc in the vertical direction (height direction) of the cross section of the cast slab. V segregation is segregation that occurs continuously at an angle from the outer periphery of the slab toward the center position Yc.

転写画像に見られる中心偏析の偏析領域とV偏析の偏析領域とでは、傾き角度θの傾向が異なる。傾き角度θとは、各偏析領域を近似した楕円の長軸の鋳造方向に対する角度である。例えば、図2に模式的に示すように、中心偏析の偏析領域の傾きはほぼ水平であり、傾き角度θは0度近傍が最も多くなる。一方で、V偏析の偏析領域は傾きを持っており、傾き角度θは一定値以上の大きさを持つ傾向がある。   The tendency of the inclination angle θ is different between the center segregation segregation region and the V segregation segregation region seen in the transferred image. The inclination angle θ is an angle of the major axis of an ellipse approximating each segregation region with respect to the casting direction. For example, as schematically shown in FIG. 2, the inclination of the segregation region of the center segregation is almost horizontal, and the inclination angle θ is the largest near 0 degree. On the other hand, the segregation region of V segregation has an inclination, and the inclination angle θ tends to have a magnitude greater than a certain value.

したがって、第一実施形態のように、中心偏析とV偏析とを区別せずに、偏析領域か否かを分類するための画像特徴量の分類モデルを構築することは、分類モデルの構築を複雑化させ、偏析領域の検出精度を低下させる要因となる。そこで、中心偏析の偏析領域か否かを分類するための画像特徴量の分類モデルとV偏析の偏析領域か否かを分類するための画像特徴量の分類モデルとを個別に構築して、当該構築した二個の分類モデルを其々用いて、未知低輝度領域が中心偏析を表す偏析領域であるか否か、V偏析を表す偏析領域であるか否かを、個別に分類することを想起した。   Therefore, as in the first embodiment, constructing a classification model of image feature amounts for classifying whether or not a segregation region exists without distinguishing between center segregation and V segregation complicates the construction of the classification model. This causes a decrease in segregation region detection accuracy. Therefore, an image feature amount classification model for classifying whether or not it is a segregation region of central segregation and an image feature amount classification model for classifying whether or not it is a segregation region of V segregation are separately constructed, Recalling that each of the two classification models that were constructed is used to individually classify whether the unknown low-brightness region is a segregation region representing central segregation or whether it is a segregation region representing V segregation. did.

具体的には、第二実施形態の構成では、分析部106は、図5に示すフローに従って分析処理を実行する。図5は、分析処理の他の一例を示すフローチャートである。   Specifically, in the configuration of the second embodiment, the analysis unit 106 performs analysis processing according to the flow shown in FIG. FIG. 5 is a flowchart illustrating another example of the analysis process.

尚、以降の説明では、図2に示すように、中心偏析が発生すると考えられる、転写画像の垂直方向の中心位置Ycから、予め定められた一定の距離d内にある水平方向(鋳造方向)に延びる領域(所定の第一領域)を中心偏析解析領域と記載する。   In the following description, as shown in FIG. 2, the horizontal direction (casting direction) within a predetermined distance d from the vertical center position Yc of the transferred image, which is considered to cause center segregation. A region extending in the direction (predetermined first region) is referred to as a center segregation analysis region.

また、図2に示すように、V偏析が発生すると考えられる、転写画像における中心偏析解析領域とは異なる領域(第二領域)において、中心偏析解析領域よりも垂直方向上方側の領域(第三領域)を第一V偏析解析領域と記載し、中心偏析解析領域よりも垂直方向下方側の領域(第四領域)を第二V偏析解析領域と記載する。   Further, as shown in FIG. 2, in a region (second region) different from the center segregation analysis region in the transfer image, where V segregation is considered to occur, a region (third region) above the center segregation analysis region in the vertical direction. (Region) is described as a first V segregation analysis region, and a region (fourth region) on the lower side in the vertical direction than the center segregation analysis region is described as a second V segregation analysis region.

図5に示すように、分析部106によって分析処理が開始されると、第一実施形態と同様、S11〜S13が行われる。次に、分析部106は、分類データ作成部104を動作させ、S31を実行させる。S31において、分類データ作成部104は、S12で特定された複数の低輝度領域の其々が、中心偏析解析領域、第一V偏析解析領域及び第二V偏析解析領域の何れに含まれているかを判断する(S31)。   As shown in FIG. 5, when the analysis process is started by the analysis unit 106, S11 to S13 are performed as in the first embodiment. Next, the analysis unit 106 operates the classification data creation unit 104 to execute S31. In S31, the classification data creation unit 104 includes each of the plurality of low-luminance regions identified in S12 in the central segregation analysis region, the first V segregation analysis region, or the second V segregation analysis region. Is determined (S31).

具体的には、S31において、分類データ作成部104は、図2に示すように、S13で算出された画像特徴量に含まれる、転写画像における垂直方向(高さ方向)の中心位置Ycから、S12で特定された複数の低輝度領域其々の中心位置までの距離(例:a1)が、予め定められた一定の距離d以内であれば、当該低輝度領域其々が中心偏析解析領域に含まれていると判断する。   Specifically, in S31, as shown in FIG. 2, the classification data creation unit 104 starts from the center position Yc in the vertical direction (height direction) in the transferred image, which is included in the image feature amount calculated in S13. If the distance (for example, a1) to the center position of each of the plurality of low-luminance areas specified in S12 is within a predetermined distance d, each of the low-luminance areas becomes the central segregation analysis area. Judged to be included.

一方、分類データ作成部104は、前記中心位置YcからS12で特定された複数の低輝度領域其々の中心位置までの距離が前記一定の距離dよりも長く、且つ、S13で算出された画像特徴量に含まれる、前記中心位置Ycから当該低輝度領域其々の中心位置までの方向が上方を示す場合、当該低輝度領域其々が第一V偏析解析領域に含まれていると判断する。   On the other hand, the classification data creation unit 104 determines that the distance from the center position Yc to the center position of each of the plurality of low luminance areas specified in S12 is longer than the predetermined distance d and the image calculated in S13. When the direction from the center position Yc to the center position of each low-luminance area included in the feature value indicates upward, it is determined that each of the low-luminance areas is included in the first V segregation analysis area. .

また、分類データ作成部104は、前記中心位置YcからS12で特定された複数の低輝度領域其々の中心位置までの距離が前記一定の距離dよりも長く、且つ、前記中心位置Ycから当該低輝度領域其々の中心位置までの方向が下方を示す場合、当該低輝度領域其々が第二V偏析解析領域に含まれていると判断する。   Further, the classification data creation unit 104 has a distance from the center position Yc to the center position of each of the plurality of low luminance areas specified in S12 is longer than the fixed distance d, and the center position Yc When the direction to the center position of each low-luminance area indicates downward, it is determined that each of the low-luminance areas is included in the second V segregation analysis area.

そして、分類データ作成部104は、S31において中心偏析解析領域に含まれると判断した低輝度領域を対象にして、S14aを行う。具体的には、S14aにおいて、分類データ作成部104は、S14(図3)と同様に、S31において中心偏析解析領域に含まれると判断した低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、S13で算出された当該低輝度領域其々の画像特徴量と、を対応付けた中心偏析分類データ(第一分類データ)を作成する(S14a(分類データ作成ステップ))。   Then, the classification data creation unit 104 performs S14a for the low-luminance region determined to be included in the central segregation analysis region in S31. Specifically, in S14a, similarly to S14 (FIG. 3), the classification data creation unit 104 determines whether or not each low-luminance region determined to be included in the central segregation analysis region in S31 is a segregation region. Central segregation classification data (first classification data) is created by associating the discrimination result determined by visual observation with the image feature amount of each low-luminance area calculated in S13 (S14a (classification data creation step)) ).

この場合、分析部106は、分類モデル構築部105を動作させ、S15(図3)と同様、S14aで作成された中心偏析分類データに含まれている画像特徴量を説明変数とし、当該中心偏析分類データに含まれている判別結果を目的変数として、中心偏析分類モデル(第一分類モデル)を構築させる(S15a(分類モデル構築ステップ))。   In this case, the analysis unit 106 operates the classification model construction unit 105, and similarly to S15 (FIG. 3), the image feature amount included in the center segregation classification data created in S14a is used as an explanatory variable, and the center segregation is performed. A central segregation classification model (first classification model) is constructed using the discrimination results included in the classification data as objective variables (S15a (classification model construction step)).

一方、分類データ作成部104は、S31において第一V偏析解析領域及び第二V偏析解析領域(第二領域)に含まれると判断した低輝度領域を対象にして、S14bを行う。ただし、分類データ作成部104は、S31において第一V偏析解析領域に含まれると判断した低輝度領域を対象にしてS14bを行う場合、当該S14bを行う前にS32を行う。   On the other hand, the classification data creation unit 104 performs S14b on the low-luminance region determined to be included in the first V segregation analysis region and the second V segregation analysis region (second region) in S31. However, the classification data creation unit 104 performs S32 before performing S14b when performing S14b for the low-luminance region determined to be included in the first V segregation analysis region in S31.

具体的には、S32において、分類データ作成部104は、S13で算出された、S31において第一V偏析解析領域に含まれると判断した低輝度領域其々の画像特徴量を、教示画像における垂直方向の中心位置Yc(図2)を軸として上下反転させる(S32)。   Specifically, in S32, the classification data creation unit 104 calculates the image feature amount of each low-luminance area calculated in S13 and determined to be included in the first V segregation analysis area in S31 in the teaching image. The center position Yc (FIG. 2) in the direction is turned upside down (S32).

例えば、S32において、分類データ作成部104は、第一V偏析解析領域に含まれると判断した低輝度領域の画像特徴量である、当該低輝度領域を近似した楕円の長軸の鋳造方向に対する傾き角度θ(図2)に−1を乗算する。これにより、当該画像特徴量を、教示画像における垂直方向の中心位置Yc(図2)を軸として上下反転させる。   For example, in S <b> 32, the classification data creation unit 104 determines the inclination of the major axis of the ellipse that approximates the low luminance region with respect to the casting direction, which is the image feature amount of the low luminance region determined to be included in the first V segregation analysis region. The angle θ (FIG. 2) is multiplied by −1. As a result, the image feature amount is inverted up and down with the vertical center position Yc (FIG. 2) in the teaching image as an axis.

S14bにおいて、分類データ作成部104は、S14(図3)と同様に、S31において、第一V偏析解析領域に含まれると判断した低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、S32を行った後の当該低輝度領域其々の画像特徴量と、を対応付けた分類データを作成する。また、分類データ作成部104は、S14(図3)と同様に、S31において、第二V偏析解析領域に含まれると判断した低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、S13で算出された当該低輝度領域其々の画像特徴量と、を対応付けた分類データを作成する。そして、分類データ作成部104は、当該作成した二個の分類データをV偏析分類データ(第二分類データ)として作成する(S14b(分類データ作成ステップ))。   In S14b, similarly to S14 (FIG. 3), the classification data creation unit 104 visually checks whether or not each of the low luminance areas determined to be included in the first V segregation analysis area in S31 is a segregation area. Classification data in which the determined determination result is associated with the image feature amount of each low-luminance region after S32 is created. Further, similarly to S14 (FIG. 3), the classification data creation unit 104 visually determines whether or not each of the low-luminance regions determined to be included in the second V segregation analysis region in S31 is a segregation region. Classification data in which the determination result is associated with the image feature amount of each low-luminance area calculated in S13 is created. Then, the classification data creation unit 104 creates the two created classification data as V segregation classification data (second classification data) (S14b (classification data creation step)).

この場合、分析部106は、分類モデル構築部105を動作させ、S15(図3)と同様、S14bで作成されたV偏析分類データに含まれている画像特徴量を説明変数とし、当該V偏析分類データに含まれている判別結果を目的変数として、V偏析分類モデル(第二分類モデル)を構築させる(S15b(分類モデル構築ステップ))。   In this case, the analysis unit 106 operates the classification model construction unit 105, and similarly to S15 (FIG. 3), the image feature amount included in the V segregation classification data created in S14b is used as an explanatory variable, and the V segregation is performed. A V segregation classification model (second classification model) is constructed using the discrimination result included in the classification data as an objective variable (S15b (classification model construction step)).

そして、分析部106は、S15aにおける中心偏析分類モデルの構築及びS15bにおけるV偏析分類モデルの構築が完了すると分析処理を終了する。   Then, when the construction of the center segregation classification model in S15a and the construction of the V segregation classification model in S15b are completed, the analysis unit 106 ends the analysis process.

一方、第二実施形態の構成では、解析部107は、図6に示すフローに従って解析処理を実行する。図6は、解析処理の他の一例を示すフローチャートである。   On the other hand, in the configuration of the second embodiment, the analysis unit 107 executes analysis processing according to the flow shown in FIG. FIG. 6 is a flowchart illustrating another example of the analysis process.

図6に示すように、解析部107によって解析処理が開始されると、第一実施形態と同様、S21〜S23が行われる。次に、解析部107は、分類部108を動作させ、S41を実行させる。S41において、分類部108は、S22で特定された複数の未知低輝度領域の其々が、未知画像における、中心偏析解析領域に対応する領域(第一対応領域)、第一V偏析解析領域に対応する領域(第三対応領域)及び第二V偏析解析領域に対応する領域(第四対応領域)の何れに含まれているかを判断する(S41)。   As shown in FIG. 6, when the analysis process is started by the analysis unit 107, S21 to S23 are performed as in the first embodiment. Next, the analysis unit 107 operates the classification unit 108 to execute S41. In S41, the classification unit 108 determines that each of the plurality of unknown low-luminance regions identified in S22 is a region corresponding to the center segregation analysis region (first correspondence region) or first V segregation analysis region in the unknown image. It is determined which of the corresponding region (third corresponding region) and the region corresponding to the second V segregation analysis region (fourth corresponding region) is included (S41).

尚、未知画像における中心偏析解析領域に対応する領域とは、中心偏析が発生すると考えられる、未知画像の垂直方向の中心位置から、予め定められた一定の距離d内にある水平方向(鋳造方向)に延びる領域である。未知画像における第一V偏析解析領域に対応する領域とは、V偏析が発生すると考えられる、未知画像における中心偏析解析領域に対応する領域とは異なる領域において、当該中心偏析解析に対応する領域よりも垂直方向上方側の領域である。未知画像における第二V偏析解析領域に対応する領域とは、V偏析が発生すると考えられる、未知画像における中心偏析解析領域に対応する領域とは異なる領域において、当該中心偏析解析に対応する領域よりも垂直方向下方側の領域である。   The region corresponding to the center segregation analysis region in the unknown image is a horizontal direction (casting direction) within a predetermined distance d from the vertical center position of the unknown image where the center segregation is considered to occur. ). The region corresponding to the first V segregation analysis region in the unknown image is different from the region corresponding to the center segregation analysis region in the unknown image where V segregation is considered to occur. Is also a region on the upper side in the vertical direction. The region corresponding to the second V segregation analysis region in the unknown image is different from the region corresponding to the center segregation analysis region in the unknown image where V segregation is considered to occur. Is also a region on the lower side in the vertical direction.

具体的には、S41において、分類部108は、S31(図5)と同様、S23で算出された画像特徴量に含まれる、未知画像における垂直方向(高さ方向)の中心位置Ycから、S22で特定された複数の未知低輝度領域其々の中心位置までの距離及び方向に基づき、未知低輝度領域其々が中心偏析解析領域に対応する領域、第一V偏析解析領域に対応する領域及び第二V偏析解析領域に対応する領域の何れに含まれているかを判断する。   Specifically, in S41, the classification unit 108 determines from the center position Yc in the vertical direction (height direction) in the unknown image included in the image feature amount calculated in S23, as in S31 (FIG. 5). Based on the distance and direction to the center position of each of the plurality of unknown low-luminance areas identified in (2), the unknown low-luminance areas each correspond to the central segregation analysis area, the areas corresponding to the first V segregation analysis area, and It is determined which of the regions corresponding to the second V segregation analysis region is included.

そして、分類部108は、S41において中心偏析解析領域に対応する領域に含まれると判断した未知低輝度領域を対象にして、S24aを行う。具体的には、S24aにおいて、分類部108は、S24(図4)と同様に、S23で算出された、S24aの対象の未知低輝度領域其々の画像特徴量に対して、S15a(図5)で構築された中心偏析分類モデルを適用することにより、当該未知低輝度領域其々が偏析領域であるか否かを分類する(S24a(分類ステップ))。   Then, the classification unit 108 performs S24a on the unknown low-luminance area determined to be included in the area corresponding to the central segregation analysis area in S41. Specifically, in S24a, the classification unit 108 performs S15a (FIG. 5) on the image feature amount of each unknown low-luminance area of S24a calculated in S23, as in S24 (FIG. 4). ) Is applied to classify whether or not each unknown low-luminance region is a segregation region (S24a (classification step)).

この場合、解析部107は、偏析検出部109を動作させ、S25(図4)と同様、S24aの対象の未知低輝度領域其々のうち、S24aで偏析領域であると分類された其々を偏析領域として検出させる(S25a(偏析検出ステップ))。   In this case, the analysis unit 107 operates the segregation detection unit 109, and similarly to S25 (FIG. 4), among the unknown low-luminance regions of the target of S24a, each classified as a segregation region in S24a. It detects as a segregation area | region (S25a (segregation detection step)).

一方、分類部108は、S41において第一V偏析解析領域及び第二V偏析解析領域(第二領域)に対応する領域(第二対応領域)に含まれると判断した未知低輝度領域を対象にして、S24bを行う。ただし、分類部108は、S41において第一V偏析解析領域に対応する領域に含まれると判断した未知低輝度領域を対象にしてS24bを行う場合は、当該S24bを行う前にS42を行う。   On the other hand, the classification unit 108 targets the unknown low-luminance region determined to be included in the region (second corresponding region) corresponding to the first V segregation analysis region and the second V segregation analysis region (second region) in S41. Then, S24b is performed. However, the classification unit 108 performs S42 before performing S24b when performing S24b on the unknown low-luminance region determined to be included in the region corresponding to the first V segregation analysis region in S41.

具体的には、S42において、分類部108は、S23で算出された、S41において第一V偏析解析領域に対応する領域に含まれると判断した未知低輝度領域其々の画像特徴量を、S32(図5)と同様にして、未知画像における垂直方向の中心位置を軸として上下反転させる(S42)。   Specifically, in S42, the classification unit 108 calculates the image feature amount of each unknown low-luminance area that is determined in S23 to be included in the area corresponding to the first V segregation analysis area in S41. In the same manner as in FIG. 5, the center position in the vertical direction in the unknown image is turned upside down (S 42).

S24bにおいて、分類部108は、S24(図4)と同様にして、S42を行った後の画像特徴量に対して、S15b(図5)で構築されたV偏析分類モデル(第二分類モデル)を適用することにより、S41において第一V偏析解析領域に対応する領域に含まれると判断した未知低輝度領域其々が偏析領域であるか否かを分類する。また、分類部108は、S24(図4)と同様にして、S23で算出された、S41において第二V偏析解析領域に対応する領域に含まれると判断した未知低輝度領域其々の画像特徴量に対して、前記V偏析分類モデル(第二分類モデル)を適用することにより、S41において第二V偏析解析領域に対応する領域に含まれると判断した未知低輝度領域其々が偏析領域であるか否かを分類する(S24b(分類ステップ))。   In S24b, as in S24 (FIG. 4), the classification unit 108 applies the V segregation classification model (second classification model) constructed in S15b (FIG. 5) to the image feature amount after performing S42. Is applied to classify whether each of the unknown low-luminance regions determined to be included in the region corresponding to the first V segregation analysis region in S41 is a segregation region. Similarly to S24 (FIG. 4), the classification unit 108 calculates the image features of the unknown low-luminance regions calculated in S23 and determined to be included in the region corresponding to the second V segregation analysis region in S41. By applying the V segregation classification model (second classification model) to the quantity, each unknown low-luminance area determined to be included in the area corresponding to the second V segregation analysis area in S41 is a segregation area. It is classified whether or not there is (S24b (classification step)).

この場合、解析部107は、偏析検出部109を動作させ、S25(図4)と同様、S41において第一V偏析解析領域及び第二V偏析解析領域に対応する領域(第二対応領域)に含まれると判断された未知低輝度領域其々のうち、S24bで偏析領域であると分類された其々を偏析領域として検出する(S25b(偏析検出ステップ))。   In this case, the analysis unit 107 operates the segregation detection unit 109, and similarly to S25 (FIG. 4), the region corresponding to the first V segregation analysis region and the second V segregation analysis region (second correspondence region) in S41. Of the unknown low-brightness areas determined to be included, the areas classified as segregation areas in S24b are detected as segregation areas (S25b (segregation detection step)).

そして、解析部107は、S25a及びS25bが終了することで、未知画像からの偏析領域の検出が完了すると、解析処理を終了する。   And the analysis part 107 will complete | finish an analysis process, if the detection of the segregation area | region from an unknown image is completed by complete | finishing S25a and S25b.

第二実施形態の構成によれば、未知画像における中心偏析解析領域に対応する領域に含まれる未知低輝度領域其々の画像特徴量に対して、中心偏析分類モデルを適用することによって、中心偏析解析領域に含まれる目視によって偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、当該未知低輝度領域其々が中心偏析の偏析領域であるか否かをより精度良く分類することができる。   According to the configuration of the second embodiment, the center segregation classification model is applied to the image feature amount of each unknown low-luminance region included in the region corresponding to the center segregation analysis region in the unknown image. Considering the image features specific to the low-brightness areas that are discriminated as segregation areas by visual inspection included in the analysis area, classify whether each unknown low-brightness area is a segregation area of central segregation with higher accuracy. be able to.

同様に、未知画像における第一及び第二V偏析解析領域に対応する領域に含まれる未知低輝度領域其々の画像特徴量に対して、V偏析分類モデルを適用することによって、第一及び第二V偏析解析領域に含まれる目視によって偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、当該未知低輝度領域其々が、V偏析の偏析領域であるか否かをより精度良く分類することができる。   Similarly, by applying the V segregation classification model to the image feature quantities of the unknown low luminance regions included in the regions corresponding to the first and second V segregation analysis regions in the unknown image, the first and second In consideration of the image feature amount peculiar to the low-luminance area visually identified as the segregation area included in the two V segregation analysis area, whether or not each of the unknown low-luminance areas is a segregation area of V segregation is determined. It is possible to classify with high accuracy.

(第三実施形態)
以下、本発明に係る第三実施形態について説明する。第二実施形態の構成では、教示画像に含まれる、中心偏析解析領域と、中心偏析解析領域とは異なる第一及び第二V偏析解析領域と、の二個の領域其々に含まれる複数の低輝度領域其々の画像特徴量に基づき、当該二個の領域の其々に対応する中心偏析分類データとV偏析分類データとを作成していた。
(Third embodiment)
The third embodiment according to the present invention will be described below. In the configuration of the second embodiment, a plurality of areas included in each of the two areas of the center segregation analysis area and the first and second V segregation analysis areas different from the center segregation analysis area included in the teaching image. Based on the image feature amount of each low-luminance area, center segregation classification data and V segregation classification data corresponding to each of the two areas are created.

そして、当該作成した中心偏析分類データとV偏析分類データとを其々用いて、当該二個の領域の其々に対応する中心偏析分類モデルとV偏析分類モデルとを個別に構築していた。そして、当該構築した中心偏析分類モデルとV偏析分類モデルとを其々用いて、未知画像における上記二個の領域に対応する二個の領域其々において特定された複数の未知低輝度領域其々が偏析領域であるか否かを分類し、偏析領域を検出していた。   Then, the center segregation classification model and the V segregation classification model corresponding to each of the two regions are individually constructed using the created center segregation classification data and V segregation classification data. Then, using the constructed center segregation classification model and V segregation classification model, respectively, a plurality of unknown low-luminance areas identified in two areas corresponding to the two areas in the unknown image, respectively. Was classified as a segregation region, and the segregation region was detected.

しかし、第三実施形態の構成では、教示画像に含まれる中心偏析解析領域とは異なる領域を第一V偏析解析領域と第二V偏析解析領域とに分けて、中心偏析解析領域と、第一V偏析解析領域と、第二V偏析解析領域と、の三個の領域其々に含まれる複数の低輝度領域其々の画像特徴量に基づき、当該三個の領域の其々に対応する中心偏析分類データ、第一V偏析分類データ及び第二V偏析分類データを作成する。   However, in the configuration of the third embodiment, a region different from the center segregation analysis region included in the teaching image is divided into a first V segregation analysis region and a second V segregation analysis region, A center corresponding to each of the three regions based on the image feature amount of each of the plurality of low luminance regions included in each of the three regions of the V segregation analysis region and the second V segregation analysis region. Segregation classification data, first V segregation classification data, and second V segregation classification data are created.

そして、当該作成した三個の分類データを其々用いて、当該三個の領域の其々に対応する三個の分類モデルを個別に構築する。また、当該構築した三個の分類モデルを用いて、未知画像における上記三個の領域に対応する三個の領域其々において特定された複数の未知低輝度領域其々が偏析領域であるか否かを分類し、偏析領域を検出する。   Then, using the created three classification data, three classification models corresponding to the three areas are individually constructed. Further, using the constructed three classification models, whether or not each of the plurality of unknown low-luminance regions identified in each of the three regions corresponding to the three regions in the unknown image is a segregation region. The segregation region is detected.

具体的には、第三実施形態の構成では、分析部106は、図7に示すフローに従って分析処理を実行する。図7は、分析処理の他の一例を示すフローチャートである。図7に示すように、分析部106によって分析処理が開始されると、第一及び第二実施形態と同様、S11〜S13が行われる。また、第二実施形態と同様、S31、S14a、S15aが行われる。   Specifically, in the configuration of the third embodiment, the analysis unit 106 performs analysis processing according to the flow shown in FIG. FIG. 7 is a flowchart illustrating another example of the analysis process. As shown in FIG. 7, when the analysis process is started by the analysis unit 106, S11 to S13 are performed as in the first and second embodiments. Moreover, S31, S14a, and S15a are performed similarly to 2nd embodiment.

一方、分類データ作成部104は、第二実施形態と異なり、S31において第一V偏析解析領域(第三領域)に含まれると判断した低輝度領域を対象にしてS14cを行い、S31において第二V偏析解析領域(第四領域)に含まれると判断した低輝度領域を対象にしてS14dを行う。   On the other hand, unlike the second embodiment, the classification data creation unit 104 performs S14c on the low-luminance region determined to be included in the first V segregation analysis region (third region) in S31, and the second in S31. S14d is performed for the low luminance region determined to be included in the V segregation analysis region (fourth region).

S14cにおいて、分類データ作成部104は、S14aと同様にして、S31において、第一V偏析解析領域に含まれると判断した低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と、S13で算出された当該低輝度領域其々の画像特徴量と、を対応付けた第一V偏析分類データ(第三分類データ)を作成する(S14c(分類データ作成ステップ))。   In S14c, the classification data creation unit 104 determines whether or not each low-luminance region determined to be included in the first V segregation analysis region in S31 is a segregation region in the same manner as in S14a. First V segregation classification data (third classification data) in which the result is associated with the image feature amount of each of the low luminance areas calculated in S13 is created (S14c (classification data creation step)).

この場合、分析部106は、分類モデル構築部105を動作させ、S15aと同様、S14cで作成された第一V偏析分類データに含まれている画像特徴量を説明変数とし、当該第一V偏析分類データに含まれている判別結果を目的変数として、第一V偏析分類モデル(第三分類モデル)を構築させる(S15c(分類モデル構築ステップ))。   In this case, the analysis unit 106 operates the classification model construction unit 105 and uses the image feature amount included in the first V segregation classification data created in S14c as an explanatory variable, similarly to S15a, and uses the first V segregation. The first V segregation classification model (third classification model) is constructed using the discrimination result included in the classification data as the objective variable (S15c (classification model construction step)).

同様にして、S14dにおいて、分類データ作成部104は、S31において、第二V偏析解析領域に含まれると判断した低輝度領域其々が、偏析領域であるか否かを目視によって判別した判別結果と、S13で算出された当該低輝度領域其々の画像特徴量と、を対応付けた第二V偏析分類データ(第四分類データ)を作成する(S14d(分類データ作成ステップ))。   Similarly, in S14d, the classification data creation unit 104 visually discriminates whether or not each of the low luminance areas determined to be included in the second V segregation analysis area is a segregation area in S31. And the second V segregation classification data (fourth classification data) in which the image feature values of the low luminance areas calculated in S13 are associated with each other (S14d (classification data creation step)).

この場合、分析部106は、分類モデル構築部105を動作させ、S14dで作成された第二V偏析分類データに含まれている画像特徴量を説明変数とし、当該第二V偏析分類データに含まれている判別結果を目的変数として、第二V偏析分類モデル(第四分類モデル)を構築させる(S15d(分類モデル構築ステップ))。   In this case, the analysis unit 106 operates the classification model construction unit 105 and uses the image feature amount included in the second V segregation classification data created in S14d as an explanatory variable, and is included in the second V segregation classification data. The second V segregation classification model (fourth classification model) is constructed using the determined discrimination result as the objective variable (S15d (classification model construction step)).

そして、分析部106は、S15aにおける中心偏析分類モデルの構築、S15cにおける第一V偏析分類モデルの構築、及びS15dにおける第二V偏析分類モデルの構築が完了すると分析処理を終了する。   And the analysis part 106 will complete | finish an analysis process, if the construction of the center segregation classification model in S15a, the construction of the first V segregation classification model in S15c, and the construction of the second V segregation classification model in S15d are completed.

一方、第三実施形態の構成では、解析部107は、図8に示すフローに従って解析処理を実行する。図8は、解析処理の他の一例を示すフローチャートである。   On the other hand, in the configuration of the third embodiment, the analysis unit 107 executes analysis processing according to the flow shown in FIG. FIG. 8 is a flowchart illustrating another example of the analysis process.

図8に示すように、解析部107によって解析処理が開始されると、第一及び第二実施形態と同様、S21〜S23が行われる。また、第二実施形態と同様、S41、S24a、S25aが行われる。   As shown in FIG. 8, when the analysis process is started by the analysis unit 107, S21 to S23 are performed as in the first and second embodiments. Moreover, S41, S24a, and S25a are performed similarly to 2nd embodiment.

一方、分類部108は、第二実施形態と異なり、S41において第一V偏析解析領域(第三領域)に対応する領域(第三対応領域)に含まれると判断した未知低輝度領域を対象にしてS24cを行い、S41において第二V偏析解析領域(第四領域)に対応する領域(第四対応領域)に含まれると判断した低輝度領域を対象にしてS24dを行う。   On the other hand, unlike the second embodiment, the classification unit 108 targets an unknown low-luminance region that is determined to be included in the region (third corresponding region) corresponding to the first V segregation analysis region (third region) in S41. S24c is performed, and S24d is performed on the low-luminance region determined to be included in the region (fourth corresponding region) corresponding to the second V segregation analysis region (fourth region) in S41.

S24cにおいて、分類部108は、S24aと同様に、S23で算出された、S24cの対象の未知低輝度領域其々の画像特徴量に対して、S15c(図7)で構築された第一V偏析分類モデル(第三分類モデル)を適用することにより、当該未知低輝度領域其々が偏析領域であるか否かを分類する(S24c(分類ステップ))。   In S24c, similarly to S24a, the classification unit 108 uses the first V segregation constructed in S15c (FIG. 7) for the image feature values of the unknown low-luminance regions of S24c that are calculated in S23. By applying the classification model (third classification model), it is classified whether or not each of the unknown low luminance areas is a segregation area (S24c (classification step)).

この場合、解析部107は、偏析検出部109を動作させ、S25a(図6)と同様、S24cの対象の未知低輝度領域其々のうち、S24cで偏析領域であると分類された其々を偏析領域として検出させる(S25c(偏析検出ステップ))。   In this case, the analysis unit 107 operates the segregation detection unit 109, and similarly to S25a (FIG. 6), among the unknown low-luminance regions of S24c, each classified as a segregation region in S24c. It detects as a segregation area | region (S25c (segregation detection step)).

同様にして、S24dにおいて、分類部108は、S23で算出された、S24dの対象の未知低輝度領域其々の画像特徴量に対して、S15d(図7)で構築された第二V偏析分類モデル(第四分類モデル)を適用することにより、当該未知低輝度領域其々が偏析領域であるか否かを分類する(S24d(分類ステップ))。   Similarly, in S24d, the classifying unit 108 calculates the second V segregation classification constructed in S15d (FIG. 7) for the image feature amounts of the unknown low-luminance regions targeted in S24d calculated in S23. By applying the model (fourth classification model), it is classified whether or not each of the unknown low luminance areas is a segregation area (S24d (classification step)).

この場合、解析部107は、偏析検出部109を動作させ、S24dの対象の未知低輝度領域其々のうち、S24dで偏析領域であると分類された其々を偏析領域として検出させる(S25d(偏析検出ステップ))。   In this case, the analysis unit 107 operates the segregation detection unit 109 to detect, as the segregation region, each of the unknown low-brightness regions of S24d that are classified as segregation regions in S24d (S25d ( Segregation detection step)).

そして、解析部107は、S25a、S25c及びS25dが終了することで、未知画像からの偏析領域の検出が完了すると、解析処理を終了する。   And the analysis part 107 will complete | finish an analysis process, if detection of the segregation area | region from an unknown image is completed by complete | finishing S25a, S25c, and S25d.

第三実施形態の構成によれば、第一V偏析解析領域に含まれる、目視によって第一V偏析解析領域に発生するV偏析(以降、第一V偏析)の偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、未知画像における第一V偏析解析領域に対応する領域に含まれる未知低輝度領域其々が、第一V偏析の偏析領域であるか否かをより精度良く分類することができる。   According to the configuration of the third embodiment, the low brightness determined as the segregation region of the V segregation (hereinafter referred to as the first V segregation) generated in the first V segregation analysis region by visual inspection, which is included in the first V segregation analysis region. In consideration of the image characteristic amount peculiar to the region, it is more accurate whether or not each of the unknown low luminance regions included in the region corresponding to the first V segregation analysis region in the unknown image is the segregation region of the first V segregation. Can be classified well.

同様に、第二V偏析解析領域に含まれる、目視によって第二V偏析解析領域に発生するV偏析(以降、第二V偏析)の偏析領域と判別された低輝度領域特有の画像特徴量を考慮して、未知画像における第二V偏析解析領域に対応する領域に含まれる未知低輝度領域其々が、第二V偏析の偏析領域であるか否かをより精度良く分類することができる。   Similarly, the image characteristic amount peculiar to the low-luminance region, which is included in the second V segregation analysis region and determined to be a segregation region of V segregation (hereinafter, second V segregation) generated in the second V segregation analysis region by visual inspection In consideration, it is possible to classify more accurately whether each unknown low-luminance region included in the region corresponding to the second V segregation analysis region in the unknown image is a segregation region of the second V segregation.

尚、上記第一乃至第三実施形態は、本発明に係る実施形態の例示に過ぎず、本発明を上記第一乃至第三実施形態に限定する趣旨ではない。例えば、以下に示す変形実施形態であってもよい。   In addition, said 1st thru | or 3rd embodiment is only the illustration of embodiment which concerns on this invention, and is not the meaning which limits this invention to said 1st thru | or 3rd embodiment. For example, the following modified embodiment may be used.

(1)第二及び第三実施形態の構成において、S31(図5、図7)を、S12の直後に行うようにしてもよい。そして、S13と同様に、当該S31で中心偏析解析領域に含まれていると判断された低輝度領域其々の画像特徴量を算出した後、S14a以降の処理を行うようにしてもよい。また、S13と同様に、当該S31で第一及び第二V偏析解析領域に含まれていると判断された低輝度領域其々の画像特徴量を算出した後、第二実施形態の構成においては、S32(図5)以降の処理を行うようにし、第三実施形態の構成においては、S14c(図7)以降の処理又はS14d(図7)以降の処理を行うようにしてもよい。   (1) In the configurations of the second and third embodiments, S31 (FIGS. 5 and 7) may be performed immediately after S12. And like S13, after calculating the image feature-value of each low-luminance area | region judged to be contained in the center segregation analysis area | region by the said S31, you may make it perform the process after S14a. Similarly to S13, after calculating the image feature amounts of the low luminance areas determined to be included in the first and second V segregation analysis areas in S31, in the configuration of the second embodiment, S32 (FIG. 5) and subsequent processes may be performed, and in the configuration of the third embodiment, the processes after S14c (FIG. 7) or the processes after S14d (FIG. 7) may be performed.

(2)第二実施形態及び第三実施形態の構成において、S41(図6、図8)を、S22の直後に行うようにしてもよい。そして、S23と同様に、当該S41で中心偏析解析領域に対応する領域に含まれていると判断された未知低輝度領域其々の画像特徴量を算出した後、S24a以降の処理を行うようにしてもよい。また、S23と同様に、S41で第一及び第二V偏析解析領域に対応する領域に含まれていると判断された未知低輝度領域其々の画像特徴量を算出した後、第二実施形態の構成においては、S42(図6)以降の処理を行うようにし、第三実施形態の構成においては、S24c(図8)以降の処理又はS24d(図8)以降の処理を行うようにしてもよい。   (2) In the configurations of the second embodiment and the third embodiment, S41 (FIGS. 6 and 8) may be performed immediately after S22. Then, similarly to S23, after calculating the image feature amount of each unknown low-brightness area determined to be included in the area corresponding to the central segregation analysis area in S41, the processing after S24a is performed. May be. Similarly to S23, after calculating the image feature amounts of the unknown low-luminance regions determined to be included in the regions corresponding to the first and second V segregation analysis regions in S41, the second embodiment In the configuration of FIG. 8, the processing after S42 (FIG. 6) is performed, and in the configuration of the third embodiment, the processing after S24c (FIG. 8) or the processing after S24d (FIG. 8) is performed. Good.

(3)鋼材断面は、連続鋳造によって生成された板状の鋳片を、鋳造方向と平行に切断したときの断面に限らず、他の方法で製造された鋼材の断面であってもよい。この場合、第二及び第三実施形態の構成において、中心偏析解析領域に代えて、当該鋼材の断面に特有の偏析が発生する領域(以降、特有偏析領域)を採用してもよい。また、第三実施形態の構成において、第一及び第二V偏析解析領域に代えて、当該鋼材の断面に前記特有の偏析とは異なる特有の偏析が発生する、互いに異なる二個の領域を採用してもよい。   (3) The cross section of the steel material is not limited to a cross section when a plate-shaped slab produced by continuous casting is cut in parallel to the casting direction, but may be a cross section of a steel material manufactured by another method. In this case, in the configurations of the second and third embodiments, instead of the center segregation analysis region, a region where segregation peculiar to the cross section of the steel material occurs (hereinafter referred to as a specific segregation region) may be employed. Further, in the configuration of the third embodiment, instead of the first and second V segregation analysis regions, two different regions in which specific segregation different from the above-mentioned specific segregation occurs in the cross section of the steel material are adopted. May be.

(4)エッチングされた鋼材断面の転写体を複数用意し、第一乃至第三実施形態と上記(1)乃至(3)の変形実施形態の構成におけるS11(図3、図5、図7)において、当該複数の転写体其々を表す複数の教示画像を取得してもよい。そして、S12(図3、図5、図7)において、当該取得した複数の教示画像に含まれる全ての低輝度領域を特定した後、S12よりも後の処理を行うようにしてもよい。この場合、分類データに含まれるデータ量が増大するので、当該分類データを用いて構築された分類モデルを用いて、より高精度に偏析領域を検出することができる。   (4) S11 (FIGS. 3, 5, and 7) in the configuration of the first to third embodiments and the modified embodiments of (1) to (3) above is prepared by preparing a plurality of etched sections of steel cross sections. In this case, a plurality of teaching images representing each of the plurality of transfer bodies may be acquired. Then, in S12 (FIGS. 3, 5, and 7), after specifying all the low-luminance areas included in the acquired plurality of teaching images, the processing after S12 may be performed. In this case, since the amount of data included in the classification data increases, the segregation region can be detected with higher accuracy using a classification model constructed using the classification data.

(他の変形実施形態)
以下、本発明に係る他の変形実施形態について説明する。上述した第一乃至第三実施形態と(1)乃至(4)の変形実施形態の構成では、鋼材断面の転写体を表す転写画像から精度良く偏析領域を検出していた。本発明に係る他の変形実施形態の構成では、更に、上記構成で検出された偏析領域其々の画像特徴量に基づき、当該転写画像に対応する鋼材の品質の評価を行う。
(Other modified embodiments)
Hereinafter, other modified embodiments according to the present invention will be described. In the configurations of the first to third embodiments and the modified embodiments (1) to (4) described above, the segregation region is detected with high accuracy from the transfer image representing the transfer body of the steel material cross section. In the configuration of another modified embodiment according to the present invention, the quality of the steel material corresponding to the transfer image is further evaluated based on the image feature amount of each segregation area detected in the above configuration.

(他の変形実施形態の構成を想起した理由)
以下、当該他の変形実施形態の構成を想起した理由について説明する。従来から、鋼材断面に含まれる偏析の状態に基づき、鋼材の品質を評価する方法として、上述の特許文献1に記載の方法の他、特開2014−172074号公報(以降、文献1)、特開2013−145221号公報(以降、文献2)及び特開2013−250113号公報(以降、文献3)等に記載の方法が知られている。
(Reason for recalling the configuration of another modified embodiment)
Hereinafter, the reason which recalled the structure of the said other modified embodiment is demonstrated. Conventionally, as a method for evaluating the quality of a steel material based on the state of segregation included in a steel material cross section, in addition to the method described in Patent Document 1 described above, JP-A-2014-172074 (hereinafter referred to as Document 1), Methods described in Japanese Unexamined Patent Application Publication No. 2013-145221 (hereinafter referred to as Document 2) and Japanese Unexamined Patent Application Publication No. 2013-250113 (hereinafter referred to as Document 3) are known.

文献1には、スラブ切断の切断面に含まれる偏析の最大粒径及び密度が、一次関数を用いて表される所定範囲にあるか否かによって、当該スラブを耐サワー鋼に充当したときに水素誘起割れ(HIC)が発生するか否かを判断することが記載されている。文献2には、EPMAによって鋼材に含まれる所定の元素(C、Mn、Nb、P等)の濃度を測定し、当該測定した濃度を所定の判定式に代入して得られた結果によって、鋼材のHIC割れ感受性を評価することが記載されている。文献3には、鋼材に含まれる化学成分、中心偏析の硬さ及びミクロ組織形態、並びに、鋼材の表層近傍の超音波探傷及び圧延・冷却工程における実績条件等が所定範囲内にあるか否かによって、鋼材の耐HIC性能を判定することが記載されている。   According to Document 1, when the maximum particle size and density of segregation contained in the cut surface of slab cutting are within a predetermined range expressed using a linear function, the slab is applied to sour-resistant steel. It is described that it is determined whether or not hydrogen induced cracking (HIC) occurs. In Document 2, the concentration of a predetermined element (C, Mn, Nb, P, etc.) contained in the steel material is measured by EPMA, and the result obtained by substituting the measured concentration into a predetermined judgment formula, Of HIC cracking is evaluated. In Document 3, whether or not the chemical composition contained in the steel material, the hardness and microstructure of the center segregation, and the actual conditions in the ultrasonic flaw detection and rolling / cooling processes near the surface layer of the steel material are within the predetermined range. Is used to determine the HIC resistance performance of a steel material.

しかし、文献1に記載の方法は、偏析の最大粒径及び密度とスラブの品質との関係が線形の関係であることを前提としており、偏析の最大粒径及び密度とスラブの品質との関係が非線形の関係である場合に精度良く判断できないという問題があった。文献2及び3に記載の方法は、鋼材に含まれる化学成分の分析に時間を要し、鋼材の品質の判定結果を得るまでの時間が長くなるという問題があった。これらの問題を解消するため、発明者は、転写画像に含まれる偏析領域の画像特徴量に基づき、当該転写画像に対応する鋼材の品質を精度良く且つ迅速に判定可能な構成を検討した。その結果、発明者は、当該他の変形実施形態の構成を想起した。   However, the method described in Document 1 assumes that the relationship between the maximum particle size and density of segregation and the quality of the slab is a linear relationship, and the relationship between the maximum particle size and density of segregation and the quality of the slab. There is a problem that it is impossible to judge with high accuracy when is a non-linear relationship. The methods described in Documents 2 and 3 have a problem that it takes time to analyze chemical components contained in the steel material, and it takes a long time to obtain a result of determining the quality of the steel material. In order to solve these problems, the inventor examined a configuration capable of accurately and quickly determining the quality of the steel material corresponding to the transfer image based on the image feature amount of the segregation area included in the transfer image. As a result, the inventor recalled the configuration of the other modified embodiment.

(第一の変形実施形態)
以下、当該他の変形実施形態のうちの第一の変形実施形態について説明する。図9は、制御部10の構成の他の一例を示すブロック図である。第一の変形実施形態の構成では、前記CPUが前記ROMに記憶された制御プログラムを実行することによって、図9に示すように、制御部10が、更に、導出部110、判定データ作成部111、判定モデル構築部112、品質分析部113、及び品質判定部114として機能する。
(First modified embodiment)
Hereinafter, the first modified embodiment among the other modified embodiments will be described. FIG. 9 is a block diagram illustrating another example of the configuration of the control unit 10. In the configuration of the first modified embodiment, when the CPU executes the control program stored in the ROM, the control unit 10 further includes a derivation unit 110 and a determination data creation unit 111 as shown in FIG. , Function as a determination model construction unit 112, a quality analysis unit 113, and a quality determination unit 114.

導出部110は、解析部107による解析処理の後、偏析検出部109によって検出された偏析領域其々の画像特徴量に基づき、未知画像の偏析領域に関する特徴量を導出する。偏析領域其々の画像特徴量は、解析処理において画像特徴量算出部103によって算出され、例えば、偏析領域其々の面積及び輝度値の平均値等が含まれている。未知画像の偏析領域に関する特徴量には、例えば、未知画像に含まれる偏析領域(以降、未知偏析領域)の面積の平均値、未知偏析領域の面積の総和、最大の未知偏析領域の面積、未知偏析領域の個数、及び、未知偏析領域の輝度値の平均値と未知画像における未知偏析領域以外の領域の輝度値の平均値との比率等が含まれる。   The derivation unit 110 derives a feature amount related to the segregation region of the unknown image based on the image feature amount of each segregation region detected by the segregation detection unit 109 after the analysis processing by the analysis unit 107. The image feature amount of each segregation region is calculated by the image feature amount calculation unit 103 in the analysis process, and includes, for example, the area of each segregation region and the average value of luminance values. The feature values related to the segregation region of the unknown image include, for example, the average value of the segregation region included in the unknown image (hereinafter, unknown segregation region), the sum of the areas of the unknown segregation region, the area of the largest unknown segregation region, the unknown The number of segregation areas and the ratio of the average value of luminance values of the unknown segregation area and the average value of luminance values of areas other than the unknown segregation area in the unknown image are included.

判定データ作成部111は、未知画像の目視によって未知画像に対応する鋼材(以降、未知鋼材)の品質が良好であるか否かを判定した判定結果と、導出部110によって導出された未知画像の偏析領域に関する特徴量と、を対応付けた判定データを作成する。尚、未知画像に対応する鋼材とは、未知画像に対応する転写体の作成に用いた鋼材である。   The determination data creation unit 111 determines whether the quality of the steel material (hereinafter, unknown steel material) corresponding to the unknown image is good by visual observation of the unknown image, and the unknown image derived by the derivation unit 110. Judgment data in which feature quantities related to segregation regions are associated is created. In addition, the steel material corresponding to an unknown image is the steel material used for preparation of the transfer body corresponding to an unknown image.

例えば、判定データ作成部111は、解析処理におけるS21(図4)で画像取得部101によって取得された未知画像を表示部60に表示させる。ユーザは、表示部60に表示された未知画像を目視して、当該未知鋼材の品質が良好であるか否かを判定する。ユーザは、当該判定した結果を入力部50を用いて入力する。判定データ作成部111は、当該入力された判定結果と、導出部110によって導出された未知画像の偏析領域に関する特徴量と、を対応付けた判定データを作成する。   For example, the determination data creation unit 111 causes the display unit 60 to display the unknown image acquired by the image acquisition unit 101 in S21 (FIG. 4) in the analysis process. The user visually checks the unknown image displayed on the display unit 60 and determines whether or not the quality of the unknown steel material is good. The user inputs the determined result using the input unit 50. The determination data creation unit 111 creates determination data in which the input determination result is associated with the feature amount related to the segregation region of the unknown image derived by the derivation unit 110.

判定モデル構築部112は、判定データ作成部111によって作成された判定データに含まれている特徴量を説明変数とし、当該判定データに含まれている判定結果を目的変数とし、当該目的変数を分類するための当該説明変数のモデル(以降、判定モデル)を公知の統計的手法を用いて構築する。   The determination model construction unit 112 uses the feature amount included in the determination data created by the determination data generation unit 111 as an explanatory variable, uses the determination result included in the determination data as an objective variable, and classifies the objective variable The model of the explanatory variable for this purpose (hereinafter referred to as a determination model) is constructed using a known statistical method.

上記統計的手法には、例えば、目的変数(未知鋼材の品質が良好であるか否かを目視によって判定した判定結果)の純度が高まるように、説明変数(未知画像の偏析領域に関する特徴量)とその閾値とを樹木状に組み合わせたルール(判定モデル)を構築する決定木分析や、目的変数及び説明変数を含むロジスティック曲線への回帰式(判定モデル)を求めるロジスティック回帰分析等の一般的な機械学習で用いられる手法が適用可能である。また、上記統計的手法には、例えば、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレスト等の一般的な機械学習で用いられる手法も適用可能である。または、判定モデル構築部112が、上記の統計的手法のうちの複数の手法を用いて、判定モデルを構築するようにしてもよい。   The statistical method includes, for example, explanatory variables (features related to segregation regions of unknown images) so that the purity of the objective variable (determination result obtained by visual determination of whether the quality of the unknown steel is good) increases. General analysis such as decision tree analysis that builds rules (judgment models) that combine tree and their thresholds into a tree shape, and logistic regression analysis to obtain regression equations (judgment models) to logistic curves that include objective variables and explanatory variables Techniques used in machine learning can be applied. For the statistical method, for example, a method used in general machine learning such as nearest neighbor method, neural network, support vector machine, and random forest can be applied. Alternatively, the determination model construction unit 112 may construct a judgment model using a plurality of methods among the above statistical methods.

品質分析部113は、解析部107による解析処理の後、導出部110と、判定データ作成部111と、判定モデル構築部112と、を順に動作させる品質分析処理(品質分析ステップ)を行う。   After the analysis processing by the analysis unit 107, the quality analysis unit 113 performs a quality analysis process (quality analysis step) in which the derivation unit 110, the determination data creation unit 111, and the determination model construction unit 112 are operated in order.

図10は、品質分析処理の一例を示すフローチャートである。具体的には、品質分析部113は、解析部107による解析処理(図4、図6、図8)が終了すると、品質分析処理を開始する。図10に示すように、品質分析部113は、品質分析処理を開始すると、先ず、導出部110を動作させ、解析処理におけるS25(図4)、25a〜d(図6、図8)で検出された偏析領域其々の画像特徴量に基づき、未知画像の偏析領域に関する特徴量を導出させる(S51(導出ステップ))。尚、導出部110は、S51において、解析処理におけるS23(図4、図6、図8)の処理で算出された偏析領域其々の画像特徴量を用いて、未知画像の偏析領域に関する特徴量を導出する。   FIG. 10 is a flowchart illustrating an example of the quality analysis process. Specifically, the quality analysis unit 113 starts the quality analysis process when the analysis process (FIGS. 4, 6, and 8) by the analysis unit 107 ends. As shown in FIG. 10, when starting the quality analysis process, the quality analysis unit 113 first operates the derivation unit 110 to detect in S25 (FIG. 4) and 25a to d (FIGS. 6 and 8) in the analysis process. Based on the image feature amount of each segregated region, the feature amount related to the segregated region of the unknown image is derived (S51 (derivation step)). In S51, the deriving unit 110 uses the image feature values of the segregation areas calculated in the processing of S23 (FIGS. 4, 6, and 8) in the analysis process, and the feature quantities related to the segregation area of the unknown image. Is derived.

次に、品質分析部113は、判定データ作成部111を動作させ、未知画像の目視によっ未知鋼材の品質が良好であるか否かを判定した判定結果と、S51で導出された未知画像の偏析領域に関する特徴量と、を対応付けた判定データを作成させる(S52(判定データ作成ステップ))。   Next, the quality analysis unit 113 operates the determination data creation unit 111 to determine whether or not the quality of the unknown steel material is good by visual observation of the unknown image, and the unknown image derived in S51. Determination data in which the feature amount related to the segregation area is associated is generated (S52 (determination data generation step)).

そして、品質分析部113は、判定モデル構築部112を動作させ、S52で作成された判定データに含まれている特徴量を説明変数とし、当該判定データに含まれている判定結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである判定モデルを構築させ(S53(判定モデル構築ステップ))、品質分析処理を終了する。   Then, the quality analysis unit 113 operates the determination model construction unit 112 to use the feature amount included in the determination data created in S52 as an explanatory variable and the determination result included in the determination data as an objective variable. Then, a determination model that is a model of the explanatory variable for classifying the objective variable is constructed (S53 (determination model construction step)), and the quality analysis process is terminated.

図9に参照を戻す。品質判定部114は、品質分析部113による品質分析処理の終了後、評価対象用の転写体を用いて、鋼材品質判定処理を実行する。ここで、評価対象用の転写体とは、解析部107が解析処理において画像取得部101を動作させる際に用いた、解析対象の鋼材断面を転写した転写体とは異なる転写体である。具体的には、評価対象用の転写体は、上記解析対象の鋼材断面を転写した転写体と同様、評価対象の鋼材断面がエッチングされた後、上記薄膜に転写されることによって作成される。   Returning to FIG. After the quality analysis process by the quality analysis unit 113 is completed, the quality determination unit 114 executes the steel material quality determination process using the evaluation target transfer body. Here, the transfer body for evaluation is a transfer body that is different from the transfer body that has transferred the cross section of the steel material to be analyzed, which is used when the analysis unit 107 operates the image acquisition unit 101 in the analysis process. Specifically, the transfer object for evaluation is created by transferring the cross section of the steel material to be evaluated to the thin film after etching the cross section of the steel material to be evaluated, as in the case of the transfer body having transferred the cross section of the steel material to be analyzed.

品質判定部114は、鋼材品質判定処理において、解析部107と導出部110とを順に動作させた後、導出部110によって導出された評価対象用の転写体を表す未評価画像の偏析領域に関する特徴量に対して、判定モデル構築部112によって構築された判定モデルを適用することによって、未評価画像に対応する未評価鋼材の品質が良好であるか否かを判定する。尚、未評価画像に対応する未評価鋼材とは、未評価画像に対応する転写体の作成に用いた鋼材である。   The quality determination unit 114 operates the analysis unit 107 and the derivation unit 110 in order in the steel material quality determination process, and then relates to the segregation region of the unevaluated image representing the evaluation object transfer body derived by the derivation unit 110. By applying the judgment model constructed by the judgment model construction unit 112 to the quantity, it is judged whether or not the quality of the unevaluated steel material corresponding to the unevaluated image is good. Note that the unevaluated steel material corresponding to the unevaluated image is a steel material used for creating a transfer body corresponding to the unevaluated image.

図11は、鋼材品質判定処理の一例を示すフローチャートである。具体的には、品質分析部113による品質分析処理の終了後、入力部50によって鋼材品質判定処理の開始指示が入力されると、品質判定部114は、鋼材品質判定処理を開始する。図11に示すように、品質判定部114は、鋼材品質判定処理を開始すると、先ず、解析部107を動作させ、評価対象用の転写体を用いた解析処理(解析ステップ)を実行させる(S61)。   FIG. 11 is a flowchart illustrating an example of the steel material quality determination process. Specifically, after the quality analysis process by the quality analysis unit 113 is completed, when an instruction to start the steel material quality determination process is input by the input unit 50, the quality determination unit 114 starts the steel material quality determination process. As shown in FIG. 11, when the quality determination unit 114 starts the steel quality determination process, first, the analysis unit 107 is operated to execute an analysis process (analysis step) using a transfer body for evaluation (S61). ).

S61では、先ず、S21(図4、図6、図8)が実行され、画像取得部101によって評価対象用の転写体を表す未評価画像が取得される。次に、S22(図4、図6、図8)が実行され、画像処理部102によって、未評価画像における所定輝度より低輝度な複数の低輝度領域(以降、未評価低輝度領域)が特定される。次に、S23(図4、図6、図8)が実行され、画像特徴量算出部103によって、未評価画像において特定された複数の未評価低輝度領域其々の画像特徴量が算出される。その後、S24及びS25(図4)、図6に示すS41以降の処理、又は、図8に示すS41以降の処理が実行される。その結果、未評価画像に含まれる偏析領域が検出される。   In S61, first, S21 (FIGS. 4, 6, and 8) is executed, and an unevaluated image representing a transfer body for evaluation is acquired by the image acquisition unit 101. Next, S22 (FIGS. 4, 6, and 8) is executed, and the image processing unit 102 identifies a plurality of low-brightness regions (hereinafter referred to as unevaluated low-brightness regions) having a luminance lower than a predetermined luminance in the unevaluated image. Is done. Next, S23 (FIGS. 4, 6, and 8) is executed, and the image feature amount calculation unit 103 calculates the image feature amount of each of the plurality of unevaluated low-luminance regions specified in the unevaluated image. . Thereafter, S24 and S25 (FIG. 4), the process after S41 shown in FIG. 6, or the process after S41 shown in FIG. 8 is executed. As a result, a segregation area included in the unevaluated image is detected.

S61の解析処理が終了すると、品質判定部114は、導出部110を動作させ、S51(図10)と同様、S61で検出された偏析領域其々の画像特徴量に基づき、未評価画像の偏析領域に関する特徴量を導出させる(S62(導出ステップ))。   When the analysis process of S61 is completed, the quality determination unit 114 operates the derivation unit 110, and as in S51 (FIG. 10), the segregation of the unevaluated image is performed based on the image feature values of the segregation areas detected in S61. A feature amount relating to the region is derived (S62 (derivation step)).

次に、品質判定部114は、S62で導出された未評価画像の偏析領域に関する特徴量に対して、S53(図10)で構築された判定モデルを適用することによって、未評価画像に対応する未評価鋼材の品質が良好であるか否かを判定し(S63(品質判定ステップ))、鋼材品質判定処理を終了する。   Next, the quality determination unit 114 responds to the unevaluated image by applying the determination model constructed in S53 (FIG. 10) to the feature amount related to the segregation region of the unevaluated image derived in S62. It is determined whether or not the quality of the unevaluated steel material is good (S63 (quality determination step)), and the steel material quality determination process is terminated.

例えば、S53(図10)において、決定木分析手法で判定モデルが構築されたとする。つまり、判定モデルが目的変数(未知鋼材の品質が良好であるか否かを目視によって判定した判定結果)の純度が高まるように、説明変数(未知画像の偏析領域に関する特徴量)とその閾値とを樹木状に組み合わせたルールであるとする。この場合、S63において、品質判定部114は、S62で導出された未評価画像の偏析領域に関する特徴量のうち、判定モデルにおいて説明変数として含まれている特徴量と、判定モデルにおいて定められている当該特徴量の閾値と、の対比結果によって、未評価鋼材の品質が良好であるか否かを判定(分類)する。   For example, it is assumed that a determination model is constructed by a decision tree analysis method in S53 (FIG. 10). In other words, the explanatory variable (feature amount related to the segregation region of the unknown image) and its threshold value are set so that the determination model increases the purity of the objective variable (determination result obtained by visually determining whether or not the quality of the unknown steel is good). Is a rule that is combined in a tree form. In this case, in S63, the quality determination unit 114 is determined in the determination model among the characteristic amounts related to the segregation region of the unevaluated image derived in S62 and the characteristic amount included as the explanatory variable in the determination model. It is determined (classified) whether or not the quality of the unevaluated steel material is good based on the comparison result with the threshold value of the feature amount.

または、S53(図10)において、ロジスティック回帰析手法で判定モデルが構築されたとする。つまり、判定モデルが、ロジスティック回帰分析によって構築された目的変数(未知鋼材の品質が良好であるか否かを目視によって判定した判定結果)及び説明変数(未知画像の偏析領域に関する特徴量)を含むロジスティック曲線への回帰式であるとする。この場合、S63において、品質判定部114は、S62で導出された未評価画像の偏析領域に関する特徴量のうち、判定モデルが示す回帰式に説明変数として含まれている特徴量を、当該回帰式に代入した結果によって、未評価鋼材の品質が良好であるか否かを分類(判定)する。   Alternatively, it is assumed that a determination model is constructed by a logistic regression analysis method in S53 (FIG. 10). That is, the judgment model includes objective variables (judgment results obtained by visually judging whether or not the quality of the unknown steel material is good) and explanatory variables (features related to the segregation area of the unknown image) constructed by logistic regression analysis. Let it be a regression equation to a logistic curve. In this case, in S63, the quality determination unit 114 uses, as the regression equation, the feature amount included as the explanatory variable in the regression equation indicated by the determination model among the feature amounts related to the segregated region of the unevaluated image derived in S62. Whether or not the quality of the unevaluated steel material is good is classified (determined) according to the result assigned to.

したがって、第一の変形実施形態の構成によれば、目視によって未評価画像の偏析領域に関する特徴量を把握する手間をかけずに、S62で導出された当該特徴量を用いて、未評価鋼材の品質が良好であるか否かを迅速に判定することができる。また、未評価画像の偏析領域に関する特徴量を考慮するだけでなく、前記判定モデルを用いて、当該特徴量が、過去に品質が良好であると判定された鋼材に対応する転写画像の偏析領域に関する特徴量に該当するか否かを更に考慮して、より精度良く、未評価鋼材の品質が良好であるか否かを判定することができる。   Therefore, according to the configuration of the first modified embodiment, it is possible to use the feature amount derived in S62 without using time and effort to grasp the feature amount related to the segregated region of the unevaluated image by visual inspection. Whether or not the quality is good can be quickly determined. Further, not only the feature quantity related to the segregation area of the unevaluated image is considered, but also the segregation area of the transfer image corresponding to the steel material whose quality is determined to be good in the past using the determination model. It is possible to determine whether or not the quality of the unevaluated steel material is good with higher accuracy by further considering whether or not the feature amount is related to.

(第二の変形実施形態)
次に、上記他の変形実施形態のうちの第二の変形実施形態について説明する。第二の変形実施形態の構成では、第一の変形実施形態の構成とは異なり、未知画像における中心偏析解析領域及びこれ以外の領域の二個の領域其々から検出された偏析領域其々の画像特徴量に基づき、未評価鋼材における当該二個の領域に対応する二個の領域其々の品質を個別に判定する。
(Second modified embodiment)
Next, a second modified embodiment among the other modified embodiments will be described. In the configuration of the second modified embodiment, unlike the configuration of the first modified embodiment, each of the segregation regions detected from the two regions of the center segregation analysis region and the other regions in the unknown image, respectively. Based on the image feature amount, the quality of each of the two regions corresponding to the two regions in the unevaluated steel material is individually determined.

第二の変形実施形態の構成では、品質分析部113は、第一の変形実施形態とは異なり、図12に示すフローに従って品質分析処理を実行する。図12は、品質分析処理の他の一例を示すフローチャートである。   In the configuration of the second modified embodiment, the quality analysis unit 113 executes quality analysis processing according to the flow shown in FIG. 12, unlike the first modified embodiment. FIG. 12 is a flowchart illustrating another example of the quality analysis process.

具体的には、品質分析部113は、解析部107による解析処理(図4、図6、図8)が終了すると、図12に示す品質分析処理を開始する。品質分析部113は、品質分析処理を開始すると、導出部110を動作させ、S50とS51a及びS51bとを実行させる。   Specifically, when the analysis process (FIGS. 4, 6, and 8) by the analysis unit 107 is completed, the quality analysis unit 113 starts the quality analysis process illustrated in FIG. When the quality analysis unit 113 starts the quality analysis process, the quality analysis unit 113 operates the derivation unit 110 to execute S50, S51a, and S51b.

S50において、導出部110は、解析処理におけるS25(図4)、25a〜d(図6、図8)で検出された偏析領域其々の画像特徴量に基づき、当該偏析領域其々が、未知画像における、中心偏析解析領域に対応する領域(第一未知領域)、第一V偏析解析領域に対応する領域(第二未知領域)及び第二V偏析解析領域に対応する領域(第二未知領域)の何れに含まれているかを判断する(S50)。   In S50, the derivation unit 110 determines that each segregation area is unknown based on the image feature amount of each segregation area detected in S25 (FIG. 4) and 25a to 25d (FIGS. 6 and 8) in the analysis process. In the image, a region corresponding to the center segregation analysis region (first unknown region), a region corresponding to the first V segregation analysis region (second unknown region), and a region corresponding to the second V segregation analysis region (second unknown region) ) Is determined (S50).

以降、説明の便宜上、未知画像における、中心偏析解析領域に対応する領域を、未知画像における中心偏析解析領域と略記する。同様に、未知画像における第一V偏析解析領域に対応する領域を、未知画像における第一V偏析解析領域と略記し、未知画像における第二V偏析解析領域に対応する領域を、未知画像における第二V偏析解析領域と略記する。   Hereinafter, for convenience of explanation, a region corresponding to the center segregation analysis region in the unknown image is abbreviated as a center segregation analysis region in the unknown image. Similarly, the region corresponding to the first V segregation analysis region in the unknown image is abbreviated as the first V segregation analysis region in the unknown image, and the region corresponding to the second V segregation analysis region in the unknown image is the first in the unknown image. Abbreviated as 2V segregation analysis region.

具体的には、S50において、導出部110は、S31(図5)と同様にして、解析処理において検出された偏析領域其々が、未知画像における中心偏析解析領域、第一V偏析解析領域及び第二V偏析解析領域の何れに含まれているかを判断する。   Specifically, in S50, the derivation unit 110 determines that the segregation areas detected in the analysis process are the center segregation analysis area, the first V segregation analysis area in the unknown image, and the same as S31 (FIG. 5). It is determined in which of the second V segregation analysis areas.

そして、導出部110は、S50において未知画像における中心偏析解析領域に含まれると判断した偏析領域其々の画像特徴量を用いてS51aを行う。具体的には、S51aにおいて、導出部110は、未知画像における中心偏析解析領域の偏析領域に関する特徴量を導出する(S51a)。未知画像における中心偏析解析領域の偏析領域に関する特徴量には、例えば、未知画像における中心偏析解析領域に含まれる偏析領域(以降、未知中心偏析領域)の面積の平均値、未知中心偏析領域の面積の総和、最大の未知中心偏析領域の面積、未知中心偏析領域の個数、未知中心偏析領域の輝度値の平均値と未知画像における中心偏析解析領域のうち未知中心偏析領域以外の領域の輝度値の平均値との比率等が含まれる。   Then, the deriving unit 110 performs S51a using the image feature amounts of the segregation areas determined to be included in the center segregation analysis area in the unknown image in S50. Specifically, in S51a, the deriving unit 110 derives a feature amount related to the segregation area of the center segregation analysis area in the unknown image (S51a). The feature amount related to the segregation area of the center segregation analysis area in the unknown image includes, for example, the average value of the area of the segregation area (hereinafter, unknown center segregation area) included in the center segregation analysis area in the unknown image, the area of the unknown center segregation area Of the maximum unknown center segregation area, the number of unknown center segregation areas, the average value of the luminance values of the unknown center segregation area, and the brightness values of the areas other than the unknown center segregation area in the center segregation analysis area in the unknown image. The ratio with the average value is included.

S51aが終了すると、品質分析部113は、S52(図10)と同様、判定データ作成部111を動作させ、S52a(判定データ作成ステップ)を行わせる。S52aでは、導出部111は、未知画像における中心偏析解析領域の目視によって、未知鋼材における中心偏析解析領域に対応する第一未知鋼材領域の品質が良好であるか否かを判定した判定結果と、S51aで導出された未知画像における中心偏析解析領域の偏析領域に関する特徴量と、を対応付けた中心偏析判定データ(第一判定データ)を作成させる(S52a(判定データ作成ステップ))。尚、未知鋼材における中心偏析解析領域に対応する第一未知鋼材領域とは、未知鋼材における垂直方向の中心付近において水平方向に延びる領域を示す。   When S51a ends, the quality analysis unit 113 operates the determination data creation unit 111 to perform S52a (determination data creation step) as in S52 (FIG. 10). In S52a, the derivation unit 111 determines whether or not the quality of the first unknown steel material region corresponding to the central segregation analysis region in the unknown steel is good by visual observation of the center segregation analysis region in the unknown image, The center segregation determination data (first determination data) in which the feature amount related to the segregation area of the center segregation analysis area in the unknown image derived in S51a is associated is created (S52a (determination data creation step)). In addition, the 1st unknown steel material area | region corresponding to the center segregation analysis area | region in an unknown steel material shows the area | region extended in the horizontal direction in the center vicinity of the perpendicular direction in an unknown steel material.

例えば、判定データ作成部111は、S52aにおいて、解析処理におけるS21(図4)で画像取得部101によって取得された未知画像を表示部60に表示させる。ユーザは、表示部60に表示された未知画像における中心偏析解析領域を目視して、第一未知鋼材領域の品質が良好であるか否かを判定する。ユーザは、判定した結果を入力部50を用いて入力する。判定データ作成部111は、当該入力された第一未知鋼材領域の品質についての判定結果と、S51aで導出された未知画像における中心偏析解析領域の偏析領域に関する特徴量と、を対応付けた中心偏析判定データを作成する。   For example, the determination data creation unit 111 causes the display unit 60 to display the unknown image acquired by the image acquisition unit 101 in S21 (FIG. 4) in the analysis process in S52a. The user visually checks the center segregation analysis region in the unknown image displayed on the display unit 60 and determines whether or not the quality of the first unknown steel material region is good. The user inputs the determined result using the input unit 50. The determination data creation unit 111 associates the input determination result regarding the quality of the first unknown steel material region with the feature value related to the segregation region of the center segregation analysis region in the unknown image derived in S51a. Create judgment data.

S52aが終了すると、品質分析部113は、S53(図10)と同様、判定モデル構築部112を動作させ、S53a(判定モデル構築ステップ)を行わせる。S53aでは、判定モデル構築部112は、S52aで作成された中心偏析判定データに含まれている特徴量を説明変数とし、当該中心偏析判定データに含まれている判定結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである中心偏析判定モデル(第一判定モデル)を構築する(S53a)。   When S52a ends, the quality analysis unit 113 operates the determination model construction unit 112 and performs S53a (determination model construction step) as in S53 (FIG. 10). In S53a, the determination model construction unit 112 uses the feature amount included in the center segregation determination data created in S52a as an explanatory variable, and uses the determination result included in the center segregation determination data as an objective variable. A central segregation determination model (first determination model) that is a model of the explanatory variables for classifying the variables is constructed (S53a).

また、導出部110は、S50において未知画像における第一V偏析解析領域又は第二V偏析解析領域に含まれると判断した偏析領域其々の画像特徴量を用いてS51bを行う。以降、未知画像における第一V偏析解析領域及び第二V偏析解析領域を総称して、未知画像におけるV偏析解析領域(第二未知領域)と記載する。具体的には、S51bにおいて、導出部110は、未知画像におけるV偏析解析領域の偏析領域に関する特徴量を導出する(S51b)。未知画像におけるV偏析解析領域の偏析領域に関する特徴量には、例えば、未知画像におけるV偏析解析領域に含まれる偏析領域(以降、未知V偏析領域)の面積の平均値、未知V偏析領域の面積の総和、最大の未知V偏析領域の面積、未知V偏析領域の個数、未知V偏析領域の輝度値の平均値と未知画像におけるV偏析解析領域のうち未知V偏析領域以外の領域の輝度値の平均値との比率等が含まれる。   In addition, the deriving unit 110 performs S51b using the image feature values of the segregation areas determined to be included in the first V segregation analysis area or the second V segregation analysis area in the unknown image in S50. Hereinafter, the first V segregation analysis region and the second V segregation analysis region in the unknown image are collectively referred to as a V segregation analysis region (second unknown region) in the unknown image. Specifically, in S51b, the derivation unit 110 derives a feature amount related to the segregation region of the V segregation analysis region in the unknown image (S51b). The feature amount related to the segregation area of the V segregation analysis area in the unknown image includes, for example, the average value of the area of the segregation area (hereinafter, unknown V segregation area) included in the V segregation analysis area in the unknown image, the area of the unknown V segregation area Of the maximum unknown V segregation area, the number of unknown V segregation areas, the average brightness value of the unknown V segregation area, and the brightness value of the area other than the unknown V segregation area of the V segregation analysis area in the unknown image. The ratio with the average value is included.

尚、導出部110が、S51aにおいて導出する中心偏析解析領域の偏析領域に関する特徴量とS51bにおいて導出するV偏析解析領域の偏析領域に関する特徴量の其々に含まれる前記特徴量は同一でなくてもよい。例えば、中心偏析解析領域の偏析領域に関する特徴量に、未知中心偏析領域の面積の平均値が含まれるが、V偏析解析領域の偏析領域に関する特徴量に、未知V偏析領域の面積の平均値が含まれないようにしてもよい。   The feature amount included in each of the feature amount related to the segregation region of the central segregation analysis region derived by the deriving unit 110 in S51a and the feature amount related to the segregation region of the V segregation analysis region derived in S51b are not the same. Also good. For example, the feature value related to the segregation region in the center segregation analysis region includes the average value of the area of the unknown center segregation region, but the feature value related to the segregation region in the V segregation analysis region includes the average value of the area of the unknown V segregation region. It may not be included.

S51bが終了すると、品質分析部113は、S52aと同様、判定データ作成部111を動作させ、S52b(判定データ作成ステップ)を行わせる。S52bでは、判定データ作成部111は、未知画像におけるV偏析解析領域の目視によって、未知鋼材におけるV偏析解析領域に対応する第二未知鋼材領域の品質が良好であるか否かを判定した判定結果と、S51bで導出された未知画像におけるV偏析解析領域の偏析領域に関する特徴量と、を対応付けたV偏析判定データ(第二判定データ)を作成する(S52b)。尚、未知鋼材におけるV偏析解析領域に対応する第二未知鋼材領域とは、未知鋼材における第一未知鋼材領域(垂直方向の中心付近において水平方向に延びる領域)とは異なる領域を示す。   When S51b ends, the quality analysis unit 113 operates the determination data creation unit 111 to perform S52b (determination data creation step), as in S52a. In S52b, the determination data creation unit 111 determines whether or not the quality of the second unknown steel material region corresponding to the V segregation analysis region in the unknown steel is good by visual observation of the V segregation analysis region in the unknown image. And V segregation determination data (second determination data) that associates the feature amount related to the segregation area of the V segregation analysis area in the unknown image derived in S51b (S52b). In addition, the 2nd unknown steel material area | region corresponding to the V segregation analysis area | region in an unknown steel material shows the area | region different from the 1st unknown steel material area | region (area | region extended in the horizontal direction in the vicinity of the center of a perpendicular direction) in an unknown steel material.

例えば、判定データ作成部111は、S52bにおいて、解析処理におけるS21(図4)で画像取得部101によって取得された未知画像を表示部60に表示させる。ユーザは、表示部60に表示された未知画像におけるV偏析解析領域を目視して、未知鋼材におけるV偏析解析領域に対応する第二未知鋼材領域の品質が良好であるか否かを判定する。ユーザは、判定した結果を入力部50を用いて入力する。判定データ作成部111は、当該入力された第二未知鋼材領域の品質についての判定結果と、S51bで導出された未知画像におけるV偏析解析領域の偏析領域に関する特徴量と、を対応付けたV偏析判定データを作成する。   For example, the determination data creation unit 111 causes the display unit 60 to display the unknown image acquired by the image acquisition unit 101 in S21 (FIG. 4) in the analysis process in S52b. The user visually checks the V segregation analysis region in the unknown image displayed on the display unit 60, and determines whether or not the quality of the second unknown steel material region corresponding to the V segregation analysis region in the unknown steel material is good. The user inputs the determined result using the input unit 50. The determination data creation unit 111 associates the input determination result on the quality of the second unknown steel material region with the feature amount related to the segregation region of the V segregation analysis region in the unknown image derived in S51b. Create judgment data.

S52bが終了すると、品質分析部113は、S53aと同様、判定モデル構築部112を動作させ、S53b(判定モデル構築ステップ)を行わせる。S53bでは、判定モデル構築部112は、S52bで作成されたV偏析判定データに含まれている特徴量を説明変数とし、当該V偏析判定データに含まれている判定結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルであるV偏析判定モデル(第二判定モデル)を構築する(S53b)。   When S52b ends, the quality analysis unit 113 operates the determination model construction unit 112 and performs S53b (determination model construction step), as in S53a. In S53b, the determination model construction unit 112 uses the feature amount included in the V segregation determination data created in S52b as an explanatory variable, and uses the determination result included in the V segregation determination data as an objective variable. A V segregation determination model (second determination model) that is a model of the explanatory variables for classifying the variables is constructed (S53b).

判定モデル構築部112による中心偏析判定モデル及びV偏析判定モデルの構築が終了すると、品質分析部113は、品質分析処理を終了する。   When the construction of the center segregation judgment model and the V segregation judgment model by the judgment model construction unit 112 is finished, the quality analysis unit 113 finishes the quality analysis process.

つまり、第二の変形実施形態では、S51a及びS51bによって、未知画像における中心偏析解析領域の前記特徴量と、未知画像における中心偏析解析領域とは異なるV偏析解析領域の前記特徴量と、が個別に導出される。また、S52a及びS52bによって、中心偏析判定データとV偏析判定データとが個別に作成され、S53a及びS53bによって、中心偏析判定モデルとV偏析判定モデルとが個別に構築される。   That is, in the second modified embodiment, the feature amount in the center segregation analysis region in the unknown image and the feature amount in the V segregation analysis region different from the center segregation analysis region in the unknown image are individually obtained by S51a and S51b. To be derived. Further, the center segregation determination data and the V segregation determination data are individually created by S52a and S52b, and the center segregation determination model and the V segregation determination model are individually constructed by S53a and S53b.

これに合わせて、第二の変形実施形態では、品質判定部114は、第一の変形実施形態とは異なり、図13に示すフローに従って鋼材品質判定処理を実行する。図13は、鋼材品質判定処理の他の一例を示すフローチャートである。   Accordingly, in the second modified embodiment, the quality determining unit 114 executes the steel material quality determining process according to the flow shown in FIG. 13, unlike the first modified embodiment. FIG. 13 is a flowchart illustrating another example of the steel material quality determination process.

具体的には、品質分析部113による図12に示す品質分析処理の終了後、入力部50によって鋼材品質判定処理の開始指示が入力されると、品質判定部114は、鋼材品質判定処理を開始する。図13に示すように、品質判定部114は、鋼材品質判定処理を開始すると、第一の変形実施形態と同様、解析部107を動作させ、評価対象用の転写体を用いた解析処理(解析ステップ)を実行させる(S61)。   Specifically, after the quality analysis process shown in FIG. 12 by the quality analysis unit 113 is completed, when a steel material quality determination process start instruction is input by the input unit 50, the quality determination unit 114 starts the steel quality determination process. To do. As shown in FIG. 13, when the quality determination unit 114 starts the steel material quality determination process, the analysis unit 107 is operated similarly to the first modified embodiment, and the analysis process (analysis using the transfer body for evaluation target) is performed. Step) is executed (S61).

S61の解析処理が終了すると、品質判定部114は、導出部110を動作させ、S60とS62a及びS62bとを実行させる。   When the analysis process of S61 ends, the quality determination unit 114 operates the derivation unit 110 to execute S60, S62a, and S62b.

S60において、導出部110は、S50(図12)と同様にして、S61で検出された未評価画像に含まれる偏析領域其々の画像特徴量に基づき、当該偏析領域其々が、未評価画像における、中心偏析解析領域に対応する領域(第一未評価領域)、第一V偏析解析領域に対応する領域(第二未評価領域)及び第二V偏析解析領域に対応する領域(第二未評価領域)の何れに含まれているかを判断する(S60)。   In S60, similarly to S50 (FIG. 12), the deriving unit 110 determines that each segregated area is an unevaluated image based on the image feature amount of each segregated area detected in the unevaluated image detected in S61. The region corresponding to the center segregation analysis region (first unevaluated region), the region corresponding to the first V segregation analysis region (second unevaluated region), and the region corresponding to the second V segregation analysis region (second unevaluated region) Which of the evaluation areas is included is determined (S60).

以降、説明の便宜上、未評価画像における中心偏析解析領域に対応する領域を、未評価画像における中心偏析解析領域と略記する。同様に、未評価画像における第一V偏析解析領域に対応する領域を、未評価画像における第一V偏析解析領域と略記し、未評価画像における、第二V偏析解析領域に対応する領域を、未評価画像における第二V偏析解析領域と略記する。   Hereinafter, for convenience of explanation, the region corresponding to the center segregation analysis region in the unevaluated image is abbreviated as the center segregation analysis region in the unevaluated image. Similarly, the region corresponding to the first V segregation analysis region in the unevaluated image is abbreviated as the first V segregation analysis region in the unevaluated image, and the region corresponding to the second V segregation analysis region in the unevaluated image is This is abbreviated as the second V segregation analysis region in the unevaluated image.

そして、導出部110は、S60において未評価画像における中心偏析解析領域に含まれると判断した偏析領域其々の画像特徴量を用いてS62aを行う。具体的には、S62aにおいて、導出部110は、S51a(図12)と同様にして、未評価画像における中心偏析解析領域の偏析領域に関する特徴量を導出する(S62a(導出ステップ))。   Then, the deriving unit 110 performs S62a using the image feature values of the segregation areas determined to be included in the center segregation analysis area in the unevaluated image in S60. Specifically, in S62a, the derivation unit 110 derives a feature amount related to the segregation area of the central segregation analysis area in the unevaluated image, similarly to S51a (FIG. 12) (S62a (derivation step)).

S62aが終了すると、品質判定部114は、S63(図11)と同様、S62aで導出された未評価画像における中心偏析解析領域の偏析領域に関する特徴量に対して、S53a(図12)で構築された中心偏析判定モデルを適用することによって、未評価鋼材における中心偏析解析領域に対応する第一鋼材領域の品質が良好であるか否かを判定する(S63a(品質判定ステップ))。尚、未評価鋼材における中心偏析解析領域に対応する第一鋼材領域とは、未評価鋼材における垂直方向の中心付近において水平方向に延びる領域を示す。S63aにより、未評価画像における中心偏析解析領域の偏析領域に関する特徴量を考慮して、未評価鋼材における第一鋼材領域の品質が良好であるか否かをより精度良く且つ迅速に判定することができる。   When S62a ends, the quality determination unit 114 is constructed in S53a (FIG. 12) with respect to the feature amount related to the segregation region of the central segregation analysis region in the unevaluated image derived in S62a, as in S63 (FIG. 11). By applying the center segregation determination model, it is determined whether or not the quality of the first steel material region corresponding to the center segregation analysis region in the unevaluated steel material is good (S63a (quality determination step)). In addition, the 1st steel material area | region corresponding to the center segregation analysis area | region in unrated steel materials shows the area | region extended in the horizontal direction in the vicinity of the center of the perpendicular direction in unrated steel materials. By S63a, it is possible to more accurately and quickly determine whether or not the quality of the first steel material region in the unevaluated steel material is good in consideration of the feature amount related to the segregation region of the central segregation analysis region in the unevaluated image. it can.

また、導出部110は、S60において、未評価画像における第一V偏析解析領域及び未評価画像における第二V偏析解析領域に含まれると判断した偏析領域其々の画像特徴量を用いて、S62bを行う。以降、未評価画像における第一V偏析解析領域及び第二V偏析解析領域を総称して、未評価画像におけるV偏析解析領域(第二未評価領域)と記載する。   Further, the derivation unit 110 uses the image feature amounts of the segregation areas determined in S60 to be included in the first V segregation analysis area in the unevaluated image and the second V segregation analysis area in the unevaluated image. I do. Hereinafter, the first V segregation analysis region and the second V segregation analysis region in the unevaluated image are collectively referred to as a V segregation analysis region (second unevaluated region) in the unevaluated image.

具体的には、S62bにおいて、導出部110は、S51b(図12)と同様にして、未評価画像におけるV偏析解析領域の偏析領域に関する特徴量を導出する(S62b(導出ステップ))。   Specifically, in S62b, the derivation unit 110 derives a feature amount related to the segregation area of the V segregation analysis area in the unevaluated image in the same manner as in S51b (FIG. 12) (S62b (derivation step)).

S62bが終了すると、品質判定部114は、S63(図11)と同様、S62bで導出された未評価画像におけるV偏析解析領域の偏析領域に関する特徴量に対して、S53b(図12)で構築されたV偏析判定モデルを適用することによって、未評価鋼材におけるV偏析解析領域に対応する第二鋼材領域の品質が良好であるか否かを判定する(S63b(品質判定ステップ))。尚、未評価鋼材におけるV偏析解析領域に対応する第二鋼材領域とは、未評価鋼材における第一鋼材領域とは異なる領域を示す。S63bにより、未評価画像におけるV偏析解析領域の偏析領域に関する特徴量を考慮して、未評価鋼材における第二鋼材領域の品質が良好であるか否かをより精度良く且つ迅速に判定することができる。   When S62b ends, the quality determination unit 114 is constructed in S53b (FIG. 12) for the feature amount related to the segregation region of the V segregation analysis region in the unevaluated image derived in S62b, as in S63 (FIG. 11). By applying the V segregation determination model, it is determined whether or not the quality of the second steel material region corresponding to the V segregation analysis region in the unevaluated steel material is good (S63b (quality determination step)). In addition, the 2nd steel material area | region corresponding to the V segregation analysis area | region in unrated steel materials shows the area | region different from the 1st steel material area | region in unrated steel materials. By S63b, it is possible to more accurately and quickly determine whether or not the quality of the second steel material region in the unevaluated steel material is good in consideration of the feature amount related to the segregation region of the V segregation analysis region in the unevaluated image. it can.

S63a及びS63bが終了すると、品質判定部114は、S63aにおける未評価鋼材における第一鋼材領域の品質についての判定結果(以降、第一判定結果)と、S63bにおける未評価鋼材における第二鋼材領域の品質についての判定結果(以降、第二判定結果)と、に基づき、未評価鋼材の品質が良好であるか否かを判定し、当該判定結果を表示部60に表示させる(S63c)。   When S63a and S63b are completed, the quality determination unit 114 determines the determination result (hereinafter referred to as the first determination result) about the quality of the first steel material region in the unevaluated steel material in S63a and the second steel material region in the unevaluated steel material in S63b. Based on the quality determination result (hereinafter referred to as the second determination result), it is determined whether or not the quality of the unevaluated steel is good, and the determination result is displayed on the display unit 60 (S63c).

例えば、S63cにおいて、品質判定部114は、第一判定結果又は第二判定結果が良好ではないことを示す場合、未評価鋼材の品質が良好ではないと判定する。ただし、これに限らず、S63cにおいて、品質判定部114は、第一判定結果又は第二判定結果が良好であることを示す場合、未評価鋼材の品質が良好であると判定するようにしてもよい。または、S63cにおいて、品質判定部114が、第一判定結果及び第二判定結果をそのまま表示部60に表示させるようにしてもよい。   For example, in S63c, when the first determination result or the second determination result indicates that the quality is not good, the quality determination unit 114 determines that the quality of the unevaluated steel material is not good. However, not limited to this, in S63c, when the quality determination unit 114 indicates that the first determination result or the second determination result is good, it may be determined that the quality of the unevaluated steel material is good. Good. Alternatively, in S63c, the quality determination unit 114 may display the first determination result and the second determination result on the display unit 60 as they are.

また、例えば、S53a及びS53b(図12)において、決定木分析手法で中心偏析判定モデル及びV偏析判定モデルが構築されたとする。この場合、品質判定部114は、S63aにおいて、S62aで導出された特徴量のうち、中心偏析判定モデルにおいて説明変数として含まれている特徴量と、中心偏析判定モデルにおいて定められている当該特徴量の閾値と、の差分を算出してもよい。同様に、品質判定部114は、S63bにおいて、S62bで導出された特徴量のうち、V偏析判定モデルにおいて説明変数として含まれている特徴量と、V偏析判定モデルにおいて定められている当該特徴量の閾値と、の差分を算出してもよい。そして、S63cにおいて、品質判定部114は、当該算出した二つの差分の和に基づき、未評価鋼材の品質が良好であるか否かを判定するようにしてもよい。   Further, for example, in S53a and S53b (FIG. 12), it is assumed that the center segregation determination model and the V segregation determination model are constructed by the decision tree analysis method. In this case, in S63a, the quality determination unit 114 includes the feature amount included in the center segregation determination model as an explanatory variable among the feature amounts derived in S62a and the feature amount determined in the center segregation determination model. The difference between the threshold value and the threshold value may be calculated. Similarly, in S63b, the quality determination unit 114 includes the feature amount included as the explanatory variable in the V segregation determination model among the feature amounts derived in S62b, and the feature amount defined in the V segregation determination model. The difference between the threshold value and the threshold value may be calculated. In S63c, the quality determination unit 114 may determine whether or not the quality of the unevaluated steel material is good based on the calculated sum of the two differences.

または、S53a及びS53b(図12)において、ロジスティック回帰析手法で中心偏析判定モデル及びV偏析判定モデルが構築されたとする。この場合、品質判定部114は、S63aにおいて、S62aで導出された特徴量のうち、中心偏析判定モデルが示す回帰式に説明変数として含まれている特徴量を、当該回帰式に代入した結果を判定結果として出力するようにしてもよい。同様に、品質判定部114は、S63bにおいて、S62bで導出された特徴量のうち、V偏析判定モデルが示す回帰式に説明変数として含まれている特徴量を、当該回帰式に代入した結果を判定結果として出力するようにしてもよい。そして、S63cにおいて、品質判定部114は、当該算出した二つの判定結果の和に基づき、未評価鋼材の品質が良好であるか否かを判定するようにしてもよい。   Alternatively, in S53a and S53b (FIG. 12), it is assumed that the center segregation determination model and the V segregation determination model are constructed by the logistic regression analysis method. In this case, the quality determination unit 114 substitutes, in S63a, the feature amount included as an explanatory variable in the regression equation indicated by the central segregation determination model among the feature amounts derived in S62a. You may make it output as a determination result. Similarly, in S63b, the quality determination unit 114 substitutes a feature amount included as an explanatory variable in the regression equation indicated by the V segregation determination model among the feature amounts derived in S62b. You may make it output as a determination result. In S63c, the quality determination unit 114 may determine whether or not the quality of the unevaluated steel material is good based on the sum of the two calculated determination results.

1 偏析検出装置
101 画像取得部
102 画像処理部
103 画像特徴量算出部
104 分類データ作成部
105 分類モデル構築部
106 分析部
107 解析部
108 分類部
109 偏析検出部
110 導出部
111 判定データ作成部
112 判定モデル構築部
113 品質分析部
114 品質判定部
S11、S21 画像取得ステップ
S12、S22 画像処理ステップ
S13、S23 画像特徴量算出ステップ
S14、S14a、S14b、S14c、S14d 分類データ作成ステップ
S15、S15a、S15b、S15c、S15d 分類モデル構築ステップ
S24、S24a、S24b、S24c、S24d 分類ステップ
S25、S25a、S25b、S25c、S25d 偏析検出ステップ
S51、S62、S62a、S62b 導出ステップ
S52、S52a、S52b 判定データ作成ステップ
S53、S53a、S53b 判定モデル構築ステップ
S61 解析ステップ
S63、S63a、S63b 品質判定ステップ
DESCRIPTION OF SYMBOLS 1 Segregation detection apparatus 101 Image acquisition part 102 Image processing part 103 Image feature-value calculation part 104 Classification data creation part 105 Classification model construction part 106 Analysis part 107 Analysis part 108 Classification part 109 Segregation detection part 110 Derivation part 111 Determination data creation part 112 Determination model construction unit 113 Quality analysis unit 114 Quality determination unit S11, S21 Image acquisition step S12, S22 Image processing step S13, S23 Image feature amount calculation step S14, S14a, S14b, S14c, S14d Classification data creation step S15, S15a, S15b , S15c, S15d Classification model construction step S24, S24a, S24b, S24c, S24d Classification step S25, S25a, S25b, S25c, S25d Segregation detection step S51, S62, S62a, S62 Deriving step S52, S52a, S52b decision data creation step S53, S53a, S53b decision model building step S61 analysis step S63, S63a, S63b quality determination step

Claims (11)

エッチングされた鋼材断面の転写体を表す画像を取得する画像取得ステップと、
前記画像における所定輝度より低輝度な複数の低輝度領域を特定する画像処理ステップと、
前記複数の低輝度領域其々の画像特徴量を算出する画像特徴量算出ステップと、
前記複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と前記算出された前記複数の低輝度領域其々の画像特徴量とを対応付けた分類データを作成する分類データ作成ステップと、
前記分類データに含まれている前記画像特徴量を説明変数とし、前記分類データに含まれている前記判別結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである分類モデルを構築する分類モデル構築ステップと、
を順に実行する分析ステップと、
前記分析ステップの終了後に、前記分析ステップで用いた前記転写体とは異なる解析用の前記転写体を用いて前記画像取得ステップと前記画像処理ステップと前記画像特徴量算出ステップとを順に実行した後、
前記解析用の前記転写体を表す未知画像において特定された複数の未知低輝度領域其々の画像特徴量に対して、前記分類モデルを適用することによって、前記複数の未知低輝度領域其々が偏析領域であるか否かを分類する分類ステップと、
前記複数の未知低輝度領域のうち、前記分類ステップによって偏析領域であると分類された其々を、偏析領域として検出する偏析検出ステップと、
を順に実行する解析ステップと、
を有することを特徴とする偏析検出方法。
An image acquisition step of acquiring an image representing a transfer body of an etched steel cross section;
An image processing step of identifying a plurality of low-brightness areas having a lower brightness than a predetermined brightness in the image;
An image feature amount calculating step for calculating an image feature amount of each of the plurality of low luminance regions;
Create classification data in which a discrimination result obtained by visually discriminating whether or not each of the plurality of low luminance regions is a segregation region and the calculated image feature amount of each of the plurality of low luminance regions Classification data creation step;
A classification model that is a model of the explanatory variable for classifying the objective variable using the image feature amount included in the classification data as an explanatory variable, the discrimination result included in the classification data as an objective variable A classification model construction step for constructing
Analysis steps to perform in sequence,
After completion of the analysis step, the image acquisition step, the image processing step, and the image feature amount calculation step are sequentially performed using the transfer body for analysis different from the transfer body used in the analysis step. ,
By applying the classification model to the image feature quantities of a plurality of unknown low-luminance areas specified in the unknown image representing the transfer body for analysis, the plurality of unknown low-luminance areas are each A classification step for classifying whether the region is a segregation region;
Of the plurality of unknown low-luminance regions, each of the classified low-incidence regions classified by the classification step as a segregation region is detected as a segregation region, and
An analysis step for sequentially executing
A segregation detection method comprising:
前記分類データ作成ステップにおいて、
前記複数の低輝度領域のうち、前記画像における所定の第一領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第一分類データと、前記複数の低輝度領域のうち、前記画像における前記第一領域とは異なる第二領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第二分類データと、を個別に作成し、
前記分類モデル構築ステップにおいて、
前記第一分類データを用いて第一分類モデルを構築し、前記第二分類データを用いて第二分類モデルを構築し、
前記分類ステップにおいて、
前記複数の未知低輝度領域のうち、前記未知画像における前記第一領域に対応する第一対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第一分類モデルを適用することによって、前記第一対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類し、
前記複数の未知低輝度領域のうち、前記未知画像における前記第二領域に対応する第二対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第二分類モデルを適用することによって、前記第二対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類する
ことを特徴とする請求項1に記載の偏析検出方法。
In the classification data creation step,
Of the plurality of low luminance areas, first classification data in which the determination result and the image feature amount are associated with each of the low luminance areas included in the predetermined first area of the image, and the plurality of low luminance areas The second classification data that associates the discrimination result with the image feature amount for each of the low luminance areas included in the second area different from the first area in the image among the luminance areas individually. make,
In the classification model construction step,
Build a first classification model using the first classification data, build a second classification model using the second classification data,
In the classification step,
The first classification model is applied to the image feature amount of each unknown low luminance region included in the first corresponding region corresponding to the first region in the unknown image among the plurality of unknown low luminance regions. And classifying whether or not each unknown low luminance region included in the first corresponding region is a segregation region,
The second classification model is applied to the image feature amount of each unknown low-luminance area included in the second corresponding area corresponding to the second area in the unknown image among the plurality of unknown low-luminance areas. The segregation detection method according to claim 1, wherein each of the unknown low-luminance regions included in the second corresponding region is classified as a segregation region.
前記鋼材断面は、鋳片を鋳造方向と平行に切断したときの断面であり、
前記第一領域は、前記画像における垂直方向の中心付近において水平方向に延びる中心偏析解析領域である
ことを特徴とする請求項2に記載の偏析検出方法。
The steel material cross section is a cross section when the slab is cut parallel to the casting direction,
The segregation detection method according to claim 2, wherein the first region is a center segregation analysis region extending in a horizontal direction in the vicinity of a vertical center of the image.
前記分類データ作成ステップにおいて、
前記複数の低輝度領域のうち、前記第二領域における、前記中心偏析解析領域よりも垂直方向上方側の第三領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第三分類データと、前記複数の低輝度領域のうち、前記第二領域における、前記中心偏析解析領域よりも垂直方向下方側の第四領域に含まれる低輝度領域其々についての前記判別結果と前記画像特徴量とを対応付けた第四分類データと、を個別に作成し、
前記分類モデル構築ステップにおいて、
前記第三分類データを用いて第三分類モデルを構築し、前記第四分類データを用いて第四分類モデルを構築し、
前記分類ステップにおいて、
前記複数の未知低輝度領域のうち、前記未知画像における前記第三領域に対応する第三対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第三分類モデルを適用することによって、前記第三対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類し、
前記複数の未知低輝度領域のうち、前記未知画像における前記第四領域に対応する第四対応領域に含まれる未知低輝度領域其々の画像特徴量に対して、前記第四分類モデルを適用することによって、前記第四対応領域に含まれる未知低輝度領域其々が偏析領域であるか否かを分類する
ことを特徴とする請求項3に記載の偏析検出方法。
In the classification data creation step,
Among the plurality of low luminance regions, the determination result and the image feature amount for each of the low luminance regions included in the third region of the second region that is vertically above the central segregation analysis region. The third classification data associated with each other, and among the plurality of low luminance regions, the low luminance regions included in the fourth region in the second region in the vertical direction lower than the central segregation analysis region, respectively. Separately creating the fourth classification data in which the discrimination result and the image feature amount are associated,
In the classification model construction step,
Build a third classification model using the third classification data, build a fourth classification model using the fourth classification data,
In the classification step,
The third classification model is applied to image feature quantities of unknown low-luminance areas included in a third corresponding area corresponding to the third area in the unknown image among the plurality of unknown low-luminance areas. By classifying whether or not each unknown low-luminance region included in the third corresponding region is a segregation region,
The fourth classification model is applied to image feature quantities of unknown low-luminance regions included in a fourth corresponding region corresponding to the fourth region in the unknown image among the plurality of unknown low-luminance regions. The segregation detection method according to claim 3, further comprising: classifying whether or not each unknown low-luminance region included in the fourth corresponding region is a segregation region.
前記画像処理ステップにおいて、前記画像に対して二値化処理を行い、当該二値化処理後の前記画像における低い側の輝度の領域を、前記複数の低輝度領域として特定する
ことを特徴とする請求項1から4の何れか一項に記載の偏析検出方法。
In the image processing step, binarization processing is performed on the image, and low-side luminance regions in the image after the binarization processing are specified as the plurality of low-luminance regions. The segregation detection method according to any one of claims 1 to 4.
前記分類モデル構築ステップにおいて、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて分類モデルを構築する
ことを特徴とする請求項1から5の何れか一項に記載の偏析検出方法。
In the classification model construction step, a classification model is constructed using one or a plurality of statistical methods of decision tree, logistic regression, nearest neighbor method, neural network, support vector machine, and random forest. Item 6. The segregation detection method according to any one of Items 1 to 5.
前記解析ステップの終了後に、前記偏析検出ステップにおいて検出された偏析領域其々の画像特徴量に基づき、前記未知画像の偏析領域に関する特徴量を導出する導出ステップと、
前記未知画像の目視によって前記未知画像に対応する未知鋼材の品質が良好であるか否かを判定した判定結果と前記未知画像の前記特徴量とを対応付けた判定データを作成する判定データ作成ステップと、
前記判定データに含まれている前記特徴量を説明変数とし、前記判定データに含まれている前記判定結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである判定モデルを構築する判定モデル構築ステップと、
を順に実行する品質分析ステップと、
前記品質分析ステップの終了後に、前記解析用の前記転写体とは異なる評価対象用の前記転写体を用いて前記解析ステップと前記導出ステップとを順に実行した後、
前記評価対象用の前記転写体を表す未評価画像の前記特徴量に対して、前記判定モデルを適用することによって、前記未評価画像に対応する未評価鋼材の品質が良好であるか否かを判定する品質判定ステップと、
を更に有することを特徴とする請求項1から6の何れか一項に記載の偏析検出方法。
A derivation step for deriving a feature amount relating to the segregation region of the unknown image based on the image feature amount of each segregation region detected in the segregation detection step after completion of the analysis step;
A determination data creation step of creating determination data in which the determination result that determines whether or not the quality of the unknown steel material corresponding to the unknown image is good by visual observation of the unknown image is associated with the feature amount of the unknown image When,
A determination model that is a model of the explanatory variable for classifying the objective variable, with the feature amount included in the determination data as an explanatory variable, the determination result included in the determination data as an objective variable, A decision model construction step to construct;
A quality analysis step that executes
After completion of the quality analysis step, the analysis step and the derivation step are sequentially performed using the transfer body for evaluation that is different from the transfer body for analysis,
Whether the quality of the unevaluated steel corresponding to the unevaluated image is good by applying the determination model to the feature quantity of the unevaluated image representing the transfer body for the evaluation object. A quality judgment step for judging;
The segregation detection method according to any one of claims 1 to 6, further comprising:
前記導出ステップにおいて、
前記未知画像における所定の第一未知領域の前記特徴量と、前記未知画像における前記第一未知領域とは異なる第二未知領域の前記特徴量と、を個別に導出し、
前記判定データ作成ステップにおいて、
前記第一未知領域の目視によって前記未知鋼材における前記第一未知領域に対応する第一未知鋼材領域の品質が良好であるか否かを判定した判定結果と前記第一未知領域の前記特徴量とを対応付けた第一判定データと、前記第二未知領域の目視によって前記未知鋼材における前記第二未知領域に対応する第二未知鋼材領域の品質が良好であるか否かを判定した判定結果と前記第二未知領域の前記特徴量とを対応付けた第二判定データと、を個別に作成し、
前記判定モデル構築ステップにおいて、
前記第一判定データを用いて第一判定モデルを構築し、前記第二判定データを用いて第二判定モデルを構築し、
前記品質判定ステップにおいて、
前記未評価画像における前記第一未知領域に対応する第一未評価領域の前記特徴量に対して、前記第一判定モデルを適用することによって、前記未評価鋼材における前記第一未評価領域に対応する第一鋼材領域の品質が良好であるか否かを判定し、
前記未評価画像における前記第二未知領域に対応する第二未評価領域の前記特徴量に対して、前記第二判定モデルを適用することによって、前記未評価鋼材における前記第二未評価領域に対応する第二鋼材領域の品質が良好であるか否かを判定する
ことを特徴とする請求項7に記載の偏析検出方法。
In the derivation step,
Individually deriving the feature amount of a predetermined first unknown region in the unknown image and the feature amount of a second unknown region different from the first unknown region in the unknown image;
In the determination data creation step,
A determination result for determining whether or not the quality of the first unknown steel region corresponding to the first unknown region in the unknown steel material is good by visual observation of the first unknown region, and the feature amount of the first unknown region And a determination result for determining whether or not the quality of the second unknown steel region corresponding to the second unknown region in the unknown steel material is good by visual observation of the second unknown region, Separately creating the second determination data that associates the feature amount of the second unknown region,
In the determination model construction step,
Build a first decision model using the first decision data, build a second decision model using the second decision data,
In the quality determination step,
By applying the first determination model to the feature amount of the first unevaluated area corresponding to the first unknown area in the unevaluated image, the first unevaluated area in the unevaluated steel material is supported. Determine whether the quality of the first steel material area to be good,
By applying the second determination model to the feature amount of the second unevaluated area corresponding to the second unknown area in the unevaluated image, it corresponds to the second unevaluated area in the unevaluated steel material. It determines whether the quality of the 2nd steel material area | region to perform is favorable, The segregation detection method of Claim 7 characterized by the above-mentioned.
前記鋼材断面は、鋳片を鋳造方向と平行に切断したときの断面であり、
前記第一未知領域は、前記未知画像における垂直方向の中心付近において水平方向に延びる中心偏析解析領域である
ことを特徴とする請求項8に記載の偏析検出方法。
The steel material cross section is a cross section when the slab is cut parallel to the casting direction,
The segregation detection method according to claim 8, wherein the first unknown area is a center segregation analysis area extending in a horizontal direction in the vicinity of a center in a vertical direction in the unknown image.
前記判定モデル構築ステップにおいて、決定木、ロジスティック回帰、最近傍法、ニューラルネットワーク、サポートベクトルマシン及びランダムフォレストのうちの一又は複数の統計的手法を用いて判定モデルを構築する
ことを特徴とする請求項7から9の何れか一項に記載の偏析検出方法。
In the determination model construction step, the determination model is constructed using one or a plurality of statistical methods of decision tree, logistic regression, nearest neighbor method, neural network, support vector machine, and random forest. Item 10. The segregation detection method according to any one of Items 7 to 9.
エッチングされた鋼材断面の転写体を表す画像を取得する画像取得部と、
前記画像における所定輝度より低輝度な複数の低輝度領域を特定する画像処理部と、
前記複数の低輝度領域其々の画像特徴量を算出する画像特徴量算出部と、
前記複数の低輝度領域其々が偏析領域であるか否かを目視によって判別した判別結果と前記算出された前記複数の低輝度領域其々の画像特徴量とを対応付けた分類データを作成する分類データ作成部と、
前記分類データに含まれている前記画像特徴量を説明変数とし、前記分類データに含まれている前記判別結果を目的変数とし、前記目的変数を分類するための前記説明変数のモデルである分類モデルを構築する分類モデル構築部と、
前記画像取得部と、前記画像処理部と、前記画像特徴量算出部と、前記分類データ作成部と、前記分類モデル構築部と、を順に動作させる分析処理を行う分析部と、
分類部と、
偏析検出部と、
前記分析部による前記分析処理の終了後に、前記分析処理で用いた前記転写体とは異なる解析用の前記転写体を用いて前記画像取得部と前記画像処理部と前記画像特徴量算出部とを順に動作させた後、前記分類部と前記偏析検出部とを順に動作させる解析処理を行う解析部と、
を備え、
前記解析処理において、
前記分類部は、前記解析用の前記転写体を表す未知画像において特定された複数の未知低輝度領域其々の画像特徴量に対して、前記分類モデルを適用することによって、前記複数の未知低輝度領域其々が偏析領域であるか否かを分類し、
前記偏析検出部は、前記複数の未知低輝度領域のうち、前記分類部によって偏析領域であると分類された其々を、偏析領域として検出する
ことを特徴とする偏析検出装置。
An image acquisition unit for acquiring an image representing a transfer body of an etched steel cross section;
An image processing unit that identifies a plurality of low-brightness areas having a lower brightness than a predetermined brightness in the image;
An image feature amount calculating unit for calculating an image feature amount of each of the plurality of low luminance regions;
Create classification data in which a discrimination result obtained by visually discriminating whether or not each of the plurality of low luminance regions is a segregation region and the calculated image feature amount of each of the plurality of low luminance regions A classification data creation unit;
A classification model that is a model of the explanatory variable for classifying the objective variable using the image feature amount included in the classification data as an explanatory variable, the discrimination result included in the classification data as an objective variable A classification model building unit for building
An analysis unit that performs an analysis process that sequentially operates the image acquisition unit, the image processing unit, the image feature amount calculation unit, the classification data creation unit, and the classification model construction unit;
A classification section;
A segregation detector;
After completion of the analysis process by the analysis unit, the image acquisition unit, the image processing unit, and the image feature amount calculation unit are analyzed using the transfer body for analysis different from the transfer body used in the analysis process. An analysis unit that performs an analysis process for operating the classification unit and the segregation detection unit in order after operating in sequence;
With
In the analysis process,
The classification unit applies the classification model to the image feature quantities of the plurality of unknown low-luminance regions specified in the unknown image representing the transfer body for analysis, thereby the plurality of unknown low-level images. Classify whether each luminance region is a segregation region,
The segregation detection unit detects each of the plurality of unknown low-luminance regions classified as a segregation region by the classification unit as a segregation region.
JP2018078895A 2017-06-20 2018-04-17 Segregation detection method and segregation detection device Pending JP2019007944A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017120132 2017-06-20
JP2017120132 2017-06-20

Publications (1)

Publication Number Publication Date
JP2019007944A true JP2019007944A (en) 2019-01-17

Family

ID=65025853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018078895A Pending JP2019007944A (en) 2017-06-20 2018-04-17 Segregation detection method and segregation detection device

Country Status (1)

Country Link
JP (1) JP2019007944A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020169850A (en) * 2019-04-02 2020-10-15 日本製鉄株式会社 Device, method and program for evaluating cast billet center segregation, and evaluation model learning device
JPWO2021153633A1 (en) * 2020-01-29 2021-08-05

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020169850A (en) * 2019-04-02 2020-10-15 日本製鉄株式会社 Device, method and program for evaluating cast billet center segregation, and evaluation model learning device
JP7226029B2 (en) 2019-04-02 2023-02-21 日本製鉄株式会社 Slab center segregation evaluation device, method and program, and evaluation model learning device
JPWO2021153633A1 (en) * 2020-01-29 2021-08-05
WO2021153633A1 (en) * 2020-01-29 2021-08-05 Jfeスチール株式会社 Metal structure phase classification method, metal structure phase classification device, metal structure phase learning method, metal structure phase learning device, material property prediction method for metal material, and material property prediction device for metal material
CN115038965A (en) * 2020-01-29 2022-09-09 杰富意钢铁株式会社 Method for classifying phase of metallographic structure, apparatus for classifying phase of metallographic structure, method for learning phase of metallographic structure, apparatus for learning phase of metallographic structure, method for predicting material characteristics of metal material, and apparatus for predicting material characteristics of metal material
JP7147974B2 (en) 2020-01-29 2022-10-05 Jfeスチール株式会社 METHOD OF CLASSIFICATION OF METALLOGICAL STRUCTURE PHASE, METHOD OF CLASSIFICATION OF METALLOGICAL STRUCTURE PHASE, METHOD OF MATERIAL CHARACTERISTICS PREDICTION OF METALLIC MATERIAL, AND MATERIAL CHARACTERISTICS PREDICTION DEVICE OF MATERIAL MATERIAL

Similar Documents

Publication Publication Date Title
JP4739447B2 (en) Failure factor analysis display method and failure factor analysis display device
KR20070071927A (en) A method and system for quantitating fatigue resulting from a three dimensional display
CN110689524B (en) No-reference online image definition evaluation method and system
CN104053984A (en) Image examination method and image examination apparatus
JP2019007944A (en) Segregation detection method and segregation detection device
JP2020155063A (en) Information processor, method for controlling the same, program, and recording medium
JP6349333B2 (en) Pattern measurement apparatus, evaluation method for polymer compound used in self-organized lithography, and computer program
CN116758491A (en) Printing monitoring image analysis method and system applied to 3D printing
JP5873764B2 (en) Defect image presentation method
Das et al. Application of deep convolutional neural networks for automated and rapid identification and computation of crack statistics of thin cracks in strain hardening cementitious composites (SHCCs)
CN111597705A (en) Method and device for constructing bearing crack prediction model
KR102189951B1 (en) System and method for inspection of ship painting condition using image analysis
JP3733057B2 (en) Operation analysis apparatus in manufacturing process, method thereof, and computer-readable storage medium
JP2009082442A5 (en)
JP6199799B2 (en) Self-luminous material image processing apparatus and self-luminous material image processing method
JP2005249426A (en) Casting inside flaw inspection support device and inspection support method using the same
JP6650819B2 (en) Method for evaluating uneven color portion, apparatus for evaluating uneven color portion, and program for evaluating uneven color portion
JP2018124667A (en) Production process analyzing apparatus and production management system using the same
KR101224477B1 (en) Quantitative evaluation of scratch-induced damages on polymeric and coating materials
JP2004054420A (en) Association analyzer for operation and quality in manufacturing process, association analyzing method and computer readable storage medium
WO2022202198A1 (en) Evaluation method and evaluation device for surface roughening of metal surface
JP5790515B2 (en) Crack growth prediction device, strength characteristic prediction device, and program
JP2016110626A5 (en)
WO2021199937A1 (en) Method for determining condition for imaging of metallographic structure, method for imaging metallographic structure, method for classifying phases of metallographic structure, device for determining condition for imaging of metallographic structure, device for imaging metallographic structure, device for classifying phases of metallographic structure, method for predicting material properties of metallic material, and device for predicting material properties of metallic material
JP6427939B2 (en) Image processing method and apparatus for metal structure image, and image processing program