JP2015200543A - boundary detection method - Google Patents

boundary detection method Download PDF

Info

Publication number
JP2015200543A
JP2015200543A JP2014078655A JP2014078655A JP2015200543A JP 2015200543 A JP2015200543 A JP 2015200543A JP 2014078655 A JP2014078655 A JP 2014078655A JP 2014078655 A JP2014078655 A JP 2014078655A JP 2015200543 A JP2015200543 A JP 2015200543A
Authority
JP
Japan
Prior art keywords
boundary
image
feature amount
detection
stacking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014078655A
Other languages
Japanese (ja)
Other versions
JP6198242B2 (en
Inventor
亮 片山
Ryo Katayama
亮 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2014078655A priority Critical patent/JP6198242B2/en
Publication of JP2015200543A publication Critical patent/JP2015200543A/en
Application granted granted Critical
Publication of JP6198242B2 publication Critical patent/JP6198242B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a boundary detection method enabling boundaries among different types of laminated materials to be accurately detected in a cross-sectional image along the lamination direction of a member configured by laminating the plurality of types of materials.SOLUTION: The boundary detection method for detecting laminate boundaries being boundaries of different types of materials, for a laminate material formed by laminating the plurality of different types of materials, includes: an imaging step of capturing an image 1 of the laminate material including laminate boundaries; feature quantity detection step of detecting feature quantities representing variation in luminances caused by differences in grain size distributions of a detection image 2 obtained from the image 1 captured by the imaging step; and a laminate boundary detection step of detecting the laminate boundaries in the detection image 2 on the basis of the feature quantities detected by the feature quantity detection step.

Description

本発明は、異種材料を積層して構成された部材に対して、積層された異種材料間の境界を検出する境界検出方法に関する。   The present invention relates to a boundary detection method for detecting a boundary between stacked different materials with respect to a member formed by stacking different materials.

異なる種類の金属材料を積層して構成された金属部材や、異なる種類の樹脂材料を積層して構成された樹脂部材などにおいて、積層方向に沿った断面に占める各層の割合(以下、積層率という)を測定する技術が開発されている。
金属部材や樹脂部材といったサンプルにおける積層率の測定としては、サンプルの積層方向に沿った断面の形状を計測することによる積層率の測定と、サンプルの外側から蛍光X線を照射することによる積層率の測定の2つの方法が、主に採用されている。
The ratio of each layer occupying the cross section in the stacking direction in a metal member configured by stacking different types of metal materials or a resin member configured by stacking different types of resin materials (hereinafter referred to as stacking ratio) ) Has been developed.
Measurement of the lamination rate in a sample such as a metal member or a resin member includes measurement of the lamination rate by measuring the cross-sectional shape along the lamination direction of the sample, and lamination rate by irradiating fluorescent X-rays from the outside of the sample. The two methods of measuring are mainly adopted.

蛍光X線を照射する方法には、サンプルを破壊することなく積層率を測定できるというメリットがある。しかし、蛍光X線を照射する方法では厚い部材に対する測定ができず、かつ測定対象となる部材が特定の元素を含む必要があるなどの制約が存在する。そのため、断面の形状を計測することによる積層率の測定が広く行われている。
特許文献1は、断面の形状を計測することによって積層率を測定する測定装置、測定プログラム及び測定方法を開示している。
The method of irradiating fluorescent X-rays has the advantage that the stacking ratio can be measured without destroying the sample. However, the method of irradiating fluorescent X-rays has a limitation that a thick member cannot be measured and the member to be measured needs to contain a specific element. Therefore, the measurement of the lamination rate by measuring the shape of a cross section is widely performed.
Patent Document 1 discloses a measuring apparatus, a measuring program, and a measuring method for measuring a stacking ratio by measuring the shape of a cross section.

特許文献1に開示の測定装置は、芯材の表面に被覆層を形成した測定対象部材に関する断面像を取り込む画像取得手段と、前記断面像の厚み方向におけるピクセル値の変化に基づき前記被覆層の対向する二つの境界を求める境界判定手段と、前記境界間の距離を演算して前記被覆層の積層率を算出する演算手段を備えてなることを特徴とするものである。   The measurement apparatus disclosed in Patent Document 1 includes an image acquisition unit that captures a cross-sectional image related to a measurement target member in which a coating layer is formed on the surface of a core material, and a change in pixel value in the thickness direction of the cross-sectional image based on a change in pixel value. Boundary determining means for obtaining two opposing boundaries, and calculating means for calculating a stacking ratio of the coating layer by calculating a distance between the boundaries.

特開2007−178375号公報JP 2007-178375 A

特許文献1では、輝度による画像の2値化を行って芯材と被覆層の境界の認識を試みている。しかし、2値化された画像(2値化画像)では、例えば、輝度のばらつきなどによって境界が明瞭に示されないことが多いので、2値化画像を基に境界を認識するのは困難である。また、合金層が撮像された画像の2値化画像では、合金層に含まれる析出物等の影響で析出物の境界も認識してしまうなどの弊害が生じるため、合金層などにおける複雑なマトリックスに対応した境界の認識手法が必要となる。   In Patent Document 1, an attempt is made to recognize a boundary between a core material and a coating layer by binarizing an image based on luminance. However, in a binarized image (binarized image), for example, the boundary is often not clearly shown due to, for example, variations in luminance. Therefore, it is difficult to recognize the boundary based on the binarized image. . In addition, in the binarized image of the image in which the alloy layer is imaged, there is an adverse effect such as recognizing the boundary of the precipitate due to the influence of the precipitate included in the alloy layer. A boundary recognition method corresponding to the above is required.

そこで本発明は、異なる種類の材料を積層して構成された部材の積層方向に沿った断面の画像において、積層された異種材料間の境界を正確に検出できる境界検出方法を提供することを目的とする。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a boundary detection method that can accurately detect a boundary between stacked different materials in an image of a cross section along a stacking direction of members configured by stacking different types of materials. And

上述の目的を達成するため、本発明においては以下の技術的手段を講じた。
本発明に係る境界検出方法は、複数の異なる材料が積層された積層材料に対して、前記複数の異なる材料の境界である積層境界を検出する境界検出方法であって、前記積層境界を含む前記積層材料の画像を撮像する撮像工程と、前記撮像工程で撮像された画像の輝度分布から、前記積層材料の粒度分布の違いに起因する輝度のばらつきを表現する特徴量を検出する特徴量検出工程と、前記特徴量検出工程で検出された特徴量に基づいて前記撮像された画像における前記積層境界を検出する積層境界検出工程と、を有することを特徴とする。
In order to achieve the above-described object, the present invention takes the following technical means.
The boundary detection method according to the present invention is a boundary detection method for detecting a lamination boundary that is a boundary between the plurality of different materials with respect to a lamination material in which a plurality of different materials are laminated, and includes the lamination boundary. An image capturing step for capturing an image of the laminated material, and a feature amount detecting step for detecting a feature amount expressing a variation in luminance due to a difference in particle size distribution of the laminated material from the luminance distribution of the image captured in the imaging step And a layer boundary detection step of detecting the layer boundary in the captured image based on the feature amount detected in the feature amount detection step.

ここで、前記特徴量検出工程は、前記特徴量として、前記積層境界に沿った方向における前記輝度分布の標準偏差及び/又はピークカウント値を検出するとよい。
さらに、前記積層境界検出工程は、前記標準偏差及び/又はピークカウント値を検出した方向と垂直な方向において前記特徴量の類似性を求め、前記求めた類似性の差異に基づいて前記積層境界を検出するとよい。
Here, the feature amount detection step may detect a standard deviation and / or a peak count value of the luminance distribution in a direction along the stacking boundary as the feature amount.
Further, the layer boundary detection step obtains the similarity of the feature amount in a direction perpendicular to the direction in which the standard deviation and / or peak count value is detected, and determines the layer boundary based on the obtained difference in similarity. It is good to detect.

また、前記積層境界検出工程は、前記求められた類似性の差異に基づいて、前記画像において前記差異を示す特徴量が検出された位置に前記積層境界を示す標識を付与することで前記積層境界を検出するとよい。
さらに、前記特徴量検出工程は、前記特徴量として、前記積層境界と交差する方向における前記輝度分布の微分値を検出するとよい。
Further, the stack boundary detection step includes adding a mark indicating the stack boundary to a position where a feature amount indicating the difference is detected in the image based on the obtained difference in similarity. Should be detected.
Furthermore, the feature amount detection step may detect a differential value of the luminance distribution in a direction intersecting the stack boundary as the feature amount.

本発明の境界検出方法によれば、異なる種類の材料を積層して構成された部材の積層方向に沿った断面の画像において、積層された異種材料間の境界を正確に検出することができる。   According to the boundary detection method of the present invention, it is possible to accurately detect a boundary between stacked different materials in an image of a cross section along a stacking direction of members formed by stacking different types of materials.

本実施形態による境界検出方法の処理手順を示す図である。It is a figure which shows the process sequence of the boundary detection method by this embodiment. 積層材料の断面の画像からノイズを除去した画像を示す図である。It is a figure which shows the image which removed the noise from the image of the cross section of a laminated material. マハラノビス距離と境界位置を表すグラフを示す図であり、(A)は画像の垂直方向(Y軸方向)に沿ったマハラノビス距離の変化を示し、(B)は画像の垂直方向(Y軸方向)に沿って立てられたフラグの位置を示す。It is a figure which shows the graph showing a Mahalanobis distance and a boundary position, (A) shows the change of the Mahalanobis distance along the vertical direction (Y-axis direction) of an image, (B) is the vertical direction (Y-axis direction) of an image. The position of the flag raised along is shown. 積層材料の断面に境界線が重ねて表示された画像を示す図である。It is a figure which shows the image displayed with the boundary line superimposed on the cross section of the laminated material. 従来の技術による積層境界の検出方法を説明する図であり、(a)は検出用画像を示し、(b)は検出用画像を2値化した画像を示す。It is a figure explaining the detection method of the lamination | stacking boundary by a prior art, (a) shows the image for a detection, (b) shows the image which binarized the image for a detection.

以下、図面を参照しながら、本発明の実施形態について説明する。なお、以下に説明する実施形態は、本発明を具体化した一例であって、本発明の構成をその具体例のみに限定するものではない。従って、本発明の技術的範囲は、本実施形態の開示内容のみに限定されるものではない。
まず、図1を参照しながら、本実施形態による境界検出方法の概略を説明する。図1は、本実施形態による境界検出方法の処理手順を示す図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is an example which actualized this invention, Comprising: The structure of this invention is not limited only to the specific example. Therefore, the technical scope of the present invention is not limited only to the disclosed contents of the present embodiment.
First, the outline of the boundary detection method according to the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a processing procedure of the boundary detection method according to the present embodiment.

以下に説明する境界検出方法は、異なる種類の金属材料を積層して構成された金属部材や、異なる種類の樹脂材料を積層して構成された樹脂部材など、複数の異なる種類の異種材料が積層された積層材料に対して、積層された複数の異なる異種材料間の境界(積層境界)を検出するための技術である。具体的には、境界検出方法は、異種材料を積層して構成された部材(以下、積層材料という)の積層方向に沿った断面をエリアカメラなどで撮像し、撮像された断面の画像において積層された異種材料間の境界をパーソナルコンピュータ(PC)や専用の画像処理装置を用いて検出する。   The boundary detection method described below is a method of laminating a plurality of different types of different materials such as a metal member configured by stacking different types of metal materials and a resin member configured by stacking different types of resin materials. This is a technique for detecting a boundary (lamination boundary) between a plurality of different dissimilar materials laminated with respect to the laminated material formed. Specifically, in the boundary detection method, a cross section along a stacking direction of a member (hereinafter referred to as a stacking material) configured by stacking different types of materials is captured with an area camera or the like, and the layered images are stacked. The boundary between the different types of materials is detected using a personal computer (PC) or a dedicated image processing apparatus.

図1(A)に示すように、境界検出方法では、積層材料の断面の画像1が、積層された異種材料間の境界である積層面が水平方向(X軸方向)と平行になるように取得され、取得された画像1のノイズが除去される。
次に、図1(B)に示すように、ノイズが除去された断面の画像2(検出用画像2)から、積層面に沿った水平方向(X軸方向)における1ライン毎の輝度分布が抽出される。
As shown in FIG. 1A, in the boundary detection method, the cross-sectional image 1 of the laminated material is such that the laminated surface that is the boundary between the laminated different materials is parallel to the horizontal direction (X-axis direction). Acquired and noise of the acquired image 1 is removed.
Next, as shown in FIG. 1B, the luminance distribution for each line in the horizontal direction (X-axis direction) along the laminated surface is obtained from the image 2 (detection image 2) of the cross section from which noise is removed. Extracted.

図1(C)に示すように、輝度分布3が抽出されると、各ラインの輝度分布3における輝度のばらつきを表現する特徴量として、ピークカウントC(Yn)が検出される。
続いて、図1(D)に示すように各ラインのピークカウントC(Yn)が検出されれば、検出されたピークカウントC(Yn)の間の類似性を示すためのマハラノビス距離が、検出されたピークカウントC(Yn)ごとに算出される。マハラノビス距離が算出されると、図1(D)に示すように算出されたマハラノビス距離が、画像の垂直方向(Y軸方向)に沿って対応する位置の順に並べられる。
As shown in FIG. 1C, when the luminance distribution 3 is extracted, a peak count C (Yn) is detected as a feature amount representing the luminance variation in the luminance distribution 3 of each line.
Subsequently, when the peak count C (Yn) of each line is detected as shown in FIG. 1D, the Mahalanobis distance for indicating the similarity between the detected peak counts C (Yn) is detected. Is calculated for each peak count C (Yn). When the Mahalanobis distance is calculated, the calculated Mahalanobis distance is arranged in the order of corresponding positions along the vertical direction (Y-axis direction) of the image as shown in FIG.

さらに図1(E)に示すように、本発明の境界検出方法では、画像の垂直方向(Y軸方向)に沿って順に並べられたマハラノビス距離が閾値を跨いで変化する位置を検出し、検出された位置に符号a〜l、o及びpが付されたフラグ(標識)が立てられる。フラグが立てられた後、例えば図1(B)に示す断面の画像2において、異種材料間の境界(積層面)は、当該フラグが立てられた位置に水平方向(X軸方向)に沿って存在すると検知され、図1(F)に示すように画像2中に境界線が重ねて表示される。図1(F)において
各境界線には、対応するフラグの符号a〜l、o及びpが付されている。
Further, as shown in FIG. 1 (E), the boundary detection method of the present invention detects and detects a position where the Mahalanobis distance arranged in order along the vertical direction (Y-axis direction) of the image changes across the threshold. Flags (signs) with signs a to l, o and p are set at the positions. After the flag is raised, for example, in the image 2 of the cross section shown in FIG. 1B, the boundary (lamination surface) between different materials is along the horizontal direction (X-axis direction) at the position where the flag is raised. It is detected that it exists, and a boundary line is displayed in an overlapped manner in the image 2 as shown in FIG. In FIG. 1 (F), each of the boundary lines is provided with a corresponding flag code a to l, o, and p.

以上が、本実施形態による境界検出方法の概略である。以下に、図1(A)〜図1(F)に示す各ステップについて、図2〜図4を参照しつつ詳細に説明する。図2は、積層材料の断面の画像1からノイズを除去した画像2を示す図である。図3は、マハラノビス距離と境界位置を表すグラフを示す図であり、(A)は画像の垂直方向(Y軸方向)におけるマハラノビス距離の変化を示し、(B)は画像の垂直方向(Y軸方向)において立てられたフラグa〜l、o及びpの位置を示す。図4は、積層材料の断面に境界線が重ねて表示された画像を示す図である。   The above is the outline of the boundary detection method according to the present embodiment. In the following, each step shown in FIGS. 1A to 1F will be described in detail with reference to FIGS. FIG. 2 is a diagram showing an image 2 obtained by removing noise from the cross-sectional image 1 of the laminated material. 3A and 3B are graphs showing the Mahalanobis distance and the boundary position. FIG. 3A shows a change in the Mahalanobis distance in the vertical direction (Y-axis direction) of the image, and FIG. 3B shows a vertical direction of the image (Y-axis). (Direction) indicates the positions of the flags a to l, o, and p. FIG. 4 is a diagram showing an image displayed with the boundary line superimposed on the cross section of the laminated material.

まず、図1(A)に示す積層材料の断面の画像1を取得する方法を説明する。
積層材料を積層方向に沿って切断したときの断面を、CCD(電荷結合素子)やCMOS(相補型金属酸化物半導体)によるエリアカメラなどを用いて2次元の画像として撮像し、例えば水平方向(X軸方向)1360画素×垂直方向(Y軸方向)1024画素の画像を得る。このとき、積層された異種材料間の境界(積層境界)である積層面が水平方向(X軸方向)と平行になるように、積層材料の断面を撮像し、図1(A)に示す積層材料の断面の画像1を取得する。この積層境界を含む積層材料の画像1を撮像する工程を、撮像工程という。取得した画像1の各画素(ピクセル)は、XY座標系の各座標に対応している。
First, a method for obtaining the cross-sectional image 1 of the laminated material shown in FIG.
A cross section when the laminated material is cut along the lamination direction is captured as a two-dimensional image using an area camera or the like using a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). An image of 1360 pixels × vertical direction (Y-axis direction) 1024 pixels is obtained. At this time, a cross section of the laminated material is imaged so that the laminated surface, which is a boundary (laminated boundary) between the laminated different materials, is parallel to the horizontal direction (X-axis direction), and the laminated material shown in FIG. An image 1 of a cross section of the material is acquired. The process of capturing the image 1 of the laminated material including the laminated boundary is referred to as an imaging process. Each pixel (pixel) of the acquired image 1 corresponds to each coordinate in the XY coordinate system.

次に、図1(B)及び図2を参照して、撮像された断面の画像から輝度分布を抽出する方法を説明する。図2は、積層材料の断面の画像1からノイズを除去した画像2を示す図である。
撮像工程で取得した画像1に対して、画像由来のノイズを減らすための前処理を施す。撮像工程で取得した画像1に対して、例えば3×3のメジアンフィルターによる画像処理を施し、断面の輪郭が維持されつつもノイズの少ない画像2(検出用画像2)を得る。
Next, with reference to FIG. 1B and FIG. 2, a method for extracting the luminance distribution from the captured cross-sectional image will be described. FIG. 2 is a diagram showing an image 2 obtained by removing noise from the cross-sectional image 1 of the laminated material.
The image 1 acquired in the imaging process is subjected to preprocessing for reducing image-derived noise. For example, image processing using a 3 × 3 median filter is performed on the image 1 acquired in the imaging process, and an image 2 (detection image 2) with less noise is obtained while maintaining the contour of the cross section.

図2に示す検出用画像2において、例えば水平方向(X軸方向)1360画素×垂直方向(Y軸方向)1画素といった、水平方向(X軸方向)に沿った検出用ラインA(Yn)を設定する。図2では、画素位置(0,Y)から画素位置(X,Y)にかけて設定された検出用ラインA(Yn)が、破線で示されている。つまり、検出用画像2に対して、垂直方向(Y軸方向)の画素数に対応して、1024本(n=0〜1023)の検出用ラインA(Y)〜A(Y1023)が順に検出用画像に設定される。 In the detection image 2 shown in FIG. 2, for example, a detection line A (Yn) along the horizontal direction (X-axis direction) such as 1360 pixels in the horizontal direction (X-axis direction) × 1 pixel in the vertical direction (Y-axis direction). Set. In FIG. 2, the detection line A (Yn) set from the pixel position (0, Y) to the pixel position (X, Y) is indicated by a broken line. That is, for the detection image 2, 1024 (n = 0 to 1023) detection lines A (Y 0 ) to A (Y 1023 ) corresponding to the number of pixels in the vertical direction (Y-axis direction). The detection images are sequentially set.

このように設定された各検出用ラインA(Yn)毎に、検出用ラインA(Yn)に沿った、つまり積層面に沿った水平方向(X軸方向)における輝度分布3が抽出され、垂直方向(Y軸方向)の画素数に対応する1024本の検出用ラインA(Yn)ごとの輝度分布3が抽出される。この輝度分布3を抽出する工程を輝度分布抽出工程という。
図1(C)を参照して、各検出用ラインA(Yn)の輝度分布3における輝度のばらつきを表現する特徴量として、ピークカウントC(Yn)を検出する方法を説明する。図1(C)では、1本の検出用ラインA(Yn)の輝度分布3を表す波形と、該輝度分布3の平均値を表す直線4とが示されている。
For each detection line A (Yn) set in this way, the luminance distribution 3 in the horizontal direction (X-axis direction) along the detection line A (Yn), that is, along the laminated surface is extracted, and is vertically The luminance distribution 3 for each of 1024 detection lines A (Yn) corresponding to the number of pixels in the direction (Y-axis direction) is extracted. The step of extracting the luminance distribution 3 is referred to as a luminance distribution extraction step.
With reference to FIG. 1C, a method of detecting the peak count C (Yn) as a feature quantity expressing the luminance variation in the luminance distribution 3 of each detection line A (Yn) will be described. In FIG. 1C, a waveform representing the luminance distribution 3 of one detection line A (Yn) and a straight line 4 representing the average value of the luminance distribution 3 are shown.

図1(C)の輝度分布3の波形は、積層材料の粒度分布の違いに起因する輝度のばらつきを表現するものであり、平均値を示す直線4と複数回、例えば14回交差している。この交差は、輝度値が平均値を跨いで増加又は減少したときに発生するものであり、この交差の回数(例えば、値14)をピークカウントC(Yn)とする。本実施形態では、垂直方向(Y軸方向)に並ぶ1024本の検出用ラインA(Y)〜A(Y1023)のそれぞれに対してピークカウントC(Yn)が検出されるので、検出用ラインA(Yn)の本数と同様に、1024個のピークカウントC(Yn)がピークカウントC(Y)〜C(Y1023)として検出される。このように、輝度分布3の特徴量としてピークカウントC(Yn)を検出する工程を、特徴量検出工程という。 The waveform of the luminance distribution 3 in FIG. 1C expresses the variation in luminance caused by the difference in the particle size distribution of the laminated material, and intersects the straight line 4 indicating the average value a plurality of times, for example, 14 times. . This intersection occurs when the luminance value increases or decreases across the average value, and the number of intersections (for example, a value of 14) is defined as the peak count C (Yn). In the present embodiment, the peak count C (Yn) is detected for each of the 1024 detection lines A (Y 0 ) to A (Y 1023 ) arranged in the vertical direction (Y-axis direction). Similar to the number of lines A (Yn), 1024 peak counts C (Yn) are detected as peak counts C (Y 0 ) to C (Y 1023 ). As described above, the step of detecting the peak count C (Yn) as the feature amount of the luminance distribution 3 is referred to as a feature amount detection step.

図1(C)からわかるが、図1(C)に示す平均値と同一の平均値を有する輝度分布3の波形は、図1(C)に示す波形以外にも存在し得る。従って、輝度分布3の波形は、同一の平均値を有していても、その形状が異なれば平均値を示す直線4と交差する回数が異なる可能性がある。つまり、ピークカウントC(Yn)は、輝度分布3の平均値よりも、
輝度分布3の特徴(相異)を反映するのに適した値であると言える。
As can be seen from FIG. 1C, the waveform of the luminance distribution 3 having the same average value as the average value shown in FIG. 1C can exist in addition to the waveform shown in FIG. Therefore, even if the waveform of the luminance distribution 3 has the same average value, the number of times of crossing the straight line 4 indicating the average value may be different if the shape is different. That is, the peak count C (Yn) is more than the average value of the luminance distribution 3.
It can be said that the value is suitable for reflecting the characteristic (difference) of the luminance distribution 3.

上述のピークカウントC(Yn)を検出するために輝度分布3の平均値を採用したが、必ずしも平均値を採用する必要はなく、別の値を採用してもよい。例えば、表面性状の評価で行われるように、1つの値の平均値ではなく、平均値±2σの範囲を閾値として採用し、この範囲を上限から下限へ又は下限から上限へ交差した回数をピークカウントC(Yn)として用いてもよい。   In order to detect the above-mentioned peak count C (Yn), the average value of the luminance distribution 3 is adopted, but the average value is not necessarily adopted, and another value may be adopted. For example, as in the evaluation of surface properties, instead of using the average of one value, the range of average value ± 2σ is adopted as a threshold, and the number of times this range is crossed from the upper limit to the lower limit or from the lower limit to the upper limit is peaked. It may be used as the count C (Yn).

また、これらの値の他に、輝度分布3の波形におけるピークとピークの間隔(ピーク間距離)の平均値や、ピーク位置のばらつきを用いることも考えられる。このように、輝度分布3の標準偏差等の単純な輝度のばらつき、ピークカウント相当値、及びピーク間距離等の情報などを、輝度分布3の特徴量として採用することができる。
以上に説明した特徴量検出工程での処理をまとめると、以下の通りである。
In addition to these values, it is also conceivable to use an average value of peak-to-peak intervals (distance between peaks) in the waveform of the luminance distribution 3 and variations in peak positions. As described above, simple luminance variations such as the standard deviation of the luminance distribution 3, information such as the peak count equivalent value, the distance between peaks, and the like can be employed as the feature amount of the luminance distribution 3.
The processing in the feature amount detection process described above is summarized as follows.

特徴量検出工程は、撮像工程で撮像された画像1から(つまり、撮像工程で撮像された画像1からノイズを除去して得た検出用画像2の輝度分布3に基づいて)、積層材料の粒度分布の違いに起因する輝度のばらつきを表現する特徴量を検出するものであり、特徴量として、積層境界に沿った方向における輝度分布3の標準偏差及び/又はピークカウントC(Yn)の値を検出する処理である。   The feature amount detection step is performed from the image 1 captured in the imaging step (that is, based on the luminance distribution 3 of the detection image 2 obtained by removing noise from the image 1 captured in the imaging step). A feature amount expressing a variation in luminance caused by a difference in particle size distribution is detected, and the standard deviation of the luminance distribution 3 and / or the value of peak count C (Yn) in the direction along the stacking boundary is detected as the feature amount. This is a process for detecting.

続いて、上述のピークカウントC(Yn)に例示される輝度分布3の特徴量を用いて、検出用画像2から積層境界を検出する積層境界検出工程について説明する。積層境界検出工程は、ピークカウントC(Yn)に対するマハラノビス距離の算出と、算出したマハラノビス距離に基づく境界位置フラグの付与とを経て、図2に示す検出用画像2に積層境界を付与する。ここでいうマハラノビス距離とは、統計学で用いられる一種の距離であり一般に周知の概念である。   Next, a description will be given of a layer boundary detection step of detecting a layer boundary from the detection image 2 using the feature amount of the luminance distribution 3 exemplified by the above-described peak count C (Yn). In the layer boundary detection step, the layer boundary is given to the detection image 2 shown in FIG. 2 through the calculation of the Mahalanobis distance for the peak count C (Yn) and the provision of the boundary position flag based on the calculated Mahalanobis distance. The Mahalanobis distance here is a kind of distance used in statistics, and is a generally well-known concept.

図1(D)及び図3(A)を参照し、ピークカウントC(Yn)に対するマハラノビス距離の算出について説明する。図3(A)は、画像の垂直方向(Y軸方向)に沿ったマハラノビス距離の変化を示す図である。
上述のピークカウントC(Yn)は、検出用ラインA(Yn)1本ごとに、それぞれの輝度分布3の平均値(平均値±2σ)を求めて検出されていた。しかし、本実施形態におけるマハラノビス距離の算出では、検出用画像2中の複数の層から一つの層を基準層として選択して基準点と分散を算出し、この基準点を基にして全てのピークカウントC(Y)〜C(Y1023)のマハラノビス距離を求める。
With reference to FIG. 1D and FIG. 3A, calculation of the Mahalanobis distance with respect to the peak count C (Yn) will be described. FIG. 3A is a diagram showing a change in Mahalanobis distance along the vertical direction (Y-axis direction) of the image.
The above-described peak count C (Yn) is detected by obtaining an average value (average value ± 2σ) of each luminance distribution 3 for each detection line A (Yn). However, in the calculation of the Mahalanobis distance in the present embodiment, one layer is selected from a plurality of layers in the detection image 2 as a reference layer, a reference point and a variance are calculated, and all peaks are calculated based on this reference point. The Mahalanobis distance of the counts C (Y 0 ) to C (Y 1023 ) is obtained.

本実施形態におけるマハラノビス距離は、次のようにして求める。
まず、図2に示す検出用画像2において積層された複数の層から、基準層として一つの層を選択し、選択された基準層に対応するピークカウントC(Yn)の平均値を平均値Pとし、偏差の絶対値の平均を偏差の絶対値平均Psとする。その上で、1次元の簡易マハラノビス距離MD(Yn)を次式(1)として定義し、マハラノビス距離とする。
The Mahalanobis distance in this embodiment is calculated | required as follows.
First, one layer is selected as a reference layer from a plurality of layers stacked in the detection image 2 shown in FIG. 2, and an average value of peak counts C (Yn) corresponding to the selected reference layer is set to an average value P. The average of absolute values of deviation is set as 0, and the average of absolute values of deviation is Ps. Then, a one-dimensional simplified Mahalanobis distance MD (Yn) is defined as the following equation (1), and is defined as the Mahalanobis distance.

MD(Yn)=(C(Yn)ーP)/Ps (1)
図2に示す検出用画像2から基準層を選択し、平均値Pと絶対値平均Psを求めた後、式(1)を用いて、図1(D)に示す全てのピークカウントC(Y)〜C(Y1023)のマハラノビス距離を求め、求めたマハラノビス距離MD(Y)〜MD(Y1023)をY軸(Y座標)方向に沿って順に並べる。順に並べられたマハラノビス距離MD(Y)〜MD(Y1023)の各々について、前後のマハラノビス距離MD(Yn−1)及びマハラノビス距離MD(Yn+1)を用いた3点の平均を算出して求めた値をマハラノビス距離MD(Yn)としてプロットすることで、図3(A)に示すような、Y軸方向に沿ったマハラノビス距離MD(Yn)の変化をグラフに表すことができる。
MD (Yn) = (C (Yn) −P 0 ) / Ps (1)
After selecting the reference layer from the detection image 2 shown in FIG. 2 and calculating the average value P 0 and the absolute value average Ps, all the peak counts C (shown in FIG. The Mahalanobis distances of Y 0 ) to C (Y 1023 ) are obtained, and the obtained Mahalanobis distances MD (Y 0 ) to MD (Y 1023 ) are sequentially arranged along the Y-axis (Y coordinate) direction. For each of the Mahalanobis distances MD (Y 0 ) to MD (Y 1023 ) arranged in order, an average of three points using the preceding and following Mahalanobis distance MD (Y n-1 ) and Mahalanobis distance MD (Y n + 1 ) is calculated. By plotting the obtained value as the Mahalanobis distance MD (Yn), the change in the Mahalanobis distance MD (Yn) along the Y-axis direction as shown in FIG. 3A can be represented in a graph.

ここで、図3(A)に示すグラフの横軸は、図2に示す検査用画像2の縦軸であるY軸(Y座標)に対応していることに注意されたい。つまり、図3(A)に示すグラフにおいて、横軸方向に沿って現れる特徴は、検査用画像2において縦軸方向に沿って現れる特徴に対応している。
図3(A)に示すグラフを参照すると、Y座標において、マハラノビス距離MD(Yn)が値10〜11前後で連続的に推移する区間と、値8〜9前後で連続的に推移する区間と、値1〜2前後で連続的に推移する区間が交互に出現しているといえる。図3(A)のY座標においてマハラノビス距離MD(Yn)が値1〜2前後で推移する区間は、最も基準点からの距離が小さいといえるので、基準層に対応する区間又は基準層と同種の層に対応する区間であると考えられる。
Here, it should be noted that the horizontal axis of the graph shown in FIG. 3A corresponds to the Y axis (Y coordinate) that is the vertical axis of the inspection image 2 shown in FIG. That is, in the graph shown in FIG. 3A, features that appear along the horizontal axis direction correspond to features that appear along the vertical axis direction in the inspection image 2.
Referring to the graph shown in FIG. 3A, in the Y coordinate, the Mahalanobis distance MD (Yn) continuously changes around the value 10-11, and the interval continuously changes around the value 8-9. It can be said that the sections that continuously shift around the values 1 to 2 appear alternately. The section in which the Mahalanobis distance MD (Yn) transitions around the value 1 to 2 in the Y coordinate of FIG. 3A is the shortest distance from the reference point, and therefore is the same as the section corresponding to the reference layer or the reference layer It is considered that this is the section corresponding to the layer.

このように、輝度分布3の特徴量であるピークカウントC(Yn)に対してマハラノビス距離MD(Yn)を求めることで、マハラノビス距離MD(Yn)が連続的に近い値を示す区間を、ピークカウントC(Yn)の類似性の高い区間として抽出することが可能となる。言い換えれば、マハラノビス距離MD(Yn)を求めることは、ピークカウントC(Yn)の類似性を求めることと同義となる。上述のように、この求めた類似性の差異に基づいて、類似性の高い区間を抽出し積層境界を検出することができる。   Thus, by obtaining the Mahalanobis distance MD (Yn) with respect to the peak count C (Yn), which is the feature quantity of the luminance distribution 3, a section in which the Mahalanobis distance MD (Yn) shows a continuously close value is obtained. It is possible to extract as a section having high similarity of the count C (Yn). In other words, obtaining the Mahalanobis distance MD (Yn) is synonymous with obtaining the similarity of the peak count C (Yn). As described above, based on the obtained difference in similarity, a section having high similarity can be extracted and a stack boundary can be detected.

以下に、図1(E)、図3(A)及び図3(B)を参照し、図3(A)に示すマハラノビス距離MD(Yn)の変化を用いて積層境界を検出する方法について説明する。図3(B)は、検出用画像2の垂直方向(Y軸方向)に沿って立てられたフラグの位置を示す図である。
図3(A)に示すマハラノビス距離MD(Yn)の変化において、例えば、マハラノビス距離MD(Yn)が3.5未満となる区間の各Y座標に対して値0のフラグ(標識)を立てると共に、マハラノビス距離MD(Yn)が3.5以上となる区間の各Y座標に対して値3のフラグ(標識)を立てる。
Hereinafter, a method for detecting a stacking boundary using a change in Mahalanobis distance MD (Yn) shown in FIG. 3A will be described with reference to FIGS. 1E, 3A, and 3B. To do. FIG. 3B is a diagram showing the position of the flag set up along the vertical direction (Y-axis direction) of the detection image 2.
In the change of the Mahalanobis distance MD (Yn) shown in FIG. 3A, for example, a flag (marker) with a value of 0 is set for each Y coordinate in a section where the Mahalanobis distance MD (Yn) is less than 3.5. Then, a flag (marker) with a value of 3 is set for each Y coordinate of the section where the Mahalanobis distance MD (Yn) is 3.5 or more.

その上で、連続した所定のピクセル数(数ピクセル程度)に対応する、連続した所定のY座標の範囲において、値0から値3へ、又は値3から値0へのフラグの切り替わりが1度しか発生していない範囲では、その1度の切り替わりが発生したY座標を積層境界と認識し、当該位置のフラグを値3に維持する。また、フラグの切り替わりが複数回発生した範囲では、それら切り替わりが発生した複数のY座標の重心位置を求め、求めた重心位置に対応するY座標を積層境界と認識し、当該位置のフラグを値3に維持する。このように、積層境界を認識した後は、積層境界の位置(境界位置)以外の位置にあるフラグを値0とする。   In addition, the flag is switched once from the value 0 to the value 3 or from the value 3 to the value 0 in the range of the continuous predetermined Y coordinate corresponding to the predetermined number of continuous pixels (about several pixels). In the range where only this occurs, the Y coordinate where the one-time switching has occurred is recognized as the stacking boundary, and the flag at that position is maintained at the value 3. In addition, in the range where the switching of the flag occurs a plurality of times, the barycentric positions of the plurality of Y coordinates where the switching has occurred are obtained, the Y coordinate corresponding to the obtained barycentric position is recognized as the stacking boundary, and the flag at that position is set as the value. 3 is maintained. Thus, after recognizing the stacking boundary, a flag at a position other than the position of the stacking boundary (boundary position) is set to 0.

以上の処理を経て、認識された境界位置にのみ値3のフラグが付与された図3(B)に示すグラフが得られる。
このように、特徴量であるピークカウントC(Yn)の類似性を示すマハラノビス距離MD(Yn)の大小(つまり、差異)に基づいて、図2に示す検出用画像2において、該マハラノビス距離MD(Yn)の大小(差異)を示すピークカウントC(Yn)が検出された位置に積層境界の位置(境界位置)を示すフラグ(標識)を付与することができ、積層境界を検出することができる。
Through the above processing, a graph shown in FIG. 3B in which a flag of value 3 is given only to the recognized boundary position is obtained.
Thus, based on the magnitude (that is, the difference) of the Mahalanobis distance MD (Yn) indicating the similarity of the peak count C (Yn) that is the feature quantity, the Mahalanobis distance MD is detected in the detection image 2 shown in FIG. A flag (label) indicating the position (boundary position) of the stacking boundary can be added to the position where the peak count C (Yn) indicating the magnitude (difference) of (Yn) is detected, and the stacking boundary can be detected. it can.

図1(F)及び図4を参照し、図2に示す検出用画像2に積層境界を付与する方法について説明する。図4は、積層材料の断面に境界線が重ねて表示された画像を示す図である。
図3(B)のグラフに示されたフラグa〜l、o及びpは、図2に示す検出用画像2の縦軸(Y軸)における積層境界の位置を示しているので、図2に示す検出用画像2において、当該フラグa〜l、o及びpが示すY座標の位置に横軸(X軸)に沿って境界線を付与する。これによって、図4に示すような検出用画像2に、フラグa〜l、o及びpに対応する境界線を付与した画像5を得ることができ、境界線の間隔を基に積層された各層の厚みを検出することができる。
With reference to FIG. 1 (F) and FIG. 4, a method for giving a layer boundary to the detection image 2 shown in FIG. 2 will be described. FIG. 4 is a diagram showing an image displayed with the boundary line superimposed on the cross section of the laminated material.
The flags a to l, o, and p shown in the graph of FIG. 3B indicate the position of the stacking boundary on the vertical axis (Y axis) of the detection image 2 shown in FIG. In the detection image 2 shown, a boundary line is given along the horizontal axis (X axis) to the position of the Y coordinate indicated by the flags a to l, o, and p. As a result, an image 5 in which boundary lines corresponding to the flags a to l, o, and p are added to the detection image 2 as shown in FIG. 4 can be obtained, and each layer stacked based on the boundary line intervals. Can be detected.

積層境界検出工程の動作は以上のとおりであり、上述の撮像工程、輝度分布抽出工程、特徴量検出工程及び積層境界検出工程を備える境界検出方法を、例えばパーソナルコンピュータ(PC)や専用の演算装置のコンピュータプログラムによって実行することで、単に検出用ラインA(Yn)における輝度の平均値を用いた従来の技術では検出不可能な境界を認識し検出することができる。   The operation of the layer boundary detection step is as described above. For the boundary detection method including the above-described imaging step, luminance distribution extraction step, feature amount detection step, and layer boundary detection step, for example, a personal computer (PC) or a dedicated arithmetic device By executing the computer program, it is possible to recognize and detect a boundary that cannot be detected by the conventional technique simply using the average value of the luminance in the detection line A (Yn).

ここで、上述の境界検出方法に、特徴量の値をテーブル化して材料の種類を判断する手法や、特徴量の差分を画像垂直方向(Y軸方向)に計算し、大きく変化があった位置を積層境界とする手法を適用することができる。また、特徴量のばらつきを考慮すると、特徴
量に加えて輝度の平均値等他のパラメータを含めた空間でのマハラノビス距離など、複数のパラメータに基づく数値指標を作成して閾値を用いることで、特定の積層境界を認識する手法などを考えることもできる。
Here, in the boundary detection method described above, a method for determining the type of material by tabulating the feature value values, or calculating the difference of the feature value in the image vertical direction (Y-axis direction), and a position where there has been a significant change Can be applied. In addition, when considering variations in feature values, by creating a numerical index based on a plurality of parameters such as Mahalanobis distance in the space including other parameters such as the average value of luminance in addition to the feature value, and using a threshold value, A method for recognizing a specific stacking boundary can also be considered.

ここで、図5を参照して、参考として従来の技術による積層境界の検出方法について説明する。
図5は、従来の技術による積層境界の検出方法を説明する図であり、(a)は検出用画像6を示し、(b)は検出用画像7を2値化した画像を示す。
図5(a)に示す検出用画像6は、アルミ合金の積層材の断面を撮像して、撮像した画像を水平方向に40ピクセル分平均化して得た画像である。この図5(a)の検出用画像6を、画像全体の平均値+標準偏差を閾値として2値化して図5(b)に示す2値化画像7を得た。図5(b)に示す2値化画像7では、画像内の輝度のムラにより画像上部における積層境界の認識は困難である。
Here, with reference to FIG. 5, a conventional method for detecting a stacking boundary will be described as a reference.
5A and 5B are diagrams for explaining a conventional method for detecting a layer boundary, in which FIG. 5A shows a detection image 6 and FIG. 5B shows an image obtained by binarizing the detection image 7.
The detection image 6 shown in FIG. 5A is an image obtained by capturing a cross section of a laminated material of aluminum alloy and averaging the captured image for 40 pixels in the horizontal direction. The binarized image 7 shown in FIG. 5B was obtained by binarizing the detection image 6 in FIG. 5A using the average value + standard deviation of the entire image as a threshold value. In the binarized image 7 shown in FIG. 5B, it is difficult to recognize the layer boundary at the top of the image due to uneven brightness in the image.

従来の技術のように輝度値や輝度の平均値だけを基にしては、安定的に積層境界を検出することは困難であるので、本発明の境界検出方法のように、輝度変化や輝度分布の特徴量を用いれば、安定的かつ確実に積層境界を検出することができる。
ところで、今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。特に、今回開示された実施形態において、明示的に開示されていない事項、例えば、動作条件や測定条件、各種パラメータ、構成物の寸法、重量、体積などは、当業者が通常実施する範囲を逸脱するものではなく、通常の当業者であれば、容易に想定することが可能な値を採用している。
Since it is difficult to stably detect the stack boundary based on only the brightness value and the average value of brightness as in the prior art, the brightness change and brightness distribution as in the boundary detection method of the present invention are difficult. If the feature amount is used, the stack boundary can be detected stably and reliably.
By the way, it should be thought that embodiment disclosed this time is an illustration and restrictive at no points. In particular, in the embodiment disclosed this time, matters that are not explicitly disclosed, such as operating conditions and measurement conditions, various parameters, dimensions, weights, volumes, and the like of a component deviate from a range that is normally implemented by those skilled in the art. Instead, values that can be easily assumed by those skilled in the art are employed.

具体的には、特徴量検出工程において、特徴量として、積層境界と交差する方向における輝度分布の変化量である微分値を検出して用いてもよい。   Specifically, in the feature amount detection step, a differential value that is a change amount of the luminance distribution in the direction intersecting the stack boundary may be detected and used as the feature amount.

1,5 画像
2,6 検出用画像
3 輝度分布
4 直線(平均値)
7 2値化画像
1,5 image 2,6 image for detection 3 luminance distribution 4 straight line (average value)
7 Binary image

Claims (5)

複数の異なる材料が積層された積層材料に対して、前記複数の異なる材料の境界である積層境界を検出する境界検出方法であって、
前記積層境界を含む前記積層材料の画像を撮像する撮像工程と、
前記撮像工程で撮像された画像の輝度分布から、前記積層材料の粒度分布の違いに起因する輝度のばらつきを表現する特徴量を検出する特徴量検出工程と、
前記特徴量検出工程で検出された特徴量に基づいて前記撮像された画像における前記積層境界を検出する積層境界検出工程と、を有することを特徴とする境界検出方法。
A boundary detection method for detecting a lamination boundary, which is a boundary between the plurality of different materials, for a laminated material in which a plurality of different materials are laminated,
An imaging step of capturing an image of the laminated material including the laminated boundary;
A feature amount detection step for detecting a feature amount representing a variation in luminance due to a difference in particle size distribution of the laminated material from the luminance distribution of the image captured in the imaging step;
A boundary detection method comprising: a layer boundary detection step of detecting the layer boundary in the captured image based on the feature amount detected in the feature amount detection step.
前記特徴量検出工程は、前記特徴量として、前記積層境界に沿った方向における前記輝度分布の標準偏差及び/又はピークカウント値を検出することを特徴とする請求項1に記載の境界検出方法。   The boundary detection method according to claim 1, wherein the feature amount detection step detects a standard deviation and / or a peak count value of the luminance distribution in a direction along the stack boundary as the feature amount. 前記積層境界検出工程は、前記標準偏差及び/又はピークカウント値を検出した方向と垂直な方向において前記特徴量の類似性を求め、前記求めた類似性の差異に基づいて前記積層境界を検出することを特徴とする請求項2に記載の境界検出方法。   In the stacking boundary detection step, similarity of the feature amount is obtained in a direction perpendicular to the direction in which the standard deviation and / or peak count value is detected, and the stacking boundary is detected based on the obtained difference in similarity. The boundary detection method according to claim 2. 前記積層境界検出工程は、前記求められた類似性の差異に基づいて、前記画像において前記差異を示す特徴量が検出された位置に前記積層境界を示す標識を付与することで前記積層境界を検出することを特徴とする請求項3に記載の境界検出方法。   The stacking boundary detection step detects the stacking boundary by adding a label indicating the stacking boundary to a position where the feature amount indicating the difference is detected in the image based on the obtained difference in similarity. The boundary detection method according to claim 3, wherein: 前記特徴量検出工程は、前記特徴量として、前記積層境界と交差する方向における前記輝度分布の微分値を検出することを特徴とする請求項1に記載の境界検出方法。
The boundary detection method according to claim 1, wherein the feature amount detection step detects a differential value of the luminance distribution in a direction intersecting with the stack boundary as the feature amount.
JP2014078655A 2014-04-07 2014-04-07 Boundary detection method Expired - Fee Related JP6198242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014078655A JP6198242B2 (en) 2014-04-07 2014-04-07 Boundary detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014078655A JP6198242B2 (en) 2014-04-07 2014-04-07 Boundary detection method

Publications (2)

Publication Number Publication Date
JP2015200543A true JP2015200543A (en) 2015-11-12
JP6198242B2 JP6198242B2 (en) 2017-09-20

Family

ID=54551922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014078655A Expired - Fee Related JP6198242B2 (en) 2014-04-07 2014-04-07 Boundary detection method

Country Status (1)

Country Link
JP (1) JP6198242B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54148558A (en) * 1978-05-15 1979-11-20 Kawasaki Steel Co Method of measuring mean size of grains
JP2001201318A (en) * 2000-01-18 2001-07-27 Toshiba Corp Film thickness measuring method and device, and recording medium
US20050171697A1 (en) * 2004-02-02 2005-08-04 Schlumberger Technology Corporation [system and method for analyzing a thin bed formation]
JP2005252451A (en) * 2004-03-02 2005-09-15 Sony Corp Image quality inspection method and image quality inspection apparatus
JP2010164446A (en) * 2009-01-16 2010-07-29 Angle Try Kk Visual inspection method of item to be inspected and program
US20100312534A1 (en) * 2008-02-28 2010-12-09 Shiyu Xu Rock Physics Model For Simulating Seismic Response In Layered Fractured Rocks
JP2012047673A (en) * 2010-08-30 2012-03-08 Kobe Steel Ltd Inspection device and inspection method
JP2013181832A (en) * 2012-03-01 2013-09-12 Toray Eng Co Ltd Device for inspecting edge surface of laminated sheet material

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54148558A (en) * 1978-05-15 1979-11-20 Kawasaki Steel Co Method of measuring mean size of grains
JP2001201318A (en) * 2000-01-18 2001-07-27 Toshiba Corp Film thickness measuring method and device, and recording medium
US20050171697A1 (en) * 2004-02-02 2005-08-04 Schlumberger Technology Corporation [system and method for analyzing a thin bed formation]
JP2005252451A (en) * 2004-03-02 2005-09-15 Sony Corp Image quality inspection method and image quality inspection apparatus
US20100312534A1 (en) * 2008-02-28 2010-12-09 Shiyu Xu Rock Physics Model For Simulating Seismic Response In Layered Fractured Rocks
JP2010164446A (en) * 2009-01-16 2010-07-29 Angle Try Kk Visual inspection method of item to be inspected and program
JP2012047673A (en) * 2010-08-30 2012-03-08 Kobe Steel Ltd Inspection device and inspection method
JP2013181832A (en) * 2012-03-01 2013-09-12 Toray Eng Co Ltd Device for inspecting edge surface of laminated sheet material

Also Published As

Publication number Publication date
JP6198242B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
CN110678901B (en) Information processing apparatus, information processing method, and computer-readable storage medium
TWI438729B (en) Method and system for lane departure warning
JP2014059875A5 (en)
JP2014059875A (en) Device and method for detecting the presence of logo in picture
JP6465682B2 (en) Information processing apparatus, information processing method, and program
JP2013065304A (en) High-speed obstacle detection
JP6726052B2 (en) Image processing method and program
EP3563345B1 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP2010218232A (en) Object tracking device
US8396297B2 (en) Supervised edge detection using fractal signatures
WO2016208622A1 (en) Surface defect detection apparatus and surface defect detection method
CN112085708B (en) Method and equipment for detecting defects of straight line edges in outer contour of product
EP3153814B1 (en) Lead image recognition method, lead image recognition device, method for creating component data for image processing, and device for creating component data for image processing
US11216905B2 (en) Automatic detection, counting, and measurement of lumber boards using a handheld device
JP2010091429A (en) Workpiece shape estimation device
JP2011058939A (en) Apparatus and method for visual inspection
Li et al. Hand gesture recognition by stereo camera using the thinning method
JP6496159B2 (en) Pattern inspection apparatus and pattern inspection method
JP6104745B2 (en) Hole inspection device
JP5983749B2 (en) Image processing apparatus, image processing method, and image processing program
JP5889778B2 (en) Automatic unevenness detection apparatus and automatic unevenness detection method for flat panel display
JP6198242B2 (en) Boundary detection method
US10062155B2 (en) Apparatus and method for detecting defect of image having periodic pattern
JP6326622B2 (en) Human detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170817

R150 Certificate of patent or registration of utility model

Ref document number: 6198242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees