JP2018059735A - Lamination boundary detection apparatus, lamination boundary detection method, lamination boundary detection program, and recording medium - Google Patents

Lamination boundary detection apparatus, lamination boundary detection method, lamination boundary detection program, and recording medium Download PDF

Info

Publication number
JP2018059735A
JP2018059735A JP2016195496A JP2016195496A JP2018059735A JP 2018059735 A JP2018059735 A JP 2018059735A JP 2016195496 A JP2016195496 A JP 2016195496A JP 2016195496 A JP2016195496 A JP 2016195496A JP 2018059735 A JP2018059735 A JP 2018059735A
Authority
JP
Japan
Prior art keywords
absolute value
boundary
differential absolute
differential
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016195496A
Other languages
Japanese (ja)
Other versions
JP6650382B2 (en
Inventor
高橋 英二
Eiji Takahashi
英二 高橋
亮 片山
Ryo Katayama
亮 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2016195496A priority Critical patent/JP6650382B2/en
Publication of JP2018059735A publication Critical patent/JP2018059735A/en
Application granted granted Critical
Publication of JP6650382B2 publication Critical patent/JP6650382B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a lamination boundary detection apparatus, a lamination boundary detection method, a lamination boundary detection program, and a recording medium therefor which are resistant to noise fluctuation and which are not required for a correlation analysis.SOLUTION: A lamination boundary detecting apparatus Ma of the present invention comprises an image acquiring unit 11 for acquiring an image data of a cross section of the lamination; a brightness projection processing unit 122 for obtaining a brightness projection along a laminate direction in an orthogonal direction orthogonal to the laminate direction with respect to the acquired image data; a differential absolute value processing unit 123 for obtaining an absolute value of a differential value as a differential absolute value with respect to the obtained brightness projection; a noise elimination processing unit 124 for extracting a differential absolute value exceeding a predetermined ratio of the maximum value of the differential absolute value or a large differential absolute value from the obtained differential absolute value; and a boundary extraction processing unit 125a for determining the position of a boundary surface of the lamination in the cross section on the basis of the extracted differential absolute value.SELECTED DRAWING: Figure 1

Description

本発明は、異種材料を積層した部材である積層体における前記異種材料間の境界を検出する積層体境界検出装置、積層体境界検出方法、積層体境界検出プログラムおよびその記録媒体に関する。   The present invention relates to a laminated body boundary detecting device, a laminated body boundary detecting method, a laminated body boundary detecting program, and a recording medium thereof for detecting a boundary between the different materials in a laminated body that is a member in which different materials are laminated.

互いに異なる複数の種類の各金属材料を積層した金属部材の積層体や、互いに異なる複数の種類の樹脂材料を積層した樹脂部材の積層体等において、境界面と交差した積層方向を含む断面に占める各層の割合(クラッド率、積層率、(当該層の厚さ)/(各層の厚さの総計)×100[%])を測定する技術が開発され、例えば特許文献1に開示されている。   It occupies a cross section including the stacking direction intersecting the boundary surface in a laminate of metal members obtained by laminating a plurality of different types of metal materials or a laminate of resin members obtained by laminating a plurality of different types of resin materials. A technique for measuring the ratio of each layer (cladding rate, stacking rate, (thickness of the layer) / (total thickness of each layer) × 100 [%]) has been developed, and is disclosed in Patent Document 1, for example.

この特許文献1に開示されたクラッド率測定装置は、芯材の表面にクラッド層を形成した測定対象部材に関する断面像を取り込む画像取得手段と、前記断面像の厚み方向におけるピクセル値の変化に基づき前記クラッド層の対向する二つの境界を求める境界判定手段と、前記境界間の距離を演算して前記クラッド層のクラッド率を算出する演算手段を備えてなる。前記境界判定手段は、前記断面像の各ピクセル値と設定値との比較結果に基づき前記断面像を二値画像に変換し、前記二値画像の一方の画素領域と他方の画素領域との境界を前記クラッド層の外縁側の境界として求める。   The cladding ratio measuring apparatus disclosed in Patent Document 1 is based on image acquisition means for capturing a cross-sectional image related to a measurement target member in which a cladding layer is formed on the surface of a core material, and a change in pixel value in the thickness direction of the cross-sectional image. Boundary determining means for obtaining two opposing boundaries of the cladding layer, and calculating means for calculating a cladding ratio of the cladding layer by calculating a distance between the boundaries. The boundary determination unit converts the cross-sectional image into a binary image based on a comparison result between each pixel value of the cross-sectional image and a set value, and a boundary between one pixel region and the other pixel region of the binary image. Is determined as the boundary on the outer edge side of the cladding layer.

このように特許文献1に開示されたクラッド率測定装置は、ピクセル値(輝度値)によって画像を二値化し、芯材とクラッド層との境界を認識している。しかしながら、二値化された二値画像では、例えば、輝度のばらつき等によって境界が明瞭に示されないことが多いので、二値画像を基に境界を認識することは、困難である。合金層が撮像された画像の二値画像では、合金層に含まれる析出物等の影響で析出物の境界も認識してしまう等の弊害が生じるため、合金層等における複雑なマトリックスに対応した境界の認識手法が必要となる。このため、特許文献2に境界検出方法が提案されている。   As described above, the cladding ratio measuring apparatus disclosed in Patent Document 1 binarizes an image with pixel values (luminance values) and recognizes the boundary between the core material and the cladding layer. However, in a binarized binary image, for example, the boundary is often not clearly shown due to, for example, luminance variations, and therefore it is difficult to recognize the boundary based on the binary image. In the binary image of the image obtained by imaging the alloy layer, adverse effects such as recognizing the boundary of precipitates due to the influence of precipitates contained in the alloy layer occur, so it corresponds to a complex matrix in the alloy layer etc. A boundary recognition method is required. For this reason, a boundary detection method is proposed in Patent Document 2.

この特許文献2に開示された境界検出方法は、複数の異なる材料が積層された積層材料に対して、前記複数の異なる材料の境界である積層境界を検出する境界検出方法であって、前記積層境界を含む前記積層材料の画像を撮像する撮像工程と、前記撮像工程で撮像された画像の輝度分布から、前記積層材料の粒度分布の違いに起因する輝度のばらつきを表現する特徴量を検出する特徴量検出工程と、前記特徴量検出工程で検出された特徴量に基づいて前記撮像された画像における前記積層境界を検出する積層境界検出工程と、を有する。前記特徴量検出工程は、前記特徴量として、前記積層境界に沿った方向における前記輝度分布の標準偏差および/またはピークカウント値を検出し、前記標準偏差および/またはピークカウント値を検出した方向と垂直な方向において前記特徴量の類似性を求め、前記求めた類似性の差異に基づいて前記積層境界を検出する。   The boundary detection method disclosed in Patent Document 2 is a boundary detection method for detecting a stacked boundary that is a boundary of the plurality of different materials with respect to a stacked material in which a plurality of different materials are stacked. A feature amount that expresses a variation in luminance due to a difference in particle size distribution of the laminated material is detected from an imaging step of capturing an image of the laminated material including a boundary and a luminance distribution of the image captured in the imaging step. A feature amount detection step; and a layer boundary detection step of detecting the layer boundary in the captured image based on the feature amount detected in the feature amount detection step. The feature amount detection step detects, as the feature amount, a standard deviation and / or peak count value of the luminance distribution in a direction along the stacking boundary, and a direction in which the standard deviation and / or peak count value is detected. The similarity of the feature amounts is obtained in the vertical direction, and the stack boundary is detected based on the obtained difference in similarity.

なお、「Aおよび/またはB」は、「AおよびBのうちの少なくとも一方」を意味する。   “A and / or B” means “at least one of A and B”.

特開2007−178375号公報JP 2007-178375 A 特開2015−200543号公報Japanese Unexamined Patent Publication No. 2015-200543

ところで、前記特許文献2に開示された境界検出方法は、輝度のばらつきを表現する特徴量として標準偏差および/またはピークカウント値の統計量を用いている。しかしながら、統計的な特徴量のため画像中のノイズ変動には強いけれども、境界線検知といった具体的な位置や座標と統計的な特徴量とは、直接、結びついていない。このため、実用利用するためには、これら統計的な特徴量と実際の境界線の位置や座標とのデータを収集して相関解析する必要がある。このため、直感的でない分、相関解析や適切な特徴量計算の設定に手間がかかり、専門技術を持った設定者が必要になる。   By the way, the boundary detection method disclosed in Patent Document 2 uses a standard deviation and / or a statistic of a peak count value as a feature quantity expressing luminance variation. However, although it is strong against noise fluctuations in the image due to the statistical feature amount, the specific position and coordinates such as boundary detection and the statistical feature amount are not directly linked. For this reason, in order to use it practically, it is necessary to collect data of these statistical feature values and the actual position and coordinates of the boundary line and perform correlation analysis. For this reason, since it is not intuitive, it takes time to set correlation analysis and appropriate feature amount calculation, and a setter having specialized techniques is required.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、ノイズ変動に強く、相関解析の必要の無い積層体境界検出装置、積層体境界検出方法、積層体境界検出プログラムおよびその記録媒体を提供することである。   The present invention is an invention made in view of the above-described circumstances, and its object is a laminate boundary detection device, a laminate boundary detection method, a laminate boundary detection program that is resistant to noise fluctuation and does not require correlation analysis, and It is to provide the recording medium.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる積層体境界検出装置は、互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得部と、前記画像取得部で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理を行う輝度プロジェクション処理部と、前記輝度プロジェクション処理部で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理を行う微分絶対値処理部と、前記微分絶対値処理部で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うノイズ除去処理部と、前記ノイズ除去処理部で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行う境界抽出処理部とを備えることを特徴とする。好ましくは、上述の積層体境界検出装置において、前記画像取得部は、前記積層体の断面を撮像するカメラである。好ましくは、上述の積層体境界検出装置において、前記画像取得部は、前記画像データを管理するサーバ装置と通信する通信インターフェース部である。好ましくは、上述の積層体境界検出装置において、前記画像取得部は、前記画像データを記録する記録媒体との間でデータを交換(入出力)するインターフェース部である。   As a result of various studies, the present inventor has found that the above object is achieved by the present invention described below. That is, the laminate boundary detection device according to one aspect of the present invention is an image acquisition unit that acquires image data of a cross section including a stacking direction intersecting a boundary surface in a stack that is a member in which a plurality of different materials are stacked. A luminance projection processing unit that performs luminance projection processing for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction with respect to the image data acquired by the image acquisition unit, and the luminance projection processing unit. A differential absolute value processing unit that obtains a differential value for the luminance projection obtained along the stacking direction and performs a differential absolute value process for obtaining an absolute value of the obtained differential value as a differential absolute value, and the differential absolute value processing unit The differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value from the differential absolute value obtained in A noise removal processing unit that performs noise removal processing that extracts a differential absolute value that is larger than a predetermined ratio with respect to a maximum absolute value, and a differential absolute value extracted by the noise removal processing unit, based on the absolute value of the boundary surface in the cross section And a boundary extraction processing unit that performs a boundary extraction process for obtaining a position. Preferably, in the above-described stacked body boundary detection device, the image acquisition unit is a camera that captures a cross section of the stacked body. Preferably, in the above-described laminate boundary detection device, the image acquisition unit is a communication interface unit that communicates with a server device that manages the image data. Preferably, in the above-described laminated body boundary detection device, the image acquisition unit is an interface unit that exchanges (inputs / outputs) data with a recording medium that records the image data.

一般に、材料に応じて輝度(反射率)が異なるため、断面の画像から積層方向に沿って求められた直交方向の輝度プロジェクションに対する微分値は、境界面に基づいて前記断面に現れた境界線で大きく変化する。上記積層体境界検出装置は、微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うので、ノイズ変動に強く、そして、ノイズ除去処理後の微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行うので、上述の相関解析の必要が無い。   In general, since the luminance (reflectance) varies depending on the material, the differential value for the luminance projection in the orthogonal direction obtained from the cross-sectional image along the stacking direction is the boundary line that appears in the cross-section based on the boundary surface. It changes a lot. The laminate boundary detection apparatus performs a noise removal process for extracting a differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value that is greater than a predetermined ratio with respect to the maximum value of the differential absolute value. Since the boundary extraction processing for obtaining the position of the boundary surface in the cross section is performed based on the differential absolute value after the noise removal processing, the above-described correlation analysis is not required.

また、他の一態様では、上述の積層体境界検出装置において、前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の範囲(所定の第1範囲)内に位置するピークをピーク群として纏め、前記纏めたピーク群内におけるピークの重心位置を前記境界面の位置として求めることを特徴とする。好ましくは、上述の積層体境界検出装置において、前記所定の範囲を受け付ける範囲入力部をさらに備える。   According to another aspect, in the above-described laminate boundary detection device, the boundary extraction processing unit performs a predetermined range (predetermined) on the differential absolute value extracted by the noise removal processing unit as the boundary extraction processing. Peaks located within the first range) are grouped as a peak group, and the barycentric position of the peak within the grouped peak group is obtained as the position of the boundary surface. Preferably, the above-described laminated body boundary detection device further includes a range input unit that receives the predetermined range.

測定対象の積層体によっては、境界面に基づいて断面に現れた境界線が不明瞭であるため、ノイズ除去処理で抽出した微分絶対値において、実際の境界面の位置における近傍(周辺)で複数のピークが生じてしまう場合がある。上記積層体境界検出装置は、ピーク群内におけるピークの重心位置を前記境界面の位置として求めるので、このような場合でも、前記断面における前記境界面の位置をより適切に求めることができる。   Depending on the laminate to be measured, the boundary line that appears in the cross section based on the boundary surface is unclear. Therefore, in the differential absolute value extracted by the noise removal process, there are multiple points near (in the vicinity of) the actual boundary surface position. Peak may occur. The laminated body boundary detection apparatus obtains the position of the center of gravity of the peak in the peak group as the position of the boundary surface. Even in such a case, the position of the boundary surface in the cross section can be obtained more appropriately.

また、他の一態様では、上述の積層体境界検出装置において、前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の範囲(所定の第1範囲)内に位置するピークをピーク群として纏め、前記纏めたピーク群内における最大ピークの位置を前記境界面の位置として求めることを特徴とする。   According to another aspect, in the above-described laminate boundary detection device, the boundary extraction processing unit performs a predetermined range (predetermined) on the differential absolute value extracted by the noise removal processing unit as the boundary extraction processing. Peaks located within the first range) are grouped as a peak group, and the position of the maximum peak in the grouped peak group is obtained as the position of the boundary surface.

測定対象の積層体によっては、上述したように、境界面に基づいて断面に現れた境界線が不明瞭であるため、ノイズ除去処理で抽出した微分絶対値において、実際の境界面の位置における近傍(周辺)で複数のピークが生じてしまう場合がある。上記積層体境界検出装置は、ピーク群内における最大ピークの位置を前記境界面の位置として求めるので、このような場合でも、最も確からしい位置を前記断面における前記境界面の位置として求めることができる。   Depending on the laminate to be measured, as described above, the boundary line that appears in the cross section based on the boundary surface is unclear, so in the differential absolute value extracted by the noise removal process, the vicinity at the actual boundary surface position A plurality of peaks may occur at (around). Since the laminate boundary detection apparatus obtains the position of the maximum peak in the peak group as the position of the boundary surface, even in such a case, the most likely position can be obtained as the position of the boundary surface in the cross section. .

また、他の一態様では、上述の積層体境界検出装置において、前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の第2範囲内に位置するピークをピーク群として纏め、前記纏めたピーク群内における最大ピークの位置と次最大ピークの位置との平均位置を前記境界面の位置として求めることを特徴とする。   In another aspect, in the laminate boundary detection device described above, the boundary extraction processing unit, as the boundary extraction processing, is within a predetermined second range with respect to the differential absolute value extracted by the noise removal processing unit. The peaks located in the group are collected as a peak group, and the average position of the position of the maximum peak and the position of the next maximum peak in the collected peak group is obtained as the position of the boundary surface.

測定対象の積層体によっては、境界面に基づいて断面に現れた境界線がうねっている場合がある。このような場合では、ノイズ除去処理部で抽出した微分絶対値において、うねりの程度に応じた所定の第2範囲内で複数のピークが生じてしまう。上記積層体境界検出装置は、ピーク群内における最大ピーク(1番目に大きいピーク)の位置と次最大ピーク(2番目に大きいピーク)の位置との平均位置を前記境界面の位置として求めるので、このような場合でも、最も確からしい位置を前記断面における前記境界面の位置として求めることができる。   Depending on the laminate to be measured, the boundary line appearing in the cross section may be wavy based on the boundary surface. In such a case, in the differential absolute value extracted by the noise removal processing unit, a plurality of peaks occur within a predetermined second range corresponding to the degree of undulation. The laminate boundary detection apparatus obtains the average position of the position of the maximum peak (first largest peak) and the position of the next maximum peak (second largest peak) in the peak group as the position of the boundary surface. Even in such a case, the most probable position can be obtained as the position of the boundary surface in the cross section.

ここで、上述したように、境界線の不明瞭で現れる複数のピークは、前記境界線の近傍に集中する一方、境界線のうねりで現れる複数のピークは、うねりの程度に因るので、通常、前記所定の第2範囲は、前記所定の範囲(所定の第1範囲)より広い(前記所定の第1範囲は、前記所定の第2範囲より狭い、(前記所定の第2範囲)>(前記所定の第1範囲))。   Here, as described above, a plurality of peaks that appear unclear in the boundary line are concentrated in the vicinity of the boundary line, whereas a plurality of peaks that appear in the boundary line undulation depend on the degree of the undulation. The predetermined second range is wider than the predetermined range (predetermined first range) (the predetermined first range is narrower than the predetermined second range (the predetermined second range)> ( The predetermined first range)).

また、他の一態様では、これら上述の積層体境界検出装置において、前記境界面の位置の個数が予め設定された所定の個数となるまで、前記断面の画像における所定の位置を中心に前記断面の画像を所定の角度ずつ回転させながら、前記輝度プロジェクション処理部に前記輝度プロジェクション処理を行わせ、前記微分絶対値処理部に微分絶対値処理を行わせ、前記ノイズ除去処理部に前記ノイズ除去処理を行わせ、そして、前記境界抽出処理部に前記境界抽出処理を行わせる回転処理部とをさらに備えることを特徴とする。好ましくは、上述の積層体境界検出装置において、前記所定の個数を受け付ける入力部をさらに備える。好ましくは、上述の積層体境界検出装置において、前記所定の個数を受け付ける記憶部をさらに備える。   Further, in another aspect, in the above-described laminate boundary detection device, the cross section centered on a predetermined position in the cross section image until the number of positions of the boundary surface reaches a predetermined number set in advance. , The luminance projection processing unit performs the luminance projection processing, the differential absolute value processing unit performs differential absolute value processing, and the noise removal processing unit performs the noise removal processing. And a rotation processing unit that causes the boundary extraction processing unit to perform the boundary extraction processing. Preferably, the laminated body boundary detection device further includes an input unit that receives the predetermined number. Preferably, the above-described laminated body boundary detection device further includes a storage unit that receives the predetermined number.

断面の画像によっては、境界面に基づいて断面に現れた境界線が、画像の水平方向に一致せずに、前記画像の水平方向に対し斜めになっている場合がある。上記積層体境界検出装置は、前記断面における前記境界面の位置の個数が予め設定された所定の個数となるまで、前記断面の画像における所定の位置(例えば中央位置等)を中心に前記断面の画像を所定の角度ずつ回転させながら、前記断面における前記境界面の位置を求めるので、このような場合でも、前記断面における前記境界面の位置を求めることができる。   Depending on the image of the cross section, the boundary line that appears in the cross section based on the boundary surface may not be coincident with the horizontal direction of the image and is inclined with respect to the horizontal direction of the image. The laminated body boundary detection device is configured to detect the cross section of the cross section around a predetermined position (for example, a center position) in the cross section image until the number of positions of the boundary surface in the cross section reaches a predetermined number. Since the position of the boundary surface in the cross section is obtained while rotating the image by a predetermined angle, the position of the boundary surface in the cross section can be obtained even in such a case.

本発明の他の一態様にかかる積層体境界検出方法は、互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程とを備えることを特徴とする。   The laminate boundary detection method according to another aspect of the present invention is an image acquisition step of acquiring cross-sectional image data including a stacking direction intersecting a boundary surface in a laminate that is a member in which a plurality of different materials are stacked. A luminance projection processing step for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction with respect to the image data acquired in the image acquisition step, and along the stacking direction in the luminance projection processing step. A differential absolute value processing step for obtaining a differential value for the luminance projection obtained in the above, a differential absolute value processing step for obtaining the absolute value of the obtained differential value as a differential absolute value, and the differential absolute value obtained in the differential absolute value processing step, A differential absolute value that is greater than or equal to a predetermined percentage of the maximum value of the value or greater than a predetermined percentage of the maximum value of the differential absolute value Min and absolute value noise removing process step of extracting the noise removal processing based on the extracted differential absolute value in step, characterized in that it comprises a boundary extraction processing step of determining the position of the boundary surface in the cross section.

本発明の他の一態様にかかる積層体境界検出プログラムは、コンピュータに、互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程と、を実行させるためのプログラムである。   A laminate boundary detection program according to another embodiment of the present invention acquires, in a computer, image data of a cross section including a stacking direction intersecting a boundary surface in a laminate that is a member in which a plurality of different materials are stacked. An image acquisition step, a luminance projection processing step for obtaining a luminance projection along the stacking direction in a direction orthogonal to the stacking direction with respect to the image data acquired in the image acquisition step, and the stacking in the brightness projection processing step. A differential value is obtained for the luminance projection obtained along the direction, a differential absolute value processing step for obtaining the absolute value of the obtained differential value as a differential absolute value, and a differential absolute value obtained in the differential absolute value processing step, The differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or the maximum value of the differential absolute value A noise removal processing step for extracting a differential absolute value larger than a predetermined ratio, and a boundary extraction processing step for obtaining the position of the boundary surface in the cross section based on the differential absolute value extracted in the noise removal processing step. It is a program to make it.

このような積層体境界検出方法および積層体境界検出プログラムは、微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程を行うので、ノイズ変動に強く、そして、ノイズ除去処理工程後の微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程を行うので、上述の相関解析の必要が無い。   Such a laminate boundary detection method and a laminate boundary detection program have a differential absolute value that is greater than or equal to a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value that is greater than a predetermined ratio with respect to the maximum value of the differential absolute value. Since the noise removal processing step for extracting is performed, the boundary extraction processing step for obtaining the position of the boundary surface in the cross section is performed based on the absolute value of the differential after the noise removal processing step because of being resistant to noise fluctuations. There is no need for correlation analysis.

本発明の他の一態様にかかる記録媒体は、コンピュータに、互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程と、を実行させるための積層体境界検出プログラムを記録したコンピュータ読み取り可能な記録媒体である。   The recording medium according to another aspect of the present invention is an image acquisition step of acquiring, on a computer, image data of a cross section including a stacking direction intersecting a boundary surface in a stacked body that is a member in which a plurality of different materials are stacked. A luminance projection processing step for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction with respect to the image data acquired in the image acquisition step, and along the stacking direction in the luminance projection processing step. A differential absolute value processing step for obtaining a differential value for the luminance projection obtained in the above, a differential absolute value processing step for obtaining the absolute value of the obtained differential value as a differential absolute value, and the differential absolute value obtained in the differential absolute value processing step, The differential absolute value that is equal to or greater than a predetermined ratio to the maximum value of the value or a predetermined ratio with respect to the maximum value of the differential absolute value A noise removal processing step for extracting a differential absolute value, and a boundary extraction processing step for obtaining a position of the boundary surface in the cross section based on the differential absolute value extracted in the noise removal processing step. It is a computer-readable recording medium on which a laminate boundary detection program is recorded.

これによれば、ノイズ変動に強く、相関解析の必要の無い、上述の積層体境界検出プログラムを記録したコンピュータ読み取り可能な記録媒体が提供できる。   According to this, it is possible to provide a computer-readable recording medium that records the above-described laminate boundary detection program that is resistant to noise fluctuation and does not require correlation analysis.

本発明にかかる積層体境界検出装置、積層体境界検出方法および積層体境界検出プログラムは、ノイズ変動に強く、相関解析の必要が無い。そして、本発明によれば、ノイズ変動に強く、相関解析の必要の無い、上述の積層体境界検出プログラムを記録したコンピュータ読み取り可能な記録媒体が提供できる。   The laminate boundary detection apparatus, laminate boundary detection method, and laminate boundary detection program according to the present invention are resistant to noise fluctuation and do not require correlation analysis. According to the present invention, it is possible to provide a computer-readable recording medium that records the above-described laminate boundary detection program that is resistant to noise fluctuation and does not require correlation analysis.

第1ないし第3実施形態における積層体境界検出装置の構成を示す図である。It is a figure which shows the structure of the laminated body boundary detection apparatus in 1st thru | or 3rd embodiment. 第1および第2実施形態における積層体境界検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the laminated body boundary detection apparatus in 1st and 2nd embodiment. 第1実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。In the laminated body boundary detection apparatus of 1st Embodiment, it is a figure for demonstrating an example of a boundary detection. 第1実施形態の積層体境界検出装置において、境界検出の他の一例を説明するための図である。It is a figure for demonstrating another example of a boundary detection in the laminated body boundary detection apparatus of 1st Embodiment. 第2実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。It is a figure for demonstrating an example of a boundary detection in the laminated body boundary detection apparatus of 2nd Embodiment. 第3実施形態における積層体境界検出装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the laminated body boundary detection apparatus in 3rd Embodiment. 第3実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。It is a figure for demonstrating an example of a boundary detection in the laminated body boundary detection apparatus of 3rd Embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably. In the present specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.

実施形態における積層体境界検出装置は、互いに異なる複数の材料を積層した部材である積層体の断面における境界面の位置、すなわち、前記境界面に基づいて前記積層体の断面に現れた境界線の位置を検出する装置である。前記積層体を構成する前記材料は、任意であり、例えば金属(合金を含む)や樹脂等である。前記積層体は、例えば、複数の種類の金属(合金を含む)を積層した部材や、複数の種類の樹脂を積層した部材や、金属に樹脂を積層した複合部材(コンポジット部材)等である。このような積層体境界検出装置は、例えば、積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得部と、前記画像取得部で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理を行う輝度プロジェクション処理部と、前記輝度プロジェクション処理部で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理を行う微分絶対値処理部と、前記微分絶対値処理部で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うノイズ除去処理部と、前記ノイズ除去処理部で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行う境界抽出処理部とを備える。以下、このような積層体境界検出装置について、第1ないし第3実施形態によって、より具体的に説明する。   The laminated body boundary detection device according to the embodiment is the position of the boundary surface in the cross section of the laminated body that is a member in which a plurality of different materials are laminated, that is, the boundary line that appears in the cross section of the laminated body based on the boundary surface. It is a device that detects the position. The material constituting the laminate is arbitrary, and is, for example, a metal (including an alloy) or a resin. The laminate is, for example, a member obtained by laminating a plurality of types of metals (including alloys), a member obtained by laminating a plurality of types of resins, a composite member (composite member) obtained by laminating a resin on a metal, or the like. Such a laminate boundary detection device, for example, in the laminate, an image acquisition unit that acquires image data of a cross section including a stacking direction intersecting the boundary surface, and the image data acquired by the image acquisition unit, A luminance projection processing unit for performing a luminance projection process for obtaining a luminance projection in the orthogonal direction perpendicular to the stacking direction along the stacking direction; and a differential value for the luminance projection obtained in the stacking direction by the luminance projection processing unit. A differential absolute value processing unit for performing differential absolute value processing to obtain an absolute value of the obtained differential value as a differential absolute value, and a maximum value of the differential absolute value from the differential absolute value obtained by the differential absolute value processing unit. A differential absolute value that is greater than or equal to a predetermined ratio with respect to or a differential absolute value greater than a predetermined ratio with respect to a maximum value of the differential absolute value A noise removal processing unit that performs noise removal processing to be output; and a boundary extraction processing unit that performs boundary extraction processing for obtaining the position of the boundary surface in the cross section based on the differential absolute value extracted by the noise removal processing unit. . Hereinafter, such a laminated body boundary detection apparatus will be described more specifically with reference to the first to third embodiments.

(第1実施形態)
図1は、第1ないし第3実施形態における積層体境界検出装置の構成を示す図である。図1において、第1ないし第3実施形態における積層体境界検出装置Ma、Mb、Mcに共通な構成は、添え字の無い符号によって指し示されており、第1実施形態における積層体境界検出装置Maに関する構成は、添え字aを持つ符号によって指し示されており、第2実施形態における積層体境界検出装置Mbに関する構成は、添え字bを持つ符号によって指し示されており、そして、第3実施形態における積層体境界検出装置Mcに関する構成は、添え字cを持つ符号によって指し示されている。
(First embodiment)
FIG. 1 is a diagram illustrating a configuration of a stacked body boundary detection device according to the first to third embodiments. In FIG. 1, configurations common to the stacked body boundary detection devices Ma, Mb, and Mc in the first to third embodiments are indicated by reference numerals without subscripts, and the stacked body boundary detection device in the first embodiment. The configuration relating to Ma is indicated by a symbol having a subscript a, the configuration relating to the stacked body boundary detection device Mb in the second embodiment is indicated by a symbol having a subscript b, and the third The configuration related to the stack boundary detection device Mc in the embodiment is indicated by a symbol having a subscript c.

図1において、第1実施形態における積層体境界検出装置Maは、例えば、画像取得部11と、制御処理部12aと、記憶部13と、入力部14と、出力部15とを備える。   In FIG. 1, the laminated body boundary detection apparatus Ma in 1st Embodiment is provided with the image acquisition part 11, the control process part 12a, the memory | storage part 13, the input part 14, and the output part 15, for example.

画像取得部11は、制御処理部12aに接続され、制御処理部12aの制御に従って積層体における、積層方向を含む断面の画像データを取得し、この取得した画像データを制御処理部12aへ出力する装置である。   The image acquisition unit 11 is connected to the control processing unit 12a, acquires cross-sectional image data including the stacking direction in the stacked body according to the control of the control processing unit 12a, and outputs the acquired image data to the control processing unit 12a. Device.

このような画像取得部11は、例えば、前記積層体の断面を撮像するカメラを備えて構成される。前記カメラは、例えば、撮像対象の光学像を所定の結像面上に結像する結像光学系、前記結像面に受光面を一致させて配置され、前記撮像対象の光学像を電気的な信号に変換する例えばCCD(Charged Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型のエリアイメージセンサ、および、エリアイメージセンサの出力を画像処理することで前記撮像対象の画像を表すデータである画像データを生成する画像処理部等を備えて構成される。前記撮像対象は、本実施形態では、積層体を積層方向に沿って切断することによって得られた前記積層体の断面である。前記積層体の断面の画像データは、例えば、前記積層体の断面を拡大して観察できる顕微鏡に取り付けられた前記カメラによって取得される。   Such an image acquisition unit 11 includes, for example, a camera that captures a cross section of the stacked body. The camera is, for example, an imaging optical system that forms an optical image of an imaging target on a predetermined imaging surface, and a light receiving surface that is aligned with the imaging surface, and the optical image of the imaging target is electrically For example, a CCD (Charged Coupled Device) type or a CMOS (Complementary Metal Oxide Semiconductor) type area image sensor that converts to an image signal and data representing the image to be imaged by processing the output of the area image sensor. An image processing unit for generating image data is provided. In the present embodiment, the imaging target is a cross section of the stacked body obtained by cutting the stacked body along the stacking direction. The cross-sectional image data of the laminate is acquired by, for example, the camera attached to a microscope that can observe the enlarged cross-section of the laminate.

また例えば、画像取得部11は、前記積層体の断面の画像データを管理するサーバ装置と通信網(ネットワーク)を介して通信する通信インターフェース部(通信IF部)である。前記通信IF部は、制御処理部12aから入力された転送すべきデータを収容した通信信号を、前記通信網で用いられる通信プロトコルに従って生成し、この生成した通信信号を前記通信網を介して前記サーバ装置へ送信する。前記通信IF部は、前記通信網を介して前記サーバ装置から通信信号を受信し、この受信した通信信号からデータを取り出し、この取り出したデータを制御処理部12aが処理可能な形式のデータに変換して制御処理部12aへ出力する。通信IF部21は、例えば、IEEE802.11規格等に従った通信カード等を備えて構成される。   Further, for example, the image acquisition unit 11 is a communication interface unit (communication IF unit) that communicates with a server device that manages image data of a cross section of the laminate via a communication network. The communication IF unit generates a communication signal containing data to be transferred input from the control processing unit 12a in accordance with a communication protocol used in the communication network, and generates the generated communication signal via the communication network. Send to server device. The communication IF unit receives a communication signal from the server device via the communication network, extracts data from the received communication signal, and converts the extracted data into data that can be processed by the control processing unit 12a. And output to the control processing unit 12a. The communication IF unit 21 includes, for example, a communication card according to the IEEE 802.11 standard or the like.

また例えば、画像取得部11は、前記積層体の断面の画像データを記録(記憶)する記録媒体との間でデータを交換(入出力)するインターフェース部(IF部)である。前記記録媒体は、例えばUSBメモリであり、前記IF部は、USB(Universal Serial Bus)規格を用いたインターフェース回路等である。また例えば、前記記録媒体は、SDカード(miniSDカード、microSDカード)であって良く、前記IF部は、SD規格を用いたインターフェース回路等である。また例えば、前記記録媒体は、CD−R(Compact Disc Recordable)やDVD−RW(Digital Versatile Disc Read Write)等であって良く、前記IF部は、CDドライブ装置やDVDドライブ装置等である。   For example, the image acquisition unit 11 is an interface unit (IF unit) that exchanges (inputs / outputs) data with a recording medium that records (stores) image data of a cross section of the laminate. The recording medium is, for example, a USB memory, and the IF unit is an interface circuit using a USB (Universal Serial Bus) standard. Further, for example, the recording medium may be an SD card (miniSD card, microSD card), and the IF unit is an interface circuit using the SD standard. For example, the recording medium may be a CD-R (Compact Disc Recordable), a DVD-RW (Digital Versatile Disc Read Write), or the like, and the IF unit is a CD drive device, a DVD drive device, or the like.

なお、画像取得部11は、これらカメラ、通信IF部およびIF部のうちの複数を備えても良い。   The image acquisition unit 11 may include a plurality of these cameras, communication IF units, and IF units.

入力部14は、制御処理部12aに接続され、例えば、境界検出の開始を指示するコマンド等の各種コマンド、および、例えばピーク群として纏めるピークの範囲(所定の第1範囲)や、境界検出対象の積層体における識別子等の、境界を検出する上で必要な各種データを積層体境界検出装置Maに入力する機器であり、例えば、所定の機能を割り付けられた複数の入力スイッチや、キーボードや、マウス等である。出力部15は、制御処理部12aに接続され、制御処理部12aの制御に従って、入力部14から入力されたコマンドやデータ、画像取得部11で取得した積層体の断面の画像、および、当該積層体境界検出装置Maによって検出された積層体の断面における境界面の位置(境界線の位置)等を出力する機器であり、例えばCRTディスプレイ、LCD(液晶ディスプレイ)および有機ELディスプレイ等の表示装置やプリンタ等の印刷装置等である。   The input unit 14 is connected to the control processing unit 12a and, for example, various commands such as a command for instructing start of boundary detection, and a peak range (predetermined first range) to be collected as a peak group, for example, and a boundary detection target Is a device for inputting various data necessary for detecting a boundary, such as an identifier in the stacked body, to the stacked body boundary detecting device Ma, for example, a plurality of input switches assigned with predetermined functions, a keyboard, Such as a mouse. The output unit 15 is connected to the control processing unit 12a. Under the control of the control processing unit 12a, the command and data input from the input unit 14, the cross-sectional image of the stacked body acquired by the image acquiring unit 11, and the stacking It is a device that outputs the position of the boundary surface (position of the boundary line) in the cross section of the laminate detected by the body boundary detection device Ma, such as a display device such as a CRT display, LCD (liquid crystal display), and organic EL display, A printing device such as a printer.

なお、入力部14および出力部15からタッチパネルが構成されてもよい。このタッチパネルを構成する場合において、入力部14は、例えば抵抗膜方式や静電容量方式等の操作位置を検出して入力する位置入力装置であり、出力部15は、表示装置である。このタッチパネルでは、表示装置の表示面上に位置入力装置が設けられ、表示装置に入力可能な1または複数の入力内容の候補が表示され、ユーザが、入力したい入力内容を表示した表示位置を触れると、位置入力装置によってその位置が検出され、検出された位置に表示された表示内容がユーザの操作入力内容として積層体境界検出装置Maに入力される。このようなタッチパネルでは、ユーザは、入力操作を直感的に理解し易いので、ユーザにとって取り扱い易い積層体境界検出装置Maが提供される。   A touch panel may be configured from the input unit 14 and the output unit 15. In the case of configuring this touch panel, the input unit 14 is a position input device that detects and inputs an operation position such as a resistive film method or a capacitance method, and the output unit 15 is a display device. In this touch panel, a position input device is provided on the display surface of the display device, one or more input content candidates that can be input to the display device are displayed, and the user touches the display position where the input content to be input is displayed. The position is detected by the position input device, and the display content displayed at the detected position is input to the laminate boundary detection device Ma as the operation input content of the user. In such a touch panel, since the user can easily understand the input operation intuitively, the multilayer boundary detection device Ma that is easy for the user to handle is provided.

記憶部13は、制御処理部12aに接続され、制御処理部12aの制御に従って、各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、当該積層体境界検出装置Maの各部11、13〜15を当該各部の機能に応じて制御する制御プログラムや、画像取得部11で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理を行う輝度プロジェクション処理プログラムや、前記輝度プロジェクション処理プログラムで前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、この求めた微分値の絶対値を微分絶対値として求める微分絶対値処理を行う微分絶対値処理プログラムや、前記微分絶対値処理プログラムで求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うノイズ除去処理プログラムや、前記ノイズ除去処理プログラムで抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行う境界抽出処理プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、例えば、前記ノイズ除去処理プログラムで用いる前記所定の割合や、検出対象の前記識別子等の、積層体の断面における境界面の位置(境界線の位置)を求める上で必要なデータが含まれる。このような記憶部13は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部13は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部12aのワーキングメモリとなるRAM(Random Access Memory)等を含む。   The storage unit 13 is a circuit that is connected to the control processing unit 12a and stores various predetermined programs and various predetermined data in accordance with the control of the control processing unit 12a. The various predetermined programs include, for example, control programs for controlling the units 11 and 13 to 15 of the laminate boundary detection device Ma according to functions of the units, and image data acquired by the image acquisition unit 11. A luminance projection processing program for performing a luminance projection process for obtaining a luminance projection in the orthogonal direction perpendicular to the stacking direction along the stacking direction, and a derivative of the brightness projection obtained along the stacking direction by the luminance projection processing program. A differential absolute value processing program for performing differential absolute value processing for obtaining a value and obtaining the absolute value of the obtained differential value as a differential absolute value, or from the differential absolute value obtained by the differential absolute value processing program, The differential absolute value that is greater than or equal to a predetermined ratio to the maximum value or the maximum of the differential absolute value A noise removal processing program for performing noise removal processing for extracting a differential absolute value larger than a predetermined ratio with respect to a value, or a boundary for obtaining the position of the boundary surface in the cross section based on the differential absolute value extracted by the noise removal processing program A control processing program such as a boundary extraction processing program for performing the extraction processing is included. In the various predetermined data, for example, the position of the boundary surface (the position of the boundary line) in the cross section of the laminate, such as the predetermined ratio used in the noise removal processing program and the identifier to be detected, is obtained. The necessary data is included. Such a storage unit 13 includes, for example, a ROM (Read Only Memory) that is a nonvolatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) that is a rewritable nonvolatile storage element, and the like. The storage unit 13 includes a RAM (Random Access Memory) that serves as a working memory of a so-called control processing unit 12a that stores data generated during execution of the predetermined program.

制御処理部12aは、当該積層体境界検出装置Maの各部11、13〜15を当該各部の機能に応じて制御し、積層体の断面における境界面の位置(境界線の位置)を求めるための回路である。制御処理部12aは、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部12aは、制御処理プログラムの実行によって、制御部121、輝度プロジェクション処理部122、微分絶対値処理部123、ノイズ除去処理部124および境界抽出処理部125aを機能的に備える。   The control processing unit 12a controls each unit 11, 13 to 15 of the laminate boundary detection device Ma according to the function of each unit, and obtains the position of the boundary surface (position of the boundary line) in the cross section of the laminate. Circuit. The control processing unit 12a includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. The control processing unit 12a functionally includes a control unit 121, a luminance projection processing unit 122, a differential absolute value processing unit 123, a noise removal processing unit 124, and a boundary extraction processing unit 125a by executing the control processing program.

制御部121は、当該積層体境界検出装置Maの各部11、13〜15を当該各部の機能に応じて制御するものである。   The control part 121 controls each part 11, 13-15 of the said laminated body boundary detection apparatus Ma according to the function of the said each part.

輝度プロジェクション処理部122は、前記輝度プロジェクション処理を行うものである。微分絶対値処理部123は、前記微分絶対値処理を行うものである。ノイズ除去処理部124は、前記ノイズ除去処理を行うものである。   The luminance projection processing unit 122 performs the luminance projection processing. The differential absolute value processing unit 123 performs the differential absolute value processing. The noise removal processing unit 124 performs the noise removal processing.

境界抽出処理部125aは、前記境界抽出処理を行うものである。より具体的には、第1実施形態における境界抽出処理部125aは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内におけるピークの重心位置を前記境界面の位置(前記境界線の位置)として求める。   The boundary extraction processing unit 125a performs the boundary extraction processing. More specifically, the boundary extraction processing unit 125a in the first embodiment peaks a peak located within a predetermined first range with respect to the differential absolute value extracted by the noise removal processing unit 124 as the boundary extraction processing. As a group, the position of the center of gravity of the peak in the group of collected peaks is obtained as the position of the boundary surface (position of the boundary line).

なお、画像取得部11がカメラである場合に、積層体境界検出装置Maは、図1に破線で示すように、必要に応じて、外部機器と通信網を介して通信する通信IF部16、および、外部機器との間でデータを交換(入出力)するIF部17等をさらに備えても良い。   Note that when the image acquisition unit 11 is a camera, the stacked body boundary detection device Ma, as indicated by a broken line in FIG. Further, an IF unit 17 or the like for exchanging (input / output) data with an external device may be further provided.

このような積層体境界検出装置Maは、例えば、前記画像取得部11を備えた、デスクトップ型やノート型等のコンピュータによって構成可能である。   Such a laminated body boundary detection device Ma can be configured by, for example, a desktop or notebook computer including the image acquisition unit 11.

次に、第1実施形態における積層体境界検出装置の動作について説明する。図2は、第1および第2実施形態における積層体境界検出装置の動作を示すフローチャートである。図2において、第1および第2実施形態における積層体境界検出装置Ma、Mbに共通な動作は、添え字の無い符号によって指し示されており、第1実施形態における積層体境界検出装置Maに関する動作は、添え字aを持つ符号によって指し示されており、そして、第2実施形態における積層体境界検出装置Mbに関する動作は、添え字bを持つ符号によって指し示されている。図3は、第1実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。図3Aは、模式的に図示した、積層体の断面の画像を示し、図3Bは、積層体の積層方向yに沿って求められた直交方向xの輝度プロジェクションを示し、そして、図3Cは、積層方向yに沿って求められた直交方向xの輝度プロジェクション(図3B)、に対して求められた微分値の絶対値(絶対値微分値)を示す。図4は、第1実施形態の積層体境界検出装置において、境界検出の他の一例を説明するための図である。図4Aは、積層体の断面の画像を示し、そして、図4Bは、積層方向yに沿って求められた直交方向xの輝度プロジェクション(不図示)、に対して求められた微分値の絶対値(絶対値微分値)を示す。なお、図3および図4に示す例では、前記積層方向yは、積層体の断面の画像における垂直方向yであり、積層体の断面の画像における前記直交方向xは、水平方向xである。後述の図5および図7に示す例も同様である。   Next, the operation of the stacked body boundary detection apparatus in the first embodiment will be described. FIG. 2 is a flowchart showing the operation of the stacked body boundary detection device according to the first and second embodiments. In FIG. 2, operations common to the multilayer boundary detection devices Ma and Mb in the first and second embodiments are indicated by reference numerals without subscripts, and relate to the multilayer boundary detection device Ma in the first embodiment. The operation is indicated by a symbol having a subscript a, and the operation related to the stacked body boundary detection device Mb in the second embodiment is indicated by a symbol having a subscript b. FIG. 3 is a diagram for explaining an example of boundary detection in the stacked body boundary detection device according to the first embodiment. FIG. 3A schematically illustrates a cross-sectional image of the stack, FIG. 3B illustrates the luminance projection in the orthogonal direction x determined along the stack direction y of the stack, and FIG. The absolute value of the differential value (absolute value differential value) obtained with respect to the luminance projection in the orthogonal direction x obtained along the stacking direction y (FIG. 3B) is shown. FIG. 4 is a diagram for explaining another example of the boundary detection in the stacked body boundary detection apparatus of the first embodiment. FIG. 4A shows an image of a cross section of the laminate, and FIG. 4B shows the absolute value of the differential value obtained for the luminance projection (not shown) in the orthogonal direction x obtained along the lamination direction y. (Absolute differential value) is shown. 3 and 4, the stacking direction y is the vertical direction y in the cross-sectional image of the stacked body, and the orthogonal direction x in the cross-sectional image of the stacked body is the horizontal direction x. The same applies to the examples shown in FIGS.

このような構成の積層体境界検出装置Maにおいて、まず、図略の電源スイッチがオンされると、積層体境界検出装置Maが起動され、制御処理部12aによって必要な各部の初期化が行われ、制御処理部12aには、制御処理プログラムが実行されることによって、機能的に、制御部121、輝度プロジェクション処理部122、微分絶対値処理部123、ノイズ除去処理部124および境界抽出処理部125aが構成される。   In the laminated body boundary detection device Ma having such a configuration, first, when a power switch (not shown) is turned on, the laminated body boundary detection device Ma is activated, and necessary parts are initialized by the control processing unit 12a. The control processing unit 12a is functionally controlled by executing a control processing program, so that the control unit 121, the luminance projection processing unit 122, the differential absolute value processing unit 123, the noise removal processing unit 124, and the boundary extraction processing unit 125a are functionally performed. Is configured.

測定開始が入力部14から指示されると、図2において、積層体境界検出装置Maは、制御処理部12aの制御部121の制御によって、画像取得部11で積層体の断面の画像データを取得し、この取得した前記積層体の断面の画像データを記憶部13に記憶し、出力部15に出力する(S11)。出力部15には、前記積層体の断面の画像が出力(例えば表示)される。   When the start of measurement is instructed from the input unit 14, in FIG. 2, the laminate boundary detection device Ma acquires the image data of the cross section of the laminate by the image acquisition unit 11 under the control of the control unit 121 of the control processing unit 12 a. Then, the acquired image data of the cross section of the laminate is stored in the storage unit 13 and output to the output unit 15 (S11). The output unit 15 outputs (for example, displays) an image of a cross section of the laminate.

より具体的には、例えば画像取得部11が前記カメラを備えて構成される場合では、積層体が顕微鏡にその断面を観察できるようにセットされ、制御部121は、前記顕微鏡に取り付けられた前記カメラによって、前記積層体の断面を撮像して前記積層体の断面の画像データを生成し、この生成した前記積層体の断面の画像データを前記カメラから取得する。   More specifically, for example, in the case where the image acquisition unit 11 is configured to include the camera, the stack is set so that the cross section can be observed on a microscope, and the control unit 121 is attached to the microscope. The cross section of the laminate is imaged by a camera to generate image data of the cross section of the laminate, and the generated image data of the cross section of the laminate is acquired from the camera.

また例えば画像取得部11が前記通信IF部を備えて構成される場合では、制御部121は、前記通信IF部によって、積層体の断面の画像データを要求するための通信信号をサーバ装置へ送信し、サーバ装置からその返信の通信信号を受信し、この受信した前記通信信号に収容された前記積層体の断面の画像データを前記通信IF部から取得する。前記サーバ装置には、積層体の断面の画像データが複数、予め記憶(記録)され、管理されているものとする。   For example, when the image acquisition unit 11 includes the communication IF unit, the control unit 121 uses the communication IF unit to transmit a communication signal for requesting image data of a cross section of the laminate to the server device. And the communication signal of the reply is received from a server apparatus, The image data of the cross section of the said laminated body accommodated in this received said communication signal is acquired from the said communication IF part. In the server device, a plurality of cross-sectional image data of the laminate is stored (recorded) and managed in advance.

また例えば画像取得部11が前記IF部を備えて構成される場合では、制御部121は、前記IF部によって、記録媒体との間でデータ交換し、前記積層体の断面の画像データを前記記録媒体から前記IF部を介して取得する。前記記録媒体には、積層体の断面の画像データが複数、予め記録(記憶)されているものとする。   For example, when the image acquisition unit 11 is configured to include the IF unit, the control unit 121 exchanges data with a recording medium by the IF unit, and records the image data of the cross section of the stacked body. Obtained from the medium via the IF unit. It is assumed that a plurality of image data of the cross section of the laminated body is recorded (stored) in advance on the recording medium.

次に、積層体境界検出装置Maは、制御処理部12aの輝度プロジェクション処理部122によって、処理S11で画像取得部11によって取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理を実行し、この前記積層方向に沿って求めた前記直交方向の輝度プロジェクションを記憶部13に記憶し、出力部15に出力する(S12)。出力部15には、前記積層方向に沿って求めた前記直交方向の各輝度プロジェクションが出力(例えば表示)される。例えば、処理S11で出力部15に表示した前記積層体の断面の画像に並べて、前記積層方向に沿って求めた前記直交方向の各輝度プロジェクションが表示される。より具体的には、輝度プロジェクション処理部122は、前記画像データに対し、前記積層方向yに直交する前記直交方向xに沿って1列に並ぶ各画素G(x、y)の各輝度値Y(x、y)の総和ΣY(x、y)を求め、この求めた総和ΣY(x、y)を、前記直交方向xに沿って並ぶ各画素G(x、y)の総画素数Snで除算することによって、前記直交方向xに沿って並ぶ各画素G(x、y)の輝度平均値Yaveを前記輝度プロジェクションYp(y)として求める(Yp=Yave=(ΣY(x、y))/Sn)。ここで、上述の場合ではΣは、xについてY(x、Y)の総和を求める演算子である。そして、輝度プロジェクション処理部122は、前記画像データに対し、このような直交方向xの輝度プロジェクションYp(y)を前記積層方向yに沿ってそれぞれ求める。すなわち、輝度プロジェクション処理部122は、前記画像データに対し、垂直方向yに沿って(列に沿って)、水平方向xに沿う各行ごとに水平方向xの各輝度プロジェクションYp(y)をそれぞれ求める。   Next, the laminate boundary detection device Ma performs brightness projection in the orthogonal direction orthogonal to the stacking direction on the image data acquired by the image acquisition unit 11 in step S11 by the brightness projection processing unit 122 of the control processing unit 12a. The luminance projection processing obtained along the stacking direction is executed, the luminance projection in the orthogonal direction obtained along the stacking direction is stored in the storage unit 13 and output to the output unit 15 (S12). The output unit 15 outputs (for example, displays) each luminance projection in the orthogonal direction obtained along the stacking direction. For example, the luminance projections in the orthogonal direction obtained along the stacking direction are displayed side by side in the image of the cross section of the stack displayed on the output unit 15 in step S11. More specifically, the luminance projection processing unit 122 applies the luminance value Y of each pixel G (x, y) arranged in a line along the orthogonal direction x orthogonal to the stacking direction y to the image data. The sum ΣY (x, y) of (x, y) is obtained, and the obtained sum ΣY (x, y) is calculated by the total number Sn of the pixels G (x, y) arranged along the orthogonal direction x. By dividing, the luminance average value Yave of the pixels G (x, y) arranged along the orthogonal direction x is obtained as the luminance projection Yp (y) (Yp = Yave = (ΣY (x, y)) / Sn). Here, in the above-described case, Σ is an operator for obtaining the sum of Y (x, Y) for x. Then, the brightness projection processing unit 122 obtains the brightness projection Yp (y) in the orthogonal direction x along the stacking direction y for the image data. That is, the luminance projection processing unit 122 obtains each luminance projection Yp (y) in the horizontal direction x for each row along the horizontal direction x along the vertical direction y (along the column) with respect to the image data. .

次に、積層体境界検出装置Maは、制御処理部12aの微分絶対値処理部123によって、処理S12で輝度プロジェクション処理部122によって前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理を実行し、この求めた微分絶対値を記憶部13に記憶する(S13)。より具体的には、微分絶対値処理部123は、処理S12で求めた前記積層方向yに沿って1列に並ぶ各輝度プロジェクションYp(y)に対し、互いに隣接する輝度プロジェクションYp(y)間の差分値Sv(y)を前記微分値Dv(y)として求める(Dv(y)=Sv(y)=Yp(y)−Yp(y−1))。そして、微分絶対値処理部123は、この求めた前記微分値Dv(y)の絶対値|Dv(y)|を前記微分絶対値DA(y)として求める。   Next, the laminated body boundary detection device Ma obtains a differential value for the luminance projection obtained along the lamination direction by the luminance projection processing unit 122 in Step S12 by the differential absolute value processing unit 123 of the control processing unit 12a, Differential absolute value processing is performed to obtain the absolute value of the obtained differential value as a differential absolute value, and the obtained differential absolute value is stored in the storage unit 13 (S13). More specifically, the differential absolute value processing unit 123 calculates the luminance projections Yp (y) adjacent to each other for each luminance projection Yp (y) arranged in a line along the stacking direction y obtained in step S12. Is obtained as the differential value Dv (y) (Dv (y) = Sv (y) = Yp (y) −Yp (y−1)). Then, the differential absolute value processing unit 123 calculates the absolute value | Dv (y) | of the calculated differential value Dv (y) as the differential absolute value DA (y).

なお、上述では、処理S12で求めた前記積層方向yに沿って1列に並ぶ各輝度プロジェクションYp(y)は、前記積層方向yについて離散値であるので、微分絶対値処理部123は、前記差分値Sv(y)を前記微分値Dv(y)として求めたが、微分絶対値処理部123は、処理S12で求めた前記積層方向yに沿って1列に並ぶ各輝度プロジェクションYp(y)にフィッティングする、前記積層方向yについて連続する連続関数を求め、この求めた連続関数を微分することによって、微分値Dv(y)を求めても良い。   In the above description, the luminance projections Yp (y) arranged in a line along the stacking direction y obtained in the process S12 are discrete values with respect to the stacking direction y. Although the differential value Sv (y) is obtained as the differential value Dv (y), the differential absolute value processing unit 123 performs the luminance projections Yp (y) arranged in a line along the stacking direction y obtained in Step S12. The differential value Dv (y) may be obtained by obtaining a continuous function that is continuous with respect to the stacking direction y and differentiating the obtained continuous function.

次に、積層体境界検出装置Maは、制御処理部12aのノイズ除去処理部124によって、処理S13で微分絶対値処理部123によって求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を実行し、この抽出した微分絶対値を記憶部13に記憶し、出力部15に出力する(S14)。出力部15には、前記抽出した微分絶対値(ノイズ除去処理後の微分絶対値)が出力(例えば表示)される。例えば、処理S11で出力部15に表示した前記積層体の断面の画像、および、処理S12で出力部15に表示した、前記積層方向に沿って求めた前記直交方向の各輝度プロジェクションに並べて前記ノイズ除去処理後の微分絶対値が表示される。前記所定の割合は、除去すべきノイズの大きさに応じて適宜に設定され、例えば、複数のサンプルから、2割、2割5分、3割、3割5分および4割等に設定される。本実施形態では、一例として、前記所定の割合は、3割に設定された。したがって、ノイズ除去処理部124は、前記微分絶対値DA(y)の最大値DAmaxに対する3割以上である微分絶対値DA(y)を抽出する((抽出される微分絶対値DA(y))≧(0.3×DAmax))。これによって最大値DAmaxに対する3割未満である微分絶対値DA(y)がノイズとして除去される。なお、最大値DAmaxに対する3割未満である微分絶対値DA(y)は、3割未満の、予め設定された定数m(0を含む)に置き換えられても良い((最大値DAmaxに対する3割未満である微分絶対値DA(y))←m)。あるいは、ノイズ除去処理部124は、前記微分絶対値DA(y)の最大値DAmaxに対する3割より大きな微分絶対値DA(y)を抽出する((抽出される微分絶対値DA(y))>(0.3×DAmax))。これによって最大値DAmaxに対する3割以下である微分絶対値DA(y)がノイズとして除去される。なお、上述と略同様に、最大値DAmaxに対する3割以下である微分絶対値DA(y)は、3割以下の、予め設定された定数m(0を含む)に置き換えられても良い((最大値DAmaxに対する3割以下である微分絶対値DA(y))←m)。   Next, the laminated body boundary detection device Ma has a predetermined absolute value for the maximum value of the differential absolute value from the differential absolute value obtained by the differential absolute value processing unit 123 in step S13 by the noise removal processing unit 124 of the control processing unit 12a. A noise removal process for extracting a differential absolute value that is greater than or equal to a ratio or a differential absolute value that is greater than a predetermined ratio with respect to a maximum value of the differential absolute value is executed, and the extracted differential absolute value is stored in the storage unit 13 and output 15 (S14). The extracted differential absolute value (differential absolute value after noise removal processing) is output (for example, displayed) to the output unit 15. For example, the image of the cross section of the stacked body displayed on the output unit 15 in the process S11 and the noise displayed side by side on each luminance projection in the orthogonal direction obtained along the stacking direction displayed on the output unit 15 in the process S12. The differential absolute value after the removal process is displayed. The predetermined ratio is appropriately set according to the magnitude of noise to be removed. For example, it is set to 20%, 20%, 30%, 30%, 40%, etc. from a plurality of samples. The In the present embodiment, as an example, the predetermined ratio is set to 30%. Therefore, the noise removal processing unit 124 extracts a differential absolute value DA (y) that is 30% or more of the maximum value DAmax of the differential absolute value DA (y) ((extracted differential absolute value DA (y)). ≧ (0.3 × DAmax)). As a result, the differential absolute value DA (y), which is less than 30% of the maximum value DAmax, is removed as noise. The differential absolute value DA (y), which is less than 30% of the maximum value DAmax, may be replaced by a preset constant m (including 0) of less than 30% ((30% of the maximum value DAmax The differential absolute value DA (y)) ← m) which is less than. Alternatively, the noise removal processing unit 124 extracts a differential absolute value DA (y) larger than 30% of the maximum value DAmax of the differential absolute value DA (y) ((differential absolute value DA (y) to be extracted)> (0.3 × DAmax)). As a result, the differential absolute value DA (y) that is 30% or less of the maximum value DAmax is removed as noise. In the same manner as described above, the differential absolute value DA (y) that is 30% or less of the maximum value DAmax may be replaced with a preset constant m (including 0) that is 30% or less (( Differential absolute value DA (y)) ← m) which is 30% or less of maximum value DAmax.

次に、積層体境界検出装置Maは、制御処理部12aの境界抽出処理部125aによって、処理S14でノイズ除去処理部124によって抽出した微分絶対値に基づいて、前記断面における前記境界面の位置(前記境界線の位置)を求める境界抽出処理を実行する(S15a)。より具体的には、第1実施形態では、境界抽出処理部125aは、前記境界抽出処理として、処理S14でノイズ除去処理部124によって抽出した微分絶対値DA(y)に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内におけるピークの重心位置を前記境界面の位置として求める。   Next, the stacked body boundary detection device Ma detects the position of the boundary surface in the cross section (based on the differential absolute value extracted by the noise removal processing unit 124 in step S14 by the boundary extraction processing unit 125a of the control processing unit 12a). A boundary extraction process for obtaining the position of the boundary line is executed (S15a). More specifically, in the first embodiment, the boundary extraction processing unit 125a performs a predetermined first as to the differential absolute value DA (y) extracted by the noise removal processing unit 124 in step S14 as the boundary extraction processing. The peaks located within the range are grouped as a peak group, and the barycentric position of the peak in the grouped peak group is obtained as the position of the boundary surface.

例えば、ユーザは、処理S14の処理後の微分絶対値DA(y)が出力部15に表示されると、この表示された処理S14の処理後の微分絶対値DA(y)を参照し、入力部14から前記所定の第1範囲を入力する。例えば入力部14がマウスである場合、前記ピーク群を囲む矩形(前記所定の第1範囲の一例)における対角の2頂点が前記マウスによって指定され入力される。入力部14から前記所定の第1範囲が入力されると、境界抽出処理部125aは、入力部14から入力されて受け付けた前記所定の第1範囲内からピークを抽出し、この抽出されたピークの重心位置を前記境界面の位置として求める。すなわち、境界抽出処理部125aは、この抽出されたピークが複数である場合、各ピークの各大きさを各重みとした各ピークの位置の加重平均を前記ピークの重心位置として求める。   For example, when the differential absolute value DA (y) after the process S14 is displayed on the output unit 15, the user refers to the displayed differential absolute value DA (y) after the process S14 and inputs The predetermined first range is input from the unit 14. For example, when the input unit 14 is a mouse, two diagonal vertices in a rectangle (an example of the predetermined first range) surrounding the peak group are designated and input by the mouse. When the predetermined first range is input from the input unit 14, the boundary extraction processing unit 125a extracts a peak from the predetermined first range input and received from the input unit 14, and the extracted peak Is obtained as the position of the boundary surface. That is, when there are a plurality of extracted peaks, the boundary extraction processing unit 125a obtains the weighted average of the positions of the peaks with the magnitudes of the peaks as the weights as the centroid positions of the peaks.

また例えば、前記所定の第1範囲は、予め記憶部13に記憶され、境界抽出処理部125aは、記憶部13に予め記憶された前記所定の第1範囲内からピークを抽出し、この抽出されたピークの重心位置を前記境界面の位置として求める。製品の抜き取り検査に、積層体境界検出装置Maが用いられる場合では、抜き取り検査の対象の製品が予め決まっているので、積層体の断面の画像における前記境界面の位置(前記境界線の位置)は、略規定されるから、前記所定の第1範囲は、予め設定でき、予め記憶部13に記憶できる。前記所定の第1範囲は、例えば、複数のサンプルから、積層体の断面の画像における積層方向の長さの1/100程度に設定される。   Further, for example, the predetermined first range is stored in the storage unit 13 in advance, and the boundary extraction processing unit 125a extracts a peak from the predetermined first range stored in the storage unit 13 in advance. The center of gravity of the peak is obtained as the position of the boundary surface. In the case where the laminate boundary detection device Ma is used for the sampling inspection of the product, since the product to be subjected to the sampling inspection is determined in advance, the position of the boundary surface (position of the boundary line) in the cross-sectional image of the stack Is roughly defined, the predetermined first range can be preset and stored in the storage unit 13 in advance. The predetermined first range is set to, for example, about 1/100 of the length in the stacking direction in the cross-sectional image of the stack from a plurality of samples.

次に、積層体境界検出装置Maは、制御処理部12aの制御部121によって、処理S15aで境界抽出処理部125aによって求めた前記境界面の位置(前記境界線の位置)を記憶部13に記憶し、出力部15に出力し(S16)、本処理を終了する。出力部15には、前記境界面の位置(前記境界線の位置)が出力(例えば表示)される。例えば、処理S14で出力部15に表示した、処理S14の処理後の微分絶対値DA(y)の近傍(周辺)に、前記境界面の位置(前記境界線の位置)が表示される。   Next, the stacked body boundary detection device Ma stores in the storage unit 13 the position of the boundary surface (the position of the boundary line) obtained by the boundary extraction processing unit 125a in step S15a by the control unit 121 of the control processing unit 12a. Then, the data is output to the output unit 15 (S16), and this process ends. The output unit 15 outputs (for example, displays) the position of the boundary surface (the position of the boundary line). For example, the position of the boundary surface (the position of the boundary line) is displayed in the vicinity (periphery) of the differential absolute value DA (y) after the processing of processing S14 displayed on the output unit 15 in processing S14.

このような各処理S11〜S16によって、積層体の断面における境界面の位置、すなわち、前記境界面に基づいて前記積層体の断面に現れた前記境界線の位置が検出される。   By such processes S11 to S16, the position of the boundary surface in the cross section of the stacked body, that is, the position of the boundary line that appears in the cross section of the stacked body is detected based on the boundary surface.

一例では、例えば、積層体LB1(不図示)における、図3Aに示す断面の画像PLB1が処理S11で取得され、処理S12で輝度プロジェクション処理が実行されると、図3Bに示す、積層方向(垂直方向)yに沿って求めた直交方向(水平方向)xの輝度プロジェクションα1が求められる。前記積層体LB1は、C1部材にB1部材を積層し、さらにB1部材にA1部材を積層した部材であり、この図3Aに示す例では、前記断面の画像PLB1において、各部材の各層の各輝度は、それぞれ、この例では略一様である。このため、図3Bに示す直交方向xの輝度プロジェクションα1は、積層方向(垂直方向)yに沿って比較的滑らかに変化し、B1部材の層で凹むプロファイルになっている。このため、処理S13で微分絶対値処理が実行され、処理S14でノイズ除去処理が実行されると、図3Cに示す微分絶対値β1が求められ、処理S15aで境界抽出処理が実行されると、前記所定の第1範囲内それぞれに、図3Cに示すように単峰(1個)のピークP11および単峰(1個)のピークP12が抽出され、これら各ピークP11、P12の各重心位置、すなわち、これら各ピークP11、P12の各位置が前記境界面の各位置(前記境界線の各位置)BP1(CB)、BP1(BA)として求められる。   In one example, for example, when the cross-sectional image PLB1 illustrated in FIG. 3A in the stacked body LB1 (not illustrated) is acquired in the process S11 and the luminance projection process is performed in the process S12, the stacking direction (vertical) illustrated in FIG. The luminance projection α1 in the orthogonal direction (horizontal direction) x obtained along (direction) y is obtained. The laminate LB1 is a member obtained by laminating the B1 member on the C1 member and further laminating the A1 member on the B1 member. In the example shown in FIG. 3A, in the image PLB1 of the cross section, each brightness of each layer of each member. Are substantially uniform in this example. For this reason, the luminance projection α1 in the orthogonal direction x shown in FIG. 3B changes relatively smoothly along the stacking direction (vertical direction) y, and has a profile that is recessed in the layer of the B1 member. For this reason, when the differential absolute value process is executed in process S13 and the noise removal process is executed in process S14, the differential absolute value β1 shown in FIG. 3C is obtained, and when the boundary extraction process is executed in process S15a, Within each of the predetermined first ranges, as shown in FIG. 3C, a single peak (P1) and a single peak (P12) P12 are extracted, and the barycentric positions of the peaks P11 and P12, That is, the positions of the peaks P11 and P12 are obtained as the positions of the boundary surface (positions of the boundary line) BP1 (CB) and BP1 (BA).

また他の一例では、例えば、図4Aに示す積層体LB2(不図示)における断面の画像PLB2が処理S11で取得され、処理S12で輝度プロジェクション処理が実行されると、積層方向(垂直方向)yに沿って求めた直交方向(水平方向)xの輝度プロジェクションα2(不図示)が求められる。前記積層体LB2は、C2部材にB2部材を積層し、さらにB2部材にA2部材を積層した部材であり、前記断面の画像PLB2において、C2部材の層の輝度は、この図4Aに示す例では、粒径のばらつきに因りばらついている。このため、処理S13で微分絶対値処理が実行されると、図4Bに示す微分絶対値(ノイズ除去処理前の微分絶対値)γが求められる。図4Bに示す微分絶対値γは、C2部材の層に対応する部分で、複数の小さなピークを持つプロファイルになっている。処理S14でノイズ除去処理が実行されると、図4Bに示すように、最大のピークP23に対する3割が閾値Thに設定され、図4Bに示す微分絶対値γから、この閾値Th以上の微分絶対値DA(y)、あるいは、この閾値Thより大きな微分絶対値DA(y)が抽出される。そして、処理S15aで境界抽出処理が実行されると、前記所定の第1範囲AR1内に、図4Bに示すように2個のピークP21、P22が抽出され、これら各ピークP21、P22の重心位置が前記境界面の各位置(前記境界線の各位置)BP2(CB)として求められ、前記所定の第1範囲AR2内に、図4Bに示すように単峰(1個)のピークP23が抽出され、このピークP23の重心位置、すなわち、このピークP23の位置が前記境界面の各位置(前記境界線の各位置)BP2(BA)として求められる。   In another example, for example, when the cross-sectional image PLB2 in the stacked body LB2 (not shown) shown in FIG. 4A is acquired in the process S11 and the luminance projection process is executed in the process S12, the stacking direction (vertical direction) y A luminance projection α2 (not shown) in the orthogonal direction (horizontal direction) x obtained along the line is obtained. The laminated body LB2 is a member obtained by laminating the B2 member on the C2 member and further laminating the A2 member on the B2 member. In the image PLB2 of the cross section, the luminance of the layer of the C2 member is the example shown in FIG. , Which varies due to the variation in particle size. For this reason, when differential absolute value processing is executed in step S13, a differential absolute value (differential absolute value before noise removal processing) γ shown in FIG. 4B is obtained. The differential absolute value γ shown in FIG. 4B has a profile having a plurality of small peaks in the portion corresponding to the layer of the C2 member. When the noise removal process is executed in the process S14, as shown in FIG. 4B, 30% of the maximum peak P23 is set as the threshold Th, and the differential absolute value γ greater than or equal to the threshold Th is obtained from the differential absolute value γ shown in FIG. 4B. A value DA (y) or a differential absolute value DA (y) larger than this threshold Th is extracted. When the boundary extraction process is executed in the process S15a, two peaks P21 and P22 are extracted in the predetermined first range AR1 as shown in FIG. 4B, and the barycentric positions of these peaks P21 and P22 are extracted. Is obtained as each position (each position of the boundary line) BP2 (CB) of the boundary surface, and a single peak (P1) P23 is extracted in the predetermined first range AR2 as shown in FIG. 4B. Then, the barycentric position of the peak P23, that is, the position of the peak P23 is obtained as each position (each position of the boundary line) BP2 (BA) of the boundary surface.

以上説明したように、一般に、材料に応じて輝度(反射率)が異なるため、断面の画像から積層方向yに沿って求められた直交方向xの輝度プロジェクションに対する微分値は、境界面に基づいて前記断面に現れた境界線で大きく変化する。上記積層体境界検出装置Ma、これに実装された積層体境界検出方法および積層体境界検出プログラムは、微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うので、ノイズ変動に強く、そして、ノイズ除去処理後の微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行うので、上述の相関解析の必要が無い。   As described above, since the luminance (reflectance) generally varies depending on the material, the differential value for the luminance projection in the orthogonal direction x obtained from the cross-sectional image along the stacking direction y is based on the boundary surface. It greatly changes at the boundary line appearing in the cross section. The laminated body boundary detection device Ma, the laminated body boundary detection method and the laminated body boundary detection program implemented in the laminated body boundary detection device Ma are a differential absolute value that is a predetermined ratio or more with respect to a maximum value of the differential absolute value, or a maximum value of the differential absolute value. Since the noise removal process is performed to extract a differential absolute value larger than a predetermined ratio with respect to the above, boundary extraction that is resistant to noise fluctuation and obtains the position of the boundary surface in the cross section based on the differential absolute value after the noise removal process Since the processing is performed, there is no need for the above-described correlation analysis.

一例として図4に示すように、測定対象の積層体によっては、境界面に基づいて断面に現れた境界線が不明瞭であるため、ノイズ除去処理で抽出した微分絶対値において、実際の境界面の位置における近傍(周辺)で複数のピークが生じてしまう場合がある。上記積層体境界検出装置Ma、積層体境界検出方法および積層体境界検出プログラムは、ピーク群内におけるピークの重心位置を前記境界面の位置として求めるので、このような場合でも、前記断面における前記境界面の位置をより適切に求めることができる。   As an example, as shown in FIG. 4, depending on the laminate to be measured, the boundary line that appears in the cross section based on the boundary surface is unclear, so in the differential absolute value extracted by the noise removal process, the actual boundary surface In some cases, a plurality of peaks may occur in the vicinity (periphery) at the position. Since the laminate boundary detection device Ma, the laminate boundary detection method, and the laminate boundary detection program obtain the center of gravity of a peak in a peak group as the position of the boundary surface, even in such a case, the boundary in the cross section is obtained. The position of the surface can be obtained more appropriately.

なお、上述の第1実施形態において、境界抽出処理部125aは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内におけるピークの重心位置を前記境界面の位置(前記境界線の位置)として求めたが、これに代え、境界抽出処理部125aは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内における最大ピークの位置を前記境界面の位置(前記境界線の位置)として求めても良い。例えば、図4Bに示す例では、前記所定の第1範囲AR2において、ピークP21およびピークP22の中でピークP22が最大なので、このピークP22の位置が前記境界面の各位置(前記境界線の各位置)BP2(CB)として求められる。このような積層体境界検出装置Ma、積層体境界検出方法および積層体境界検出プログラムは、ピーク群内における最大ピークの位置を前記境界面の位置として求めるので、上述のような場合でも、最も確からしい位置を前記断面における前記境界面の位置として求めることができる。   Note that, in the first embodiment described above, the boundary extraction processing unit 125a determines, as the boundary extraction processing, a peak located within a predetermined first range with respect to the differential absolute value extracted by the noise removal processing unit 124 as a peak group. And the center of gravity position of the peak in the group of collected peaks is obtained as the position of the boundary surface (position of the boundary line). Instead, the boundary extraction processing unit 125a performs noise extraction as the boundary extraction processing. With respect to the differential absolute value extracted by the removal processing unit 124, peaks located within a predetermined first range are grouped as a peak group, and the position of the maximum peak in the grouped peak group is defined as the position of the boundary surface (the boundary line). May be obtained as the position). For example, in the example shown in FIG. 4B, in the predetermined first range AR2, the peak P22 is the largest among the peak P21 and the peak P22, and therefore the position of the peak P22 is the position of the boundary surface (each of the boundary lines). Position) BP2 (CB). Such a laminated body boundary detection device Ma, a laminated body boundary detecting method, and a laminated body boundary detection program obtain the position of the maximum peak in the peak group as the position of the boundary surface. An apparent position can be obtained as the position of the boundary surface in the cross section.

次に、別の実施形態について説明する。
(第2実施形態)
図5は、第2実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。図5Aは、模式的に図示した、積層体の断面の画像を示し、図5Bは、積層体の積層方向yに沿って求められた直交方向xの輝度プロジェクションを示し、そして、図5Cは、積層方向yに沿って求められた直交方向xの輝度プロジェクション(図5B)、に対して求められた微分値の絶対値(絶対値微分値)を示す。
Next, another embodiment will be described.
(Second Embodiment)
FIG. 5 is a diagram for explaining an example of boundary detection in the stacked body boundary detection device of the second embodiment. FIG. 5A schematically illustrates a cross-sectional image of the stack, FIG. 5B illustrates the luminance projection in the orthogonal direction x determined along the stack direction y of the stack, and FIG. The absolute value of the differential value (absolute value differential value) obtained with respect to the luminance projection in the orthogonal direction x obtained along the stacking direction y (FIG. 5B) is shown.

第1実施形態における積層体境界検出装置Maは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内におけるピークの重心位置を前記境界面の位置(前記境界線の位置)として求めたが、第2実施形態における積層体境界検出装置Mbは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第2範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内における最大ピークの位置と次最大ピークの位置との平均位置を前記境界面の位置(前記境界線の位置)として求めるものである。   The laminated body boundary detection device Ma according to the first embodiment collects, as the peak group, peaks located within a predetermined first range with respect to the differential absolute value extracted by the noise removal processing unit 124 as the boundary extraction process. The barycentric position of the peak in the group of collected peaks is obtained as the position of the boundary surface (the position of the boundary line). However, the stacked body boundary detection device Mb in the second embodiment performs noise removal processing as the boundary extraction processing. Peaks located within a predetermined second range are grouped as a peak group with respect to the differential absolute value extracted by the unit 124, and an average position between the position of the maximum peak and the position of the next maximum peak within the grouped peak group is It is obtained as the position of the boundary surface (position of the boundary line).

このような第2実施形態における積層体境界検出装置Mbは、図1に示すように、例えば、画像取得部11と、制御処理部12bと、記憶部13と、入力部14と、出力部15とを備える。これら第2実施形態の積層体境界検出装置Mbにおける画像取得部11、記憶部13、入力部14および出力部15は、それぞれ、第1実施形態の積層体境界検出装置Maにおける画像取得部11、記憶部13、入力部14および出力部15と同様であるので、その説明を省略する。   As shown in FIG. 1, the stacked body boundary detection device Mb in the second embodiment has, for example, an image acquisition unit 11, a control processing unit 12 b, a storage unit 13, an input unit 14, and an output unit 15. With. The image acquisition unit 11, the storage unit 13, the input unit 14, and the output unit 15 in the laminate boundary detection device Mb of the second embodiment are respectively the image acquisition unit 11 in the laminate boundary detection device Ma of the first embodiment, Since it is the same as the memory | storage part 13, the input part 14, and the output part 15, the description is abbreviate | omitted.

制御処理部12bは、当該積層体境界検出装置Mbの各部11、13〜15を当該各部の機能に応じて制御し、積層体の断面における境界面の位置(境界線の位置)を求めるための回路である。制御処理部12bは、制御処理プログラムの実行によって、制御部121、輝度プロジェクション処理部122、微分絶対値処理部123、ノイズ除去処理部124および境界抽出処理部125bを機能的に備える。これら制御処理部12bにおける制御部121、輝度プロジェクション処理部122、微分絶対値処理部123およびノイズ除去処理部124は、それぞれ、第1実施形態の制御処理部12aにおける制御部121、輝度プロジェクション処理部122、微分絶対値処理部123およびノイズ除去処理部124と同様であるので、その説明を省略する。   The control processing unit 12b controls each unit 11, 13 to 15 of the laminate boundary detection device Mb according to the function of each unit, and obtains the position of the boundary surface (position of the boundary line) in the cross section of the laminate. Circuit. The control processing unit 12b functionally includes a control unit 121, a luminance projection processing unit 122, a differential absolute value processing unit 123, a noise removal processing unit 124, and a boundary extraction processing unit 125b by executing the control processing program. The control unit 121, the luminance projection processing unit 122, the differential absolute value processing unit 123, and the noise removal processing unit 124 in the control processing unit 12b are respectively the control unit 121 and the luminance projection processing unit in the control processing unit 12a of the first embodiment. Since it is the same as 122, the differential absolute value processing part 123, and the noise removal processing part 124, the description is abbreviate | omitted.

境界抽出処理部125bは、前記境界抽出処理を行うものである。より具体的には、第2実施形態における境界抽出処理部125bは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第2範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内における最大ピーク(一番目に大きいピーク)の位置と次最大ピーク(2番目に大きいピーク)の位置との平均位置を前記境界面の位置(前記境界線の位置)として求める。   The boundary extraction processing unit 125b performs the boundary extraction processing. More specifically, the boundary extraction processing unit 125b in the second embodiment peaks the peak located within a predetermined second range with respect to the differential absolute value extracted by the noise removal processing unit 124 as the boundary extraction processing. As a group, the average position of the position of the maximum peak (first largest peak) and the position of the next maximum peak (second largest peak) in the group of collected peaks is the position of the boundary surface (of the boundary line). As position).

このような構成の積層体境界検出装置Mbでは、積層体の断面における前記境界面の位置(前記境界線の位置)を求める際に、図2に示すように、処理S11で断面の画像データが取得され、処理S12で輝度プロジェクション処理が実行され、処理S13で微分絶対値処理が実行され、処理S14でノイズ除去処理が実行される。これら第2実施形態の積層体境界検出装置Mbにおける処理S11ないし処理S14の各処理は、それぞれ、第1実施形態の積層体境界検出装置Maにおける処理S11ないし処理S14の各処理と同様であるので、その説明を省略する。   In the laminated body boundary detection device Mb having such a configuration, when obtaining the position of the boundary surface (position of the boundary line) in the cross section of the laminated body, as shown in FIG. The brightness projection process is executed in step S12, the differential absolute value process is executed in process S13, and the noise removal process is executed in process S14. Since the processes S11 to S14 in the multilayer boundary detection device Mb of the second embodiment are the same as the processes S11 to S14 of the multilayer boundary detection device Ma of the first embodiment, respectively. The description is omitted.

処理S14の次に、積層体境界検出装置Mbは、制御処理部12bの境界抽出処理部125bによって、処理S14でノイズ除去処理部124によって抽出した微分絶対値に基づいて、前記断面における前記境界面の位置(前記境界線の位置)を求める境界抽出処理を実行する(S15b)。より具体的には、第2実施形態では、境界抽出処理部125bは、前記境界抽出処理として、処理S14でノイズ除去処理部124によって抽出した微分絶対値DA(y)に対し、所定の第2範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内における最大ピークの位置と次最大ピークの位置との平均位置を前記境界面の位置として求める。   Subsequent to step S14, the multilayer boundary detection device Mb performs the boundary surface in the cross section based on the differential absolute value extracted by the noise removal processing unit 124 in step S14 by the boundary extraction processing unit 125b of the control processing unit 12b. Boundary extraction processing for obtaining the position (position of the boundary line) is executed (S15b). More specifically, in the second embodiment, the boundary extraction processing unit 125b performs a predetermined second value on the differential absolute value DA (y) extracted by the noise removal processing unit 124 in step S14 as the boundary extraction processing. Peaks located within the range are grouped as a peak group, and an average position between the position of the maximum peak and the position of the next maximum peak in the grouped peak group is obtained as the position of the boundary surface.

例えば、ユーザは、処理S14の処理後の微分絶対値DA(y)が出力部15に表示されると、この表示された処理S14の処理後の微分絶対値DA(y)を参照し、入力部14から前記所定の第2範囲を入力する。入力部14から前記所定の第2範囲が入力されると、境界抽出処理部125bは、入力部14から入力されて受け付けた前記所定の第2範囲内からピークを抽出し、この抽出されたピークの中から最大ピークおよび次最大ピークをさらに抽出し、これら抽出した最大ピークの位置と次最大ピークの位置との単純平均位置を前記境界面の位置として求める。   For example, when the differential absolute value DA (y) after the process S14 is displayed on the output unit 15, the user refers to the displayed differential absolute value DA (y) after the process S14 and inputs The predetermined second range is input from the unit 14. When the predetermined second range is input from the input unit 14, the boundary extraction processing unit 125b extracts a peak from the predetermined second range input and received from the input unit 14, and the extracted peak The maximum peak and the next maximum peak are further extracted from the above, and a simple average position between the extracted maximum peak position and the next maximum peak position is obtained as the position of the boundary surface.

また例えば、前記所定の第2範囲は、予め記憶部13に記憶され、境界抽出処理部125bは、記憶部13に予め記憶された前記所定の第2範囲内からピークを抽出し、この抽出されたピークの重心位置を前記境界面の位置として求める。測定対象の積層体によっては、境界面に基づいて断面に現れた境界線がうねっている場合がある。このような場合では、ノイズ除去処理部124で抽出した微分絶対値において、前記うねりの程度に応じた所定の第2範囲内で複数のピークが生じてしまう。第2実施形態における積層体境界検出装置Mbは、このような場合に好適である。上述のように、製品の抜き取り検査に、積層体境界検出装置Mbが用いられる場合では、抜き取り検査の対象の製品が予め決まっているので、前記うねりの程度は、おおよそ想定できるから、前記所定の第2範囲は、予め設定でき、予め記憶部13に記憶できる。前記所定の第2範囲は、例えば、複数のサンプルから、積層体の断面の画像における積層方向の長さの1/10程度に設定される。   Further, for example, the predetermined second range is stored in the storage unit 13 in advance, and the boundary extraction processing unit 125b extracts a peak from the predetermined second range stored in the storage unit 13 in advance. The center of gravity of the peak is obtained as the position of the boundary surface. Depending on the laminate to be measured, the boundary line appearing in the cross section may be wavy based on the boundary surface. In such a case, in the differential absolute value extracted by the noise removal processing unit 124, a plurality of peaks occur within a predetermined second range corresponding to the degree of the swell. The laminated body boundary detection device Mb in the second embodiment is suitable for such a case. As described above, in the case where the stacked body boundary detection device Mb is used for the sampling inspection of the product, since the product to be subjected to the sampling inspection is determined in advance, the degree of the swell can be roughly estimated. The second range can be set in advance and stored in the storage unit 13 in advance. The predetermined second range is set to, for example, about 1/10 of the length in the stacking direction in the cross-sectional image of the stack from a plurality of samples.

ここで、例えば図4に示す例のように、境界線の不明瞭で現れる複数のピークは、前記境界線の近傍に集中する一方、例えば後述の図5に示す例のように、境界線のうねりで現れる複数のピークは、うねりの程度に因るので、通常、前記所定の第2範囲は、前記所定の第1範囲より広い(前記所定の第1範囲は、前記所定の第2範囲より狭い、(前記所定の第2範囲)>(前記所定の第1範囲))。   Here, as in the example shown in FIG. 4, for example, a plurality of peaks that appear indistinct in the boundary line are concentrated in the vicinity of the boundary line, while, for example, as shown in FIG. Since the plurality of peaks appearing in the undulation depend on the degree of undulation, the predetermined second range is usually wider than the predetermined first range (the predetermined first range is larger than the predetermined second range). Narrow, (predetermined second range)> (predetermined first range)).

次に、積層体境界検出装置Mbは、制御処理部12bの制御部121によって、処理S15bで境界抽出処理部125bによって求めた前記境界面の位置(前記境界線の位置)を記憶部13に記憶し、出力部15に出力し(S16)、本処理を終了する。出力部15には、前記境界面の位置(前記境界線の位置)が出力(例えば表示)される。   Next, the stacked body boundary detection device Mb stores in the storage unit 13 the position of the boundary surface (position of the boundary line) obtained by the boundary extraction processing unit 125b in step S15b by the control unit 121 of the control processing unit 12b. Then, the data is output to the output unit 15 (S16), and this process ends. The output unit 15 outputs (for example, displays) the position of the boundary surface (the position of the boundary line).

このような各処理S11〜S16によって、積層体の断面における境界面の位置、すなわち、前記境界面に基づいて前記積層体の断面に現れた前記境界線の位置が検出される。   By such processes S11 to S16, the position of the boundary surface in the cross section of the stacked body, that is, the position of the boundary line that appears in the cross section of the stacked body is detected based on the boundary surface.

一例では、例えば、積層体LB3(不図示)における、図5Aに示す断面の画像PLB3が処理S11で取得され、処理S12で輝度プロジェクション処理が実行されると、図5Bに示す、積層方向(垂直方向)yに沿って求めた直交方向(水平方向)xの輝度プロジェクションα3が求められる。前記積層体LB3は、C3部材にB3部材を積層し、さらにB3部材にA3部材を積層した部材であり、この図5Aに示す例では、前記断面の画像PLB3において、例えば製造工程における処理の不調等に因り、境界面に基づいて積層体LB3の断面に現れた境界線BL3(CB)、BL3(BA)は、それぞれ、直線ではなく曲線であり、さらに、変曲点を持ちうねっている。このため、図5Bに示す直交方向xの輝度プロジェクションα3は、積層方向(垂直方向)yに沿って階段状に変化し、B3部材の層の周辺で多段に凹むプロファイルになっている。このため、処理S13で微分絶対値処理が実行され、処理S14でノイズ除去処理が実行されると、図5Cに示す微分絶対値β3が求められ、処理S15bで境界抽出処理が実行されると、前記所定の第2範囲ER1(CB)内に、図5Cに示すように2個のピークP31、P32が抽出され、これらピークP31、P32の中から最大ピークおよび次最大ピーク、すなわち、この例ではピークP31およびピークP32がさらに抽出され、これら抽出されたピークP31の位置とピークP32の位置との単純平均位置が前記境界面の位置(前記境界線の位置)BP3(CB)として求められ、前記所定の第2範囲ER1(BA)内に、図5Cに示すように2個のピークP33、P34が抽出され、これらピークP33、P34の中から最大ピークおよび次最大ピーク、すなわち、この例ではピークP33およびピークP34がさらに抽出され、これら抽出されたピークP33の位置とピークP34の位置との単純平均位置が前記境界面の位置(前記境界線の位置)BP3(BA)として求められる。   In one example, for example, when the cross-sectional image PLB3 illustrated in FIG. 5A in the stacked body LB3 (not illustrated) is acquired in the process S11 and the luminance projection process is performed in the process S12, the stacking direction (vertical) illustrated in FIG. The luminance projection α3 in the orthogonal direction (horizontal direction) x obtained along (direction) y is obtained. The laminated body LB3 is a member obtained by laminating the B3 member on the C3 member, and further laminating the A3 member on the B3 member. In the example shown in FIG. 5A, in the image PLB3 of the cross section, for example, a malfunction in the manufacturing process is performed. Due to the above, the boundary lines BL3 (CB) and BL3 (BA) appearing in the cross section of the stacked body LB3 based on the boundary surface are not straight lines but curves, and have inflection points. Therefore, the luminance projection α3 in the orthogonal direction x shown in FIG. 5B changes in a step shape along the stacking direction (vertical direction) y, and has a profile that is recessed in multiple steps around the layer of the B3 member. For this reason, when the differential absolute value process is executed in process S13 and the noise removal process is executed in process S14, the differential absolute value β3 shown in FIG. 5C is obtained, and when the boundary extraction process is executed in process S15b, Within the predetermined second range ER1 (CB), as shown in FIG. 5C, two peaks P31 and P32 are extracted, and from these peaks P31 and P32, the maximum peak and the next maximum peak, that is, in this example, Peaks P31 and P32 are further extracted, and a simple average position between the positions of the extracted peaks P31 and P32 is obtained as the position of the boundary surface (position of the boundary line) BP3 (CB). Within the predetermined second range ER1 (BA), two peaks P33 and P34 are extracted as shown in FIG. 5C, and the maximum is selected from these peaks P33 and P34. And the next maximum peak, that is, in this example, the peak P33 and the peak P34 are further extracted, and the simple average position between the position of the extracted peak P33 and the position of the peak P34 is the position of the boundary surface (the boundary line). Position) BP3 (BA).

以上説明したように、第2実施形態における積層体境界検出装置Mb、これに実装された積層体境界検出方法および積層体境界検出プログラムは、第1実施形態における積層体境界検出装置Ma、これに実装された積層体境界検出方法および積層体境界検出プログラムと同様に、前記ノイズ除去処理を行うので、ノイズ変動に強く、そして、前記境界抽出処理を行うので、上述の相関解析の必要が無い。   As described above, the layer boundary detection device Mb in the second embodiment, the layer boundary detection method and the layer boundary detection program mounted thereon are the same as those in the layer boundary detection device Ma in the first embodiment. Since the noise removal process is performed in the same manner as in the implemented laminated body boundary detection method and laminated body boundary detection program, it is resistant to noise fluctuations and the boundary extraction process is performed, so that the above-described correlation analysis is not necessary.

そして、第2実施形態における積層体境界検出装置Mb、これに実装された積層体境界検出方法および積層体境界検出プログラムは、ピーク群内における最大ピークの位置と次最大ピークの位置との平均位置を前記境界面の位置として求めるので、境界面に基づいて断面に現れた境界線がうねっている場合でも、最も確からしい位置を前記断面における前記境界面の位置として求めることができる。   And the laminated body boundary detection apparatus Mb in 2nd Embodiment, the laminated body boundary detection method mounted in this, and the laminated body boundary detection program are the average position of the position of the largest peak in the peak group, and the position of the next largest peak. Is obtained as the position of the boundary surface, so that the most probable position can be obtained as the position of the boundary surface in the cross section even when the boundary line appearing in the cross section is wavy based on the boundary surface.

次に、別の実施形態について説明する。
(第3実施形態)
図6は、第3実施形態における積層体境界検出装置の動作を示すフローチャートである。図7は、第3実施形態の積層体境界検出装置において、境界検出の一例を説明するための図である。図7Aは、模式的に図示した、積層体の断面の画像を示し、図7Bは、回転前において、積層体の積層方向yに沿って求められた直交方向xの輝度プロジェクションを示し、図5Cは、前記回転前において、積層方向yに沿って求められた直交方向xの輝度プロジェクション(図5B)、に対して求められた微分値の絶対値(絶対値微分値)を示し、図7Dは、適切な回転後において、積層体の積層方向yに沿って求められた直交方向xの輝度プロジェクションを示し、そして、図5Eは、前記適切な回転後において、積層方向yに沿って求められた直交方向xの輝度プロジェクション(図5D)、に対して求められた微分値の絶対値(絶対値微分値)を示す。
Next, another embodiment will be described.
(Third embodiment)
FIG. 6 is a flowchart showing the operation of the stacked body boundary detection apparatus according to the third embodiment. FIG. 7 is a diagram for explaining an example of boundary detection in the multilayer body boundary detection device according to the third embodiment. 7A schematically shows a cross-sectional image of the laminate, and FIG. 7B shows a luminance projection in the orthogonal direction x determined along the laminate direction y of the laminate before rotation. Indicates the absolute value of the differential value (absolute value differential value) obtained with respect to the luminance projection (FIG. 5B) in the orthogonal direction x obtained along the stacking direction y before the rotation, and FIG. FIG. 5E shows the luminance projection in the orthogonal direction x determined along the stacking direction y of the stack after appropriate rotation, and FIG. 5E is determined along the stacking direction y after the appropriate rotation. The absolute value of the differential value (absolute value differential value) obtained for the luminance projection in the orthogonal direction x (FIG. 5D) is shown.

第1実施形態における積層体境界検出装置Maは、前記境界抽出処理として、ノイズ除去処理部124で抽出した微分絶対値に対し、所定の第1範囲内に位置するピークをピーク群として纏め、この纏めたピーク群内におけるピークの重心位置を前記境界面の位置(前記境界線の位置)として求めたが、第3実施形態における積層体境界検出装置Mcは、前記境界面の位置の個数(前記境界線の位置の個数、すなわち、前記境界面の個数、前記境界線の個数)が所与の所定の個数となるまで、前記断面の画像における所定の位置を中心に前記断面の画像を所定の角度ずつ回転させながら、前記輝度プロジェクション処理、前記微分絶対値処理、前記ノイズ除去処理、および、前記境界抽出処理を実行するものである。   The laminated body boundary detection device Ma according to the first embodiment collects, as the peak group, peaks located within a predetermined first range with respect to the differential absolute value extracted by the noise removal processing unit 124 as the boundary extraction process. The center-of-gravity position of the peak in the group of collected peaks was obtained as the position of the boundary surface (the position of the boundary line). However, the stacked body boundary detection device Mc in the third embodiment Until the number of boundary positions, that is, the number of boundary surfaces and the number of boundary lines, reaches a given predetermined number, the image of the cross section with a predetermined position in the image of the cross section is set to a predetermined value. The brightness projection process, the differential absolute value process, the noise removal process, and the boundary extraction process are executed while rotating each angle.

このような第3実施形態における積層体境界検出装置Mcは、図1に示すように、例えば、画像取得部11と、制御処理部12cと、記憶部13と、入力部14と、出力部15とを備える。これら第3実施形態の積層体境界検出装置Mcにおける画像取得部11、記憶部13、入力部14および出力部15は、入力部14がさらに前記境界面の個数を受け付ける点を除き、それぞれ、第1実施形態の積層体境界検出装置Maにおける画像取得部11、記憶部13、入力部14および出力部15と同様であるので、その説明を省略する。   As shown in FIG. 1, the stacked body boundary detection device Mc in the third embodiment has, for example, an image acquisition unit 11, a control processing unit 12 c, a storage unit 13, an input unit 14, and an output unit 15. With. The image acquisition unit 11, the storage unit 13, the input unit 14, and the output unit 15 in the stacked body boundary detection device Mc according to the third embodiment are respectively the same except that the input unit 14 further receives the number of the boundary surfaces. Since it is the same as that of the image acquisition part 11, the memory | storage part 13, the input part 14, and the output part 15 in the laminated body boundary detection apparatus Ma of 1 embodiment, the description is abbreviate | omitted.

制御処理部12cは、当該積層体境界検出装置Mcの各部11、13〜15を当該各部の機能に応じて制御し、積層体の断面における境界面の位置(境界線の位置)を求めるための回路である。制御処理部12cは、制御処理プログラムの実行によって、制御部121、輝度プロジェクション処理部122、微分絶対値処理部123、ノイズ除去処理部124および境界抽出処理部125cを機能的に備え、さらに破線で示す回転処理部126cを機能的に備える。これら制御処理部12cにおける制御部121、輝度プロジェクション処理部122、微分絶対値処理部123およびノイズ除去処理部124は、それぞれ、第1実施形態の制御処理部12aにおける制御部121、輝度プロジェクション処理部122、微分絶対値処理部123およびノイズ除去処理部124と同様であるので、その説明を省略する。   The control processing unit 12c controls each unit 11, 13 to 15 of the laminate boundary detection device Mc according to the function of each unit, and obtains the position of the boundary surface (position of the boundary line) in the cross section of the laminate. Circuit. The control processing unit 12c functionally includes a control unit 121, a luminance projection processing unit 122, a differential absolute value processing unit 123, a noise removal processing unit 124, and a boundary extraction processing unit 125c by executing the control processing program. The rotation processing unit 126c shown is functionally provided. The control unit 121, the luminance projection processing unit 122, the differential absolute value processing unit 123, and the noise removal processing unit 124 in the control processing unit 12c are respectively the control unit 121 and the luminance projection processing unit in the control processing unit 12a of the first embodiment. Since it is the same as 122, the differential absolute value processing part 123, and the noise removal processing part 124, the description is abbreviate | omitted.

境界抽出処理部125cは、前記境界抽出処理を行うものである。より具体的には、第3実施形態における境界抽出処理部125cは、第1実施形態で上述した前記境界抽出処理(その変形形態を含む)を行って良く、または、第2実施形態で上述した前記境界抽出処理を行って良い。   The boundary extraction processing unit 125c performs the boundary extraction processing. More specifically, the boundary extraction processing unit 125c in the third embodiment may perform the boundary extraction processing (including variations thereof) described above in the first embodiment, or described above in the second embodiment. The boundary extraction process may be performed.

回転処理部126cは、前記境界面の位置の個数が予め設定された所定の個数となるまで、前記断面の画像における所定の位置(例えば中央位置等)を中心に前記断面の画像を所定の角度ずつ所定の方向に回転させながら、輝度プロジェクション処理部122に前記輝度プロジェクション処理を行わせ、微分絶対値処理部123に微分絶対値処理を行わせ、ノイズ除去処理部124に前記ノイズ除去処理を行わせ、そして、境界抽出処理部125cに前記境界抽出処理を行わせるものである。前記所定の個数は、回転処理部126cの処理前に、本実施形態では、例えば入力部14から入力され、受け付けられる。前記所定の角度は、例えば、0.1度、0.2度、0.5度および1度等の、適宜に設定され、本実施形態では、0.1度に設定される。前記所定の方向は、前記境界面の位置の個数が予め設定された所定の個数となるまで一定の方向に維持されていれば良く、例えば反時計回りであって良く、また時計回りであって良い。   The rotation processing unit 126c moves the image of the cross section at a predetermined angle around a predetermined position (for example, a central position) in the image of the cross section until the number of positions of the boundary surface reaches a predetermined number. While rotating in a predetermined direction each time, the luminance projection processing unit 122 performs the luminance projection processing, the differential absolute value processing unit 123 performs the differential absolute value processing, and the noise removal processing unit 124 performs the noise removal processing. The boundary extraction processing unit 125c performs the boundary extraction process. In the present embodiment, for example, the predetermined number is input from the input unit 14 and received before the processing of the rotation processing unit 126c. The predetermined angle is appropriately set, for example, 0.1 degree, 0.2 degree, 0.5 degree, and 1 degree, and is set to 0.1 degree in the present embodiment. The predetermined direction may be maintained in a certain direction until the number of positions of the boundary surface reaches a predetermined number set in advance, for example, may be counterclockwise or clockwise. good.

このような構成の積層体境界検出装置Mcでは、積層体の断面における前記境界面の位置(前記境界線の位置)を求める際に、測定開始が入力部14から指示されると、図6において、積層体境界検出装置Mcは、制御処理部12cの制御部121の制御によって、前記処理S11と同様に、画像取得部11で積層体の断面の画像データを取得し、この取得した前記積層体の断面の画像データを記憶部13に記憶し、出力部15に出力する(S21)。出力部15には、前記積層体の断面の画像が出力(例えば表示)される。   In the laminated body boundary detection device Mc having such a configuration, when the measurement start is instructed from the input unit 14 when obtaining the position of the boundary surface (position of the boundary line) in the cross section of the laminated body, in FIG. The laminated body boundary detection device Mc acquires the image data of the cross section of the laminated body by the image obtaining unit 11 under the control of the control unit 121 of the control processing unit 12c, and the obtained laminated body. Is stored in the storage unit 13 and output to the output unit 15 (S21). The output unit 15 outputs (for example, displays) an image of a cross section of the laminate.

次に、積層体境界検出装置Mcは、制御処理部12cの制御部121の制御によって、入力部14から前記境界面の位置の個数(前記境界線の位置の個数)を前記所定の個数として受け付け、記憶部13に記憶する(S22)。例えば、ユーザは、処理S11で取得された前記積層体の断面の画像が出力部15に表示されると、この表示された前記積層体の断面の画像を参照し、入力部14から前記境界面の位置の個数を入力する。   Next, the stacked body boundary detection device Mc receives the number of positions of the boundary surface (the number of positions of the boundary line) as the predetermined number from the input unit 14 under the control of the control unit 121 of the control processing unit 12c. And stored in the storage unit 13 (S22). For example, when the image of the cross section of the stacked body acquired in step S11 is displayed on the output unit 15, the user refers to the displayed cross section image of the stacked body, and inputs the boundary surface from the input unit 14 Enter the number of positions.

次に、積層体境界検出装置Mcは、制御処理部12cの輝度プロジェクション処理部122によって、前記処理S12と同様に、前記輝度プロジェクション処理を実行し、前記積層方向に沿って求めた前記直交方向の輝度プロジェクションを記憶部13に記憶し、出力部15に出力する(S23)。   Next, the laminated body boundary detection device Mc performs the luminance projection processing by the luminance projection processing unit 122 of the control processing unit 12c in the same manner as the processing S12, and calculates the orthogonal direction obtained along the stacking direction. The luminance projection is stored in the storage unit 13 and output to the output unit 15 (S23).

次に、積層体境界検出装置Mcは、制御処理部12cの微分絶対値処理部123によって、前記処理S13と同様に、前記微分絶対値処理を実行し、この求めた微分絶対値を記憶部13に記憶する(S24)。   Next, the laminated body boundary detection device Mc performs the differential absolute value processing by the differential absolute value processing unit 123 of the control processing unit 12c in the same manner as the process S13, and stores the obtained differential absolute value in the storage unit 13. (S24).

次に、積層体境界検出装置Mcは、制御処理部12cのノイズ除去処理部124によって、前記処理S14と同様に、前記ノイズ除去処理を実行し、この抽出した微分絶対値を記憶部13に記憶し、出力部15に出力する(S25)。出力部15には、前記抽出した微分絶対値(ノイズ除去処理後の微分絶対値)が出力(例えば表示)される。   Next, the laminated body boundary detection device Mc performs the noise removal processing by the noise removal processing unit 124 of the control processing unit 12c, similarly to the processing S14, and stores the extracted differential absolute value in the storage unit 13. And output to the output unit 15 (S25). The extracted differential absolute value (differential absolute value after noise removal processing) is output (for example, displayed) to the output unit 15.

次に、積層体境界検出装置Mcは、制御処理部12cの境界抽出処理部125cによって、前記処理S15a(その変形形態を含む)と同様に、あるいは、前記処理S15bと同様に、前記境界抽出処理を実行する(S26)。   Next, the stacked body boundary detection device Mc uses the boundary extraction processing unit 125c of the control processing unit 12c to perform the boundary extraction processing in the same manner as the processing S15a (including variations thereof) or in the same manner as the processing S15b. Is executed (S26).

次に、積層体境界検出装置Mcは、制御処理部12cの回転処理部126cによって、処理S26で求めた前記境界面の位置の個数(前記境界線の位置の個数)が予め設定された所定の個数、本実施形態では処理S22で受け付け記憶部13に記憶された個数と一致するか否かを判定する(S27)。この判定の結果、これら両者が一致する場合(YES)には、積層体境界検出装置Mcは、次に、処理S28を実行し、一方、これら両者が一致しない場合(NO)には、積層体境界検出装置Mcは、次に、処理S31を実行する。   Next, in the multilayer body boundary detection device Mc, the rotation processing unit 126c of the control processing unit 12c has a predetermined number of the boundary surface positions (the number of the boundary line positions) obtained in step S26. The number, in this embodiment, it is determined whether or not it matches the number stored in the reception storage unit 13 in step S22 (S27). As a result of this determination, when these two match (YES), the stacked body boundary detection device Mc next executes the process S28. On the other hand, when they do not match (NO), the stacked body Next, the boundary detection device Mc executes the process S31.

前記処理S31では、回転処理部126cは、処理S23ないし処理S26の各処理の対象であった断面の画像における所定の位置を中心に、前記断面の画像を所定の角度だけ所定の方向に回転し、処理を処理S23に戻す。例えば、本実施形態では、回転処理部126cは、処理S23ないし処理S26の各処理の対象であった断面の画像における中央位置を中心に、前記断面の画像を0.1度だけ反時計回りに回転する。したがって、次の処理S23ないし処理S26の各処理では、この回転後の断面の画像に対し、前記輝度プロジェクション処理、前記微分絶対値処理、前記ノイズ除去処理および前記境界抽出処理の各処理が実行される。したがって、これら処理S23ないし処理S27、および、処理S31の各処理によって、前記境界面の位置の個数が前記所定の個数となるまで、前記断面の画像における所定の位置を中心に前記断面の画像が所定の角度ずつ回転されながら、輝度プロジェクション処理部122によって前記輝度プロジェクション処理が実行され、微分絶対値処理部123によって前記微分絶対値処理が実行され、ノイズ除去処理部124によって前記ノイズ除去処理が実行され、そして、境界抽出処理部125cによって前記境界抽出処理が実行される。   In the process S31, the rotation processing unit 126c rotates the cross-sectional image in a predetermined direction by a predetermined angle around a predetermined position in the cross-sectional image that is the target of each of the processes S23 to S26. Then, the process returns to process S23. For example, in the present embodiment, the rotation processing unit 126c rotates the cross-sectional image counterclockwise by 0.1 degrees around the center position in the cross-sectional image that is the target of each of the processes S23 to S26. Rotate. Accordingly, in each of the following processes S23 to S26, the luminance projection process, the differential absolute value process, the noise removal process, and the boundary extraction process are performed on the image of the cross section after the rotation. The Accordingly, the image of the cross section is centered on a predetermined position in the image of the cross section until the number of positions of the boundary surface reaches the predetermined number by each of the processes S23 to S27 and S31. While being rotated by a predetermined angle, the luminance projection processing unit 122 executes the luminance projection processing, the differential absolute value processing unit 123 executes the differential absolute value processing, and the noise removal processing unit 124 executes the noise removal processing. Then, the boundary extraction processing unit 125c executes the boundary extraction processing.

一方、前記処理S28では、積層体境界検出装置Mcは、制御処理部12cの制御部121によって、処理S27で前記両者が一致すると判定された際の処理S26で境界抽出処理部125cによって求めた前記境界面の位置(前記境界線の位置)を記憶部13に記憶し、出力部15に出力し、本処理を終了する。出力部15には、前記境界面の位置(前記境界線の位置)が出力(例えば表示)される。   On the other hand, in the process S28, the laminate boundary detection device Mc is obtained by the boundary extraction processing unit 125c in the process S26 when the control unit 121 of the control processing unit 12c determines that the two match in the process S27. The position of the boundary surface (the position of the boundary line) is stored in the storage unit 13 and output to the output unit 15, and this process is terminated. The output unit 15 outputs (for example, displays) the position of the boundary surface (the position of the boundary line).

このような各処理S21〜S28、S31によって、積層体の断面における境界面の位置、すなわち、前記境界面に基づいて前記積層体の断面に現れた前記境界線の位置が検出される。   By such processes S21 to S28 and S31, the position of the boundary surface in the cross section of the stacked body, that is, the position of the boundary line that appears in the cross section of the stacked body is detected based on the boundary surface.

一例では、例えば、積層体LB4(不図示)における、図7Aに示す断面の画像PLB4が処理S21で取得され、前記境界面の位置の個数(前記境界線の位置の個数)として入力部14から「2」を受け付けた処理S22を介して、処理S23で輝度プロジェクション処理が実行されると、図7Bに示す、積層方向(垂直方向)yに沿って求めた直交方向(水平方向)xの輝度プロジェクションα4が求められる。前記積層体LB4は、C4部材にB4部材を積層し、さらにB4部材にA4部材を積層した部材であり、この図7Aに示す例では、前記断面の画像PLB4において、例えば前記積層体LB4を顕微鏡にセットする際の調整の不足や、顕微鏡にカメラを取り付ける際の調整の不足等に因り、境界面に基づいて積層体LB4の断面に現れた境界線BL4(CB)、BL4(BA)は、それぞれ、平成方向xに対し斜めになっている。このため、図7Bに示す直交方向(水平方向)xの輝度プロジェクションα4は、積層方向(垂直方向)yに沿って階段状に変化し、B4部材の層の周辺で多段に凹むプロファイルになっている。このため、処理S24で微分絶対値処理が実行され、処理S25でノイズ除去処理が実行されると、図7Cに示す微分絶対値β4が求められ、処理S26で、例えば処理S15aと同様な境界抽出処理が実行されると、図7Cに示すように4個のピークP41〜P44が抽出され、これら各ピークP41〜P44の各位置が4個の前記境界面の位置(前記境界線の位置)として求められる。このため、処理S27では、前記両者が一致しないと判定され、処理S31で前記断面の画像PLB4が反時計回りに0.1度回転され、処理が処理S23に戻される。   In one example, for example, an image PLB4 of the cross section shown in FIG. 7A in the stacked body LB4 (not shown) is acquired in the process S21, and the number of positions of the boundary surface (the number of positions of the boundary line) is input from the input unit 14. When the brightness projection process is executed in the process S23 via the process S22 that has received “2”, the brightness in the orthogonal direction (horizontal direction) x obtained along the stacking direction (vertical direction) y shown in FIG. 7B. Projection α4 is determined. The laminated body LB4 is a member obtained by laminating a B4 member on a C4 member, and further laminating an A4 member on a B4 member. In the example shown in FIG. 7A, in the cross-sectional image PLB4, for example, the laminated body LB4 is a microscope. The boundary lines BL4 (CB) and BL4 (BA) appearing in the cross section of the laminate LB4 based on the boundary surface due to the lack of adjustment when setting to the microscope, the lack of adjustment when attaching the camera to the microscope, etc. Each is diagonal to Heisei direction x. For this reason, the luminance projection α4 in the orthogonal direction (horizontal direction) x shown in FIG. 7B changes in a step shape along the stacking direction (vertical direction) y, and becomes a profile that is recessed in multiple steps around the layer of the B4 member. Yes. Therefore, when the differential absolute value process is executed in the process S24 and the noise removal process is executed in the process S25, the differential absolute value β4 shown in FIG. 7C is obtained. In the process S26, for example, boundary extraction similar to the process S15a is performed. When the process is executed, four peaks P41 to P44 are extracted as shown in FIG. 7C, and the positions of these peaks P41 to P44 are the four positions of the boundary surface (positions of the boundary line). Desired. Therefore, in process S27, it is determined that the two do not match, and in process S31, the cross-sectional image PLB4 is rotated by 0.1 degree counterclockwise, and the process returns to process S23.

このような処理S23ないし処理S27、および、処理S31の各処理が繰り返されると、図7Aに示す断面の画像PLB4は、やがて、境界面に基づいて積層体LB4の断面に現れた境界線BL4(CB)、BL4(BA)が略水平となる画像になる。この前記水平となった画像に対し、処理S23で輝度プロジェクション処理が実行されると、図7Dに示す、積層方向(垂直方向)yに沿って求めた直交方向(水平方向)xの輝度プロジェクションα5が求められる。前記水平となった画像であるので、図7Dに示す直交方向xの輝度プロジェクションα5は、積層方向yに沿って比較的滑らかに変化し、B4部材の層で凹むプロファイルになっている。このため、処理S24で微分絶対値処理が実行され、処理S25でノイズ除去処理が実行されると、図7Eに示す微分絶対値β5が求められ、処理S26で境界抽出処理が実行されると、図7Eに示すように2個のピークP51、P52が抽出され、これら各ピークP51、P52の各位置が2個の前記境界面の位置(前記境界線の位置)として求められる。このため、処理S27では、前記両者が一致すると判定され、処理S28でこれら各ピークP51、P52の各位置が前記境界面の各位置(前記境界線の各位置)BP4(CB)、BP4(BA)として出力される。   When the processes S23 to S27 and S31 are repeated, the cross-sectional image PLB4 shown in FIG. 7A eventually appears on the boundary line BL4 ( CB) and BL4 (BA) are substantially horizontal images. When the luminance projection processing is executed in step S23 on the horizontal image, the luminance projection α5 in the orthogonal direction (horizontal direction) x obtained along the stacking direction (vertical direction) y shown in FIG. 7D. Is required. Since the image is horizontal, the luminance projection α5 in the orthogonal direction x shown in FIG. 7D changes relatively smoothly along the stacking direction y, and has a profile that is recessed in the layer of the B4 member. For this reason, when the differential absolute value process is executed in process S24 and the noise removal process is executed in process S25, the differential absolute value β5 shown in FIG. 7E is obtained, and when the boundary extraction process is executed in process S26, As shown in FIG. 7E, two peaks P51 and P52 are extracted, and the positions of these peaks P51 and P52 are obtained as the positions of the two boundary surfaces (positions of the boundary lines). Therefore, in process S27, it is determined that the two match, and in process S28, the positions of the peaks P51 and P52 are the positions of the boundary surfaces (positions of the boundary lines) BP4 (CB) and BP4 (BA ) Is output.

以上説明したように、第3実施形態における積層体境界検出装置Mc、これに実装された積層体境界検出方法および積層体境界検出プログラムは、第1実施形態における積層体境界検出装置Ma、これに実装された積層体境界検出方法および積層体境界検出プログラムと同様に、前記ノイズ除去処理を行うので、ノイズ変動に強く、そして、前記境界抽出処理を行うので、上述の相関解析の必要が無い。   As described above, the laminate boundary detection device Mc according to the third embodiment, the laminate boundary detection method and the laminate boundary detection program mounted thereon are the same as the laminate boundary detection device Ma according to the first embodiment. Since the noise removal process is performed in the same manner as in the implemented laminated body boundary detection method and laminated body boundary detection program, it is resistant to noise fluctuations and the boundary extraction process is performed, so that the above-described correlation analysis is not necessary.

一例として図7に示すように、断面の画像によっては、境界面に基づいて断面に現れた境界線が、画像の水平方向に一致せずに、前記画像の水平方向に対し斜めになっている場合がある。第3実施形態における積層体境界検出装置Mc、これに実装された積層体境界検出方法および積層体境界検出プログラムは、前記断面における前記境界面の位置の個数が予め設定された所定の個数となるまで、前記断面の画像における所定の位置(例えば本実施形態では中央位置等)を中心に前記断面の画像を所定の角度ずつ回転させながら、前記断面における前記境界面の位置を求めるので、このような場合でも、前記断面における前記境界面の位置を求めることができる。   As an example, as shown in FIG. 7, depending on the image of the cross section, the boundary line that appears in the cross section based on the boundary surface does not coincide with the horizontal direction of the image but is inclined with respect to the horizontal direction of the image. There is a case. In the laminated body boundary detection device Mc according to the third embodiment, the laminated body boundary detecting method and the laminated body boundary detecting program mounted thereon, the number of positions of the boundary surface in the cross section is a predetermined number. Up to this point, the position of the boundary surface in the cross section is obtained while rotating the cross section image by a predetermined angle around a predetermined position (for example, the center position in the present embodiment) in the cross section image. Even in this case, the position of the boundary surface in the cross section can be obtained.

なお、上述の第3実施形態では、ユーザによって入力部14から前記境界面の位置の個数(前記境界線の位置の個数)が前記所定の個数として入力されたが、前記境界面の位置の個数は、前記所定の個数として記憶部13に予め記憶され、回転処理部126cは、この記憶部13に予め記憶された前記境界面の位置の個数を用いても良い。製品の抜き取り検査に、積層体境界検出装置Mcが用いられる場合では、抜き取り検査の対象の製品が予め決まっているので、積層体の断面の画像における前記境界面の位置の個数は、略規定されるから、前記境界面の位置の個数は、予め設定でき、予め記憶部13に記憶できる。   In the third embodiment described above, the number of the positions of the boundary plane (the number of positions of the boundary line) is input as the predetermined number from the input unit 14 by the user. May be stored in advance in the storage unit 13 as the predetermined number, and the rotation processing unit 126c may use the number of positions of the boundary surface stored in advance in the storage unit 13. In the case where the laminate boundary detection device Mc is used for the sampling inspection of the product, since the products to be subjected to the sampling inspection are determined in advance, the number of the positions of the boundary surfaces in the cross-sectional image of the stack is substantially defined. Therefore, the number of positions on the boundary surface can be set in advance and stored in the storage unit 13 in advance.

また、これら上述の第1ないし第3実施形態において、記憶部13に前記制御処理プログラムがインストールされていない場合には、前記制御処理プログラムを記録したコンピュータ読み取り可能な記録媒体から、IF部を備えて構成される画像処理部11や、IF部17を介して前記制御処理プログラムが読み込まれ、インストールされても良い。前記制御処理プログラムには、上述したように、前記輝度プロジェクション処理プログラム、前記微分絶対値処理プログラム、前記ノイズ除去処理プログラム、および、前記境界抽出処理プログラが含まれる。すなわち、前記制御処理プログラムには、これら各プログラムを備える積層体境界検出プログラムが含まれる。これによれば、ノイズ変動に強く、相関解析の必要の無い、上述の積層体境界検出プログラムを記録したコンピュータ読み取り可能な記録媒体が提供できる。   In the first to third embodiments described above, when the control processing program is not installed in the storage unit 13, an IF unit is provided from a computer-readable recording medium on which the control processing program is recorded. The control processing program may be read and installed via the image processing unit 11 configured as described above or the IF unit 17. As described above, the control processing program includes the luminance projection processing program, the differential absolute value processing program, the noise removal processing program, and the boundary extraction processing program. That is, the control processing program includes a laminate boundary detection program including these programs. According to this, it is possible to provide a computer-readable recording medium that records the above-described laminate boundary detection program that is resistant to noise fluctuation and does not require correlation analysis.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

Ma、Mb、Mc 積層体境界検出装置
11 画像所得部
122 輝度プロジェクション処理部
123 微分絶対値処理部
124 ノイズ除去処理部
125a、125b、125c 境界抽出処理部
126c 回転処理部
Ma, Mb, Mc Laminate boundary detection device 11 Image income unit 122 Luminance projection processing unit 123 Differential absolute value processing unit 124 Noise removal processing unit 125a, 125b, 125c Boundary extraction processing unit 126c Rotation processing unit

Claims (8)

互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得部と、
前記画像取得部で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理を行う輝度プロジェクション処理部と、
前記輝度プロジェクション処理部で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理を行う微分絶対値処理部と、
前記微分絶対値処理部で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理を行うノイズ除去処理部と、
前記ノイズ除去処理部で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理を行う境界抽出処理部とを備えること
を特徴とする積層体境界検出装置。
An image acquisition unit that acquires image data of a cross section including a stacking direction intersecting a boundary surface in a stacked body that is a member in which a plurality of different materials are stacked;
A brightness projection processing unit that performs brightness projection processing for obtaining a brightness projection in the orthogonal direction orthogonal to the stacking direction along the stacking direction with respect to the image data acquired by the image acquisition unit;
A differential absolute value processing unit that performs differential absolute value processing for obtaining a differential value for the luminance projection obtained along the stacking direction in the luminance projection processing unit, and obtaining an absolute value of the obtained differential value as a differential absolute value;
From the differential absolute value obtained by the differential absolute value processing unit, a differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value greater than a predetermined ratio with respect to the maximum value of the differential absolute value is extracted. A noise removal processing unit for performing noise removal processing,
A laminate boundary detection apparatus comprising: a boundary extraction processing unit that performs a boundary extraction process for obtaining a position of the boundary surface in the cross section based on the differential absolute value extracted by the noise removal processing unit.
前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の範囲内に位置するピークをピーク群として纏め、前記纏めたピーク群内におけるピークの重心位置を前記境界面の位置として求めること
を特徴とする請求項1に記載の積層体境界検出装置。
The boundary extraction processing unit, as the boundary extraction processing, summarizes the peaks located within a predetermined range as a peak group with respect to the differential absolute value extracted by the noise removal processing unit, and calculates the peak in the collected peak group. The center of gravity position is obtained as the position of the boundary surface.
前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の範囲内に位置するピークをピーク群として纏め、前記纏めたピーク群内における最大ピークの位置を前記境界面の位置として求めること
を特徴とする請求項1に記載の積層体境界検出装置。
The boundary extraction processing unit, as the boundary extraction processing, summarizes the peaks located within a predetermined range as a peak group with respect to the differential absolute value extracted by the noise removal processing unit, and the maximum peak in the combined peak group The position of the laminated body is detected as the position of the boundary surface.
前記境界抽出処理部は、前記境界抽出処理として、前記ノイズ除去処理部で抽出した微分絶対値に対し、所定の第2範囲内に位置するピークをピーク群として纏め、前記纏めたピーク群内における最大ピークの位置と次最大ピークの位置との平均位置を前記境界面の位置として求めること
を特徴とする請求項1に記載の積層体境界検出装置。
The boundary extraction processing unit summarizes the peaks located within a predetermined second range as a peak group with respect to the differential absolute value extracted by the noise removal processing unit as the boundary extraction processing, and within the combined peak group The laminated body boundary detection device according to claim 1, wherein an average position of a maximum peak position and a next maximum peak position is obtained as the position of the boundary surface.
前記境界面の位置の個数が予め設定された所定の個数となるまで、前記断面の画像における所定の位置を中心に前記断面の画像を所定の角度ずつ回転させながら、前記輝度プロジェクション処理部に前記輝度プロジェクション処理を行わせ、前記微分絶対値処理部に微分絶対値処理を行わせ、前記ノイズ除去処理部に前記ノイズ除去処理を行わせ、そして、前記境界抽出処理部に前記境界抽出処理を行わせる回転処理部とをさらに備えること
を特徴とする請求項1ないし請求項4のいずれか1項に記載の積層体境界検出装置。
The luminance projection processing unit is configured to rotate the image of the cross section around a predetermined position in the image of the cross section by a predetermined angle until the number of positions of the boundary surface reaches a predetermined number set in advance. Perform luminance projection processing, cause the differential absolute value processing unit to perform differential absolute value processing, cause the noise removal processing unit to perform the noise removal processing, and perform the boundary extraction processing to the boundary extraction processing unit The laminate boundary detection device according to claim 1, further comprising: a rotation processing unit that performs the rotation processing.
互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、
前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、
前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、
前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、
前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程とを備えること
を特徴とする積層体境界検出方法。
An image acquisition step of acquiring image data of a cross section including a stacking direction intersecting a boundary surface in a stacked body that is a member in which a plurality of different materials are stacked,
A luminance projection processing step for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction for the image data acquired in the image acquisition step;
A differential absolute value processing step for obtaining a differential value for the luminance projection obtained along the stacking direction in the luminance projection processing step, and obtaining an absolute value of the obtained differential value as a differential absolute value;
From the differential absolute value obtained in the differential absolute value processing step, a differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value greater than a predetermined ratio with respect to the maximum value of the differential absolute value is extracted. Noise removal processing step,
And a boundary extraction processing step for obtaining a position of the boundary surface in the cross section based on the differential absolute value extracted in the noise removal processing step.
コンピュータに、
互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、
前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、
前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、
前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、
前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程と、
を実行させるための積層体境界検出プログラム。
On the computer,
An image acquisition step of acquiring image data of a cross section including a stacking direction intersecting a boundary surface in a stacked body that is a member in which a plurality of different materials are stacked,
A luminance projection processing step for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction for the image data acquired in the image acquisition step;
A differential absolute value processing step for obtaining a differential value for the luminance projection obtained along the stacking direction in the luminance projection processing step, and obtaining an absolute value of the obtained differential value as a differential absolute value;
From the differential absolute value obtained in the differential absolute value processing step, a differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value greater than a predetermined ratio with respect to the maximum value of the differential absolute value is extracted. Noise removal processing step,
Based on the differential absolute value extracted in the noise removal processing step, a boundary extraction processing step for obtaining the position of the boundary surface in the cross section;
Laminate boundary detection program to execute.
コンピュータに、
互いに異なる複数の材料を積層した部材である積層体における、境界面と交差した積層方向を含む断面の画像データを取得する画像取得工程と、
前記画像取得工程で取得した画像データに対し、前記積層方向に直交する直交方向に輝度プロジェクションを前記積層方向に沿って求める輝度プロジェクション処理工程と、
前記輝度プロジェクション処理工程で前記積層方向に沿って求めた輝度プロジェクションに対し微分値を求め、前記求めた微分値の絶対値を微分絶対値として求める微分絶対値処理工程と、
前記微分絶対値処理工程で求めた微分絶対値から、前記微分絶対値の最大値に対する所定の割合以上である微分絶対値または前記微分絶対値の最大値に対する所定の割合より大きな微分絶対値を抽出するノイズ除去処理工程と、
前記ノイズ除去処理工程で抽出した微分絶対値に基づいて、前記断面における前記境界面の位置を求める境界抽出処理工程と、
を実行させるための積層体境界検出プログラムを記録したコンピュータ読み取り可能な記録媒体。
On the computer,
An image acquisition step of acquiring image data of a cross section including a stacking direction intersecting a boundary surface in a stacked body that is a member in which a plurality of different materials are stacked,
A luminance projection processing step for obtaining a luminance projection along the stacking direction in an orthogonal direction orthogonal to the stacking direction for the image data acquired in the image acquisition step;
A differential absolute value processing step for obtaining a differential value for the luminance projection obtained along the stacking direction in the luminance projection processing step, and obtaining an absolute value of the obtained differential value as a differential absolute value;
From the differential absolute value obtained in the differential absolute value processing step, a differential absolute value that is equal to or greater than a predetermined ratio with respect to the maximum value of the differential absolute value or a differential absolute value greater than a predetermined ratio with respect to the maximum value of the differential absolute value is extracted. Noise removal processing step,
Based on the differential absolute value extracted in the noise removal processing step, a boundary extraction processing step for obtaining the position of the boundary surface in the cross section;
The computer-readable recording medium which recorded the laminated body boundary detection program for performing this.
JP2016195496A 2016-10-03 2016-10-03 Laminate boundary detecting device, method, program and recording medium Expired - Fee Related JP6650382B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016195496A JP6650382B2 (en) 2016-10-03 2016-10-03 Laminate boundary detecting device, method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016195496A JP6650382B2 (en) 2016-10-03 2016-10-03 Laminate boundary detecting device, method, program and recording medium

Publications (2)

Publication Number Publication Date
JP2018059735A true JP2018059735A (en) 2018-04-12
JP6650382B2 JP6650382B2 (en) 2020-02-19

Family

ID=61908786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016195496A Expired - Fee Related JP6650382B2 (en) 2016-10-03 2016-10-03 Laminate boundary detecting device, method, program and recording medium

Country Status (1)

Country Link
JP (1) JP6650382B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077108A (en) * 2019-11-08 2021-05-20 三井化学株式会社 Analysis method and analyzer for reinforcing fiber bundle
CN115988342A (en) * 2023-03-20 2023-04-18 中国空气动力研究与发展中心计算空气动力研究所 Device, method, system and medium for shooting flow display image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001201318A (en) * 2000-01-18 2001-07-27 Toshiba Corp Film thickness measuring method and device, and recording medium
US20050280829A1 (en) * 2004-06-16 2005-12-22 Unruh Paul R Film thickness and boundary characterization by interferometric profilometry
JP2007102580A (en) * 2005-10-05 2007-04-19 Nikon Corp Positioning method and positioning apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001201318A (en) * 2000-01-18 2001-07-27 Toshiba Corp Film thickness measuring method and device, and recording medium
US20050280829A1 (en) * 2004-06-16 2005-12-22 Unruh Paul R Film thickness and boundary characterization by interferometric profilometry
JP2007102580A (en) * 2005-10-05 2007-04-19 Nikon Corp Positioning method and positioning apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077108A (en) * 2019-11-08 2021-05-20 三井化学株式会社 Analysis method and analyzer for reinforcing fiber bundle
JP7385434B2 (en) 2019-11-08 2023-11-22 三井化学株式会社 Analysis method and device for reinforcing fiber bundles
CN115988342A (en) * 2023-03-20 2023-04-18 中国空气动力研究与发展中心计算空气动力研究所 Device, method, system and medium for shooting flow display image

Also Published As

Publication number Publication date
JP6650382B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
US10638117B2 (en) Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
US10853662B2 (en) Object recognition device that determines overlapping states for a plurality of objects
US10456918B2 (en) Information processing apparatus, information processing method, and program
JP7049983B2 (en) Object recognition device and object recognition method
KR102208683B1 (en) Character recognition method and apparatus thereof
CN109727275B (en) Object detection method, device, system and computer readable storage medium
JP6672712B2 (en) Abnormal work detection system and abnormal work detection method
JP5868816B2 (en) Image processing apparatus, image processing method, and program
US9947164B2 (en) Automatic fault diagnosis method and device for sorting machine
JP6369131B2 (en) Object recognition apparatus and object recognition method
TWI408610B (en) Methods and systems for gesture recognition, and computer program products thereof
JP2015153195A (en) Gesture recognition device and control method therefor
WO2015107859A1 (en) Image comparison device, image sensor, processing system, and image comparison method
JP2013167596A (en) Defect inspection device, defect inspection method, and program
JP6476802B2 (en) Information processing apparatus and information processing method
EP4030749B1 (en) Image photographing method and apparatus
JP2019164842A (en) Human body action analysis method, human body action analysis device, equipment, and computer-readable storage medium
CN115781673B (en) Part grabbing method, device, equipment and medium
CN113420735B (en) Contour extraction method, device, equipment and storage medium
CN116958145B (en) Image processing method and device, visual detection system and electronic equipment
JP2018206252A (en) Image processing system, evaluation model construction method, image processing method, and program
JP6650382B2 (en) Laminate boundary detecting device, method, program and recording medium
CN112258507A (en) Target object detection method and device of internet data center and electronic equipment
CN116071790A (en) Palm vein image quality evaluation method, device, equipment and storage medium
JP2016206909A (en) Information processor, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200120

R150 Certificate of patent or registration of utility model

Ref document number: 6650382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees