JP5166909B2 - Inspection device and inspection method - Google Patents

Inspection device and inspection method Download PDF

Info

Publication number
JP5166909B2
JP5166909B2 JP2008043457A JP2008043457A JP5166909B2 JP 5166909 B2 JP5166909 B2 JP 5166909B2 JP 2008043457 A JP2008043457 A JP 2008043457A JP 2008043457 A JP2008043457 A JP 2008043457A JP 5166909 B2 JP5166909 B2 JP 5166909B2
Authority
JP
Japan
Prior art keywords
image
void
candidate
ray
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008043457A
Other languages
Japanese (ja)
Other versions
JP2009198463A (en
Inventor
信太郎 熊野
真由美 斎藤
英哲 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2008043457A priority Critical patent/JP5166909B2/en
Publication of JP2009198463A publication Critical patent/JP2009198463A/en
Application granted granted Critical
Publication of JP5166909B2 publication Critical patent/JP5166909B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、検査装置と検査方法に関し、特にX線画像を用いる検査装置、検査方法、そのプログラムに関する。   The present invention relates to an inspection apparatus and an inspection method, and more particularly to an inspection apparatus, an inspection method, and a program using an X-ray image.

複数の管がスカート状に配置され、それらの間がロウ付け溶接されたとき、従来ロウ付け部の内部に欠陥(以下「ボイド」という)が存在するか否かについて検査する必要がある。このロウ付け部の検査のために、従来種々の方法が適用されていた。
特許第3530478号(特許文献1)には、ロウ付け部の検査にX線を使用する技術が示されている。この方法によれば、段階的にX線強度を変えながら所定部位が複数回撮像され、得られたX線透過画像の濃度が重ね合わされる。重ね合わされたX線透過画像の濃度が画素同士で差分し、得られた差分濃度から更に差分が計算され、変極点が求められる。変極点を連結することにより閉領域が作成され、内部に別の閉領域が存在しないものが抽出される。
When a plurality of tubes are arranged in a skirt shape and brazed between them, it is necessary to inspect whether or not there are defects (hereinafter referred to as “voids”) inside the brazed portion. Conventionally, various methods have been applied to inspect the brazed portion.
Japanese Patent No. 3530478 (Patent Document 1) shows a technique using X-rays for inspection of a brazing portion. According to this method, a predetermined part is imaged a plurality of times while gradually changing the X-ray intensity, and the density of the obtained X-ray transmission image is superimposed. The density of the superimposed X-ray transmission image is different between pixels, and the difference is further calculated from the obtained difference density to obtain an inflection point. A closed region is created by connecting the inflection points, and a region in which no other closed region exists is extracted.

上記記載と関連して、特開平9−196865号公報(特許文献2)には、X線透視検査装置が示されている。この従来例では、検査対象物にX線が照射されて、異物の混入が調べられている。
特許第3530478号 特開平9−196865号公報
In relation to the above description, an X-ray fluoroscopic inspection apparatus is shown in Japanese Patent Laid-Open No. 9-196865 (Patent Document 2). In this conventional example, the object to be inspected is irradiated with X-rays, and contamination of foreign matters is examined.
Japanese Patent No. 3530478 JP-A-9-196865

本発明の課題は、ボイドの形状に基づいて画像処理することにより効率よく被検体を検査することができる検査方法と、そのためのプログラム、それらのための検査装置を提供することである。
本発明の他の課題は、ボイドの画像が連結していても、その特徴量に基づいて画像処理することにより効率よく被検体を検査することができる検査方法と、そのためのプログラム、それらのための検査装置を提供することである。
本発明の更に他の課題は、検査対象領域のボイドの画像のみが効率よく取得できる検査方法と、そのためのプログラム、それらのための検査装置を提供することである。
An object of the present invention is to provide an inspection method capable of efficiently inspecting a subject by performing image processing based on the shape of a void, a program therefor, and an inspection apparatus therefor.
Another object of the present invention is to provide an inspection method capable of efficiently inspecting a subject by performing image processing based on the feature amount even if void images are connected, a program therefor, and a program therefor It is to provide an inspection apparatus.
Still another object of the present invention is to provide an inspection method capable of efficiently acquiring only an image of a void in an inspection target region, a program therefor, and an inspection apparatus therefor.

以下に、[発明の実施の形態]で使用する番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、[特許請求の範囲]の記載と発明の実施の形態の記載との対応関係を明らかにするために付加されたものであるが、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。   The means for solving the problem will be described below using the numbers and symbols used in the [Embodiments of the Invention]. These numbers and symbols are added to clarify the correspondence between the description of [Claims] and the description of the embodiments of the invention, but are described in [Claims]. It should not be used to interpret the technical scope of the invention.

本発明の一観点では、検査方法は、(a)被検体の、例えば、X線画像を撮像するステップと、(b)前記X線画像から、第1輝度に基づいて互いに分離された検出候補画像を生成するステップと、(c)前記検出候補画像の各々の縦横比に基づいて第1ボイド候補の画像を選択するステップと、(d)第2輝度に基づいて残りの検出候補画像の各々から第2ボイド候補の画像を生成するステップと、(e)前記第1ボイド候補画像と前記第2ボイド候補画像を合成してボイド候補の画像を生成するステップとを具備する。
これにより、効率的にボイドを検出することができる。
In one aspect of the present invention, an examination method includes (a) a step of capturing an X-ray image of a subject, for example, and (b) detection candidates separated from each other based on a first luminance from the X-ray image. Generating an image; (c) selecting a first void candidate image based on an aspect ratio of each of the detection candidate images; and (d) each of the remaining detection candidate images based on a second luminance. Generating a second candidate void image, and (e) synthesizing the first void candidate image and the second void candidate image to generate a void candidate image.
Thereby, a void can be detected efficiently.

検査方法は、ボイドの基準特徴量に基づいて前記ボイド候補画像から、検出されたボイドを示すボイド検出画像を生成するステップを更に具備してもよい。
また、(f)ステップは、(f1)前記ボイド候補画像の充填率が、前記基準特徴量としての基準充填率より高いとき、その画像をボイド検出画像と判定するステップと、(f2)前記ボイド候補画像の充填率が前記基準充填率以下のとき、前記ボイド候補画像をボイド候補要素画像に分割するステップと、(f3)前記ボイド候補要素画像の形状特徴量を計算するステップと、(f4)前記形状特徴量がボイド基準を満たすとき、前記ボイド候補要素画像をボイド検出画像と判定するステップとを具備することが好ましい。
検査方法は、(g)前記ボイド候補画像から、前記被検体の一部の構成物に対応する所定領域に存在するものを除外するステップを更に具備してもよい。
前記除外するステップは、前記X線画像の二値化処理から得られる画像から前記構成物のエッジを検出するステップと、前記検出されたエッジから直線領域を設定するステップと、前記直線領域に基づいて前記決定されたボイド検出画像の一部をマスクするステップとを具備することが好ましい。
(a)ステップは、前記被検体の異なる部位を撮像するとき、前記被検体の特定部位が前記X線画像の中心となるように、X線発生器とX線カメラの位置を制御するステップを具備することが好ましい。
The inspection method may further include a step of generating a void detection image indicating the detected void from the void candidate image based on the reference feature amount of the void.
The step (f) includes: (f1) a step of determining the image as a void detection image when the filling rate of the void candidate image is higher than a reference filling rate as the reference feature amount; and (f2) the void. Dividing the void candidate image into void candidate element images when the filling rate of the candidate images is equal to or less than the reference filling rate; (f3) calculating a shape feature amount of the void candidate element image; (f4) It is preferable that the method includes determining the void candidate element image as a void detection image when the shape feature amount satisfies a void criterion.
The inspection method may further include (g) a step of excluding those existing in a predetermined region corresponding to a part of the subject from the void candidate image.
The excluding step includes a step of detecting an edge of the component from an image obtained from the binarization processing of the X-ray image, a step of setting a straight line region from the detected edge, and a step based on the straight line region. And masking a part of the determined void detection image.
The step (a) includes a step of controlling the positions of the X-ray generator and the X-ray camera so that the specific part of the subject becomes the center of the X-ray image when imaging different parts of the subject. It is preferable to comprise.

本発明の他の観点では、上記のいずれかの検査方法を実現するための計算機読み取り可能なプログラムが提供される。   In another aspect of the present invention, a computer-readable program for realizing any of the above inspection methods is provided.

本発明の他の観点では、検査装置は、第1移動指示に応答して移動し、発生指示に応答してX線を発生するX線発生器(4)と、被検体移動指示に応答して被検体の位置と姿勢を動かすアクチュエータ(6)と、第2移動指示に前記X線発生器から発生されたX線を用いて前記被検体を撮像するX線カメラ(8)と、前記X線カメラの撮像結果からX線画像を生成する画像キャプチャ(10)と、表示装置(12)と、前記X線発生器に前記発生指示を出力し、前記アクチュエータを駆動し、前記画像キャプチャからの前記X線画像から検出対象画像を取得する処理ユニット(2)とを具備する。前記処理ユニット(2)は、前記第1と第2の移動指示と前記被検体移動指示を発行し、前記発生指示を前記X線発生器に発行して前記被検体のX線画像を撮像し、前記X線画像から、第1輝度に基づいて互いに分離された検出候補画像を生成し、前記検出候補画像の各々の縦横比に基づいて第1ボイド候補の画像を選択し、第2輝度に基づいて残りの検出候補画像の各々から第2ボイド候補の画像を生成し、前記第1ボイド候補画像と前記第2ボイド候補画像を合成してボイド候補の画像を生成して前記表示装置に出力する。   In another aspect of the present invention, the inspection apparatus moves in response to the first movement instruction, generates an X-ray in response to the generation instruction, and responds to the subject movement instruction. An X-ray camera (8) for imaging the subject using an X-ray generated from the X-ray generator as a second movement instruction, and an X-ray camera (8) for moving the position and orientation of the subject. An image capture (10) for generating an X-ray image from an imaging result of a line camera, a display device (12), the generation instruction is output to the X-ray generator, the actuator is driven, and the image capture And a processing unit (2) for acquiring a detection target image from the X-ray image. The processing unit (2) issues the first and second movement instructions and the subject movement instruction, issues the generation instruction to the X-ray generator, and captures an X-ray image of the subject. , Generating detection candidate images separated from each other based on a first luminance from the X-ray image, selecting an image of a first void candidate based on an aspect ratio of each of the detection candidate images, and setting a second luminance Based on each of the remaining detection candidate images, a second void candidate image is generated, and the first void candidate image and the second void candidate image are synthesized to generate a void candidate image and output to the display device To do.

前記処理ユニット(2)は、ボイドの基準特徴量に基づいて前記ボイド候補画像から、検出されたボイドを示すボイド検出画像を生成することが好ましい。
前記処理ユニット(2)は、前記ボイド候補画像の充填率が、前記基準特徴量としての基準充填率より高いとき、その画像をボイド検出画像と判定し、前記ボイド候補画像の充填率が前記基準充填率以下のとき、前記ボイド候補画像をボイド候補要素画像に分割し、前記ボイド候補要素画像の形状特徴量を計算し、前記形状特徴量がボイド基準を満たすとき、前記ボイド候補要素画像をボイド検出画像と判定することが好ましい。
前記処理ユニット(2)は、前記ボイド候補画像から、前記被検体の一部の構成物に対応する所定領域に存在するものを除外することが好ましい。このとき、前記処理ユニット(2)は、前記X線画像の二値化処理から得られる画像から前記構成物のエッジを検出し、前記検出されたエッジから直線領域を設定し、前記直線領域に基づいて前記決定されたボイド検出画像の一部をマスクすることが好ましい。
前記処理ユニット(2)は、 前記被検体の異なる部位を撮像するとき、前記被検体の特定部位が前記X線画像の中心となるように、X線発生器とX線カメラの組の位置を制御することが好ましい。
The processing unit (2) preferably generates a void detection image indicating the detected void from the void candidate image based on the reference feature amount of the void.
When the filling rate of the candidate void image is higher than a reference filling rate as the reference feature amount, the processing unit (2) determines the image as a void detection image, and the filling rate of the void candidate image is the reference value When the filling factor is less than or equal to the filling factor, the void candidate image is divided into void candidate element images, the shape feature amount of the void candidate element image is calculated, and the void candidate element image is voided when the shape feature amount satisfies a void criterion. It is preferable to determine the detected image.
The processing unit (2) preferably excludes those present in a predetermined region corresponding to a part of the subject from the void candidate image. At this time, the processing unit (2) detects an edge of the component from the image obtained from the binarization processing of the X-ray image, sets a straight line region from the detected edge, and sets the straight line region to the straight line region. Preferably, a part of the void detection image determined based on the mask is masked.
The processing unit (2) sets the position of the set of the X-ray generator and the X-ray camera so that the specific part of the subject becomes the center of the X-ray image when imaging different parts of the subject. It is preferable to control.

本発明によれば、ロウ付け部はX線透過画像上では暗いことを利用して、画像処理でロウ付け部の中心を自動抽出し、ロウ付け部の中心の画像上の中心からのずれ量が求められ、撮像機構の位置決め(調整)が行われる。
また、低い閾値でX線透過画像が二値化され、抽出されたエリアの形状特徴(円形度、大きさ)からボイドと考えられる領域と、ロウ付け部の構造による領域に分けられる。その後、後者の領域は、その領域内で輝度が調べられ、より高い閾値で再度二値化される。こうして、効率よくボイド検出画像が得られる。
更に、抽出されたボイドエリアの特徴(外接エリアでの充填率など)に基づいて判定され、画像が分離される。こうして、より正確にボイドを検出することができる。
加えて、ロウ付け部の輪郭(位部分の輪郭)から管形状の領域を得て、それを用いてボイド検出画像をマスキングする。こうして、より適切なボイド検出画像を得ることができる。
According to the present invention, utilizing the fact that the brazing unit is dark on the X-ray transmission image, the center of the brazing unit is automatically extracted by image processing, and the amount of deviation from the center of the brazing unit on the image And the imaging mechanism is positioned (adjusted).
Further, the X-ray transmission image is binarized with a low threshold value, and is divided into an area that is considered a void based on the shape characteristics (circularity and size) of the extracted area, and an area based on the structure of the brazing portion. Thereafter, the luminance of the latter area is examined in the area and binarized again with a higher threshold value. In this way, a void detection image can be obtained efficiently.
Furthermore, determination is made based on the extracted features of the void area (filling rate in the circumscribed area, etc.), and the image is separated. Thus, voids can be detected more accurately.
In addition, a tube-shaped region is obtained from the contour of the brazing portion (the contour of the upper portion) and is used to mask the void detection image. In this way, a more appropriate void detection image can be obtained.

以下に添付図面を参照して、本発明の検査装置について詳細に説明する。
被検体は、本実施形態では、例えばロケットエンジンのスカート部であり、エンジンスカートの側面を形成するように多数の管が配置され、その管の間がロウ付けされている。このため、図8(a)に示されるように、エンジンスカートの上部では、管の間のインターバルは狭く、下部では管の間のインターバルは広くなっている。本発明の第1実施形態による検査装置では、このエンジンスカートが縦方向ではなく、横方向に載置されて、ロウ付け部の検査が行われる。
Hereinafter, an inspection apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
In this embodiment, the subject is a skirt portion of a rocket engine, for example, and a large number of tubes are arranged so as to form a side surface of the engine skirt, and the tubes are brazed. For this reason, as shown in FIG. 8A, the interval between the pipes is narrow at the upper part of the engine skirt, and the interval between the pipes is wide at the lower part. In the inspection apparatus according to the first embodiment of the present invention, the engine skirt is placed not in the vertical direction but in the horizontal direction, and the brazing portion is inspected.

図1は、本発明の第1実施形態による検査装置の構成を示すブロック図である。図1を参照して、検査装置は、処理ユニット2、X線発生器4、被検体20を駆動するアクチュエータ6、X線カメラ8、画像キャプチャ10、表示ユニット12とを備えている。処理ユニット2は、記憶部(図示せず)を有している。
処理ユニット2は、移動指示をアクチュエータ6に出力する。アクチュエータ6は、その移動指示に応答して被検体を動かして被検体の位置、向き等を制御する。また、処理ユニット2は、移動指示をX線発生器4に発行する。移動指示に応答してX線発生器4は移動して撮像位置を変える。X線カメラ8の位置もX線発生器4の位置に対応して移動される。処理ユニット2は、画像キャプチャ10を制御して、X線カメラ8で撮像された被検体のX線透過画像を取り込む。処理ユニット2は、X線透過画像に画像処理を行い、被検体の欠陥を抽出して、その結果を表示ユニット12に出力する。
FIG. 1 is a block diagram showing the configuration of the inspection apparatus according to the first embodiment of the present invention. Referring to FIG. 1, the inspection apparatus includes a processing unit 2, an X-ray generator 4, an actuator 6 that drives a subject 20, an X-ray camera 8, an image capture 10, and a display unit 12. The processing unit 2 has a storage unit (not shown).
The processing unit 2 outputs a movement instruction to the actuator 6. The actuator 6 moves the subject in response to the movement instruction and controls the position, orientation, etc. of the subject. Further, the processing unit 2 issues a movement instruction to the X-ray generator 4. In response to the movement instruction, the X-ray generator 4 moves to change the imaging position. The position of the X-ray camera 8 is also moved corresponding to the position of the X-ray generator 4. The processing unit 2 controls the image capture 10 to capture an X-ray transmission image of the subject imaged by the X-ray camera 8. The processing unit 2 performs image processing on the X-ray transmission image, extracts a defect of the subject, and outputs the result to the display unit 12.

次に本発明の検査装置の動作について図2を参照して説明する。
処理ユニット2は、移動指示をX線発生器4とX線カメラ6とに発行して、X線発生器4とX線カメラ6を検査部位に移動させる。ついで、処理ユニット2は、発生指示をX線発生器4に、撮像指示をX線カメラ6に発行して被検体としてのエンジンスカートの検査対象部位を撮像する。処理ユニット2の処理の下、撮像結果は画像キャプチャ10に送られる。画像キャプチャ10は、撮像結果から、図3(a)に示される被検体のX線透過画像を生成して、処理ユニット2に転送する。X線透過画像を受け付けると、処理ユニット2は、記憶部(図示せず)に一旦格納する。図3(a)に示されるX線原画像では、上部と下部が管に対応し、中央部がロウ付け部に対応している。これは、エンジンスカートを横にして撮像したためである。中央部では、ロウ付け部の厚さムラにより横長のエリアと右下に楕円エリアが示され、横長のエリアの中に更に楕円のエリアが示されている。これら楕円のエリアが本発明の検査装置で検出されるべきボイドである。
Next, the operation of the inspection apparatus of the present invention will be described with reference to FIG.
The processing unit 2 issues a movement instruction to the X-ray generator 4 and the X-ray camera 6 to move the X-ray generator 4 and the X-ray camera 6 to the examination site. Next, the processing unit 2 issues a generation instruction to the X-ray generator 4 and an imaging instruction to the X-ray camera 6 to image an inspection target portion of the engine skirt as a subject. Under the processing of the processing unit 2, the imaging result is sent to the image capture 10. The image capture 10 generates an X-ray transmission image of the subject shown in FIG. 3A from the imaging result and transfers it to the processing unit 2. When receiving the X-ray transmission image, the processing unit 2 temporarily stores it in a storage unit (not shown). In the X-ray original image shown in FIG. 3A, the upper part and the lower part correspond to the tube, and the center part corresponds to the brazing part. This is because the image was taken with the engine skirt sideways. In the center portion, a horizontally long area and an elliptical area are shown in the lower right due to uneven thickness of the brazed portion, and an elliptical area is further shown in the horizontally long area. These elliptical areas are voids to be detected by the inspection apparatus of the present invention.

処理ユニット2は、X線透過画像を読み出して二値化処理を行って検査領域抽出二値画像を生成する。検査領域は、一般的にはロウ部に対応している。検査領域抽出二値画像は、非検査領域と検査領域とが二値データで区分されている画像である。例えば、X線透過画像の非検査領域としての上下部は”0”に対応し、検査領域としての中央部は”1”に対応している。生成された検査領域抽出二値画像は、記憶部に格納される。   The processing unit 2 reads out the X-ray transmission image and performs binarization processing to generate an inspection region extraction binary image. The inspection area generally corresponds to the row portion. The inspection region extraction binary image is an image in which a non-inspection region and an inspection region are divided by binary data. For example, the upper and lower portions of the X-ray transmission image as non-inspection regions correspond to “0”, and the central portion as the inspection region corresponds to “1”. The generated inspection region extraction binary image is stored in the storage unit.

X線透過画像の処理では、ステップS2で、処理ユニット2は、上記X線原画像に対してノイズ除去を目的にモフォロジ処理(前処理)を行なう。
次いで、ステップS4で、入力ユニットから低めの閾値が設定される。この閾値は、ユーザにより設定されてもよいし、あるいは処理ユニット2により自動的に設定されてもよい。処理部ユニット2は、設定された閾値に基づいてX線原画像の二値化処理を行う。これにより、図3(b)に示される二値化画像が得られる。低めの閾値を用いる二値化を採用すれば、ボイド候補をもれなく抽出できる。
In the processing of the X-ray transmission image, in step S2, the processing unit 2 performs a morphology process (pre-processing) for the purpose of noise removal on the X-ray original image.
Next, in step S4, a lower threshold is set from the input unit. This threshold value may be set by the user or automatically set by the processing unit 2. The processing unit 2 performs binarization processing of the X-ray original image based on the set threshold value. Thereby, the binarized image shown in FIG. 3B is obtained. If binarization using a lower threshold is adopted, void candidates can be extracted without exception.

ステップS6で処理ユニット2は、記憶部から検査領域抽出二値画像を読み出し、ステップS4で二値化された画像と、画素単位で論理積(AND)を計算する。こうして、図3(b)に示されるように、X線原画像から検査領域以外を削除して、ロウ付け部に対応する検査領域の画像を抽出することができる。続いて、ステップS8では、処理ユニット2は、検査領域に存在する高輝度の領域の画像の各々にラベルを付与する。   In step S6, the processing unit 2 reads the inspection area extraction binary image from the storage unit, and calculates a logical product (AND) in units of pixels from the image binarized in step S4. In this way, as shown in FIG. 3B, it is possible to delete an image of the inspection region corresponding to the brazing portion by deleting the region other than the inspection region from the X-ray original image. Subsequently, in step S8, the processing unit 2 gives a label to each of the images of the high luminance area existing in the inspection area.

ステップS10では、処理ユニット2は、ラベルが付与されたラベル画像が横長ラベル画像であるか否かを判定する。一般的にボイドは略円形又は(横/縦)の比が小さい或いは1に近い略楕円形として想定されている。(横/縦)の比が大きい、又は(縦/横)の比が大きい楕円はボイドとは想定されていない。また、ラベル画像が略円形又は略楕円形の画像であるとしても、半径或いは高さ等が大きく画像の領域が大きいものは、ボイドではないと考えられる。そこで、図3(c)に示されるように、ラベル画像が横長ラベルの場合、即ち(横/縦)比が大きい楕円の場合には、ステップS12が実行される。図3(g)に示されるように、横長ラベルではない場合には、ステップS30が実行される。ステップS30では、図3(h)に示されるように、ラベル画像の形状の特徴、例えば(横/縦)比が1に近いか否かの円形度、ラベル画像の大きさからラベル画像がボイドの画像と考えられるか否かが判定される。ラベル画像がボイド画像と判定されるときは、ステップS34が実行され、図3(i)に示されるラベル画像はボイド候補画像(1)として記憶部に格納される。また、ラベル画像が大きすぎる等によりボイド画像とは判定されないときは、ステップS32が実行され、処理ユニット2は、上記閾値としてより高い値を設定する。その後、閾値設定処理を除いて、ステップS4が実行される。こうして、前回より輝度が高いノイズが除かれた二値化画像が得られる。続いて、ステップS6以降の処理が実行される。   In step S10, the processing unit 2 determines whether or not the label image to which the label is attached is a horizontally long label image. In general, the void is assumed to be a substantially circular shape or a substantially elliptical shape with a small (horizontal / vertical) ratio or close to 1. An ellipse having a large (horizontal / vertical) ratio or a large (vertical / horizontal) ratio is not assumed to be a void. Further, even if the label image is a substantially circular or substantially oval image, it is considered that an image having a large radius or height and a large image area is not a void. Therefore, as shown in FIG. 3C, when the label image is a horizontally long label, that is, when the label image is an ellipse with a large (horizontal / vertical) ratio, step S12 is executed. As shown in FIG. 3G, when it is not a landscape label, step S30 is executed. In step S30, as shown in FIG. 3H, the label image is a void based on the shape characteristics of the label image, for example, the circularity of whether the (horizontal / vertical) ratio is close to 1, and the size of the label image. It is determined whether or not the image can be considered. When it is determined that the label image is a void image, step S34 is executed, and the label image shown in FIG. 3 (i) is stored in the storage unit as a void candidate image (1). Further, when the label image is not determined to be a large image or the like, step S32 is executed, and the processing unit 2 sets a higher value as the threshold value. Thereafter, step S4 is executed except for the threshold setting process. In this way, a binarized image from which noise having higher luminance than before is removed is obtained. Then, the process after step S6 is performed.

横長ラベル画像はボイド画像ではなく、ロウ付け部の厚さの分布により抽出される構造依存の画像である場合もある。そこで、処理ユニット2は、横長ラベルの各々に対して、ステップS12からステップS18までの処理を実行する。ステップS14では、処理ユニット2は、ラベルごとに設定される閾値に基づいて二値化処理を実行する。横長ラベル画像がロウ付け部の厚さの分布によるときは、一般的に横長ラベル画像の輝度は低い。一方、ボイド画像の輝度は比較的高いので、閾値を上げることで、ボイド画像を分離することができる。ステップS16で、こうして新たに得られた画像の各々に新たなラベルが付与される。その後、図3(d)に示されるように、ラベル画像の形状の特徴、例えば(横/縦)比が1に近いか否かの円形度、ラベル画像の大きさからラベル画像がボイド画像と考えられるか否かが判定される。ラベル画像がボイド画像と判定されたときは、ステップS20で図3(e)に示される画像がボイド候補画像(2)として記憶部に格納される。   The horizontally long label image is not a void image, but may be a structure-dependent image extracted by the thickness distribution of the brazing portion. Therefore, the processing unit 2 executes the processing from step S12 to step S18 for each of the horizontally long labels. In step S14, the processing unit 2 executes a binarization process based on a threshold set for each label. When the horizontally long label image is based on the thickness distribution of the brazed portion, the brightness of the horizontally long label image is generally low. On the other hand, since the brightness of the void image is relatively high, the void image can be separated by increasing the threshold value. In step S16, a new label is assigned to each of the newly obtained images. Thereafter, as shown in FIG. 3D, the label image is determined to be a void image based on the shape characteristics of the label image, for example, the circularity of whether the (horizontal / vertical) ratio is close to 1 or the size of the label image. It is determined whether it can be considered. When it is determined that the label image is a void image, the image shown in FIG. 3E is stored in the storage unit as a void candidate image (2) in step S20.

次に、ステップS22では、ステップS34で得られたボイド候補画像(1)とステップS20で得られたボイド候補画像(2)が記憶部から読み出され、合成され、図3(f)に示されるように、検出されたボイドを示す新たなボイド検出画像が生成される。ボイド検出画像の中のボイド画像の各々には、ステップS24でラベルが付与される。
従来の手法では、ボイドの抽出において、ロウ付け部の明暗処理により輝度値が大きく変化している部分をエッジとして抽出し,エッジを近傍で結合してボイド部分と判定していた。その際にボイドの一般的な形状(円・楕円)の特徴は利用しないので、例えば、全体的に暗い部分でも、輝度差があればエッジとして抽出されていた。このため、局所的に明るい部分を見つけるという人間による検査と一致しない場合があった。また,単純に一定以上明るい部分を抽出するようにする方法もあるが、ロウ付け部の構造による線状の明るい部分全体を抽出して、過剰抽出となっていた。
本実施形態では、先ず低い閾値で画像が二値化され、抽出された鰓の形状特徴(円形度・大きさ)からボイドと考えられる領域(領域2)と、ロウ付け部の構造(領域1)に分けられる。後者は、更にその領域内での輝度の分布を調べ、より高い閾値で再度二値化される。これにより、より適切な輝度に基づいてボイド検出画像が検出される。
Next, in step S22, the void candidate image (1) obtained in step S34 and the void candidate image (2) obtained in step S20 are read from the storage unit, synthesized, and shown in FIG. 3 (f). As shown, a new void detection image showing the detected void is generated. Each of the void images in the void detection image is given a label in step S24.
In the conventional method, in the extraction of the void, a portion where the luminance value is greatly changed by the brightness processing of the brazing portion is extracted as an edge, and the edge is combined in the vicinity to determine the void portion. At that time, since the feature of the general shape (circle / ellipse) of the void is not used, for example, even in a dark part as a whole, if there is a luminance difference, it is extracted as an edge. For this reason, there was a case where it does not coincide with human inspection of finding a bright part locally. In addition, there is a method of simply extracting a bright portion above a certain level, but the entire linear bright portion due to the structure of the brazing portion is extracted, resulting in excessive extraction.
In the present embodiment, the image is first binarized with a low threshold, and the region (region 2) that is considered to be a void based on the extracted shape features (circularity and size) of the eyelids, and the structure of the brazing portion (region 1). ). The latter is further binarized at a higher threshold by examining the luminance distribution within that region. Thereby, a void detection image is detected based on a more appropriate luminance.

次いで、ステップS40で、ラベルが付与されたボイド画像(ラベル画像)の特徴に基づいてボイドが検出される。その後、ステップS50で、管部に相当する位置でボイドと検出されたものを除く処理が行われる。尚、ステップS24、S40、S50は省略されてもよい。   Next, in step S40, a void is detected based on the feature of the void image (label image) to which the label is assigned. Thereafter, in step S50, a process is performed to remove those detected as voids at a position corresponding to the tube portion. Note that steps S24, S40, and S50 may be omitted.

次に、本発明の第2実施形態による検査装置の構成は、第1実施形態による検査装置と同様である。従って、その説明は省略する。第2実施形態による検査装置の動作を図4を参照して説明する。この動作は、第1実施形態のステップS40に対応する。   Next, the configuration of the inspection apparatus according to the second embodiment of the present invention is the same as that of the inspection apparatus according to the first embodiment. Therefore, the description is omitted. The operation of the inspection apparatus according to the second embodiment will be described with reference to FIG. This operation corresponds to step S40 in the first embodiment.

従来では、図5(a)に示されるように、連結された画像があるとき、図5(b)に示されるように、T1、T2を管部からの画像の距離(接合部幅)、T3をロウ付け部幅とすると、T3−(T1+T2)で非接合部幅が求まり、{T3−(T1+T2)}/T3で接合率が求まる。従来では、この得られたけ接合率の結果、ボイド画像が過剰に不合格とされることがあった。   Conventionally, as shown in FIG. 5 (a), when there is a connected image, as shown in FIG. 5 (b), T1 and T2 are the distance of the image from the tube (junction width), When T3 is a brazing part width, the non-joint part width is obtained by T3- (T1 + T2), and the joining rate is obtained by {T3- (T1 + T2)} / T3. Conventionally, as a result of the obtained joint ratio, the void image may be excessively rejected.

本実施形態では、先ず、画像の要素の各々にラベルが付与されラベル画像が得られる。このステップは第1実施形態のステップS24に対応する。ステップS41では、図5(c)に示されるように、処理ユニット2は、ラベル画像の各々のラベル特徴量(充填率)を計算する。図5(d)に示されるように、充填率とは、{(抽出ボイド面積)/(外接長方形の面積)}をいう。図5(c)では、暗い部分の面積と、暗い部分に外部で隣接する長方形の面積との比が計算される。ステップS42では、充填率が基準値以下であるか否かが判定される。充填率が基準値以下では無いと判定されると、ステップS46が実行される。   In this embodiment, first, a label image is obtained by assigning a label to each of the elements of the image. This step corresponds to step S24 of the first embodiment. In step S41, as shown in FIG. 5C, the processing unit 2 calculates each label feature amount (filling rate) of the label image. As shown in FIG. 5D, the filling rate means {(extracted void area) / (area of circumscribed rectangle)}. In FIG. 5C, the ratio between the area of the dark part and the area of the rectangle adjacent to the dark part outside is calculated. In step S42, it is determined whether or not the filling rate is equal to or less than a reference value. If it is determined that the filling rate is not below the reference value, step S46 is executed.

ステップS42で、充填率が基準値以下であると判定されると、その画像は、複数のボイドの要素が結合した画像であると判断され、ステップS43が実行される。ステップS43では、対象としてのラベル画像に対して収縮・膨張処理が行なわれる。収縮処理では、対象画像としてのラベル画像の周囲の一定幅、例えば1画素分又は2画素分の幅が削除される。即ち、輝度が0とされる。更に収縮の要望があるときは、所定幅分対象画像から削除される。削除される画素の輝度は種々であり、それらが輝度0にされる。こうして、図5(e)に示されるように、分離された画像を有する収縮画像が得られる。続いて、元の画像に近づけるために、膨張処理が行われる。膨張処理では、対象画像の周囲に一定幅、例えば1画素分の幅が追加される。更に膨張の要望があるときは、所定幅分対象画像の周囲に付加される。追加される画素の輝度は一定である。こうして、図5(f)に示される膨張画像が得られる。このように、収縮・膨張処理をラベル画像に適用することにより、1つのラベル画像を3つの適切な画像に分解することができる。   If it is determined in step S42 that the filling rate is equal to or less than the reference value, the image is determined to be an image in which a plurality of void elements are combined, and step S43 is executed. In step S43, contraction / expansion processing is performed on the target label image. In the contraction process, a certain width around the label image as the target image, for example, one pixel or two pixels is deleted. That is, the luminance is set to zero. When there is a request for further shrinkage, the image is deleted from the target image by a predetermined width. The brightness of pixels to be deleted varies, and they are set to 0 brightness. Thus, as shown in FIG. 5E, a contracted image having the separated images is obtained. Subsequently, an expansion process is performed in order to approximate the original image. In the expansion process, a certain width, for example, a width corresponding to one pixel is added around the target image. Further, when there is a demand for expansion, a predetermined width is added around the target image. The luminance of the added pixel is constant. In this way, an expanded image shown in FIG. 5F is obtained. In this way, by applying the contraction / expansion processing to the label image, one label image can be decomposed into three appropriate images.

ステップS44では、処理ユニット2は、ステップS43で得られた画像の各々に対して、図5(g)に示されるように、ラベル特徴量が計算される。特徴量は、{T3−(T1+T2+T4)}/T3として計算される。値T1〜T4の定義は図5(h)に示されている。即ち、T1は上部の画像の上部の管部からの距離であり、T2は下部の画像の下部の管部からの距離であり、T3は管部間の距離であり、T4は分離された画像間の距離である。
ステップS45では、処理ユニット2は、計算された特徴量がボイド判定基準を満たすか否かを判定する。ボイド判定基準を満たさないときは、ステップS47が実行され、判定対象画像は非ボイド画像であると判定される。一方、ボイド判定基準を満たすときには、ステップS46が実行される。ステップS46では、対象画像はボイド画像と判定される。また、第1実施形態におけるステップS8、S16の判定と同様に、各対象画像が横長画像であるのか否かが判定され、更に、ボイド画像か否かは、円形度等に基づいて判断される。
In step S44, the processing unit 2 calculates a label feature amount for each of the images obtained in step S43 as shown in FIG. The feature amount is calculated as {T3− (T1 + T2 + T4)} / T3. The definition of the values T1 to T4 is shown in FIG. That is, T1 is the distance from the upper tube portion of the upper image, T2 is the distance from the lower tube portion of the lower image, T3 is the distance between the tube portions, and T4 is the separated image. Is the distance between.
In step S45, the processing unit 2 determines whether or not the calculated feature amount satisfies the void determination criterion. When the void determination criterion is not satisfied, step S47 is executed, and it is determined that the determination target image is a non-void image. On the other hand, when the void determination criterion is satisfied, step S46 is executed. In step S46, the target image is determined as a void image. Further, similarly to the determinations in steps S8 and S16 in the first embodiment, it is determined whether or not each target image is a horizontally long image, and further whether or not it is a void image is determined based on the circularity or the like. .

従来では、輪郭をつないだ部分がどんな形状であれ、ボイドとして認識されていた。このため、複数のボイドがつながった場合には、全体で大きなボイドであると誤認識されていた。本実施形態では、抽出されたボイドエリアの特徴(充填率=抽出ボイド面積/外接長方形の面積)に基づいて単一のボイド画像であるか否かが判定され、連結ボイド画像であると判定されたときは、分離され、ボイド形状の特徴(大きさ、円形度等)に基づいて各分離画像がボイドであるか否かが判定されている。これにより、より精密にボイドを判定することが可能となる。
尚、第2実施形態は、第1実施形態の後に続けて実行されてもよい。
In the past, whatever the shape of the connected parts was recognized as a void. For this reason, when a plurality of voids are connected, it was mistakenly recognized as a large void as a whole. In the present embodiment, whether or not the image is a single void image is determined based on the extracted void area characteristics (filling ratio = extracted void area / circumscribed rectangle area), and is determined to be a connected void image. When it is separated, it is determined whether or not each separated image is a void based on the features (size, circularity, etc.) of the void shape. As a result, the void can be determined more precisely.
Note that the second embodiment may be executed after the first embodiment.

次に、本発明の第3実施形態による検査装置の構成は、第1実施形態による検査装置と同様である。従って、その説明は省略する。第3実施形態による検査装置の動作を図6を参照して説明する。この動作は、第1実施形態の動作のステップS50に対応する。   Next, the configuration of the inspection apparatus according to the third embodiment of the present invention is the same as that of the inspection apparatus according to the first embodiment. Therefore, the description is omitted. The operation of the inspection apparatus according to the third embodiment will be described with reference to FIG. This operation corresponds to step S50 of the operation of the first embodiment.

従来では、図7(a)に示されるように、ロウが管部の上にはみだしている部分も暗いロウ付け部として認識され、分析対象となっていた。このため、抽出不要なボイドも抽出され、検査精度が低下していた。   Conventionally, as shown in FIG. 7A, the portion where the wax protrudes above the tube portion is also recognized as a dark brazing portion, and has been an analysis target. For this reason, voids that do not require extraction have also been extracted, and the inspection accuracy has been reduced.

本実施形態では、第1実施形態において説明されたロウ付け部抽出二値化画像が準備される。この二値化画像は、第1実施形態における検査対象領域画像と同様である。
次に、ステップS52で、処理ユニット2は、ロウ部抽出二値化画像からエッジを抽出する。続いて、ステップS54では、抽出されたエッジを用いて管部を表わす直線を抽出する。ステップS56では、処理ユニット2は、抽出された直線を用いて、図7(b)に示されるように、管部領域を表わす二値化画像を生成する。この二値化管部画像では、非管部領域と管部領域とが二値データで区分されている画像である。例えば、非管部領域では画素は”1”の輝度に対応し、管部領域の輝度は”0”に対応している。ステップS58では、その二値化管部画像とボイド検出画像との論理積(AND)が画素ごとに計算される。これにより、図7(c)に示されるロウ付けが管部にはみだした部分は、検査対称から除外され、ボイド検査の精度が改善される。
In the present embodiment, the brazed portion extraction binarized image described in the first embodiment is prepared. This binarized image is the same as the inspection target region image in the first embodiment.
Next, in step S52, the processing unit 2 extracts an edge from the row extraction binary image. Subsequently, in step S54, a straight line representing the pipe portion is extracted using the extracted edge. In step S56, the processing unit 2 uses the extracted straight line to generate a binarized image representing the tube region as shown in FIG. 7B. In this binarized tube portion image, the non-tube portion region and the tube portion region are images that are divided by binary data. For example, in the non-tube region, the pixel corresponds to a luminance of “1”, and the luminance of the tube region corresponds to “0”. In step S58, the logical product (AND) of the binarized tube portion image and the void detection image is calculated for each pixel. As a result, the portion where the brazing shown in FIG. 7C protrudes from the tube portion is excluded from the inspection symmetry, and the accuracy of the void inspection is improved.

従来では、処理対象領域の決定において、暗い部分をロウ部として認識するが、ロウ部がはみだしている部分も分析の対象としていまい、不要なボイドを抽出して検査精度が低下していた。一方、本発明の第3実施形態では、ロウ部輪郭(暗い部分の輪郭)から管形状にフィッティングし、その領域は管部として除外される。   Conventionally, in determining a processing target area, a dark portion is recognized as a low portion, but a portion where the low portion protrudes is also an object of analysis, and unnecessary voids are extracted to reduce inspection accuracy. On the other hand, in the third embodiment of the present invention, fitting is performed from the low part outline (dark outline) to the tube shape, and the region is excluded as the tube portion.

次に、本発明の第4実施形態による検査装置の構成は、第1実施形態による検査装置と同様である。本発明では種々のものが検査されるが、検査される被検体の一つは、ロケットエンジンのスカート部である。スカート部では、エンジンスカートの側面を形成するように多数の管が配置されている。このため、図8(a)に示されるように、エンジンスカートの上部では、管の間のインターバルは狭く、下部では管の間のインターバルは広くなっている。エンジンが横向きに載置されるときは、一方の側で狭く、他方の側で広くなっている。従って、図8(b)に示されるように、エンジンスカートの種々の部位を検査するとき、X線発生器4とX線カメラ8をただ単に水平方向に移動させただけでは、直前に検査された部位に対応する部位が画像の中央にこない場合がある。そのため、第4実施形態では、画像の連続性を保ちながらX線発生器4とX線カメラ8が移動され、検査対象部位の管部が常に画像の中央にくるようにされる。
このように、本実施形態では、ロウ付け部は暗いことを利用して画像処理でロウ付け部の中央を自動抽出し、ロウ付け部の中心の画像の中心からのずれ量を求めてX線発生器4とX線カメラ8の位置が決定され、制御されている。
Next, the configuration of the inspection apparatus according to the fourth embodiment of the present invention is the same as that of the inspection apparatus according to the first embodiment. Various objects are inspected in the present invention, and one of the inspected objects is a rocket engine skirt. In the skirt portion, a large number of tubes are arranged so as to form the side surface of the engine skirt. For this reason, as shown in FIG. 8A, the interval between the pipes is narrow at the upper part of the engine skirt, and the interval between the pipes is wide at the lower part. When the engine is placed sideways, it is narrow on one side and wide on the other side. Therefore, as shown in FIG. 8B, when inspecting various parts of the engine skirt, the X-ray generator 4 and the X-ray camera 8 are inspected immediately before by simply moving them in the horizontal direction. There is a case where the part corresponding to the broken part does not come to the center of the image. For this reason, in the fourth embodiment, the X-ray generator 4 and the X-ray camera 8 are moved while maintaining the continuity of the images so that the tube portion of the examination target portion is always at the center of the image.
As described above, in this embodiment, the brazing unit is dark so that the center of the brazing unit is automatically extracted by image processing, and the amount of deviation from the center of the image at the center of the brazing unit is obtained to obtain an X-ray. The positions of the generator 4 and the X-ray camera 8 are determined and controlled.

以上述べたように、本発明によれば、ロウ付け部は暗いことを利用して、画像処理でロウ付け部の中心を自動抽出し、ロウ付け部の中心の画像上の中心からのずれ量が求められ、撮像機構の位置決め(調整)が行われる。
また、低い閾値でX線透過画像が二値化され、抽出されたエリアの形状特徴(円傾度、大きさ)からボイドと考えられる領域と、ロウ付け部の構造による領域に分けられる。その後、後者の領域は、その領域内で輝度が調べられ、より高い閾値で再度二値化される。こうして、効率よくボイド検出画像が得られる。
更に、抽出されたボイドエリアの特徴(外接エリアでの充填率など)に基づいて判定され、画像が分離される。こうして、より正確にボイドを検出することができる。
加えて、ロウ付け部の輪郭(位部分の輪郭)から管形状の領域を得て、それを用いてボイド検出画像をマスキングする。こうして、より適切なボイド検出画像を得ることができる。
As described above, according to the present invention, by utilizing the fact that the brazing part is dark, the center of the brazing part is automatically extracted by image processing, and the amount of deviation from the center of the brazing part on the image is determined. And the imaging mechanism is positioned (adjusted).
Further, the X-ray transmission image is binarized with a low threshold value, and is divided into a region considered as a void based on the extracted shape characteristics (circular gradient, size), and a region due to the structure of the brazing portion. Thereafter, the luminance of the latter area is examined in the area and binarized again with a higher threshold value. In this way, a void detection image can be obtained efficiently.
Furthermore, determination is made based on the extracted features of the void area (filling rate in the circumscribed area, etc.), and the image is separated. Thus, voids can be detected more accurately.
In addition, a tube-shaped region is obtained from the contour of the brazing portion (the contour of the upper portion) and is used to mask the void detection image. In this way, a more appropriate void detection image can be obtained.

図1は、本発明の第1実施形態による検査装置の構成を示す図である。FIG. 1 is a diagram showing the configuration of the inspection apparatus according to the first embodiment of the present invention. 図2は、本発明の第1実施形態による検査装置の動作を説明するフローチャートである。FIG. 2 is a flowchart for explaining the operation of the inspection apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態による検査装置の動作を説明するための図である。FIG. 3 is a diagram for explaining the operation of the inspection apparatus according to the first embodiment of the present invention. 図4は、本発明の第2実施形態による検査装置の動作を説明するフローチャートである。FIG. 4 is a flowchart for explaining the operation of the inspection apparatus according to the second embodiment of the present invention. 図5は、本発明の第2実施形態による検査装置の動作を説明するための図である。FIG. 5 is a diagram for explaining the operation of the inspection apparatus according to the second embodiment of the present invention. 図6は、本発明の第3実施形態による検査装置の動作を説明するフローチャートである。FIG. 6 is a flowchart for explaining the operation of the inspection apparatus according to the third embodiment of the present invention. 図7は、本発明の第3実施形態による検査装置の動作を説明するための図である。FIG. 7 is a diagram for explaining the operation of the inspection apparatus according to the third embodiment of the present invention. 図8は、本発明で、X線が被検体に照射される様子を示す図である。FIG. 8 is a diagram showing a state in which the subject is irradiated with X-rays in the present invention.

符号の説明Explanation of symbols

2:処理ユニット
4:X線発生器
6:アクチュエータ
8:X線カメラ
10:画像キャプチャ
12:表示装置
20:被検体
2: Processing unit 4: X-ray generator 6: Actuator 8: X-ray camera 10: Image capture 12: Display device 20: Subject

Claims (9)

(a)被検体のX線画像を撮像するステップと、
(b)前記X線画像から、第1輝度に基づいて互いに分離された検出候補画像を生成するステップと、
(c)前記検出候補画像の各々の縦横比に基づいて第1ボイド候補の画像を選択するステップと、
(d)第2輝度に基づいて残りの検出候補画像の各々から第2ボイド候補の画像を生成するステップと、
(e)前記第1ボイド候補画像と前記第2ボイド候補画像を合成してボイド候補の画像を生成するステップと
(f)ボイドの基準特徴量に基づいて前記ボイド候補画像から、検出されたボイドを示すボイド検出画像を生成するステップと
を具備し、
前記(f)ステップは、
(f1)前記ボイド候補画像の充填率が、前記基準特徴量としての基準充填率より高いとき、その画像をボイド検出画像と判定するステップと、ここで、充填率とは、{(ボイド候補画像の面積)/(ボイド候補画像の外接長方形の面積)}であり、
(f2)前記ボイド候補画像の充填率が前記基準充填率以下のとき、前記ボイド候補画像をボイド候補要素画像に分割するステップと、
(f3)前記ボイド候補要素画像の形状特徴量を計算するステップと、
(f4)前記形状特徴量がボイド基準を満たすとき、前記ボイド候補要素画像をボイド検出画像と判定するステップと
を具備する
検査方法。
(A) capturing an X-ray image of the subject;
(B) generating detection candidate images separated from each other based on a first luminance from the X-ray image;
(C) selecting an image of a first void candidate based on an aspect ratio of each of the detection candidate images;
(D) generating a second void candidate image from each of the remaining detection candidate images based on the second luminance;
(E) synthesizing the first void candidate image and the second void candidate image to generate a void candidate image ;
(F) generating a void detection image indicating a detected void from the void candidate image based on a reference feature amount of the void ; and
The step (f)
(F1) When the filling rate of the void candidate image is higher than the reference filling rate as the reference feature quantity, the step of determining the image as a void detection image, where the filling rate is {(void candidate image Area) / (area of the circumscribed rectangle of the void candidate image)},
(F2) dividing the void candidate image into void candidate element images when the filling rate of the void candidate image is equal to or less than the reference filling rate;
(F3) calculating a shape feature amount of the void candidate element image;
(F4) determining that the void candidate element image is a void detection image when the shape feature value satisfies a void criterion;
An inspection method comprising :
請求項1に記載の検査方法において、
(g)前記ボイド候補画像から、前記被検体の一部の構成物に対応する所定領域に存在するものを除外するステップ
を更に具備する
検査方法。
The inspection method according to claim 1,
(G) The inspection method further comprising the step of excluding from the void candidate images those existing in a predetermined region corresponding to some constituents of the subject.
請求項に記載の検査方法において、
前記除外するステップは、
前記X線画像の二値化処理から得られる画像から前記構成物のエッジを検出するステップと、
前記検出されたエッジから直線領域を設定するステップと、
前記直線領域に基づいて前記決定されたボイド検出画像の一部をマスクするステップと
を具備する
検査方法。
The inspection method according to claim 2 ,
The excluding step includes:
Detecting an edge of the component from an image obtained from the binarization processing of the X-ray image;
Setting a straight line region from the detected edges;
Masking a part of the void detection image determined based on the straight line region.
請求項1乃至3のいずれか一項に記載の検査方法において、
前記(a)ステップは、
前記被検体の異なる部位を撮像するとき、前記被検体の特定部位が前記X線画像の中心となるように、X線発生器とX線カメラの位置を制御するステップ
を具備する
検査方法。
In the inspection method according to any one of claims 1 to 3,
The step (a) includes:
An inspection method comprising a step of controlling the positions of an X-ray generator and an X-ray camera so that when a different part of the subject is imaged, the specific part of the subject becomes the center of the X-ray image.
請求項1乃至のいずれか一項に記載の検査方法を実現するための計算機読み取り可能なプログラム。 A computer-readable program for realizing the inspection method according to any one of claims 1 to 4 . 第1移動指示に応答して移動し、発生指示に応答してX線を発生するX線発生器と、
被検体移動指示に応答して被検体の位置と姿勢を動かすアクチュエータと、
第2移動指示に前記X線発生器から発生されたX線を用いて前記被検体を撮像するX線カメラと、
前記X線カメラの撮像結果からX線画像を生成する画像キャプチャと、
表示装置と、
前記X線発生器に前記発生指示を出力し、前記アクチュエータを駆動し、前記画像キャプチャからの前記X線画像から検出対象画像を取得する処理ユニットと
を具備し、
前記処理ユニットは、前記第1と第2の移動指示と前記被検体移動指示を発行し、前記発生指示を前記X線発生器に発行して前記被検体のX線画像を撮像し、前記X線画像から、第1輝度に基づいて互いに分離された検出候補画像を生成し、前記検出候補画像の各々の縦横比に基づいて第1ボイド候補の画像を選択し、第2輝度に基づいて残りの検出候補画像の各々から第2ボイド候補の画像を生成し、前記第1ボイド候補画像と前記第2ボイド候補画像を合成してボイド候補の画像を生成して前記表示装置に出力し、
前記処理ユニットは、ボイドの基準特徴量に基づいて前記ボイド候補画像から、検出されたボイドを示すボイド検出画像を生成し、
前記処理ユニットは、{(ボイド候補画像の面積)/(ボイド候補画像の外接長方形の面積)}で示される前記ボイド候補画像の充填率が、前記基準特徴量としての基準充填率より高いとき、その画像をボイド検出画像と判定し、前記ボイド候補画像の充填率が前記基準充填率以下のとき、前記ボイド候補画像をボイド候補要素画像に分割し、前記ボイド候補要素画像の形状特徴量を計算し、前記形状特徴量がボイド基準を満たすとき、前記ボイド候補要素画像をボイド検出画像と判定する
検査装置。
An X-ray generator that moves in response to the first movement instruction and generates X-rays in response to the generation instruction;
An actuator that moves the position and posture of the subject in response to the subject movement instruction;
An X-ray camera that images the subject using X-rays generated from the X-ray generator as a second movement instruction;
Image capture for generating an X-ray image from the imaging result of the X-ray camera;
A display device;
A processing unit that outputs the generation instruction to the X-ray generator, drives the actuator, and acquires a detection target image from the X-ray image from the image capture;
The processing unit issues the first and second movement instructions and the subject movement instruction, issues the generation instruction to the X-ray generator to capture an X-ray image of the subject, and From the line image, detection candidate images separated from each other based on the first luminance are generated, and the first void candidate image is selected based on the aspect ratio of each of the detection candidate images, and the remaining based on the second luminance is selected. Generating a second void candidate image from each of the detected candidate images, generating the void candidate image by synthesizing the first void candidate image and the second void candidate image, and outputting to the display device ,
The processing unit generates a void detection image indicating the detected void from the void candidate image based on the reference feature amount of the void,
When the filling rate of the void candidate image indicated by {(area of the void candidate image) / (area of the circumscribed rectangle of the void candidate image)} is higher than the reference filling rate as the reference feature amount, The image is determined as a void detection image, and when the filling rate of the void candidate image is equal to or less than the reference filling rate, the void candidate image is divided into void candidate element images, and the shape feature amount of the void candidate element image is calculated. And an inspection apparatus that determines the void candidate element image as a void detection image when the shape feature amount satisfies a void criterion .
請求項に記載の検査装置において、
前記処理ユニットは、
前記ボイド候補画像から、前記被検体の一部の構成物に対応する所定領域に存在するものを除外する
検査装置。
The inspection apparatus according to claim 6 , wherein
The processing unit is
An inspection apparatus that excludes from the void candidate images those existing in a predetermined region corresponding to some constituents of the subject.
請求項に記載の検査装置において、
前記処理ユニットは、
前記X線画像の二値化処理から得られる画像から前記構成物のエッジを検出し、前記検出されたエッジから直線領域を設定し、前記直線領域に基づいて前記決定されたボイド検出画像の一部をマスクする
検査装置。
The inspection apparatus according to claim 7 ,
The processing unit is
An edge of the component is detected from an image obtained from the binarization processing of the X-ray image, a straight line region is set from the detected edge, and one of the void detection images determined based on the straight line region is set. Inspection device that masks parts.
請求項乃至のいずれか一項に記載の検査装置において、
前記処理ユニットは、
前記被検体の異なる部位を撮像するとき、前記被検体の特定部位が前記X線画像の中心となるように、X線発生器とX線カメラの位置を制御する
検査装置。
The inspection apparatus according to any one of claims 6 to 8 ,
The processing unit is
An inspection apparatus that controls the positions of the X-ray generator and the X-ray camera so that when a different part of the subject is imaged, the specific part of the subject becomes the center of the X-ray image.
JP2008043457A 2008-02-25 2008-02-25 Inspection device and inspection method Active JP5166909B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008043457A JP5166909B2 (en) 2008-02-25 2008-02-25 Inspection device and inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008043457A JP5166909B2 (en) 2008-02-25 2008-02-25 Inspection device and inspection method

Publications (2)

Publication Number Publication Date
JP2009198463A JP2009198463A (en) 2009-09-03
JP5166909B2 true JP5166909B2 (en) 2013-03-21

Family

ID=41142086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008043457A Active JP5166909B2 (en) 2008-02-25 2008-02-25 Inspection device and inspection method

Country Status (1)

Country Link
JP (1) JP5166909B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105579834A (en) * 2013-09-30 2016-05-11 株式会社Ihi Image analysis device and program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011080890A (en) * 2009-10-08 2011-04-21 Toshiba Corp Object identification device
JP5246187B2 (en) 2010-03-15 2013-07-24 オムロン株式会社 X-ray inspection apparatus, X-ray inspection method and program
JP6359474B2 (en) * 2015-03-10 2018-07-18 株式会社東芝 Apparatus and method for quantitative evaluation of brazing joint length using radiation
WO2018003018A1 (en) * 2016-06-28 2018-01-04 株式会社日立ハイテクノロジーズ X-ray inspection method and apparatus
CN111492230A (en) * 2017-12-15 2020-08-04 日本烟草产业株式会社 Method for inspecting cigarette filter, device for inspecting cigarette filter, and program for inspecting cigarette filter
JP7144225B2 (en) * 2018-07-19 2022-09-29 株式会社神戸製鋼所 Spot weld inspection method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0315747A (en) * 1989-06-14 1991-01-24 Mitsubishi Heavy Ind Ltd Automatic checking device for metal adhesion part
JP4211092B2 (en) * 1998-08-27 2009-01-21 株式会社Ihi Automatic welding defect detection method in radiographic inspection
JP4211702B2 (en) * 2004-05-12 2009-01-21 トヨタ自動車株式会社 Cast hole measurement method
JP2006090743A (en) * 2004-09-21 2006-04-06 Kanto Auto Works Ltd Device and method for inspecting inside of foam body
JP2006329907A (en) * 2005-05-30 2006-12-07 Ishida Co Ltd Foreign material detection apparatus and packing container

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105579834A (en) * 2013-09-30 2016-05-11 株式会社Ihi Image analysis device and program
CN105579834B (en) * 2013-09-30 2019-02-19 株式会社Ihi Image analysis apparatus and program

Also Published As

Publication number Publication date
JP2009198463A (en) 2009-09-03

Similar Documents

Publication Publication Date Title
JP5166909B2 (en) Inspection device and inspection method
JP5568456B2 (en) Charged particle beam equipment
JP2007305760A (en) Defect review method, and scanning electron microscope type defect review apparatus using scanning electron microscope type review apparatus
KR20130117862A (en) Pattern matching apparatus, and computer program
KR100938324B1 (en) Defect inspection apparatus, pattern drawing apparatus, pattern drawing system and recording medium storing defect inspection program
JP4858963B2 (en) Medical image processing device
JP2008268026A (en) Tomograph device for subject and layer structure sampling method
JP6756417B1 (en) Work surface defect detection device and detection method, work surface inspection system and program
JP2006023178A (en) 3-dimensional measuring method and device
JP2006170921A (en) Visual inspection method and its apparatus
JP2006170922A (en) Visual inspection method and its apparatus
JP2021056183A (en) Apparatus and method for detecting surface defect of workpiece, surface inspection system for workpiece, and program
WO2014013865A1 (en) Wafer appearance inspection device and method for setting sensitivity threshold value for wafer appearance inspection device
CN116596895A (en) Substation equipment image defect identification method and system
JP2008233107A (en) Visual examination method and visual examination device
JP5157575B2 (en) Defect detection method
JP4415285B1 (en) Wire inspection apparatus, wire inspection method, and wire inspection program
JP2001314374A (en) Corneal endothelial cell measuring apparatus
JP4431591B2 (en) Sample inspection apparatus and sample inspection method
JP2008233106A (en) Visual examination method and visual examination device
JP2011192766A (en) Visual inspection method of semiconductor wafer and device therefor
JP2015099062A (en) Pattern visual inspection apparatus
JP5678737B2 (en) Defect detection method and defect detection apparatus
JP6704336B2 (en) Inspection device and inspection method
JP2008026072A (en) Flaw inspection device and flaw inspection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5166909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250