JP2022082331A - Device and method for displaying inspection results - Google Patents

Device and method for displaying inspection results Download PDF

Info

Publication number
JP2022082331A
JP2022082331A JP2020193825A JP2020193825A JP2022082331A JP 2022082331 A JP2022082331 A JP 2022082331A JP 2020193825 A JP2020193825 A JP 2020193825A JP 2020193825 A JP2020193825 A JP 2020193825A JP 2022082331 A JP2022082331 A JP 2022082331A
Authority
JP
Japan
Prior art keywords
pixel
image
inspected
ray
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020193825A
Other languages
Japanese (ja)
Other versions
JP7304077B2 (en
Inventor
聖 正岡
Kiyoshi Masaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asahi Roentgen Industries Co Ltd
Original Assignee
Asahi Roentgen Industries Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Roentgen Industries Co Ltd filed Critical Asahi Roentgen Industries Co Ltd
Priority to JP2020193825A priority Critical patent/JP7304077B2/en
Publication of JP2022082331A publication Critical patent/JP2022082331A/en
Application granted granted Critical
Publication of JP7304077B2 publication Critical patent/JP7304077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

To provide an inspection result display device which allows an operator to easily remove a foreign matter from an object under inspection upon detection of the foreign matter that can be contained in the object under inspection.SOLUTION: An inspection result display device is provided, comprising: an acquisition unit configured to acquire a two-dimensional image, including an inspection result image showing the position of a foreign matter that can be contained in an object under inspection and a contour image showing at least a portion of a contour of the object under inspection, from an inspection device, and a projection unit configured to actually or virtually project the two dimensional image onto the object under inspection as a projection surface.SELECTED DRAWING: Figure 13

Description

本発明は、被検査物に含まれ得る異物を検出する検査の結果を表示する技術に関する。 The present invention relates to a technique for displaying the result of an inspection for detecting a foreign substance that may be contained in an object to be inspected.

従来、被検査物に含まれ得る異物を検出する検査装置が種々開発されている。例えば、特許文献1で開示されている検査装置は、被検査物のX線透過画像から強調線を検出し、その強調線に基づき異物を検出する。 Conventionally, various inspection devices for detecting foreign substances that may be contained in an object to be inspected have been developed. For example, the inspection device disclosed in Patent Document 1 detects an highlighted line from an X-ray transmission image of an inspected object, and detects a foreign substance based on the highlighted line.

特開2016-156647号公報(段落0042)Japanese Unexamined Patent Publication No. 2016-156647 (paragraph 0042)

特許文献1では、検査結果は液晶ディスプレイなどのディスプレイに表示される。しかしながら、作業者はディスプレイを見ながら被検査物から異物を除去しなければならないので、不慣れな作業員であれば異物の除去に非常に時間がかかるおそれがある。 In Patent Document 1, the inspection result is displayed on a display such as a liquid crystal display. However, since the worker must remove the foreign matter from the object to be inspected while looking at the display, it may take a very long time for an inexperienced worker to remove the foreign matter.

本発明は、上記の状況に鑑み、被検査物に含まれ得る異物が検出された場合に作業者が被検査物から異物を容易に除去することに資する検査結果表示装置及び検査結果表示方法を提供することを目的とするものである。 In view of the above situation, the present invention provides an inspection result display device and an inspection result display method that help an operator to easily remove a foreign substance from the inspected object when a foreign substance that may be contained in the inspected object is detected. It is intended to be provided.

上記目的を達成するために本発明に係る検査結果表示装置は、被検査物に含まれ得る異物の位置を示す検査結果画像及び前記被検査物の輪郭の少なくとも一部を示す輪郭画像を含む2次元画像を検査装置から取得する取得部と、前記被検査物を投射面として前記2次元画像を実際に又は仮想的に投射する投射部と、を備える構成(第1の構成)とする。 In order to achieve the above object, the inspection result display device according to the present invention includes an inspection result image showing the position of a foreign substance that may be contained in the inspected object and a contour image showing at least a part of the outline of the inspected object. The configuration includes an acquisition unit that acquires a dimensional image from an inspection device and a projection unit that actually or virtually projects the two-dimensional image using the object to be inspected as a projection surface (first configuration).

上記第1の構成の検査結果表示装置において、前記輪郭画像は前記輪郭の全部を示す構成(第2の構成)であってもよい。 In the inspection result display device of the first configuration, the contour image may have a configuration (second configuration) showing all of the contours.

上記目的を達成するために本発明に係る検査結果表示方法は、被検査物に含まれ得る異物の位置を示す検査結果画像及び前記被検査物の輪郭の少なくとも一部を示す輪郭画像を含む2次元画像を検査装置から取得する取得ステップと、前記被検査物を投射面として前記2次元画像を実際に又は仮想的に投射する投射ステップと、を備える構成(第3の構成)とする。 In order to achieve the above object, the inspection result display method according to the present invention includes an inspection result image showing the position of a foreign substance that can be contained in the inspected object and a contour image showing at least a part of the outline of the inspected object. The configuration (third configuration) includes an acquisition step of acquiring a dimensional image from an inspection device and a projection step of actually or virtually projecting the two-dimensional image using the object to be inspected as a projection surface.

本発明によると、被検査物に含まれ得る異物が検出された場合に作業者が被検査物から異物を容易に除去することに資する検査結果表示装置及び検査結果表示方法を提供することができる。 According to the present invention, it is possible to provide an inspection result display device and an inspection result display method that help an operator to easily remove a foreign substance from an inspected object when a foreign substance that may be contained in the inspected object is detected. ..

実施形態に係る検査装置の概略構成を示す図The figure which shows the schematic structure of the inspection apparatus which concerns on embodiment. 実施形態に係る検査装置の概略動作を示すフローチャートA flowchart showing the schematic operation of the inspection device according to the embodiment. 座標と投影画像のピクセルとの関係を説明するための図Diagram to illustrate the relationship between coordinates and pixels in a projected image X軸方向における平面への投影を示す図Figure showing projection on a plane in the X-axis direction Y軸方向における平面への投影を示す図The figure which shows the projection to the plane in the Y-axis direction. 第k平面への投影画像の領域と第(k-1)平面への投影画像の領域との位置関係を示す図The figure which shows the positional relationship between the area of the image projected on the kth plane and the area of the image projected on the (k-1) plane. 各投影画像について異物の位置を特定する処理の一例を示すフローチャートA flowchart showing an example of a process for identifying the position of a foreign object for each projected image. 検査装置の第1変形例を示す図The figure which shows the 1st modification of the inspection apparatus. 検査装置の第2変形例を示す図The figure which shows the 2nd modification of the inspection apparatus. 検査装置の第3変形例を示す図The figure which shows the 3rd modification of the inspection apparatus. 検査装置の第3変形例を示す図The figure which shows the 3rd modification of the inspection apparatus. 検査装置の第4変形例を示す図The figure which shows the 4th modification of the inspection apparatus. 検査装置の第4変形例を示す図The figure which shows the 4th modification of the inspection apparatus. プロジェクタの配置例を示す図The figure which shows the arrangement example of a projector プロジェクタの他の配置例を示す図Diagram showing other arrangement examples of projectors プロジェクタの構成例を示す図The figure which shows the configuration example of a projector 被検査物を示す図Diagram showing the object to be inspected 二次元画像を示す図Diagram showing a two-dimensional image 被検査物及び二次元画像を示す図Diagram showing the object to be inspected and a two-dimensional image

本発明の実施形態について図面を参照して以下に説明する。本明細書においては、言葉の定義として、X線検出部の位置を除く所定の位置に設定される平面で生成される画像において、そのX軸方向、Y軸方向の内少なくともいずれか一方に関して二値化撮影画像又は2次元X線撮影画像を平行移動しているだけで長さが変化しない場合においても、便宜上、平面で生成される画像は、二値化撮影画像又は2次元X線撮影画像を平面に「投影」する処理によって得られるものとし、その平面で生成される画像を「投影画像」とよぶことにする。 Embodiments of the present invention will be described below with reference to the drawings. In the present specification, as the definition of the term, in an image generated on a plane set at a predetermined position excluding the position of the X-ray detection unit, at least one of the X-axis direction and the Y-axis direction is two. For convenience, the image generated on the plane is a binarized radiographed image or a two-dimensional radiographed image even when the length is not changed only by moving the valued radiographed image or the two-dimensional radiographed image in parallel. Is obtained by the process of "projecting" on a plane, and the image generated on that plane is called a "projected image".

<1.検査装置の概略構成>
図1は、実施形態に係る検査装置の概略構成を示す図である。図1に示す検査装置100は、第1X線照射部1Aと、第2X線照射部1Bと、第1X線検出部2Aと、第2X線検出部2Bと、ベルトコンベア3と、CPU4と、ROM5と、RAM6と、VRAM7と、送信部8と、HDD9と、入力部10と、を備える。なお、本実施形態では、画像を処理する画像処理装置がCPU4、ROM5、RAM6、及びHDD9によって構成されている。
<1. Outline configuration of inspection equipment>
FIG. 1 is a diagram showing a schematic configuration of an inspection device according to an embodiment. The inspection device 100 shown in FIG. 1 includes a first X-ray irradiation unit 1A, a second X-ray irradiation unit 1B, a first X-ray detection unit 2A, a second X-ray detection unit 2B, a belt conveyor 3, a CPU 4, and a ROM 5. , RAM 6, VRAM 7, transmission unit 8, HDD 9, and input unit 10. In the present embodiment, the image processing device for processing the image is composed of the CPU 4, the ROM 5, the RAM 6, and the HDD 9.

第1X線照射部1A及び第2X線照射部1Bはそれぞれ、被検査物T1にX線を照射する。第1X線照射部1Aから照射されるX線及び第2X線照射部1Bから照射されるX線はそれぞれ、Y軸に沿って延びるファンビーム形状、より詳細にはナローファンビーム形状である。なお、第1X線照射部1A及び第2X線照射部1Bを共通化して単一のX線照射部にしてもよい。当該単一のX線照射部から照射されるX線は、ワイドファンビーム形状又はコーンビーム形状にすればよい。 The first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B each irradiate the inspected object T1 with X-rays. The X-rays emitted from the first X-ray irradiation unit 1A and the X-rays emitted from the second X-ray irradiation unit 1B each have a fan beam shape extending along the Y axis, and more specifically, a narrow fan beam shape. The first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B may be shared to form a single X-ray irradiation unit. The X-rays emitted from the single X-ray irradiation unit may have a wide fan beam shape or a cone beam shape.

第1X線照射部1Aから第1X線検出部2Aに照射されるX線の照射方向と、第2X線照射部1Bから第2X線検出部2Bに照射されるX線の照射方向とは互いに異なる。本実施形態では、第1X線照射部1Aから第1X線検出部2Aに照射されるX線の照射方向はX軸とY軸に直交する方向であり、第2X線照射部1Bから第2X線検出部2Bに照射されるX線の照射方向はX軸とY軸に直交する方向から傾いた方向である。 The irradiation direction of X-rays emitted from the first X-ray irradiation unit 1A to the first X-ray detection unit 2A and the irradiation direction of X-rays emitted from the second X-ray irradiation unit 1B to the second X-ray detection unit 2B are different from each other. .. In the present embodiment, the irradiation direction of the X-rays emitted from the first X-ray irradiation unit 1A to the first X-ray detection unit 2A is a direction orthogonal to the X-axis and the Y-axis, and the second X-ray irradiation unit 1B to the second X-ray. The irradiation direction of the X-rays irradiated to the detection unit 2B is a direction inclined from the direction orthogonal to the X-axis and the Y-axis.

第1X線検出部2A及び第2X線検出部2Bはそれぞれ、入射するX線に応じたデジタル量の電気信号を一定のフレームレート(ラインレート)で出力する。第1X線検出部2A及び第2X線検出部2Bはそれぞれ、Y軸に沿って延びるラインセンサである。当該ラインセンサは、単一ラインのラインセンサであってもよく、複数ラインのラインセンサであってもよい。第1X線検出部2A及び第2X線検出部2Bはそれぞれ、所定のフレームレートで入射X線を、当該X線の量に応じたデジタル電気量の画像データとして収集することができる。以下、この収集データを「フレームデータ」とする。なお、第1X線検出部2A及び第2X線検出部2Bを共通化して単一のX線検出部にしてもよい。ただし、第1X線照射部1A及び第2X線照射部1Bを共通化する場合には、第1X線検出部2A及び第2X線検出部2Bを共通化しない。 The first X-ray detection unit 2A and the second X-ray detection unit 2B each output a digital amount of electric signals corresponding to incident X-rays at a constant frame rate (line rate). The first X-ray detection unit 2A and the second X-ray detection unit 2B are line sensors extending along the Y axis, respectively. The line sensor may be a single-line line sensor or a plurality of line line sensors. The first X-ray detection unit 2A and the second X-ray detection unit 2B can each collect incident X-rays at a predetermined frame rate as image data of a digital electric amount corresponding to the amount of the X-rays. Hereinafter, this collected data will be referred to as "frame data". The first X-ray detection unit 2A and the second X-ray detection unit 2B may be shared to form a single X-ray detection unit. However, when the first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B are shared, the first X-ray detection unit 2A and the second X-ray detection unit 2B are not shared.

ベルトコンベア3は、第1X線照射部1Aと第1X線検出部2Aの対及び第2X線照射部1Bと第2X線検出部2Bの対に対して、ベルト上に載置された被検査物T1をX軸の負側に向かって移動させる。つまり、ベルトコンベア3の構成部品であるベルトの長手方向はX軸に沿っており、ベルトコンベア3の構成部品であるベルトの幅方向はY軸に沿っている。なお、本実施形態では、第1X線照射部1Aと第1X線検出部2Aの対及び第2X線照射部1Bと第2X線検出部2Bの対に対して、被検査物T1をX軸の負側に向かって移動させる第1移動機構(ベルトコンベア3)を用いたが、第1移動機構の代わりに第1X線照射部1Aと第1X線検出部2Aの対及び第2X線照射部1Bと第2X線検出部2Bの対を、被検査物T1に対してX軸の正側に向かって移動させる第2移動機構を用いてもよい。 The belt conveyor 3 is an object to be inspected placed on the belt with respect to the pair of the first X-ray irradiation unit 1A and the first X-ray detection unit 2A and the pair of the second X-ray irradiation unit 1B and the second X-ray detection unit 2B. Move T1 toward the negative side of the X-axis. That is, the longitudinal direction of the belt, which is a component of the belt conveyor 3, is along the X axis, and the width direction of the belt, which is a component of the belt conveyor 3, is along the Y axis. In this embodiment, the inspected object T1 is placed on the X-axis for the pair of the first X-ray irradiation unit 1A and the first X-ray detection unit 2A and the pair of the second X-ray irradiation unit 1B and the second X-ray detection unit 2B. The first moving mechanism (belt conveyor 3) that moves toward the negative side was used, but instead of the first moving mechanism, the pair of the first X-ray irradiation unit 1A and the first X-ray detection unit 2A and the second X-ray irradiation unit 1B were used. A second movement mechanism that moves the pair of the second X-ray detection unit 2B and the second X-ray detection unit 2B toward the positive side of the X-axis with respect to the object T1 to be inspected may be used.

CPU4は、ROM5やHDD9に格納されているプログラム及びデータに従って検査装置100全体を制御する。ROM5は固定的なプログラムやデータを記録する。RAM6は作業メモリを提供する。CPUは、HDD9に格納されたプログラムに従って画像を生成する機能を果たすように動作する。つまり、CPU41は画像を生成する画像生成部を兼ねる。 The CPU 4 controls the entire inspection device 100 according to the programs and data stored in the ROM 5 and the HDD 9. ROM 5 records fixed programs and data. The RAM 6 provides a working memory. The CPU operates so as to perform a function of generating an image according to a program stored in the HDD 9. That is, the CPU 41 also serves as an image generation unit that generates an image.

VRAM7は画像データを一時的に記憶する。送信部8はVRAM7に記憶された画像データを検査結果表示装置200に送信する。 The VRAM 7 temporarily stores image data. The transmission unit 8 transmits the image data stored in the VRAM 7 to the inspection result display device 200.

HDD9は、X線撮影動作を制御するための撮影制御プログラム、画像を処理するための画像処理プログラム、異物の位置を特定するための異物位置特定処理プログラム等の各種プログラム、各種プログラムを実行する際に用いられる各種パラメータの設定値や画像データ等の各種データを記憶する。 When the HDD 9 executes various programs such as an imaging control program for controlling X-ray imaging operation, an image processing program for processing an image, a foreign object position specifying processing program for specifying the position of a foreign object, and various programs. Stores various data such as setting values of various parameters and image data used in the above.

入力部10は、例えばキーボード、ポインティングデバイス等であって、ユーザ操作の内容を入力する。 The input unit 10 is, for example, a keyboard, a pointing device, or the like, and inputs the content of the user operation.

<2.検査装置の概略動作>
検査装置100の概略動作を図2のフローチャートに従い説明する。まず始めに検査装置100はX線撮影を行う(ステップS1)。具体的には、ベルトコンベア3が被検査物T1を移動させている間に、第1X線照射部1A及び第2X線照射部1BからX線が曝射される。なお、第1X線検出部2A及び第2X線検出部2Bがそれぞれ単一ラインのラインセンサである場合は、ラインセンサの画素サイズと1フレームあたりの被検査物の移動量とを一致させる。第1X線検出部2A及び第2X線検出部2Bがそれぞれ複数ラインのラインセンサである場合は、ラインセンサの画素サイズと1フレームあたりの被検査物の移動量とを必ずしも一致させる必要はなく、1フレームあたりの被検査物の移動量はラインセンサの画素サイズの倍数であってもよい。ただし、当該倍数はラインセンサのライン数以下とする。第1X線照射部1Aから照射されたX線は被検査物T1の撮影領域を透過して第1X線検出部2Aに入射し、第2X線照射部1Bから照射されたX線は被検査物T1の撮影領域を透過して第2X線検出部2Bに入射する。第1X線検出部2A及び第2X線検出部2Bは、前述したように、所定のフレームレートで入射X線を検出し、対応するデジタル電気量のフレームデータをフレーム単位で順次出力する。このフレームデータは、HDD9に保管される。2次元のデジタルデータは、ラインセンサで得られるフレームデータを順番に並べていくことで得られる。なお、第1X線検出部2A及び第2X線検出部2Bがそれぞれ複数ラインのラインセンサである場合は、各ピクセルのデータは複数フレームのデータの和になる。
<2. Approximate operation of inspection equipment>
The schematic operation of the inspection device 100 will be described with reference to the flowchart of FIG. First, the inspection device 100 performs X-ray imaging (step S1). Specifically, while the belt conveyor 3 is moving the object T1 to be inspected, X-rays are exposed from the first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B. When the first X-ray detection unit 2A and the second X-ray detection unit 2B are single-line line sensors, the pixel size of the line sensor and the movement amount of the inspected object per frame are matched. When the first X-ray detection unit 2A and the second X-ray detection unit 2B are line sensors of a plurality of lines, it is not always necessary to match the pixel size of the line sensor with the movement amount of the object to be inspected per frame. The amount of movement of the object to be inspected per frame may be a multiple of the pixel size of the line sensor. However, the multiple shall be less than or equal to the number of lines of the line sensor. The X-rays emitted from the first X-ray irradiation unit 1A pass through the imaging region of the inspected object T1 and enter the first X-ray detection unit 2A, and the X-rays emitted from the second X-ray irradiation unit 1B are the inspected objects. It passes through the imaging region of T1 and is incident on the second X-ray detection unit 2B. As described above, the first X-ray detection unit 2A and the second X-ray detection unit 2B detect incident X-rays at a predetermined frame rate, and sequentially output frame data of the corresponding digital electric amount in frame units. This frame data is stored in the HDD 9. Two-dimensional digital data is obtained by arranging the frame data obtained by the line sensor in order. When the first X-ray detection unit 2A and the second X-ray detection unit 2B are line sensors having a plurality of lines, the data of each pixel is the sum of the data of a plurality of frames.

次に、検査装置100はX線検出部2A及び2Bの位置を除く所定の位置に設定される平面に投影して投影画像を生成する(ステップS2)。具体的には、検査装置100は、2次元のデジタルデータをX線検出部2A及び2Bの位置を除く所定の位置に設定される60個の各平面に投影して投影画像を生成する。本実施形態では、X軸及びY軸に垂直な方向(Z軸方向)に沿って、第1X線照射部1A及び第2X線照射部1B側から第1X線検出部2A及び第2X線検出部2B側に所定のピッチでX線検出部2A及び2Bの位置を除く所定の位置に複数の平面を設定している。なお、本実施形態では、X線検出部2A及び2Bの位置を除く所定の位置は被検査物T1の位置を含むが、検査装置の構成はこれに限定されない。 Next, the inspection device 100 projects on a plane set at a predetermined position excluding the positions of the X-ray detection units 2A and 2B to generate a projected image (step S2). Specifically, the inspection device 100 projects two-dimensional digital data onto each of 60 planes set at predetermined positions other than the positions of the X-ray detectors 2A and 2B to generate a projected image. In the present embodiment, the first X-ray detection unit 2A and the second X-ray detection unit are from the first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B side along the direction perpendicular to the X-axis and the Y-axis (Z-axis direction). A plurality of planes are set on the 2B side at a predetermined pitch at a predetermined position excluding the positions of the X-ray detectors 2A and 2B. In the present embodiment, the predetermined positions other than the positions of the X-ray detection units 2A and 2B include the position of the object to be inspected T1, but the configuration of the inspection device is not limited to this.

第1X線照射部1A及び第1X線検出部2Aに由来する60個の投影画像は、HDD9に保管される。同様に、第2X線照射部1B及び第2X線検出部2Bに由来する60個の投影画像も、HDD9に保管される。 The 60 projected images derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A are stored in the HDD 9. Similarly, 60 projected images derived from the second X-ray irradiation unit 1B and the second X-ray detection unit 2B are also stored in the HDD 9.

次に、検査装置100は各投影画像について異物の位置を特定する(ステップS3)。異物の位置を特定する手法の詳細については後述する。各投影画像について異物の位置を特定することによって、単純なX線透過画像等のX線画像について異物の位置を特定する場合と比較して、異物の検出精度を高くすることができる。異物位置の特定結果は、例えば、異物の位置と異物でない位置とを異なる輝度値で示す二値化画像とすることができる。 Next, the inspection device 100 identifies the position of the foreign matter for each projected image (step S3). The details of the method for identifying the position of the foreign matter will be described later. By specifying the position of the foreign matter for each projected image, it is possible to improve the detection accuracy of the foreign matter as compared with the case of specifying the position of the foreign matter in an X-ray image such as a simple X-ray transmission image. The result of specifying the foreign matter position can be, for example, a binarized image showing the position of the foreign matter and the position of the non-foreign matter with different luminance values.

次に、検査装置100は異物の位置特定の誤検出部分を除去する(ステップS4)。図3に示すように、座標は固定されており、第1X線検出部2Aの出力に基づく2次元のデジタルデータDDを或る平面に投影して得られる投影画像F1の位置と、第2X線検出部2Bの出力に基づく2次元のデジタルデータDDを上記或る平面に投影して得られる投影画像F2の位置とは互いにずれている。したがって、同じ座標に着目した場合、投影画像F1のピクセル位置(水平方向にピクセル単位で何番目であるかを定め垂直方向にピクセル単位で何番目であるかを定めることで決定される投影画像上の位置)と投影画像F2のピクセル位置とは異なる。上記或る平面上に位置する被検査物T1の異物T2は、誤検出部分にならない。なお、図3において、投影画像F1と投影画像F2とはZ軸方向にずれがあるように図示されているが、実際には投影画像F1と投影画像F2とのZ座標は同一である。ステップS4の処理において、具体的には、検査装置100は、Z軸方向において同じ位置の第1X線照射部1A及び第1X線検出部2Aに由来する投影画像と第2X線照射部1B及び第2X線検出部2Bに由来する投影画像について、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像に基づき特定した異物の位置と第2X線照射部1B及び第2X線検出部2Bに由来する投影画像に基づき特定した異物の位置とを比較し、比較結果に基づいて異物の位置特定の誤検出部分を除去する。より具体的には、例えば第1の方法、第2の方法等を実施する。上記第1の方法では、検査装置100は、上記の比較により、両方の投影画像において異物の位置であると特定されたピクセルであって、投影した平面上の同じ座標に該当するピクセルのみを異物の位置として採用し、両方の投影画像において異物の位置であると特定されたピクセルであっても、投影した平面上の同じ座標に該当しないピクセルは異物の位置として採用しない。上記第2の方法では、検査装置100は、一方の投影画像において異物の位置であると特定されたピクセルを記憶し、他方の投影画像において、その記憶したピクセルと投影した平面上の座標が同じピクセルから一定の範囲内に異物の位置であると特定されたピクセルが存在すれば、その記憶したピクセルを異物の位置として採用する。ステップS4の処理は、処理対象である平面に存在する異物はX線の照射角度が異なっていても投影した平面上の同じ座標に該当するピクセルで検出されるのに対して、処理対象である平面に存在しない異物等がX線の照射方向に投影された場合には投影した平面上の同じ座標に該当するピクセルで検出されないことを利用した誤検出部分除去処理である。検査装置100は、この誤検出部分除去処理を全ての平面において実行する。 Next, the inspection device 100 removes the erroneous detection portion for specifying the position of the foreign matter (step S4). As shown in FIG. 3, the coordinates are fixed, and the position of the projected image F1 obtained by projecting the two-dimensional digital data DD based on the output of the first X-ray detection unit 2A onto a certain plane and the second X-ray. The positions of the projected image F2 obtained by projecting the two-dimensional digital data DD based on the output of the detection unit 2B onto the above-mentioned plane are deviated from each other. Therefore, when focusing on the same coordinates, the pixel position of the projected image F1 (on the projected image determined by determining the number in the pixel unit in the horizontal direction and determining the number in the pixel unit in the vertical direction). Position) and the pixel position of the projected image F2 are different. The foreign matter T2 of the object T1 to be inspected located on a certain plane does not become a false detection portion. In FIG. 3, the projected image F1 and the projected image F2 are shown so as to be displaced in the Z-axis direction, but the Z coordinates of the projected image F1 and the projected image F2 are actually the same. In the process of step S4, specifically, the inspection device 100 includes the projected image derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A at the same position in the Z-axis direction, the second X-ray irradiation unit 1B, and the second X-ray irradiation unit. Regarding the projected image derived from the 2X-ray detection unit 2B, the position of the foreign matter specified based on the projected images derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A, and the second X-ray irradiation unit 1B and the second X-ray detection unit. The position of the foreign matter specified based on the projected image derived from 2B is compared, and the erroneous detection portion of the foreign matter is removed based on the comparison result. More specifically, for example, the first method, the second method, and the like are carried out. In the first method, the inspection device 100 determines only the pixels that are identified as the positions of foreign objects in both projected images by the above comparison and that correspond to the same coordinates on the projected plane. Even if the pixel is specified as the position of the foreign object in both projected images, the pixel that does not correspond to the same coordinates on the projected plane is not adopted as the position of the foreign object. In the second method, the inspection device 100 stores a pixel identified as the position of a foreign object in one projected image, and in the other projected image, the stored pixel and the projected coordinate on the plane are the same. If a pixel identified as the position of a foreign object exists within a certain range from the pixel, the stored pixel is adopted as the position of the foreign object. In the process of step S4, the foreign matter existing on the plane to be processed is detected at the pixels corresponding to the same coordinates on the projected plane even if the irradiation angles of the X-rays are different, whereas it is the processing target. This is an erroneous detection partial removal process utilizing the fact that when foreign matter or the like that does not exist on the plane is projected in the irradiation direction of X-rays, it is not detected by the pixels corresponding to the same coordinates on the projected plane. The inspection device 100 executes this false detection partial removal process on all planes.

最後に、検査装置100は、出力画像を生成し、その出力画像を送信部8が検査結果表示装置に送信する(ステップS5)。出力画像としては、例えば、誤検出部分除去処理及び位置補正が反映された異物の位置を示す各投影画像を全て足し合わせて得られる検査結果画像(被検査物T1に含まれ得る異物の位置を示す検査結果画像)及び被検査物T1の輪郭の全部を示す輪郭画像を含む2次元画像を挙げることができる。なお、被検査物T1の輪郭は、X線画像おけるエッジ抽出処理によって特定することができる。また、輪郭画像は、被検査物T1の輪郭の一部(例えば、輪郭の上端、下端、左端、及び右端の4点)を示す画像であってもよい。ただし、輪郭画像が被検査物T1の輪郭の全部である方が被検査物T1と2次元画像との位置合わせが容易になる。 Finally, the inspection device 100 generates an output image, and the transmission unit 8 transmits the output image to the inspection result display device (step S5). As the output image, for example, an inspection result image (position of foreign matter that can be contained in the inspected object T1) obtained by adding all the projected images showing the positions of foreign matter reflecting the false detection portion removal process and the position correction. An inspection result image) and a two-dimensional image including a contour image showing the entire contour of the object T1 to be inspected can be mentioned. The contour of the object to be inspected T1 can be specified by the edge extraction process in the X-ray image. Further, the contour image may be an image showing a part of the contour of the object T1 to be inspected (for example, four points of the upper end, the lower end, the left end, and the right end of the contour). However, if the contour image is the entire contour of the object T1 to be inspected, the alignment between the object T1 to be inspected and the two-dimensional image becomes easier.

<3.投影画像>
前述したステップS2の処理、すなわち2次元のデジタルデータから投影画像を生成する処理について説明する。
<3. Projection image>
The process of step S2 described above, that is, the process of generating a projected image from two-dimensional digital data will be described.

投影画像が含まれ得る領域をX軸方向に十分に長くとる。これにより、X軸方向については、図4Aに示すように、被検査物T1を静止させてX線照射部1とX線検出部2とがベルトコンベア3の移動方向と逆方向に移動させていると考えることができる。したがって、2次元のデジタルデータDDの各平面への投影は、X軸方向に平行移動させたものとなる。X軸方向に平行移動させただけであるので、2次元のデジタルデータDDでのX軸方向に隣接するピクセルの中心同士のX軸方向距離と、投影画像でのX軸方向に隣接するピクセルの中心同士のX軸方向距離とは同一である。一方、Y軸方向については、図4Bに示すように、2次元のデジタルデータDDを幾何学的に縮小したものが、各平面への投影画像となる。 The area where the projected image can be included is long enough in the X-axis direction. As a result, in the X-axis direction, as shown in FIG. 4A, the object to be inspected T1 is stationary and the X-ray irradiation unit 1 and the X-ray detection unit 2 are moved in the direction opposite to the movement direction of the belt conveyor 3. Can be thought of as being. Therefore, the projection of the two-dimensional digital data DD onto each plane is translated in the X-axis direction. Since it is only translated in the X-axis direction, the X-axis direction distance between the centers of the pixels adjacent to the X-axis direction in the two-dimensional digital data DD and the pixels adjacent to the X-axis direction in the projected image The distance between the centers in the X-axis direction is the same. On the other hand, in the Y-axis direction, as shown in FIG. 4B, a geometrically reduced two-dimensional digital data DD is a projected image on each plane.

以上により、第k平面への投影画像の領域Rkと第(k-1)平面への投影画像の領域R(k-1)との位置関係は、図5に示すようになる。 As described above, the positional relationship between the region Rk of the projected image on the k-th plane and the region R (k-1) of the projected image on the (k-1) plane is shown in FIG.

ここで、各平面への投影画像におけるピクセルのずれについて説明する。本実施形態では、ピクセルの座標を考慮することなく、図4Aに示す第kmax平面に投影したピクセルを基準にして上記のずれを考えている。第k平面におけるX軸方向のピクセルのずれは、tanθ・(kmax-k)・pdで表される。なお、第0平面と第kmax平面との距離はkmax・pdとなり、第0平面と第k平面との距離はk・pdとなる。そして、ラインセンサの画素サイズをpp、第1X線照射部1Aの照射角度をθ、第2X線照射部1Bの照射角度をθ(>θ)とすると、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像のX軸方向のi番目に位置するピクセルと、そのピクセルの座標と座標が一致する、第2X線照射部1B及び第2X線検出部2Bに由来する投影画像のX軸方向のi’番目に位置するピクセルとのずれをピクセル数換算で示した値Δiは、下記(1)式で表される。
Δi=(tanθ-tanθ)・(kmax-k)・pd/pp …(1)
Here, the pixel shift in the projected image on each plane will be described. In the present embodiment, the above deviation is considered with reference to the pixel projected on the kmax plane shown in FIG. 4A without considering the coordinates of the pixel. The pixel shift in the X-axis direction in the k-th plane is represented by tanθ · (kmax−k) · pd. The distance between the 0th plane and the kmax plane is kmax · pd, and the distance between the 0th plane and the kth plane is k · pd. Then, assuming that the pixel size of the line sensor is pp, the irradiation angle of the first X-ray irradiation unit 1A is θ 1 , and the irradiation angle of the second X-ray irradiation unit 1B is θ 2 (> θ 1 ), the first X-ray irradiation unit 1A and Derived from the second X-ray irradiation unit 1B and the second X-ray detection unit 2B, where the pixel located at the i-th position in the X-axis direction of the projected image derived from the first X-ray detection unit 2A and the coordinates of the pixel match. The value Δi showing the deviation from the i'th pixel located in the X-axis direction of the projected image in terms of the number of pixels is expressed by the following equation (1).
Δi = (tanθ 2 -tanθ 1 ) ・ (kmax-k) ・ pd / pp… (1)

Δiが整数である場合、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像のピクセルと第2X線照射部1B及び第2X線検出部2Bに由来する投影画像のピクセルとは完全に一致する。一方、 Δiが整数でない場合、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像のピクセルに該当する、第2X線照射部1B及び第2X線検出部2Bに由来する投影画像のピクセルは2つになる。したがって、 Δiが整数でない場合、例えば、第2X線照射部1B及び第2X線検出部2Bに由来する投影画像の2つにまたがるピクセルの内、その占める割合が多い方のピクセルに該当すると考えてもよい。 When Δi is an integer, the pixels of the projected image derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A and the pixels of the projected image derived from the second X-ray irradiation unit 1B and the second X-ray detection unit 2B are Exact match. On the other hand, when Δi is not an integer, the projected image derived from the second X-ray irradiation unit 1B and the second X-ray detection unit 2B corresponding to the pixels of the projected image derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A. Will have two pixels. Therefore, if Δi is not an integer, for example, it is considered to correspond to the pixel that occupies a large proportion of the pixels that straddle the two projection images derived from the second X-ray irradiation unit 1B and the second X-ray detection unit 2B. May be good.

<4.異物の位置特定>
前述したステップS3の処理、すなわち各投影画像について異物の位置を特定する処理の一例を図6のフローチャートに従い説明する。
<4. Positioning of foreign matter>
An example of the process of step S3 described above, that is, the process of specifying the position of a foreign object for each projected image will be described with reference to the flowchart of FIG.

CPU4は、まず、投影画像を所定の領域(例えば、16ピクセル×16ピクセルの領域)毎に分割する (ステップS31)。投影画像において所定の領域で埋まらない部分が出る場合には、投影画像の端の部分は検査対象から外し、所定の領域群が投影画像の中央に位置するように、所定の領域群の位置を設定してもよい。 First, the CPU 4 divides the projected image into predetermined regions (for example, a region of 16 pixels × 16 pixels) (step S31). If there is a part of the projected image that is not filled with a predetermined area, the edge of the projected image is excluded from the inspection target, and the position of the predetermined area group is set so that the predetermined area group is located in the center of the projected image. It may be set.

次に、CPU4は、所定の領域それぞれにおける平均輝度値L1を算出する(ステップS32)。 Next, the CPU 4 calculates the average luminance value L1 in each of the predetermined regions (step S32).

その後、CPU4は、着目ピクセルの輝度値L2が、その着目ピクセルの属する所定の領域における平均輝度値L1よりも所定値V1以上小さいか否かを判定する(ステップS33)。所定値V1としては、例えば着目ピクセルの属する所定の領域内の各ピクセルの輝度値の標準偏差を挙げることができる。 After that, the CPU 4 determines whether or not the luminance value L2 of the pixel of interest is smaller than the average luminance value L1 in the predetermined region to which the pixel of interest belongs by a predetermined value V1 or more (step S33). As the predetermined value V1, for example, the standard deviation of the luminance value of each pixel in the predetermined region to which the pixel of interest belongs can be mentioned.

着目ピクセルの輝度値L2が、その着目ピクセルの属する所定の領域における平均輝度値L1よりも所定値V1以上小さいと判定されなかった場合(ステップS33のNO)、CPU4は、着目ピクセルを異物の位置として特定しない。 When it is not determined that the luminance value L2 of the pixel of interest is smaller than the average luminance value L1 in the predetermined region to which the pixel of interest belongs by a predetermined value V1 or more (NO in step S33), the CPU 4 places the pixel of interest at the position of a foreign object. Not specified as.

一方、着目ピクセルの輝度値L2が、その着目ピクセルの属する所定の領域における平均輝度値L1よりも所定値V1以上小さいと判定された場合(ステップS33のYES)、ステップS34に移行する。 On the other hand, when it is determined that the luminance value L2 of the pixel of interest is smaller than the average luminance value L1 in the predetermined region to which the pixel of interest belongs by a predetermined value V1 or more (YES in step S33), the process proceeds to step S34.

ステップS34において、CPU4は、着目ピクセルの横方向負側に並ぶ第1設定数のピクセル内で最大となる第1輝度値を算出し、着目ピクセルの横方向正側に並ぶ第2設定数のピクセル内で最大となる第2輝度値を算出し、着目ピクセルの縦方向負側に並ぶ第3設定数のピクセル内で最大となる第3輝度値を算出し、着目ピクセルの縦方向正側に並ぶ第4設定数のピクセル内で最大となる第4輝度値を算出する。第1設定数~第4設定数は全て同じ値であってもよく、2種類以上4種類以下の異なる値であってもよい。なお、所定の領域が投影画像の端に位置し、第1設定数~第4設定数の少なくとも1つを確保することができない場合は、確保可能なピクセル数で対応し、全く確保できない場合はそのピクセルは検査対象から外す。 In step S34, the CPU 4 calculates the maximum first brightness value among the first set number of pixels arranged on the negative side in the horizontal direction of the pixel of interest, and the second set number of pixels arranged on the positive side in the horizontal direction of the pixel of interest. The second brightness value that becomes the maximum in the The fourth brightness value that becomes the maximum in the fourth set number of pixels is calculated. The first set number to the fourth set number may all have the same value, or may have two or more types and four or less different values. If a predetermined area is located at the edge of the projected image and at least one of the first set number to the fourth set number cannot be secured, the number of pixels that can be secured is used, and if it cannot be secured at all. The pixel is excluded from inspection.

次に、CPU4は、第1輝度値に対する着目ピクセルの輝度値L2の割合及び第2輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であるか否かを判定する(ステップS35)。 Next, the CPU 4 determines whether or not the ratio of the brightness value L2 of the pixel of interest to the first luminance value and the ratio of the luminance value L2 of the pixel of interest to the second luminance value are equal to or less than the threshold value TH1 (step S35). ..

第1輝度値に対する着目ピクセルの輝度値L2の割合及び第2輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であると判定された場合(ステップS35のYES)、後述するステップS37に移行する。 When it is determined that the ratio of the brightness value L2 of the pixel of interest to the first luminance value and the luminance value L2 of the pixel of interest to the second luminance value are each equal to or less than the threshold value TH1 (YES in step S35), step S37 described later. Move to.

一方、第1輝度値に対する着目ピクセルの輝度値L2の割合及び第2輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であると判定されなかった場合(ステップS35のNO)、ステップS36に移行する。 On the other hand, when it is not determined that the ratio of the brightness value L2 of the pixel of interest to the first luminance value and the luminance value L2 of the pixel of interest to the second luminance value are each equal to or less than the threshold value TH1 (NO in step S35), step. Move to S36.

ステップS36では、CPU4は、第3輝度値に対する着目ピクセルの輝度値L2の割合及び第4輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であるか否かを判定する(ステップS36)。なお、本実施形態では、ステップS35で用いる閾値とステップS36で用いる閾値とを同じ値にしたが、互いに異なる値にしてもよい。また、本実施形態とは異なり、ステップS35において、第1輝度値に対する着目ピクセルの輝度値L2の割合が閾値TH1以下であるか否かのみを判定してもよい。逆に、ステップS35において、第2輝度値に対する着目ピクセルの輝度値L2の割合が閾値TH1以下であるか否かのみを判定してもよい。ステップS36についても同様の変形を行ってもよい。ステップS36において、第3輝度値に対する着目ピクセルの輝度値L2の割合が閾値TH1以下であるか否かのみを判定してもよい。逆に、ステップS36において、第4輝度値に対する着目ピクセルの輝度値L2の割合が閾値TH1以下であるか否かのみを判定してもよい。 In step S36, the CPU 4 determines whether or not the ratio of the brightness value L2 of the pixel of interest to the third luminance value and the ratio of the luminance value L2 of the pixel of interest to the fourth luminance value are each equal to or less than the threshold value TH1 (step S36). ). In the present embodiment, the threshold value used in step S35 and the threshold value used in step S36 are set to the same value, but may be different from each other. Further, unlike the present embodiment, in step S35, it may be determined only whether or not the ratio of the luminance value L2 of the pixel of interest to the first luminance value is equal to or less than the threshold value TH1. On the contrary, in step S35, it may be determined only whether or not the ratio of the luminance value L2 of the pixel of interest to the second luminance value is equal to or less than the threshold value TH1. The same modification may be performed for step S36. In step S36, it may be determined only whether or not the ratio of the luminance value L2 of the pixel of interest to the third luminance value is equal to or less than the threshold value TH1. On the contrary, in step S36, it may be determined only whether or not the ratio of the luminance value L2 of the pixel of interest to the fourth luminance value is equal to or less than the threshold value TH1.

第3輝度値に対する着目ピクセルの輝度値L2の割合及び第4輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であると判定された場合(ステップS36のYES)、後述するステップS37に移行する。 When it is determined that the ratio of the brightness value L2 of the pixel of interest to the third luminance value and the luminance value L2 of the pixel of interest to the fourth luminance value are each equal to or less than the threshold value TH1 (YES in step S36), step S37 described later. Move to.

一方、第3輝度値に対する着目ピクセルの輝度値L2の割合及び第4輝度値に対する着目ピクセルの輝度値L2の割合がそれぞれ閾値TH1以下であると判定されなかった場合(ステップS36のNO)、CPU4は、着目ピクセルを異物の位置として特定しない。なお、すぐに着目ピクセルを異物の位置として特定しないことを確定させるのではなく、所定の領域の大きさ及び閾値TH1の値を変えてステップS35に戻り、ステップS35又はステップS36からステップS37に移行できるかを試行してもよい。なお、所定の領域の大きさ及び閾値TH1の値の変更は1回に限らず、2回以上であってもよい。 On the other hand, when it is not determined that the ratio of the brightness value L2 of the pixel of interest to the third luminance value and the luminance value L2 of the pixel of interest to the fourth luminance value are each equal to or less than the threshold TH1 (NO in step S36), the CPU 4 Does not specify the pixel of interest as the position of the foreign object. It should be noted that instead of immediately determining that the pixel of interest is not specified as the position of the foreign object, the size of the predetermined region and the value of the threshold value TH1 are changed to return to step S35, and the process proceeds from step S35 or step S36 to step S37. You may try to do it. The size of the predetermined region and the value of the threshold value TH1 may be changed not only once but also twice or more.

ステップS37では、CPU4は、着目ピクセルを異物の位置として特定する。 In step S37, the CPU 4 identifies the pixel of interest as the position of the foreign object.

そして、所定の領域に属する全てのピクセルを1つずつ順次「着目ピクセル」として、ステップS33以降の処理を繰り返す。さらに、全ての所定の領域を1つ1つずつ順次「着目ピクセルが属する所定の領域」として、ステップS32以降の処理を繰り返す。 Then, all the pixels belonging to the predetermined area are sequentially set as "pixels of interest" one by one, and the processing after step S33 is repeated. Further, all the predetermined areas are sequentially set as "predetermined areas to which the pixel of interest belongs" one by one, and the processing after step S32 is repeated.

図6のフローチャートによると、所定の領域すなわち微小領域において、微小領域全体の輝度特性に基づいて異物の位置を特定しているため、異物の検出精度を高くすることができる。 According to the flowchart of FIG. 6, since the position of the foreign matter is specified based on the luminance characteristic of the entire minute region in a predetermined region, that is, the minute region, the detection accuracy of the foreign matter can be improved.

なお、被検査物T1としては、例えば「魚」を挙げることができる。被検査物T1が「魚」である場合、異物は「小骨」である。図6のフローチャートの処理は、異物の減弱係数が被検査物T1(ただし、異物を除く)の減弱係数より大きい場合に適用することができる。ただし、投影画像が白黒反転させた画像である場合には、図6のフローチャートの処理において、「小さい」を「大きい」に置き換え、「最大」を「最小」に置き換え、「閾値TH1以下」を「閾値TH1以上」に置き換えるとよい。 As the object to be inspected T1, for example, "fish" can be mentioned. When the object to be inspected T1 is a "fish", the foreign substance is a "small bone". The processing of the flowchart of FIG. 6 can be applied when the attenuation coefficient of the foreign matter is larger than the attenuation coefficient of the object T1 to be inspected (excluding the foreign matter). However, when the projected image is a black-and-white inverted image, in the processing of the flowchart of FIG. 6, "small" is replaced with "large", "maximum" is replaced with "minimum", and "threshold value TH1 or less" is replaced. It may be replaced with "threshold value TH1 or higher".

異物の減弱係数が被検査物T1(ただし、異物を除く)の減弱係数より小さい場合には、図6のフローチャートの処理をそのまま適用するのではなく、図6のフローチャートの処理において、「小さい」を「大きい」に置き換え、「最大」を「最小」に置き換え、「閾値TH1以下」を「閾値TH1以上」に置き換えるとよい。ただし、投影画像が白黒反転させた画像である場合には図6のフローチャートの処理をそのまま適用すればよい。 When the attenuation coefficient of the foreign matter is smaller than the attenuation coefficient of the object T1 to be inspected (excluding the foreign matter), the processing of the flowchart of FIG. 6 is not applied as it is, but is “small” in the processing of the flowchart of FIG. Is replaced with "large", "maximum" is replaced with "minimum", and "threshold TH1 or less" is replaced with "threshold TH1 or more". However, when the projected image is a black-and-white inverted image, the process of the flowchart of FIG. 6 may be applied as it is.

<5.その他>
上述した実施形態では、ステップS4の誤検出部分除去処理を実行したが、ステップS4の誤検出部分除去処理を実行しなくても異物の検出精度が要求される仕様を満たすのであれば、ステップS4の誤検出部分除去処理を省略してもよい。ステップS4の誤検出部分除去処理を省略する場合、第1X線照射部1A及び第1X線検出部2Aの対、或いは、第2X線照射部1B及び第2X線検出部2Bの対のいずれかを検査装置100から取り除くとよい。この場合、X線検出部の位置を除く所定の位置に単数又は複数の平面を設定し、当該平面に二値化撮影画像又は2次元X線撮影画像投影すればよい。
<5. Others>
In the above-described embodiment, the erroneous detection partial removal process of step S4 is executed, but if the specification that requires the detection accuracy of foreign matter is satisfied without executing the erroneous detection partial removal process of step S4, step S4 The false detection portion removal process may be omitted. When omitting the erroneous detection portion removal process in step S4, either the pair of the first X-ray irradiation unit 1A and the first X-ray detection unit 2A or the pair of the second X-ray irradiation unit 1B and the second X-ray detection unit 2B is used. It should be removed from the inspection device 100. In this case, a single or a plurality of planes may be set at predetermined positions other than the position of the X-ray detection unit, and a binarized image or a two-dimensional X-ray image may be projected on the plane.

上述した実施形態では、ステップS4の誤検出部分除去処理において、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像に基づき特定した異物の位置と第2X線照射部1B及び第2X線検出部2Bに由来する投影画像に基づき特定した異物の位置とが比較され、比較結果に基づいて異物の位置特定の誤検出部分が除去されたが、この誤検出部分除去処理はあくまで一例である。 In the above-described embodiment, in the erroneous detection portion removal process in step S4, the position of the foreign matter specified based on the projected images derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A, and the second X-ray irradiation unit 1B and the second X-ray irradiation unit 1B. The position of the foreign matter specified based on the projected image derived from the 2X-ray detection unit 2B was compared, and the false detection part of the foreign matter was removed based on the comparison result, but this false detection part removal process is only an example. Is.

したがって、X線の照射方向がそれぞれ異なる第1~第m(mは3以上の自然数)X線照射部と、第1~第mX線検出部とを検査装置100に設け、第k(kはm以下の任意の自然数)X線照射部から照射され被検査物T1を透過したX線が第kX線検出部に入射するようにしてもよい。この場合、第kX線照射部から照射されるX線によって得られる投影画像である第k投影画像に基づき異物の位置が特定され、同じ深さの投影画像について、第1~第m投影画像それぞれに基づき特定した異物の位置同士が比較され、比較結果に基づいて異物の位置特定の誤検出部分が除去されるようにすればよい。 Therefore, the inspection device 100 is provided with a first to m (m is a natural number of 3 or more) X-ray irradiation units having different X-ray irradiation directions and first to mX-ray detection units, and k (k is). Any natural number of m or less) X-rays irradiated from the X-ray irradiation unit and transmitted through the inspected object T1 may be incident on the kX-ray detection unit. In this case, the position of the foreign matter is specified based on the k-th projection image, which is the projection image obtained by the X-rays emitted from the kX-ray irradiation unit, and the projection images of the same depth are shown in the first to mth projection images, respectively. The positions of the foreign matter specified based on the above are compared with each other, and the erroneous detection portion of the foreign matter can be removed based on the comparison result.

上述した実施形態では、ステップS34において、CPU4は、着目ピクセルの横方向負側に並ぶ第1設定数のピクセル内で最大となる第1輝度値を算出し、着目ピクセルの横方向正側に並ぶ第2設定数のピクセル内で最大となる第2輝度値を算出し、着目ピクセルの縦方向負側に並ぶ第3設定数のピクセル内で最大となる第3輝度値を算出し、着目ピクセルの縦方向正側に並ぶ第4設定数のピクセル内で最大となる第4輝度値を算出したが、この算出処理はあくまで一例である。すなわち、上記の「横方向負側」、「横方向正側」、「縦方向負側」、及び「縦方向正側」はそれぞれ、「第1方向一方側」、「第1方向他方側」、「第2方向一方側」、及び「第2方向他方側」に一般化することができる。なお、第1方向と第2方向とは互い異なる方向である。第1方向と第2方向とは直交していなくてもよい。 In the above-described embodiment, in step S34, the CPU 4 calculates the maximum first brightness value within the first set number of pixels arranged on the horizontal negative side of the pixel of interest, and arranges them on the positive side of the horizontal direction of the pixel of interest. The second brightness value that is the maximum in the second set number of pixels is calculated, the third brightness value that is the maximum in the third set number of pixels arranged on the negative side in the vertical direction of the pixel of interest is calculated, and the pixel of interest is calculated. The maximum fourth brightness value within the fourth set number of pixels arranged on the positive side in the vertical direction was calculated, but this calculation process is only an example. That is, the above-mentioned "horizontal negative side", "horizontal positive side", "vertical negative side", and "vertical positive side" are "first direction one side" and "first direction other side", respectively. , "Second direction one side", and "second direction other side" can be generalized. The first direction and the second direction are different directions from each other. The first direction and the second direction do not have to be orthogonal to each other.

また、第1輝度値を、着目ピクセルの第1方向一方側に並ぶ第1設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第1方向一方側に並ぶ第1設定数のピクセル内で着目ピクセルより輝度値が大きく且つ着目ピクセルからできるだけ離れているピクセルの輝度値とし、第2~第4輝度値についても同様の置換を行ってもよい。すなわち、第2輝度値を、着目ピクセルの第1方向他方側に並ぶ第2設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第1方向他方側に並ぶ第2設定数のピクセル内で着目ピクセルより輝度値が大きく且つ着目ピクセルからできるだけ離れているピクセルの輝度値とする。また、第3輝度値を、着目ピクセルの第2方向一方側に並ぶ第3設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第2方向一方側に並ぶ第3設定数のピクセル内で着目ピクセルより輝度値が大きく且つ着目ピクセルからできるだけ離れているピクセルの輝度値とする。また、第4輝度値を、着目ピクセルの第2方向他方側に並ぶ第4設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第2方向他方側に並ぶ第4設定数のピクセル内で着目ピクセルより輝度値が大きく且つ着目ピクセルからできるだけ離れているピクセルの輝度値とする。上記の置換を行った場合も、上述した実施形態と同様に、微小領域全体の輝度特性に基づいて異物の位置を特定しているため、異物の検出精度を高くすることができる。ただし、上記の置換を行った場合において、異物の減弱係数が被検査物T1(ただし、異物を除く)の減弱係数より小さい画像について適用するときには、ステップS33の処理において「小さい」を「大きい」に置き換え、ステップS34を置換した処理において「大きい」を「小さい」に置き換え、「閾値TH1以下」を「閾値TH1以上」に置き換えるとよい。また、上記の「着目ピクセルからできるだけ離れているピクセルの輝度値」の代わりに「着目ピクセルからできるだけ近いピクセルの輝度値」としてもよい。 Further, the first luminance value is not the maximum luminance value among the first set number of pixels arranged on one side of the first direction of the pixel of interest, but the first set number of pixels arranged on one side of the first direction of the pixel of interest. The luminance value of the pixel having a larger luminance value than the pixel of interest and being as far away as possible from the pixel of interest may be used, and the same substitution may be performed for the second to fourth luminance values. That is, the second brightness value is not the maximum brightness value among the pixels of the second set number arranged on the other side of the first direction of the pixel of interest, but the pixels of the second set number arranged on the other side of the first direction of the pixel of interest. The brightness value of the pixel whose brightness value is larger than that of the pixel of interest and is as far away as possible from the pixel of interest is used. Further, the third brightness value is not the maximum brightness value among the pixels of the third set number arranged on one side of the second direction of the pixel of interest, but the pixels of the third set number arranged on one side of the second direction of the pixel of interest. The brightness value of the pixel whose brightness value is larger than that of the pixel of interest and is as far away as possible from the pixel of interest is used. Further, the fourth luminance value is not the maximum luminance value among the fourth set number of pixels arranged on the other side of the second direction of the pixel of interest, but the fourth set number of pixels arranged on the other side of the second direction of the pixel of interest. The brightness value of the pixel whose brightness value is larger than that of the pixel of interest and is as far away as possible from the pixel of interest is used. Even when the above substitution is performed, since the position of the foreign matter is specified based on the luminance characteristics of the entire minute region as in the above-described embodiment, the detection accuracy of the foreign matter can be improved. However, in the case of performing the above substitution, when the attenuation coefficient of the foreign substance is smaller than the attenuation coefficient of the object T1 to be inspected (excluding the foreign substance), "small" is changed to "large" in the process of step S33. In the process of replacing step S34, "large" may be replaced with "small", and "threshold TH1 or less" may be replaced with "threshold TH1 or more". Further, instead of the above-mentioned "luminance value of a pixel as far as possible from the pixel of interest", "luminance value of a pixel as close as possible to the pixel of interest" may be used.

また、第1輝度値を、着目ピクセルの第1方向一方側に並ぶ第1設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第1方向一方側に着目ピクセルから第1所定位置離れて並ぶ第1設定数のピクセル(例えば着目ピクセルから3ピクセル離れて並ぶ4つのピクセルである場合、着目ピクセルから第1方向一方側に3つ目~6つ目に並んでいるピクセル)及び着目ピクセルの第1方向他方側に着目ピクセルから第2所定位置離れて並ぶ第2設定数のピクセルの平均輝度値とする。そして、ステップS34~S36において、第2輝度値に関する処理を行わないようにする。また、第3輝度値を、着目ピクセルの第2方向一方側に並ぶ第3設定数のピクセル内で最大となる輝度値ではなく、着目ピクセルの第2方向一方側に着目ピクセルから第3所定位置離れて並ぶ第3設定数のピクセル及び着目ピクセルの第2方向他方側に着目ピクセルから第4所定位置離れて並ぶ第4設定数のピクセルの平均輝度値(請求項8における「第2輝度値」に相当)とする。そして、ステップS34~S36において、第4輝度値に関する処理を行わないようにする。上記の置換を行った場合も、上述した実施形態と同様に、微小領域全体の輝度特性に基づいて異物の位置を特定しているため、異物の検出精度を高くすることができる。ただし、上記の置換を行った場合において、異物の減弱係数が被検査物T1(ただし、異物を除く)の減弱係数より小さい画像について適用するときには、ステップS33の処理において「小さい」を「大きい」に置き換え、ステップS34を置換した処理において「閾値TH1以下」を「閾値TH1以上」に置き換えるとよい。 Further, the first brightness value is not the maximum brightness value among the first set number of pixels arranged on one side in the first direction of the pixel of interest, but the first predetermined position from the pixel of interest on one side of the first direction of the pixel of interest. The first set number of pixels lined up apart (for example, in the case of four pixels lined up 3 pixels away from the pixel of interest, the third to sixth pixels lined up on one side in the first direction from the pixel of interest) and the focus It is the average brightness value of the second set number of pixels arranged on the other side of the first direction of the pixel at a second predetermined position away from the pixel of interest. Then, in steps S34 to S36, the processing related to the second luminance value is not performed. Further, the third luminance value is not the maximum luminance value among the pixels of the third set number arranged on one side of the second direction of the pixel of interest, but the third predetermined position from the pixel of interest on one side of the second direction of the pixel of interest. The average luminance value of the third set number of pixels arranged apart and the fourth set number of pixels arranged four predetermined positions away from the pixel of interest on the other side of the second direction of the pixel of interest (“second luminance value” in claim 8”. Equivalent to). Then, in steps S34 to S36, the processing related to the fourth luminance value is not performed. Even when the above substitution is performed, since the position of the foreign matter is specified based on the luminance characteristics of the entire minute region as in the above-described embodiment, the detection accuracy of the foreign matter can be improved. However, in the case of performing the above substitution, when the attenuation coefficient of the foreign substance is smaller than the attenuation coefficient of the object T1 to be inspected (excluding the foreign substance), "small" is changed to "large" in the process of step S33. In the process of replacing step S34, "threshold value TH1 or less" may be replaced with "threshold value TH1 or more".

CPU4は、過去に検査された被検査物T1の2次元のデジタルデータ(2次元X線撮影画像)により学習した人工知能を用いて異物の位置を特定してもよい。人工知能を用いることにより、異物の検出精度をより一層高めることができる。人工知能の設けられる場所は特に限定されない。例えばCPU4に人工知能を設けてもよい。また例えば検査装置100が通信ネットワークを介してアクセス可能なクラウド上に人工知能を設けてもよい。 The CPU 4 may specify the position of the foreign object by using artificial intelligence learned from the two-dimensional digital data (two-dimensional X-ray photographed image) of the inspected object T1 inspected in the past. By using artificial intelligence, the detection accuracy of foreign substances can be further improved. The place where artificial intelligence is provided is not particularly limited. For example, the CPU 4 may be provided with artificial intelligence. Further, for example, artificial intelligence may be provided on a cloud accessible by the inspection device 100 via a communication network.

上述した実施形態とは異なり、ステップS5において、誤検出部分除去処理が反映された異物の位置を示す各投影画像を全て足し合わせて得られる画像、つまり異物の位置を2次元表示する画像を出力画像として生成してもよい。 Unlike the above-described embodiment, in step S5, an image obtained by adding all the projected images showing the positions of the foreign matter reflecting the false detection portion removal process, that is, an image displaying the position of the foreign matter in two dimensions is output. It may be generated as an image.

なお、検査装置100の構造上の制約により、第1X線検出部2Aと第2X線検出部2Bとを同じ高さに配置できない場合がある。この場合、図7に示すように第1X線検出部2AのZ軸方向位置と第2X線検出部2BのZ軸方向位置とが異なり、被検査物T1の同じ位置を通過したX線が入射するピクセルが第1X線検出部2Aと第2X線検出部2Bとでずれる。したがって、このずれを考慮して、Y軸方向において、第1X線照射部1A及び第1X線検出部2Aに由来する投影画像のピクセルに該当する、第2X線照射部1B及び第2X線検出部2Bに由来する投影画像のピクセルを特定すればよい。 Due to structural restrictions of the inspection device 100, the first X-ray detection unit 2A and the second X-ray detection unit 2B may not be arranged at the same height. In this case, as shown in FIG. 7, the Z-axis direction position of the first X-ray detection unit 2A and the Z-axis direction position of the second X-ray detection unit 2B are different, and X-rays passing through the same position of the inspected object T1 are incident. The pixels to be generated are shifted between the first X-ray detection unit 2A and the second X-ray detection unit 2B. Therefore, in consideration of this deviation, the second X-ray irradiation unit 1B and the second X-ray detection unit corresponding to the pixels of the projected image derived from the first X-ray irradiation unit 1A and the first X-ray detection unit 2A in the Y-axis direction. The pixels of the projected image derived from 2B may be specified.

上述した実施形態のように画素データ(ラインセンサで得られるデータ)を単純に並べること又は単純に積算することで撮影画像(2次元のデジタルデータ)を生成するのではなく、独自の画像処理に基づいて撮影画像を生成してもよい。独自の画像処理に基づいて撮影画像を生成する場合、被検査物T1の移動速度をラインセンサの画素サイズに必ずしも合わせる必要はない。 Instead of generating a captured image (two-dimensional digital data) by simply arranging pixel data (data obtained by a line sensor) or simply integrating them as in the above-described embodiment, it is possible to use original image processing. The captured image may be generated based on the above. When the captured image is generated based on the original image processing, it is not always necessary to match the moving speed of the object to be inspected T1 with the pixel size of the line sensor.

上述した実施形態では、2次元のデジタルデータから投影画像を生成し、各投影画像について異物の位置を特定し、異物の位置が特定された2枚の投影画像(二値化投影画像)の比較結果から異物の位置特定の誤検出部分を除去するという手順で被検査物T1を検査している。一方、上述した実施形態とは異なり、2次元の各デジタルデータについて異物の位置を特定し、異物の位置を特定して得られる2次元の二値化デジタルデータから投影画像を生成し、2次元の二値化デジタルデータから生成された2枚の投影画像の比較結果から異物の位置特定の誤検出部分を除去するという手順で被検査物T1を検査してもよい。この変形例において、CPU4が、過去に検査された被検査物T1の投影画像(2次元の二値化デジタルデータから生成された投影画像)により学習した人工知能を用いて異物の位置を特定してもよい。なお、検査装置は、2枚の投影画像の比較結果から異物の位置特定の誤検出部分を除去する形態に限定されることはなく、2枚を複数枚に一般化することが可能である。したがって、3枚以上の投影画像の比較結果から異物の位置特定の誤検出部分を除去する形態であってもよい。 In the above-described embodiment, a projected image is generated from two-dimensional digital data, the position of a foreign substance is specified for each projected image, and two projected images (binarized projected images) in which the position of the foreign substance is specified are compared. The inspected object T1 is inspected by a procedure of removing a false detection portion for specifying the position of a foreign substance from the result. On the other hand, unlike the above-described embodiment, the position of the foreign object is specified for each two-dimensional digital data, and the projected image is generated from the two-dimensional binarized digital data obtained by specifying the position of the foreign substance, and the two-dimensional image is generated. The object T1 to be inspected may be inspected by a procedure of removing an erroneous detection portion for specifying the position of a foreign object from the comparison result of two projected images generated from the binarized digital data of. In this modification, the CPU 4 identifies the position of the foreign object by using artificial intelligence learned from the projected image (projected image generated from the two-dimensional binarized digital data) of the inspected object T1 inspected in the past. You may. The inspection device is not limited to a form in which the erroneous detection portion for specifying the position of the foreign matter is removed from the comparison result of the two projected images, and the two images can be generalized to a plurality of images. Therefore, it may be in the form of removing the erroneous detection portion for specifying the position of the foreign matter from the comparison result of three or more projected images.

また、ラインセンサである第1X線検出部2A及び第2X線検出部2Bの代わりに、図8に示すように二次元検出器2Cを用いてもよい。二次元検出器2Cの斜線領域(図8参照)の検出結果を用いることで、二次元検出器2Cを擬似的な2つのラインセンサとすることができる。なお、図8に示す構成においても、図1に示す構成と同様に、第1X線照射部1A及び第2X線照射部1Bを共通化して単一のX線照射部にしてもよい。 Further, instead of the first X-ray detection unit 2A and the second X-ray detection unit 2B which are line sensors, a two-dimensional detector 2C may be used as shown in FIG. By using the detection result of the shaded area of the two-dimensional detector 2C (see FIG. 8), the two-dimensional detector 2C can be used as a pseudo two-line sensor. In the configuration shown in FIG. 8, similarly to the configuration shown in FIG. 1, the first X-ray irradiation unit 1A and the second X-ray irradiation unit 1B may be shared to form a single X-ray irradiation unit.

また、単一の二次元検出器2Cの代わりに複数の二次元検出器を用い、複数の二次元検出器それぞれの一部領域の検出結果を用いることで、複数の二次元検出器を擬似的な複数のラインセンサとすることができる。 In addition, by using a plurality of two-dimensional detectors instead of the single two-dimensional detector 2C and using the detection results of a part of each of the plurality of two-dimensional detectors, a plurality of two-dimensional detectors can be simulated. Can be multiple line sensors.

また、単一の二次元検出器2Cの代わりに単一のラインセンサを用い、単一の二次元検出器2Cの場合と同様に単一のラインセンサの複数領域の検出結果を用いることで、単一のラインセンサを擬似的な複数のラインセンサとすることができる。なお、単一のラインセンサは、Y軸方向に沿って延びる複数のラインを有するラインセンサである。 In addition, by using a single line sensor instead of the single two-dimensional detector 2C and using the detection results of multiple regions of the single line sensor as in the case of the single two-dimensional detector 2C, A single line sensor can be a pseudo plurality of line sensors. The single line sensor is a line sensor having a plurality of lines extending along the Y-axis direction.

また、ラインセンサである第1X線検出部2A及び第2X線検出部2Bの代わりに、図9及び図10に示すように二次元検出器2D及び2Eを用いてもよい。図9及び図10に示す検査装置100は、例えば次のような動作を行うとよい。第2X線照射部1B及び二次元検出器2Eによる撮影が可能な位置に被検査物T1をベルトコンベア3の駆動により移動させ、その後ベルトコンベア3を停止させ、第2X線照射部1B及び二次元検出器2Eによる撮影が可能な位置に被検査物T1を静止させる(図9参照)。図9に示す静止状態において、第2X線照射部1B及び二次元検出器2Eによって被検査物T1を1ショット撮影する。それから、第1X線照射部1A及び二次元検出器2Dによる撮影が可能な位置に被検査物T1をベルトコンベア3の駆動により移動させ、その後ベルトコンベア3を停止させ、第1X線照射部1A及び二次元検出器2Dによる撮影が可能な位置に被検査物T1を静止させる(図10参照)。図10に示す静止状態において、第1X線照射部1A及び二次元検出器2Dによって被検査物T1を1ショット撮影する。 Further, instead of the first X-ray detection unit 2A and the second X-ray detection unit 2B which are line sensors, two-dimensional detectors 2D and 2E may be used as shown in FIGS. 9 and 10. The inspection device 100 shown in FIGS. 9 and 10 may perform the following operations, for example. The object T1 to be inspected is moved by the drive of the belt conveyor 3 to a position where the image can be taken by the second X-ray irradiation unit 1B and the two-dimensional detector 2E, and then the belt conveyor 3 is stopped, and the second X-ray irradiation unit 1B and the two-dimensional The object to be inspected T1 is stationary at a position where the image can be taken by the detector 2E (see FIG. 9). In the stationary state shown in FIG. 9, one shot of the object to be inspected T1 is taken by the second X-ray irradiation unit 1B and the two-dimensional detector 2E. Then, the object T1 to be inspected is moved by the drive of the belt conveyor 3 to a position where the image can be taken by the first X-ray irradiation unit 1A and the two-dimensional detector 2D, and then the belt conveyor 3 is stopped, and the first X-ray irradiation unit 1A and the first X-ray irradiation unit 1A and The object to be inspected T1 is stationary at a position where it can be photographed by the two-dimensional detector 2D (see FIG. 10). In the stationary state shown in FIG. 10, one shot of the object to be inspected T1 is photographed by the first X-ray irradiation unit 1A and the two-dimensional detector 2D.

また、第1X線照射部1A、第2X線照射部1B、並びにラインセンサである第1X線検出部2A及び第2X線検出部2Bの代わりに、図11及び図12に示すようにX線照射部1C並びに二次元検出器2Fを用いてもよい。図11及び図12に示す検査装置100は、例えば次のような動作を行うとよい。被検査物T1を第1の所定位置までベルトコンベア3の駆動により移動させる。このとき被検査物T1の移動に連動して二次元検出器2Fも不図示の移動機構により移動させる。その後ベルトコンベア3及び不図示の移動機構を停止させ、被検査物T1を第1の所定位置に静止させ、二次元検出器2Fを第1の所定位置に対応する位置に静止させる(図11参照)。図11に示す静止状態において、X線照射部1C及び二次元検出器2Fによって被検査物T1を1ショット撮影する。それから、被検査物T1を第2の所定位置までベルトコンベア3の駆動により移動させる。このとき被検査物T1の移動に連動して二次元検出器2Fも不図示の移動機構により移動させる。その後ベルトコンベア3及び不図示の移動機構を停止させ、被検査物T1を第2の所定位置に静止させ、二次元検出器2Fを第2の所定位置に対応する位置に静止させる(図12参照)。図12に示す静止状態において、X線照射部1C及び二次元検出器2Fによって被検査物T1を1ショット撮影する。 Further, instead of the first X-ray irradiation unit 1A, the second X-ray irradiation unit 1B, and the line sensors the first X-ray detection unit 2A and the second X-ray detection unit 2B, X-ray irradiation is performed as shown in FIGS. 11 and 12. The unit 1C and the two-dimensional detector 2F may be used. The inspection device 100 shown in FIGS. 11 and 12 may perform the following operations, for example. The object to be inspected T1 is moved to the first predetermined position by driving the belt conveyor 3. At this time, the two-dimensional detector 2F is also moved by a movement mechanism (not shown) in conjunction with the movement of the object T1 to be inspected. After that, the belt conveyor 3 and the moving mechanism (not shown) are stopped, the object T1 to be inspected is stopped at the first predetermined position, and the two-dimensional detector 2F is stopped at the position corresponding to the first predetermined position (see FIG. 11). ). In the stationary state shown in FIG. 11, one shot of the object to be inspected T1 is taken by the X-ray irradiation unit 1C and the two-dimensional detector 2F. Then, the object to be inspected T1 is moved to a second predetermined position by driving the belt conveyor 3. At this time, the two-dimensional detector 2F is also moved by a movement mechanism (not shown) in conjunction with the movement of the object T1 to be inspected. After that, the belt conveyor 3 and the moving mechanism (not shown) are stopped, the object T1 to be inspected is stopped at the second predetermined position, and the two-dimensional detector 2F is stopped at the position corresponding to the second predetermined position (see FIG. 12). ). In the stationary state shown in FIG. 12, one shot of the object to be inspected T1 is taken by the X-ray irradiation unit 1C and the two-dimensional detector 2F.

以上の説明では、被検査物T1とX線撮影に用いたX線照射部との位置関係がX軸方向においてのみ異なる複数枚の2次元X線撮影画像が生成されたが、被検査物T1とX線撮影に用いたX線照射部との位置関係がY軸方向においてのみ異なる複数枚の2次元X線撮影画像が生成されてもよく、被検査物T1とX線撮影に用いたX線照射部との位置関係がX軸方向、Y軸方向の両方において異なる複数枚の2次元X線撮影画像が生成されてもよい。 In the above description, a plurality of two-dimensional X-ray images in which the positional relationship between the X-ray object T1 and the X-ray irradiation unit used for X-ray photography are different only in the X-axis direction are generated. A plurality of two-dimensional X-ray images may be generated in which the positional relationship between the X-ray and the X-ray irradiation unit used for X-ray photography is different only in the Y-axis direction. A plurality of two-dimensional radiographed images may be generated in which the positional relationship with the line irradiation unit is different in both the X-axis direction and the Y-axis direction.

また、検査装置の構成は、上述した実施形態及び変形例に限定されることはなく、例えば特許文献1に記載されているような公知の構成であってもよい。 Further, the configuration of the inspection device is not limited to the above-described embodiment and modification, and may be a known configuration as described in, for example, Patent Document 1.

<6.検査結果表示装置>
図13は、検査結果表示装置の一例であるプロジェクタ200の配置例を示す図である。被検査物T1は、作業台300の上に載置される。作業台300の上方にプロジェクタ200が配置され、プロジェクタ200は被検査物T1を投射面として2次元画像を投射する。
<6. Inspection result display device>
FIG. 13 is a diagram showing an arrangement example of the projector 200, which is an example of the inspection result display device. The object T1 to be inspected is placed on the workbench 300. A projector 200 is arranged above the workbench 300, and the projector 200 projects a two-dimensional image using the object T1 to be inspected as a projection surface.

作業者が異物除去作業を行うときに被検査物T1とプロジェクタ200との間に作業者の手が入り、被検査物T1に2次元画像が十分に投影されないおそれがある。このため、図14に示すように、もう一つ別のプロジェクタ200を作業台300の下方に配置し、もう一つ別のプロジェクタ200も被検査物T1を投射面として2次元画像を投射するようにしてもよい。ただし、もう一つ別のプロジェクタ200を作業台300の下方に配置する場合、作業台300及び被検査物T1が可視光に対して或る程度の透光性を有している必要がある。 When the worker performs the foreign matter removal work, the worker's hand may get in between the object to be inspected T1 and the projector 200, and the two-dimensional image may not be sufficiently projected on the object to be inspected T1. Therefore, as shown in FIG. 14, another projector 200 is arranged below the workbench 300, and the other projector 200 also projects a two-dimensional image using the object T1 to be inspected as a projection surface. You may do it. However, when another projector 200 is arranged below the workbench 300, the workbench 300 and the object T1 to be inspected need to have a certain degree of translucency with respect to visible light.

図15は、プロジェクタ200の構成例を示す図である。プロジェクタ200は、取得部201と、マイクロコンピュータ202と、液晶表示駆動部203と、光学系204と、ランプ205と、を備える。液晶表示駆動部203、光学系204、及びランプ205は、被検査物T1を投射面として2次元画像を投射する投射部に相当する。 FIG. 15 is a diagram showing a configuration example of the projector 200. The projector 200 includes an acquisition unit 201, a microcomputer 202, a liquid crystal display drive unit 203, an optical system 204, and a lamp 205. The liquid crystal display drive unit 203, the optical system 204, and the lamp 205 correspond to a projection unit that projects a two-dimensional image with the object T1 to be inspected as a projection surface.

取得部201は、検査装置の送信部8から送信される二次元画像を取得する。すなわち、取得部201は、検査装置の送信部8から送信される二次元画像を受信する受信部である。なお、検査装置の送信部8と取得部201とのデータ通信手法は特に限定されない。 The acquisition unit 201 acquires a two-dimensional image transmitted from the transmission unit 8 of the inspection device. That is, the acquisition unit 201 is a reception unit that receives a two-dimensional image transmitted from the transmission unit 8 of the inspection device. The data communication method between the transmission unit 8 and the acquisition unit 201 of the inspection device is not particularly limited.

ランプ205から略平行光が液晶表示駆動部203に出射される。 A substantially parallel light is emitted from the lamp 205 to the liquid crystal display drive unit 203.

液晶表示駆動部203は、図示しないレンズおよびプリズムを含む光学系と、R,G,Bの各液晶パネルとを有する。液晶表示駆動部203において、液晶表示駆動部203内部の図示しないレンズ系を通過したランプ205からの光は、R,G,Bの各液晶パネルに光量分布が均一となるように入射する。レンズ系を介して入射された光のうち、青色波長帯の光(B光)、赤色波長帯の光(R光)、緑色波長帯の光(G光)は、略平行光でR,G,Bの各液晶パネルに入射する。各液晶パネルは、取得部201から出力されるR,G,Bに対応した映像信号に応じて駆動され、その駆動状態に応じて光を変調する。液晶パネルによって変調されたR光,G光,B光は、色合成された後に、光学系204によって被検査物T1上に拡大投写される。光学系204は、投写光を被検査物T1に結像させるためのレンズ群と、これらレンズ群の一部を光軸方向に変化させて投写映像のズーム状態およびフォーカス状態を調整するためのアクチュエータを備える。 The liquid crystal display drive unit 203 includes an optical system including a lens and a prism (not shown), and liquid crystal panels R, G, and B. In the liquid crystal display drive unit 203, the light from the lamp 205 that has passed through a lens system (not shown) inside the liquid crystal display drive unit 203 is incident on each of the liquid crystal panels R, G, and B so that the light amount distribution is uniform. Of the light incident through the lens system, the blue wavelength band light (B light), the red wavelength band light (R light), and the green wavelength band light (G light) are substantially parallel light, R and G. , B incident on each liquid crystal panel. Each liquid crystal panel is driven according to the video signals corresponding to R, G, and B output from the acquisition unit 201, and the light is modulated according to the driving state. The R light, G light, and B light modulated by the liquid crystal panel are color-synthesized and then magnified and projected onto the object T1 to be inspected by the optical system 204. The optical system 204 includes a lens group for forming an image of the projected light on the object T1 to be inspected, and an actuator for adjusting a part of these lens groups in the optical axis direction to adjust the zoom state and the focus state of the projected image. To prepare for.

作業者は、輪郭画像を参照して被検査物T1の位置を微調整し、図16に示す被検査物T1の輪郭と、図17に示す二次元画像に含まれる輪郭画像の輪郭400とを、図18に示すように一致させる。これにより、検査結果画像500を手掛かりとして作業者は被検査物T1から容易に異物を除去することができる。 The operator fine-tunes the position of the object to be inspected T1 with reference to the outline image, and obtains the outline of the object to be inspected T1 shown in FIG. 16 and the outline 400 of the outline image included in the two-dimensional image shown in FIG. , Match as shown in FIG. As a result, the operator can easily remove the foreign matter from the inspected object T1 by using the inspection result image 500 as a clue.

なお、検査結果表示装置は、プロジェクタに限定されることはなく、例えばVR(Virtual Reality)メガネ、VRゴーグルなどの被検査物を投射面として2次元画像を仮想的に投射する表示装置であってもよい。 The inspection result display device is not limited to the projector, and is a display device that virtually projects a two-dimensional image using an object to be inspected such as VR (Virtual Reality) glasses and VR goggles as a projection surface. May be good.

1 X線照射部
1A 第1X線照射部
1B 第2X線照射部
1C X線照射部
2 X線検出部
2A 第1X線検出部
2B 第2X線検出部
2C~2F 二次元検出器
3 ベルトコンベア
4 CPU
5 ROM
6 RAM
7 VRAM
8 送信部
9 HDD
10 入力部
100 検査装置
200 プロジェクタ
201 取得部
202 マイクロコンピュータ
203 液晶表示駆動部
204 光学系
205 ランプ
300 作業台
1 X-ray irradiation unit 1A 1st X-ray irradiation unit 1B 2nd X-ray irradiation unit 1C X-ray irradiation unit 2 X-ray detection unit 2A 1st X-ray detection unit 2B 2nd X-ray detection unit 2C-2F Two-dimensional detector 3 Belt conveyor 4 CPU
5 ROM
6 RAM
7 VRAM
8 Transmitter 9 HDD
10 Input unit 100 Inspection device 200 Projector 201 Acquisition unit 202 Microcomputer 203 Liquid crystal display drive unit 204 Optical system 205 Lamp 300 Workbench

Claims (3)

被検査物に含まれ得る異物の位置を示す検査結果画像及び前記被検査物の輪郭の少なくとも一部を示す輪郭画像を含む2次元画像を検査装置から取得する取得部と、
前記被検査物を投射面として前記2次元画像を実際に又は仮想的に投射する投射部と、
を備える、検査結果表示装置。
An acquisition unit that acquires a two-dimensional image including an inspection result image showing the position of a foreign substance that can be contained in the inspected object and a contour image showing at least a part of the contour of the inspected object from the inspection device.
A projection unit that actually or virtually projects the two-dimensional image using the object to be inspected as a projection surface.
An inspection result display device.
前記輪郭画像は前記輪郭の全部を示す、請求項1に記載の検査結果表示装置。 The inspection result display device according to claim 1, wherein the contour image shows the entire contour. 被検査物に含まれ得る異物の位置を示す検査結果画像及び前記被検査物の輪郭の少なくとも一部を示す輪郭画像を含む2次元画像を検査装置から取得する取得ステップと、
前記被検査物を投射面として前記2次元画像を実際に又は仮想的に投射する投射ステップと、
を備える、検査結果表示方法。
An acquisition step of acquiring a two-dimensional image including an inspection result image showing the position of a foreign substance that can be contained in the inspected object and a contour image showing at least a part of the contour of the inspected object from the inspection device.
A projection step that actually or virtually projects the two-dimensional image using the object to be inspected as a projection surface.
A method of displaying inspection results.
JP2020193825A 2020-11-20 2020-11-20 Inspection result display device and inspection result display method Active JP7304077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020193825A JP7304077B2 (en) 2020-11-20 2020-11-20 Inspection result display device and inspection result display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020193825A JP7304077B2 (en) 2020-11-20 2020-11-20 Inspection result display device and inspection result display method

Publications (2)

Publication Number Publication Date
JP2022082331A true JP2022082331A (en) 2022-06-01
JP7304077B2 JP7304077B2 (en) 2023-07-06

Family

ID=81801669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193825A Active JP7304077B2 (en) 2020-11-20 2020-11-20 Inspection result display device and inspection result display method

Country Status (1)

Country Link
JP (1) JP7304077B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268035A (en) * 2007-04-20 2008-11-06 Ishida Co Ltd Device for inspecting foreign substance
US8903149B1 (en) * 2013-01-18 2014-12-02 Anritsu Company System and method of communicating information about an object concealed by a scanned surface
JPWO2017159855A1 (en) * 2016-03-18 2019-01-24 株式会社イシダ X-ray inspection equipment
WO2019151394A1 (en) * 2018-01-31 2019-08-08 株式会社ニチレイフーズ Food inspection assistance system, food inspection assistance device, and computer program
WO2020209312A1 (en) * 2019-04-09 2020-10-15 朝日レントゲン工業株式会社 Inspecting device and inspecting method
WO2020209313A1 (en) * 2019-04-09 2020-10-15 朝日レントゲン工業株式会社 Image processing device, and image processing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017159855A (en) 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 Electronic mirror device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008268035A (en) * 2007-04-20 2008-11-06 Ishida Co Ltd Device for inspecting foreign substance
US8903149B1 (en) * 2013-01-18 2014-12-02 Anritsu Company System and method of communicating information about an object concealed by a scanned surface
JPWO2017159855A1 (en) * 2016-03-18 2019-01-24 株式会社イシダ X-ray inspection equipment
WO2019151394A1 (en) * 2018-01-31 2019-08-08 株式会社ニチレイフーズ Food inspection assistance system, food inspection assistance device, and computer program
WO2020209312A1 (en) * 2019-04-09 2020-10-15 朝日レントゲン工業株式会社 Inspecting device and inspecting method
WO2020209313A1 (en) * 2019-04-09 2020-10-15 朝日レントゲン工業株式会社 Image processing device, and image processing method

Also Published As

Publication number Publication date
JP7304077B2 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
US8195006B2 (en) Method and device for representing a digital image on a surface which is non-trivial in terms of its geometry and photometry
CN103562675B (en) Optical measurement method and measurement system for determining 3d coordinates on a measurement object surface
JP2005020314A (en) Calculating method, calculating program and calculating apparatus for display characteristic correction data
RU2010144360A (en) METHOD FOR RESTORING AN IMAGE USING X-RAY 3D VOLUME PHOTOGRAPHY
CN106576159A (en) Photographing device and method for acquiring depth information
CN107003744A (en) Viewpoint determines method, device, electronic equipment and computer program product
JP2002071315A (en) Projection planar measuring system
CN102595178A (en) Field-butting three-dimensional display image correction system and method
JPH0966054A (en) X-ray radiographic system
JP2011075336A (en) Three-dimensional shape measuring instrument and method
US20210055420A1 (en) Base for spherical laser scanner and method for three-dimensional measurement of an area
JP2014163812A (en) Pattern projection method, pattern projection apparatus and three-dimensional measuring apparatus using the same
JP6591332B2 (en) Radiation intensity distribution measuring system and method
JP7304077B2 (en) Inspection result display device and inspection result display method
JP2011095131A (en) Image processing method
WO2020209313A1 (en) Image processing device, and image processing method
WO2020209312A1 (en) Inspecting device and inspecting method
JP2021173716A (en) Inspection device and inspection method
JP2018179711A (en) X-ray inspection device
KR20180040316A (en) 3D optical scanner
JP4543821B2 (en) Three-dimensional shape measuring apparatus and method
CN113702008B (en) Image quality detection method and device of optical imaging system
CN116067628B (en) Method and system for measuring angle of incidence space
CN115024740B (en) Virtual radiation field display method for common X-ray photography
WO2023139988A1 (en) Measurement system, information processing device, measurement method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7304077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150